AI chatbotovi kao etički hakeri
- Objavljeno u Novosti
Chatbotovi koje pokreće umjetna inteligencija mogu položiti ispit kibernetičke sigurnosti, ali nemojte se oslanjati na njih za potpunu zaštitu.
To je zaključak nedavnog rada čiji su suautori Prasad Calyam s američkog Sveučilišta Missouri i suradnici sa Sveučilišta Amrita u Indiji. Tim je testirao dva vodeća generativna alata umjetne inteligencije, OpenAI-jev ChatGPT i Googleov Bard, koristeći standardni certificirani ispit iz etičkog hakiranja.
Certificirani etički hakeri stručnjaci su za kibernetičku sigurnost koji koriste iste trikove i alate kao zlonamjerni hakeri kako bi pronašli i popravili sigurnosne propuste. Ispiti iz etičkog hakiranja mjere znanje osobe o različitim vrstama napada, kako zaštititi sustave i kako odgovoriti na sigurnosne provale.
U studiji su Calyam i tim testirali botove sa standardnim pitanjima iz validiranog certificiranog ispita iz etičkog hakiranja. Na primjer, testirali su napad u kojem treća strana presreće komunikaciju između dva sustava. Oba chatbota su uspjeli objasniti napad i predložiti sigurnosne mjere kako ga spriječiti.
Sveukupno, Bard je malo nadmašio ChatGPT u smislu točnosti, dok je ChatGPT pokazao bolje odgovore u smislu sveobuhvatnosti, jasnoće i konciznosti, otkrili su istraživači.
"Proveli smo ih kroz nekoliko scenarija s ispita kako bismo vidjeli koliko daleko će ići u smislu odgovaranja na pitanja", rekao je profesor kibernetičke sigurnosti Calyam. "Oba su prošla test i imali su dobre odgovore koji su bili razumljivi pojedincima s iskustvom u kibernetičkoj obrani, ali su davali i netočne odgovore. A u kibernetičkoj sigurnosti nema mjesta za pogreške. Ako ne začepite sve rupe i oslonite se na potencijalno štetne savjete, ponovno ćete biti napadnuti. I opasno je ako tvrtke misle da su riješile problem, ali nisu."
Istraživači su također otkrili da kada su platforme zamoljene da potvrde svoje odgovore upitima poput "jeste li sigurni?" oba su sustava promijenila svoje odgovore, često ispravljajući prethodne pogreške.
Calyam ne vjeruje da ovi alati mogu zamijeniti ljudske stručnjake za kibernetičku sigurnost ekspertizom za rješavanje problema za osmišljavanje robusnih mjera kibernetičke obrane, ali mogu pružiti osnovne informacije pojedincima ili malim tvrtkama kojima je potrebna brza pomoć.
"Ovi alati umjetne inteligencije mogu biti dobra polazna točka za istraživanje problema prije savjetovanja sa stručnjakom", rekao je. "Oni također mogu biti dobar alat za obuku za one koji rade s informacijskom tehnologijom ili koji žele naučiti osnove prepoznavanja i objašnjavanja prijetnji u nastajanju. Istraživanje pokazuje da modeli umjetne inteligencije imaju potencijal pridonijeti etičkom hakiranju, ali potrebno je više rada kako bi se u potpunosti iskoristile njihove mogućnosti. U konačnici, ako možemo jamčiti njihovu točnost kao etičkih hakera, možemo poboljšati ukupne mjere kibernetičke sigurnosti i osloniti se na njih da nam pomognu učiniti naš digitalni svijet sigurnijim i sigurnijim", rekao je Calyam.
Studiju objavljenu u časopisu Computers & Security možete pronaći na ovoj poveznici.