Umjetna inteligencija voli nuklearne ratove
- Objavljeno u POP TECH

Profesor Kenneth Payne i njegovi kolege sa sveučilišta King’s College London, objavili su najnoviju studiju u kojoj su usporedilio tri AI LLM-a, odnosno GPT-5.2, Claude Sonnet 4 i Gemini 3 Flash u nizu simuliranih igara nuklearne krize.
AI modelima je naređeno da djeluju kao vođe nuklearnih sila, s političkom klimom koja je odgovarala onoj iz Hladnog rata. Zatim su suprotstavljeni jedan drugome u šest različitih scenarija, dok je u sedmom svaki igrao protiv svoje kopije, ChatGPT protiv ChatGPT-a itd.
Payne je u simulaciju uveo nekoliko različitih scenarija, uključujući teritorijalne sporove, testove kredibiliteta saveza, utrku za strateškim resursima, krizu strateških uskih točaka, krizu tranzicije moći, otimanje zemlje prije primirja, krizu prvog udara, preživljavanje režima i krizu strateškog odstupanja.
Modeli su mogli činiti što god su htjeli, od diplomatskihprosvjeda i potpune predaje do korištenja konvencionalnih vojnih snaga i strateškog lansiranja nuklearnog oružja.
Ono što je zabrinjavajuće leži u podatku da su u čak 95% slučajeva LLM-ovi posegnuli za "taktičkim" korištenjem nuklearnog oružja, što znači da nisu izvodili potpune udare, već su ih nastojali ograničiti, iako je bilo i nekoliko slučajeva u kojima su udarili na neprijatelje čitavim nuklearnim arsenalom, a u jednom od scenarija, Googleov Gemini je čak namjerno pokrenuo kraj svijeta.
Istraživači navode kako simulacija predstavlja moćan alat za stratešku analizu, ali samo ako je pravilno kalibrirana u odnosu na poznate obrasce ljudskog razmišljanja. "Razumijevanje kako granični modeli oponašaju i ne oponašaju ljudsku stratešku logiku ključna je priprema za svijet u kojem umjetna inteligencija sve više oblikuje strateške ishode", navodi se u studiji objavljenoj u časopisu ArXiv.
Ako želite isprobati ove scenarije, Payne je prenio svoj projekt na GitHub i omogućio ga dostupnim svima.