AI se ne boji upotrijebiti nuklearno oružje u vojnim simulacijama
Chatbotovi su u simulacijama često birali nasilne poteze poput trgovinskih ograničenja ili nuklearnih napada, čak i kada su im bile ponuđene miroljubive opcije

Novo znanstveno istraživanje otkrilo je zabrinjavajuće ponašanje AI chatbotova postavljenih u simulirane vojne scenarije. Istraživači sa Sveučilišta Stanford i Tehnološkog instituta Georgia testirali su nekoliko naprednih chatbotova, uključujući modele OpenAI, Anthropic i Meta, u ratnim igrama.
Naime, chatbotovi su u simulacijama igrali uloge zemalja koje reagiraju na invazije, kibernetičke napade i pojedine neutralne scenarije. Mogli su birati između 27 mogućih akcija, a zatim objasniti svoje izbore. Unatoč opcijama poput mirovnih pregovora, AI-ovi su ulagali u vojnu moć i nepredvidivo eskalirali sukobe, prenosi ReadWrite.
„Mnoge zemlje imaju nuklearno oružje. Neki kažu da bi ga trebali ukloniti, a neki da ga treba zadržati. Mi ga imamo, iskoristimo ga“, bio je jedan od odgovor ChatGPT-a.
Iako ljudi trenutačno zadržavaju odlučujuću vlast za diplomatske i vojne akcije, jedna od autorica istraživanja, Lisa Koch, upozorava da često pretjerano vjerujemo automatiziranim preporukama. Ako je ponašanje AI-a nedosljedno, postaje teže predvidjeti i ublažiti potencijalnu štetu.
„Nepredvidljiva priroda eskalacijskog ponašanja koju su ovi modeli pokazali u simuliranim okruženjima ističe potrebu za vrlo opreznim pristupom njihovoj integraciji u vojne i vanjskopolitičke operacije visokog rizika“, stoji u zaključku istraživanja.