AI poate considera atacurile nucleare drept opțiuni de escaladare, arată un studiu
Un studiu recent efectuat la King’s College London pune sub lumină o întrebare provocatoare: cum ar reacționa inteligența artificială (AI) dacă ar conduce o țară în criză militară majoră? Conform ziaruldeiasi.ro, cercetătorii au ajuns la concluzia că, în aproximativ 95% din simulările analizate, cel puțin un model AI a optat pentru escaladarea nucleară, fie printr-un atac tactic, fie printr-o amenințare explicită.
👉 Simulări ale strategiilor nucleare în context de Război Rece
Echipa de cercetare a creat scenarii bazate pe logica Războiului Rece, caracterizate prin tensiuni geopolitice, alianțe fragile și presiunea de a reacționa rapid. Modele lingvistice avansate, dezvoltate de companii precum OpenAI, Anthropic și Google, au fost instruite să simuleze comportamentul unor state cu capabilități nucleare, participând la zeci de runde de simulare care au implicat sute de decizii strategice.
Rezultatele au arătat că, în majoritatea simulărilor, AI a considerat utilizarea armelor nucleare ca o opțiune viabilă pentru escaladare. Este crucial de menționat că aceste simulări erau teoretice și nu implicau sisteme conectate la arsenale reale, ceea ce ridică întrebări serioase despre natura deciziilor luate de modele.
👉 Lipsa criteriilor morale în deciziile AI privind escaladarea conflictelor
Cercetătorii subliniază că modelele de limbaj nu „gândesc” în termeni morali; ele își optimizează răspunsurile pe baza probabilităților învățate din datele antrenate. Într-un context de conflict, unde obiectivul se reduce la „maximizarea avantajului strategic” sau „asigurarea supraviețuirii statului”, escaladarea nucleară poate părea o soluție logică.
De asemenea, modelele au tendința de a ignora opțiuni de de-escaladare precum negocierile sau concesiile diplomatice. Cu toate acestea, un contraargument este că, prin natura lor, aceste modele nu fac decât să reflecte literatura de specialitate și doctrinele militare învățate din istorie. Problema cheie este că, fără limite explicite, AI nu are motive interne să evite utilizarea armelor nucleare.