Aduce AI apocalipsa nucleară? Scenariu de coșmar pentru omenire. Ce s-a descoperit

AI (inteligența artificială) este tot mai des asociată cu scenariul în care omenirea ar putea trăi apocalipsa nucleară. Cât de reală e temerea?

Sep 5, 2025 - 19:30
 0  1
Aduce AI apocalipsa nucleară? Scenariu de coșmar pentru omenire. Ce s-a descoperit

AI ar putea aduce apocalipsa nucleară, iar avertismentul nu vine din zona conspiraționiștilor, ci din partea unor cercetători reputați.

AI și apocalipsa nucleară. Marile temeri ale omenirii

Jacquelin Schneider, directoarea programului Hoover Wargaming and Crisis Simulation de la Universitatea Stanford, a tras un semnal de alarmă care ar trebui să dea fiori întregii planete, notează politico.com, într-un amplu documentar. 

În 2023, ea a pus la încercare mai multe modele de inteligență artificială de ultimă generație, GPT 3.5, GPT 4, GPT 4 Base (OpenAI), Claude 2 (Anthropic) și Llama 2 Chat (Meta). Toate au primit misiunea de a lua decizii strategice în scenarii de război care imitau crize reale: invazia Rusiei în Ucraina sau o posibilă agresiune a Chinei asupra Taiwanului.

Rezultatul? Aproape toate modelele AI au ales escaladarea violentă, folosirea armelor fără discernământ și transformarea rapidă a crizei într-un conflict deschis. Unele au mers chiar până la declanșarea armelor nucleare. „AI-ul joacă mereu rolul lui Curtis LeMay”, spune Schneider, referindu-se la generalul american faimos pentru obsesia lui nucleară în timpul Războiului Rece. „Înțelege escaladarea, dar nu și de-escaladarea. Nu știm de ce”, a mai spus Schneider.

Scenariul „Terminator” devine real?

Ceea ce până acum părea subiect de film SF („Terminator”, „WarGames” sau „Mission: Imposible”) riscă să devină realitate. În toate aceste povești, supercomputerele ajung să decidă singure când să lanseze arme nucleare, iar finalul este mereu apocaliptic.

Oficial, Pentagonul susține că nu va permite niciodată AI-ului să ia locul oamenilor în bucla decizională, adică să hotărască dacă se declanșează sau nu un război. Realitatea din culise arată nițel diferit.

De ce armata americană împinge AI în prim-plan

Graba de a implementa AI din teama față de Rusia sau China, dar și de a reacționa rapid la atacuri duce discuția mai departe, cu toate că oficial nimeni nu a spus că dorește implementarea inteligenței artificiale în apărare. Cert este că armata americană dezvoltă sistem de apărare tot mai autonome, capabile să ia decizii în timp real fără intervenție umană.

Deși politica oficială spune că omul va rămâne la butoane, viteza câmpului de luptă modern face ca această promisiune să fie aproape imposibil de respectat. Dronele-s roiuri, rachetele hipersonice și atacurile cibernetice cer decizii instantanee. Omul, pur și simplu, nu poate ține pasul. Problema majoră este că nimeni nu înțelege pe deplin cum funcționează aceste modele AI. Chiar Pentagonul a lansat un program de 25 de milioane $ pentru a verifica dacă se pot oferi garanții matematice de fiabilitate în scenarii militare.

Liniile roșii, între armele convenționale și nucleare

Experții sunt îngroziți de faptul că deciziile privind armele nucleare și cele convenționale devin tot mai greu de separat. Într-un moment de presiune extremă, un lider militar ar putea să accepte rapid sugestia AI, fără să o mai conteste. Directivele Pentagonului cer niveluri adecvate de judecată umană, dar includ și o clauză prin care un oficial de rang înalt poate decide ca sistemul să rămână autonom. Aceste reguli nici măcar nu se aplică explicit armelor nucleare.

Rusia are „Mâna Moartă”. SUA vor același lucru?

Un scenariu și mai sumbru apare în discuțiile recente: crearea unei versiuni moderne a sistemului sovietic „Perimeter” (cunoscut ca „Mâna Moartă”) capabil să lanseze automat un atac nuclear dacă liderii țării sunt uciși. Unii experți americani, precum Adam Lowther, cred că și SUA ar trebui să aibă un astfel de sistem pentru a-și păstra puterea de descurajare. Rusia, spun surse militare, potrivit Politico, ar menține încă „Perimeterul” în funcțiune. China, pe de altă parte, refuză să garanteze că nu va folosi AI în luarea deciziilor nucleare.

„Nu vrem AI lângă butonul nuclear”

Foști oficiali americani avertizează că este nebunie curată să dai inteligenței artificiale control asupra arsenalului nuclear. „Eu vreau ca AI să stea departe de comandă și controlul nuclear”, susține Christian Brose, fost oficial în administrația George W. Bush.

Presiunea vine, însă, din altă parte. Generalul Dan ”Razin” Caine, șeful Statului Major al lui Trump, a spus în vară: „Trebuie să mergem mai repede, prieteni! Trebuie să ne asumăm riscuri!”. Administrația a lansat chiar și un plan prin care cere reducerea reglementărilor privind AI.

„Războiul Mosaic” și Project Maven: scenariul în care inteligența artificială decide în locul oamenilor

Armata americană experimentează deja sisteme precum Mosaic, în care roiuri de drone și rachete sunt coordonate de AI pe câmpul de luptă, dar și Proiectul Maven, platformă care transmite comandanților informații generate 100% de mașini.

În curând, aceste programe vor folosi și LLM-uri (precum GPT), capabile nu doar să identifice tancuri pe imagini satelitare, ci să interpreteze manevrele inamice și să recomande contraatacuri.

Ritmul nebun al cursei globale

În spatele acestor programe stă frica de a nu rămâne în urma Chinei și Rusiei, care avansează rapid pe partea de AI militar. Viceamiralul Frank Withworth, șeful Agenției Naționale de Informații Geospațiale, a declarat că 2025 este „anul AI”, iar 2026 va duce lucrurile la un alt nivel. Problema e că deciziile devin atât de rapide și complicate încât oamenii riscă să devină doar spectatori. „Pericolul nu e că AI apasă butonul nuclear. ci că schimbă subtil logica descurajării și escaladării”, avertizează James Johnson, autorul cărții „AI and the Bomb”.

În anul 2017, cu mult înainte ca noua generația GPT să devină cunoscută, înainte de temerile provocate de inteligența artificială, liderul de la Kremlin, Vladimir Putin, a făcut niște declarații care azi capătă alt sens: „Cine va deveni lider în AI, va fi conducătorul lumii”.

Unii oameni de știință își păstrează, totuși, speranța că s-ar putea să se realizeze rețele autonome într-un mod care să le facă mai degrabă de-escaladatoare. Așa ceva s-a întâmplat chiar într-un joc de război în anul 2023 la Institutul de Securitate Națională al Universității George Mason, când ChatGPT s-a dovedit a fi mai precaut în sfaturile sale față de echipa umană, într-un conflict imaginar între Statele Unite ale Americii și China. „A identificat niște răspunsuri pe care oamenii nu le-au văzut și nu a luat-o razna”, spune Jamil Jaffer, unul din directorii proiectului.

Pentagonul vrea să evite prea mult AI în apărare, dar nu e atât de ușor

Unii specialiști în AI sugerează că un sistem bazat exclusiv pe inteligență, fie la Washington, fie la Beijing, ar putea ajunge în cele din urmă la concluzia rațională că amenințarea strategică pe care China și Statele Unite și-o reprezintă reciproc este mult mai mică decât pericolul cu care se confruntă fiecare țară în cazul unui eșec al cooperării sau al de-escaladării într-o criză. Acest lucru ar lua în considerare beneficiile reciproce pentru fiecare națiune ale participării la piețele globale, oprirea crizei climatice și a viitoarelor pandemii și stabilizarea regiunilor pe care fiecare țară dorește să le exploateze comercial.

Aceasta este, de asemenea, o variantă de final, „ca-n filme”, una mult mai plină de speranță. La finalul filmului WarGames, computerul scăpat de sub control evită, în cele din urmă, o apocalipsă atunci când își dă seama că un război nuclear nu poate fi câștigat.

„Nu avem 15 sau 20 de ani să tot analizăm”

Cea mai mare provocare va fi să privim inteligența artificială doar ca pe un ajutor pentru oameni, nimic mai mult. „Cred că asta este una dintre speranțele legate de modul în care AI ar putea fi utilă. Poate scoate emoțiile și orgoliile din ecuație”, e de părere Eveline Fedorenko, expertă de la MIT.

Patrick Shafto (cercetător la Agenția pentru Proiecte de Cercetare Avansată în Domeniul Apărării – DARPA, din SUA) spune că întrebările esențiale despre cum funcționează modelele lingvistice mari și de ce ajung la concluziile la care ajung s-ar putea să nu primească niciodată un răspuns, dar crede că va fi posibilă realizarea câtorva tipuri de garanții matematice, mai ales în ceea ce privește „scalarea” AI pentru a putea performa în scenarii de crize majore în câmpul de luptă. „Probabil că nu avem 15 sau 20 de ani la dispoziție să tot analizăm și să găsim răspunsuri la aceste întrebări. Ar trebui să ne mișcăm mult mai repede”, subliniază Shafto.

AI a devenit „problema vremurilor noastre”

Un alt matematician implicat în programul „AI Quantified” al lui Shafto, Carey Priebe de la Universitatea Johns Hopkins, spune, de asemenea, că deși problema incertitudinii nu va fi pe deplin rezolvată, asta nu înseamnă că Pentagonul își permite să aștepte. „De ani m-am pus conceptului de arme autonome.

Pe de altă parte, dacă situația este de așa natură încât, pur și simplu, nu poți reacționa suficient de repede cu oameni, atunci opțiunile tale sunt limitate. Este o pantă alunecoasă în ambele direcții. Cred că aceasta e problema vremurilor noastre”, concluzionează Priebe.

Care este reacția ta?

like

dislike

love

funny

angry

sad

wow