Cum poate influența inteligența artificială riscul unui conflict internațional nuclear? Experții think tank-ului american RAND Corporation încearcă, într-un raport, să ofere un răspuns acestui scenariu apocaliptic.
Cercetătorii RAND au organizat o serie de workshop-uri la care au luat parte experți în securitate nucleară și în domeniul inteligenței artificiale.
Atelierele au vizat modul în care programele de inteligență artificială ar putea influența până în 2040 securitatea nucleară la nivel mondial.
Frica principală a cercetătorilor? Aceea că inserarea unor programe de inteligență în infrastructura balistică ar putea, în cazul unei defecțiuni sau al unei „acțiuni cu premeditare”, să provoace un război nuclear la scară internațională.
Chiar dacă în perioada Războiului Rece astfel de scenarii erau considerate „decoruri” de imaginație science fiction, „pericolul ar putea fi, în curând, mai mult știință, decât ficțiune”, se arată într-un raport al RAND Corporation.
„Progresele uluitoare în domeniul inteligenței artificiale au creat mașinării care pot învăța și gândi, provocând o nouă cursă a armelor printre cele mai importante puteri nucleare ale lumii. Nu este vorba despre roboții ucigași dintr-un blockbuster de Hollywood, ci despre cum computerele ar putea încălca regulile de bază ale descurajării nucleare și despre cum ar putea manipula oamenii să ia decizii devastatoare”, scrie în preambulul documentului.
Experții avertizează că o anumită logică „paranoică” caracteristică anilor Războiului Rece nu a dispărut din relațiile internaționale pe segment militar. În sensul că, pe măsură ce tehnologia nucleară avansează, țările care dețin arsenale de focoase își vor suspecta constant inamicii că sunt cu un pas înaintea lor. Acest lucru ar putea declanșa un cerc vicios în care toate puterile nucleare se înarmează „până la absurd”, căutând să fie mereu pregătite de un conflict de o asemenea factură.
„Sistemele autonome nu au nevoie să ucidă oameni pentru a submina stabilitatea sau pentru a declanșa un război catastrofal”, atrage atenția Edward Geist, cercetător al RAND Corporation.
„A greși este uman, la urma urmei. Dar o mașinărie nu face greșeli, nu simte presiunea unei conștiințe și nu are prejudecăți”, se mai arată în raportul RAND.
Anul trecut, Elon Musk avertiza că ambițiile marilor puteri de a domina zona inteligenţei artificiale ar putea cauza un nou război mondial.
Musk declara că, daca va fi nevoie, statele autoritate pot obţine cu forţa sistemele de inteligență artificală dezvoltate de companiile private, fără ca măcar să deruleze propriile cercetări în acest domeniu.
În luna august 2017, 115 alte personalităţi ale industriei roboticii şi inteligenţei artificiale au cerut Naţiunilor Unite, prin intermediul unei scrisori, să ia măsuri ferme împotriva pericolului armelor autonome.
„Armele autonome letale riscă să devină a treia revoluţie în război. Odată dezvoltate, conflictele armate vor avea loc la o scară fără precedent şi mai repede decât pot înţelege oamenii”, avertiza scrisoarea.
Pot fi arme ale terorii, arme care teroriează şi arme care pot fi folosite de terorişti împotriva oamenilor nevinovaţi, care pot fi piratate pentru a fi folosite într-un mod nedorit, se mai menționa în scrisoare.