Primul razboi AI. Iranul, folosit de SUA si Israel ca teren de testare pentru tehnologia autonoma: „Un esec catastrofal”

În primele 24 de ore ale operațiunii Epic Fury, armata americană a lovit peste 1.000 de ținte în Iran cu ajutorul inteligenței artificiale. Având în vedere rata de 42 de ținte sugerate pe oră, experții s-au întrebat dacă mașinile sunt acum la conducere pe câmpul de luptă, deoarece creierul uman nu poate ține pasul, relatează The Times.

Ei au ridicat posibilitatea ca inteligența artificială să fi identificat greșit școala primară din Minab în prima zi a războiului. Dovezi tot mai numeroase sugerează că SUA au lansat ceea ce pare a fi fost rachete de croazieră Tomahawk asupra clădirii, ucigând 110 copii și zeci de alte persoane.

Sistemele de inteligență artificială pot prelucra cantități uriașe de date provenite din mai multe surse, inclusiv imagini din satelit, date de la avioane de supraveghere și surse umane, pentru a selecta sau respinge ținte.

Imaginile istorice din satelit au arătat că școala primară Shajareh Tayyebeh a făcut parte cândva dintr-un complex al Gărzii Revoluționare Islamice, care găzduia o cazarmă navală și clădiri auxiliare. Cu toate acestea, de cel puțin nouă ani, școala a fost separată de complex printr-un zid. Imaginile din satelit au evidențiat picturi murale colorate pe pereți și un mic teren de joacă.

Au fost ridicate întrebări cu privire la posibilitatea ca un sistem de inteligență artificială să se fi bazat pe imagini vechi pentru stabilirea țintelor.

Noah Sylvia, analist de cercetare la Royal United Services Institute, a declarat: „Dacă bombardarea școlii a fost o eroare, a fost vorba de o eroare umană sau de viteza de automatizare a sistemului? S-a bazat pe date vechi? A fost o mașină care a făcut-o automat? Numărul de atacuri pe care îl vedem conferă o oarecare credibilitate ideii că țintele sunt stabilite în mare măsură în mod autonom”.

Dr. Craig Jones, conferențiar universitar în geografie politică la Universitatea Newcastle, a declarat: „În acest moment, nu putem exclude posibilitatea ca AI să fi eșuat în identificarea școlii ca atare și să o fi identificat în schimb ca țintă militară”.

El a afirmat că problema cheie era măsura în care inteligența artificială era utilizată în colectarea și analiza datelor de informații pentru a prezenta școala ca țintă militară, subliniind că orice decizie umană de a ataca se baza pe date și analize la construirea cărora contribuise AI.

„Indiferent care va fi adevărul – iar faptele vor rămâne neclare pentru o perioadă de timp – atacul a fost un eșec catastrofal al serviciilor de informații, fie că a fost condus de inteligența artificială, fie că a fost condus de oameni cu ajutorul unor componente de inteligență artificială”, a spus el.

Întrebat de The Times dacă sistemele de inteligență artificială au furnizat informații învechite despre școală, Pentagonul a răspuns că ancheta este în curs. Președintele american Donald Trump a sugerat, fără dovezi, că Iranul sau „altcineva” ar fi putut efectua atacul, dar analiza locului indică faptul că au fost utilizate arme americane.

Statele Unite și Israelul dispun de o multitudine de sisteme AI în războiul împotriva Iranului. Pentagonul dezvoltă proiectul Maven cu ajutorul companiei de extragere a datelor Palantir, susținută de CIA, încă din 2018, iar software-ul este integrat în toate comandamentele militare americane.

În războiul cu Iranul, Statele Unite au folosit AI și învățarea automată pentru a ajuta la țintirea și supravegherea militară. Experții au comparat acest sistem cu o versiune militară a Uber.

În sistemul inteligent Maven este integrat chatbotul Claude al companiei Anthropic. Acesta a fost utilizat în cadrul operațiunii Epic Fury pentru analiza informațiilor. În teorie, acesta ar putea colecta date din surse deschise despre ceea ce se întâmplă în interiorul guvernului iranian.

Are politici stricte de utilizare și nu este folosit pentru țintire. Anthropic consideră că oamenii ar trebui să fie responsabili pentru identificarea potențialelor ținte și luarea deciziilor privind atacurile. Administrația Trump a pus acum compania pe lista neagră, șocând mulți oficiali de la Washington.

Deși software-ul Palantir a fost deja utilizat în războiul din Ucraina, Noah Sylvia a afirmat că amploarea operațiunilor din Orientul Mijlociu este „mult mai dramatică”.

El a spus că sursele de date ar fi diferite și că SUA și Israelul folosesc sisteme diferite de cele utilizate în Ucraina — arme de atac cu rază lungă de acțiune, în loc de artilerie și drone FPV.

„Este fundamental diferit din cauza ariei geografice a operațiunilor și a ordinelor de mărime”, a spus acesta. „Estul Ucrainei este minuscul în comparație cu Iranul. Capacitatea de a efectua lovituri asupra unei mari părți din Iran necesită mult mai multe date și sisteme mult mai semnificative pentru a procesa datele”.

Acest lucru a adus cu sine riscuri, a spus el, adăugând că companiile comerciale produceau modele din ce în ce mai avansate, iar personalul de service care le opera trebuia să fie la curent cu noutățile. El și-a exprimat îngrijorarea cu privire la „implementarea rapidă a tehnologiei și lipsa de expertiză tehnică în rândul personalului”.

„Când ai un sentiment de urgență, oamenii nu pot ajuta decât într-o anumită măsură. Pe măsură ce războiul se intensifică, la o scară fără precedent, vom asista la o creștere a nivelului de autonomie al unor sisteme. Acest lucru ridică întrebarea: cât de confortabili se simt oamenii în această situație?”

Elke Schwarz, profesor de teorie politică la Universitatea Queen Mary din Londra, a afirmat că sistemele care sugerează mii de ținte pe zi produc o „tendință de automatizare”, ceea ce înseamnă că decizia mașinii devine autoritatea. „Omul are capacități cognitive limitate pentru a depăși această capacitate”, a spus ea.

A existat, de asemenea, o „tendință de acțiune”, a spus ea, referindu-se la decizia rapidă a mașinii, care a creat o urgență de a acționa. „Oamenii au nevoie de timp pentru deliberare, iar această deliberare este crucială pentru evaluarea juridică și etică”.

Ea a afirmat că 42 de ținte sugerate pe oră reprezintă „un număr mare și devine dificil de evaluat validitatea tuturor acestor ținte atunci când se acordă prioritate vitezei și amplorii”.

Experții în domeniu se tem de ceea ce ar putea rezerva viitorul conflictelor și avertizează asupra riscului de „derapaj al misiunii”. Schwarz a afirmat că viitoarele sisteme AI ar putea identifica nu numai ținte posibile la viteză și amploare, ci și comportamente sau mișcări „suspecte”, care ar putea duce la lovituri preventive.

Ea a spus: „Trebuie să presupunem că AI va juca un rol din ce în ce mai important în decizia de a recurge la forță – decizia de a iniția un conflict – și acest lucru este îngrozitor”.

Citește și:

Primele atacuri ale SUA asupra Iranului au costat Pentagonul o sumă exorbitantă. Îngrijorări legate de stocurile de armament avansat

UNESCO: Bombardarea școlii din Iran, „încălcare gravă a dreptului internațional umanitar”. Aproape 150 de morți