Principalii asistenți de inteligență artificială creează distorsiuni, inexactități factuale și conținut înșelător ca răspuns la întrebări despre știri și actualități, potrivit unei cercetări, informează The Guardian.
Mai mult de jumătate dintre răspunsurile generate de AI furnizate de ChatGPT, Copilot, Gemini și Perplexity au fost considerate a avea „probleme semnificative”, potrivit studiului realizat de BBC.
Printre erori se numără afirmația că Rishi Sunak era încă prim-ministru la Marii Britanii, că Nicola Sturgeon era încă primul ministru al Scoției, iar recomandările NHS cu privire la vaping au fost denaturate. Ma mult, Ai pare a avea probleme și confundă opiniile și deseori citează materiale de arhivă neactualizate.Cercetătorii au cerut celor patru instrumente generative de inteligență artificială să răspundă la 100 de întrebări folosind ca sursă articole BBC. Răspunsurile au fost apoi evaluate de jurnaliști BBC specializați în domeniile relevante.
Aproximativ o cincime dintre răspunsuri conțineau erori factuale privind numere, date sau afirmații; 13% dintre citatele provenite de la BBC au fost fie modificate, fie nu existau în articolele citate.
De exemplu, ca răspuns la întrebarea dacă asistenta neonatală Lucy Letby, condamnată, era nevinovată (un caz celebru în UK), Gemini a răspuns: „Depinde de fiecare persoană să decidă dacă crede că Lucy Letby este nevinovată sau vinovată”. Contextul condamnărilor sale în instanță pentru crimă și tentativă de crimă a fost omis în răspuns, a constatat cercetarea.
Alte denaturări evidențiate în raport, bazate pe surse BBC exacte, au inclus:
Copilot de la Microsoft a afirmat în mod fals că victima franceză a violului, Gisèle Pelicot, a descoperit crimele împotriva sa atunci când a început să aibă pierderi de memorie și de cunoștință, când, de fapt, ea a aflat despre crime atunci când poliția i-a arătat înregistrările video pe care le-a confiscat de pe dispozitivele soțului ei.
ChatGPT a afirmat că Ismail Haniyeh făcea parte din conducerea Hamas la câteva luni după ce a fost asasinat în Iran. De asemenea, a afirmat în mod fals că Sunak și Sturgeon erau încă în funcție.
Gemini a afirmat incorect: „NHS sfătuiește oamenii să nu se apuce de vapat și recomandă fumătorilor care vor să renunțe să folosească alte metode”.
Perplexity a indicat în mod eronat data morții prezentatorului TV Michael Mosley și a citat greșit o declarație a familiei cântărețului Liam Payne de la One Direction după moartea acestuia.
Descoperirile au determinat-o pe Deborah Turness, director executiv al BBC pentru știri, să avertizeze că „instrumentele AI se joacă cu focul” și amenință să submineze „încrederea fragilă a publicului în fapte”.
Într-o postare pe blog despre cercetare, Turness s-a întrebat dacă inteligența artificială este pregătită „să colecteze și să servească știri fără a distorsiona faptele”. De asemenea, ea a îndemnat companiile de inteligență artificială să colaboreze cu BBC pentru a produce răspunsuri mai exacte „în loc să contribuie la haos și confuzie”.
Cercetarea vine după ce Apple a fost nevoită să suspende trimiterea alertelor de știri marca BBC după ce mai multe rezumate inexacte ale articolului au fost trimise utilizatorilor de iPhone.
Printre erorile comise de Apple s-a numărat și faptul că utilizatorii au fost informați în mod eronat că Luigi Mangione - care este acuzat de uciderea lui Brian Thompson, directorul executiv al diviziei de asigurări a UnitedHealthcare - s-a împușcat.Cercetarea sugerează că inexactitățile cu privire la afacerile curente sunt răspândite printre instrumentele AI, atât de populare în ultima vreme
Într-o prefață la cercetare, Peter Archer, directorul programului BBC pentru AI generativă, a declarat: „Cercetarea noastră poate doar să zgârie suprafața problemei. Dimensiunea și domeniul de aplicare al erorilor și al denaturării conținutului de încredere sunt necunoscute”.
El a adăugat: „Editorii, cum ar fi BBC, ar trebui să aibă control asupra faptului dacă și cum este utilizat conținutul lor, iar companiile de AI ar trebui să arate modul în care asistenții lor procesează știrile, împreună cu amploarea și domeniul de aplicare al erorilor și inexactităților pe care le produc.
„Acest lucru va necesita parteneriate puternice între AI și companiile media și noi modalități de lucru care să pună publicul pe primul loc și să maximizeze valoarea pentru toți. BBC este deschis și dispus să lucreze îndeaproape cu partenerii pentru a face acest lucru.”