Noii „maestri” in arta persuasiunii: cum va pot schimba parerea programele bazate pe inteligenta artificiala

Cele mai bune programe, de tip chatbot, cu inteligență artificială din lume excelează deja într-o abilitate pe care mulți politicieni și lideri de afaceri ar invidia-o: arta persuasiunii. Modelele AI de la OpenAI, Meta, xAI și Alibaba pot determina oamenii să-și schimbe opiniile politice după mai puțin de 10 minute de conversație, potrivit unui nou studiu, cel mai recent dintr-o serie de lucrări, care arată cum modelele lingvistice de mari dimensiuni (LLM) au devenit instrumente puternice de influență, scriu jurnaliștii Financial Times.

„Ceea ce face ca aceste modele AI să fie convingătoare este capacitatea lor de a genera cantități mari de dovezi relevante și de a le comunica într-un mod eficient și ușor de înțeles”, a declarat David Rand, profesor de științe informaționale și comunicare în marketing și management la Universitatea Cornell, care a participat la recentul studiu realizat de Institutul de Securitate AI din Marea Britanie.

Acest lucru vine după ce o cercetare separată a constatat, de asemenea, că modelele de IA pot deja influența mai bine mințile oamenilor decât chiar oamenii în anumite cazuri, ceea ce ridică îngrijorări cu privire la potențiala utilizare abuzivă a chatbot-urilor pentru dezinformare și schimbarea opiniei publice.

Această capacitate, combinată cu tendința LLM-urilor de a fi servile sau excesiv de laudative, ar putea avea efecte importante, pe măsură ce tot mai mulți utilizatori încorporează programele de tip chatbot în viața lor de zi cu zi și le tratează ca pe niște prieteni sau chiar terapeuți.

Această atașare față de programele de tip chatbot a fost observată odată cu lansarea modelului GPT-5 al OpenAI săptămâna trecută, unii utilizatori exprimându-și dezamăgirea față de schimbarea „personalității” sistemului în comparație cu predecesorul său.

Studiul AISI, publicat luna trecută în cadrul unei colaborări cu mai multe universități, printre care Oxford și Massachusetts Institute of Technology, a constatat că era relativ ușor să se transforme modele AI gata de utilizare, precum Llama 3 de la Meta, GPT-4, GPT-4.5, GPT-4o de la OpenAI, Grok 3 de la xAI și Qwen de la Alibaba, în mașini de persuasiune puternice.

Acest lucru a fost realizat prin modificarea modelelor folosind tehnici populare de antrenare a AI, cum ar fi recompensarea pentru rezultatele dorite.

Cercetătorii au personalizat, de asemenea, programele chatbot folosind un set de date de peste 50.000 de conversații pe teme politice controversate, cum ar fi finanțarea NHS (n.r. Serviciul Național de Sănătate al Marii Britanii) sau reforma sistemului de azil. Studiul a constatat că oamenii și-au schimbat rapid părerea, iar efectul a fost de lungă durată.

În urma conversațiilor despre politică, care au durat în medie nouă minute, GPT-4o a fost cu 41% mai persuasiv, iar GPT-4.5 cu 52% mai persuasiv decât atunci când oamenilor li s-au prezentat doar mesaje statice. Utilizatorii și-au păstrat opiniile schimbate între 36% și 42% din timp, o lună mai târziu.

Chatbot-ul AI au reușit să influențeze oamenii atunci când utilizatorii erau angajați în conversații în care aceste programe puteau împărtăși o mulțime de fapte și dovezi în sprijinul argumentelor lor.

De asemenea, mesajele personalizate în funcție de vârsta, sexul, afilierea politică sau opinia utilizatorului cu privire la subiectele politice, înainte de test, au fost considerate cu aproximativ 5% mai convingătoare decât mesajele care nu erau personalizate.

Acest lucru „ar putea fi în beneficiul actorilor fără scrupule care doresc, de exemplu, să promoveze ideologii politice sau religioase radicale sau să incite la tulburări politice în rândul adversarilor geopolitici”, potrivit cercetătorilor.

Studiul susține concluziile anterioare ale London School of Economics și ale altor universități din luna mai, care au constatat că modelele de AI erau mai eficiente în schimbarea opiniilor decât oamenii.

În cadrul cercetării, participanților li s-a prezentat un chestionar cu întrebări de la trivia, la previziuni privind evenimente viitoare, cum ar fi temperatura din New York, iar atât oamenii, cât și programele chatbot aveau sarcina de a-i convinge să aleagă anumite răspunsuri.

Cercetătorii au descoperit că, pe lângă faptul că erau mai eficiente în persuasiune, LLM-urile erau și mai bune decât oamenii în a induce în eroare participanții atunci când aveau sarcina de a promova răspunsuri incorecte.

Grupurile de top din domeniul AI se confruntă cu problema modului de abordare a acestei chestiuni. Dawn Bloxwich, director senior pentru dezvoltare responsabilă și inovare la Google DeepMind, a declarat că persuasiunea este un domeniu important și activ de cercetare pentru companie.

„Considerăm că este esențial să înțelegem procesul prin care AI convinge, astfel încât să putem crea măsuri de protecție mai bune, care să garanteze că modelele AI sunt cu adevărat utile și nu dăunătoare”, a afirmat Bloxwich.

Google DeepMind utilizează o serie de tehnici pentru a detecta influențarea nedorită, cum ar fi crearea de clasificatori care pot detecta limbajul manipulator sau utilizarea de tehnici avansate de instruire care recompensează comunicarea rațională.

OpenAI a declarat că ia în serios riscurile de persuasiune și că acestea contravin politicilor de utilizare ale companiei. De asemenea, nu permite campaniile politice și exclude conținutul politic atunci când își perfecționează modelele după instruire.

Potrivit cercetătorilor, capacitatea modelelor de AI de a influența opiniile oamenilor funcționează și în alte domenii, dincolo de politică.

Într-un studiu publicat de MIT și Cornell anul trecut, s-a demonstrat că LLM-urile sunt capabile să schimbe opiniile persoanelor care credeau în teorii conspiraționiste. Cercetări suplimentare au descoperit, de asemenea, că acestea pot reduce scepticismul față de schimbările climatice și vaccinul împotriva HPV.

Acest lucru s-a întâmplat după ce participanții au descris o teorie a conspirației, în care credeau, către GPT-4 al OpenAI, care apoi a demontat-o folosind dovezi și mesaje personalizate. Aceste conversații au redus cu 20% convingerile înrădăcinate ale participanților în teoriile conspirației, iar efectul a rămas valabil și două luni mai târziu.

Programele chatbot pot fi folosite și ca vânzători eficienți, a spus Rand de la Cornell. „Puteți obține efecte importante asupra atitudinii față de marcă și a intențiilor de cumpărare și puteți stimula anumite comportamente”, a adăugat el.

Această capacitate ar putea fi, de asemenea, un avantaj pentru companii precum OpenAI și Google, care doresc să monetizeze modelele lor de AI prin integrarea de reclame și funcții de cumpărături în chatboți.

Capacitatea LLM-urilor de a convinge ar putea, de asemenea, influența oamenii în moduri foarte subtile. Chatboții AI moștenesc prejudecățile din datele lor și din modul în care sunt antrenați.

Cercetătorii de la Universitatea Stanford au descoperit, în luna mai, că oamenii considerau că majoritatea modelelor lingvistice de vârf aveau o orientare politică de stânga. Acest lucru survine în contextul în care administrația Trump s-a angajat să împiedice companiile de AI „conștiente” să facă afaceri cu guvernul.

Conform cercetătorilor, măsurile de atenuare sunt importante, deoarece mulți cred că modelele de AI vor deveni, probabil, mai convingătoare odată cu apariția noii generații de modele lingvistice mai puternice. Dar cea mai eficientă modalitate de a transforma chatbot-urile AI în instrumente de manipulare pare să fie modificarea lor special în acest scop după antrenarea modelului, așa cum arată studiul AISI.

„Chiar și actorii cu resurse computationale limitate ar putea utiliza aceste tehnici pentru a antrena și implementa sisteme AI extrem de persuasive”, au avertizat cercetătorii AISI.