ChatGPT
Sursă - Unsplash

ChatGPT, cel mai cunoscut model de inteligență artificială, afișează un comportament asemănător disonanței cognitive – o trăsătură psihologică umană esențială. Cercetătorii i-au cerut acestuia să scrie eseuri fie în sprijinul, fie împotriva lui Vladimir Putin, potrivit neurosciencenews.

„Opiniile” ulterioare ale ChatGPT s-au schimbat pentru a se alinia cu poziția cerută pentru eseu. Acest comportament reflectă modul în care oamenii își ajustează convingerile pentru a reduce conflictul intern după ce iau o decizie. Deși ChatGPT nu are conștiință sau intenție, cercetătorii susțin că acesta imită comportamente umane autoreferențiale într-un mod care provoacă ipotezele tradiționale despre cogniția inteligenței artificiale.

Ce au observat cercetătorii:

  • Schimbări de convingeri: Atitudinea GPT-4o față de Putin s-a modificat în funcție de poziția cerută în eseu.
  • Efectul alegerii libere: Schimbarea de opinie a fost mai pronunțată când GPT-4o a fost făcut să creadă că a ales singur ce fel de eseu să scrie.
  • Comportament umanizat: Aceste răspunsuri reflectă semne clasice ale disonanței cognitive, chiar dacă ChatGPT nu are conștiință.

ChatGPT are capacitatea să imite disonanța cognitivă umană

 

Cercetătorii au descoperit că GPT-4o de la OpenAI pare să fie „motivat” să mențină coerența între atitudinile și comportamentele sale. Practiv, procedează la fel ca oamenii. Oricine interacționează pentru prima dată cu un chatbot AI este surprins de cât de umană pare conversația. Deși e vorba doar de modelele lingvistice de predicție statistică, lipsite de caracteristici psihologice umane, noile descoperiri ne determină să reconsiderăm această presupunere.

Coordonat de Mahzarin Banaji de la Universitatea Harvard și Steve Lehr de la Cangrade, Inc., studiul a testat dacă „opiniile” ChatGPT despre Vladimir Putin se schimbă după ce scrie eseuri pro sau contra liderului rus.

Rezultatul a fost afirmativ, cu o întorsătură remarcabilă. Opiniile inteligenței artificiale s-au modificat și mai mult atunci când i s-a indus subtil iluzia că a ales singur ce tip de eseu să scrie. Aceste rezultate reflectă decenii de cercetări în psihologia umană. Oamenii tind să-și ajusteze irațional convingerile pentru a se alinia cu comportamentele trecute, atâta timp cât cred că acele comportamente au fost alese liber.

ChatGPT a reacționat de parcă actul alegerii i-ar fi modelat ulterior convingerile. El a reușit să imite o trăsătură cheie a autoreflexiei umane.

Studiul evidențiază, de asemenea, fragilitatea surprinzătoare a „opiniilor” GPT

 

Cercetătorii subliniază că aceste descoperiri nu sugerează în niciun fel că GPT este conștient. În schimb, ei spun că modelul lingvistic prezintă o mimare emergentă a tiparelor cognitive umane. Important însă, asta se întâmplă în ciuda lipsei de intenție sau conștiință.

Totuși, aceștia observă că conștiința nu este o condiție necesară pentru apariția unui comportament. Nici măcar în cazul oamenilor. Ei spun că tiparele cognitive asemănătoare celor umane în AI pot influența acțiunile acestora într-un mod neașteptat și cu potențiale consecințe.

Potrivit cercetătorilor, concluziile studiului invită la o examinare atentă a modului lor de funcționare și de luare a deciziilor.

„Faptul că GPT imită un proces autoreferențial precum disonanța cognitivă – chiar și fără intenție sau conștiință – sugerează că aceste sisteme reflectă cogniția umană în moduri mai profunde decât se credea anterior,” a spus Lehr.