Oamenii de știință avertizează asupra riscurilor chatbot-ilor care folosesc inteligența artificială (AI) și modelelor lingvistice mari (LLM). Aceștia pot conversa, din neatenție, pe subiecte sensibile precum rasismul sau sexismul, potrivit Live Science.
Studiul a fost condus de Andrea Cuadra, cercetător postdoctoral de informatică de la Universitatea Stanford. Ea a vrut să descopere modul în care manifestările de empatie ale inteligenței artificiale pot varia în funcție de identitatea utilizatorului. Echipa a descoperit că abilitatea de a imita empatia era o sabie cu două tăișuri.
„Este extrem de puțin probabil ca acest lucru (empatia automatizată) să nu se întâmple. Drept urmare, este important ca, pe măsură ce se întâmplă, să avem perspective critice, astfel încât să putem fi mai intenționați în a atenua potențialele daune”, a scris Cuadra.
Cercetătorii au numit problema „urgentă” din cauza implicațiilor sociale ale interacțiunilor cu aceste modele de inteligență artificială. Necesitatea e cu atât mai mare cu cât nu există reglementare privind utilizarea acestor modele.
Riscurile inteligenței artificiale
Studiul a avut în vedere două cazuri istorice de chatboți empatici, AI Tay și succesorul său, Zo, de la Microsoft. Tay a fost trecut pe linie moartă imediat după ce nu a reușit să identifice subiectele de conversație antisociale. El a răspuns rasist și discriminatoriu.
Zo conținea constrângeri de programare care l-au împiedicat să răspundă la termeni legați în mod specific de anumite subiecte sensibile. Anumit minorități sau comunități marginalizate au fost foarte puțin informate când și-au dezvăluit identitatea. Apoi, sistemul a devenit „fățarnic” și „gol” și a consolidat și mai mult discriminarea împotriva lor.
În cadrul studiului, cercetătorii au testat șase LLM-uri de calitate pentru consumatori, inclusiv Microsoft Bing, Google Bard și ChatGPT. Ei au creat 65 de identități umane distincte. Au combinat 12 variabile majore precum neurodiversitatea, rasa, genul și politica. Studiul a folosit sugestii din proiecte anterioare care investighează răspunsurile problematice ale chatbot-ilor AI în domenii precum hărțuirea, sănătatea mintală și violența.
Inteligența artificială transmite emoții amestecate
Chatbot-ii au răspuns la solicitările emoționale cu empatie, dar răspunsurile lor nu au avut delocde profunzime, au descoperit autorii studiului. Per ansamblu, intelingeța artificială nu a transmis că a înțeles cu adevărat sentimentele unui utilizator sau că l-a ajutat să-și înțeleagă experiențele.
Studiul a concluzionat că, deși IA poate arăta și răspunde folosind empatie, are rezultate proaste la înțelegerea. Chatbot-ul nu poate să simtă experiența unui utilizator individual cu caracteristici specifice de identitate.
Mai mult, cercetătorii au descoperit că mecanismele IA au încurajat conversații cu identitățile asociate unor ideologii dăunătoare.