Chatboții bazați pe inteligență artificială (AI) sunt atât de înclinați să-și flateze și să-și valideze utilizatorii umani încât ajung până la a oferă sfaturi proaste, capabile să deterioreze relațiile interumane, potrivit unui studiu care explorează pericolele legate de inteligența artificială.
Studiul, publicat în cursul acestei săptămâni în revista Science, a testat nu mai puțin de 11 dintre cele mai populare sisteme de inteligență artificială și a constatat că toate au prezentat diferite grade diferite de lingușire a utilizatorului.
Problema nu este doar că acestea oferă sfaturi nepotrivite, ci și că oamenii au mai multă încredere în AI și preferă inteligența artificială atunci când chatboții le justifică convingerile.
„Acest lucru creează stimulente perverse pentru ca lingușirea să persiste: chiar caracteristica care provoacă daune stimulează și implicarea”, este concluzia studiului realizat de cercetătorii de la Universitatea Stanford.
Acest studiu a descoperit că o defecțiune tehnologică, deja legată de unele cazuri importante de comportament delirant și suicidar în rândul populațiilor vulnerabile, este, de asemenea, omniprezentă într-o gamă largă de interacțiuni ale oamenilor cu chatboții. Este suficient de subtilă încât aceștia s-ar putea să nu observe și reprezintă un pericol deosebit pentru tinerii care apelează la AI pentru multe dintre întrebările vieții, în timp ce creierul și normele lor sociale sunt încă în curs de dezvoltare.
Un experiment a comparat răspunsurile chatboților bazați pe AI furnizați de companii precum Anthropic, Google, Meta și OpenAI cu înțelepciunea comună a oamenilor de pe un forum de sfaturi popular de pe Reddit.
Studiul a constatat că, în medie, chatboții cu inteligență artificială au confirmat acțiunile și convingerile unui utilizator cu 49% mai des decât alți oameni, inclusiv în cazuri care implică înșelăciune, conduită ilegală sau iresponsabilă din punct de vedere social și alte comportamente dăunătoare.
Sursa: Mediafax