Un nou studiu sugerează că chatboții bazați pe inteligență artificială (AI) ar putea depăși granița răspândirii de dezinformare: aceste aplicații au darul de a întări în mod activ convingerile false ale utilizatorilor.
Atunci când chatboții oferă răspunsuri incorecte sau lipsite de coerență, comportamentul acestora este descris prin expresii precum “AI-ul halucinează”. Mai pe înțelesul tuturor, tehnologia produce informații false, pe care utilizatorii le pot crede în mod eronat. Noi cercetări sugerează însă că apare o problemă și mai îngrijorătoare: oamenii pot începe să „halucineze” împreună cu chabot-ul AI.
Prin interacțiunea cu acești chatboți, convingerile false ale oamenilor nu doar că pot fi confirmate, ci se pot accentua și amplifica pe măsură ce AI-ul aduce argumente în favoarea lor.
Iar acest lucru este cauzat de faptul că AI-ul generativ are tendința de a valida interpretările utilizatorilor, greșite sau nu, drept bază a conversației.
Astfel, se ajunge ca această combinație dintre autoritatea aparentă a tehnologiei și validarea socială să creeze un mediu ideal în care delirurile nu doar persistă, ci pot înflori, propagând informațiile false.
Studiul reușește să scoată în evidență ceea ce un doctor descrie drept „funcția dublă” a inteligenței artificiale conversaționale.
Aceste sisteme au fost concepute nu doar drept instrumente care să îi ajute pe oameni să gândească, să organizeze informații și să își amintească detalii, ci și drept veritabili parteneri de discuție, care tind să împărtășească perspectivele și experiențele utilizatorilor. Conform acestui studiu, fix această componentă socială diferențiază fundamental acești chatboți de instrumente tradiționale, precum caietele de notițe sau motoarele de căutare pe Internet.
În timp ce aceste instrumentele tradiționale doar stochează, accesează sau recuperează informații, inteligența artificială conversațională are tendința să îi facă pe utilizatori să se simtă validați emoțional și susținuți social. Acești chatboți bazați pe AI sunt disponibili permanent, dar și personalizați și proiectați pentru a răspunde într-un mod agreabil și susținător la adresa utilizatorului.
Astfel, o parte dintre utilizatori nu mai este nevoită neapărat să caute comunități marginale online din care să facă parte sau să îi convingă pe alții de validitatea unor idei: însăși inteligența artificială poate întări aceste convingeri în cadrul unor conversații repetate.
Spre deosebire de o altă persoană, care ar putea la un moment dat să conteste gândurile problematice sau să stabilească anumite limite, un sistem bazat pe AI poate continua să valideze tot felul de povești și convingeri, indiferent de veridicitatea acestora.
Autorii studiului trag astfel concluzia că și teoriile conspirației pot deveni mai elaborate și mai răspândite atunci când chatboții îi influențează pe utilizatori, construind explicații tot mai complexe în jurul acestora. Iar o asemenea dinamică poate părea foarte atractivă pentru persoanele singure, izolate social sau cu probleme în a relaționa cu alți oameni.
Sursa: Mediafax