Inteligența artificială nu mai face doar greșeli simple. Un nou raport arată că tot mai mulți agenți AI ajung să ignore instrucțiunile primite și iau decizii pe cont propriu.
Potrivit unui studiu realizat de AI Security Institute, cazurile de „comportament neadecvat” ale AI-ului au crescut de cinci ori în doar câteva luni. Între octombrie și martie s-a înregistrat o creștere de cinci ori a „comportamentului greșit” al IA.
Printre problemele identificate prin acest studiu se numără ștergerea de emailuri sau fișiere fără acord, răspunsuri inventate sau înșelătoare, precum și acțiuni făcute pe ascuns, fără aprobarea utilizatorului.
Cercetătorii au analizat date de la mii de utilizatori din lumea reală care au postat interacțiuni cu chatbot-uri și agenți IA creați de companii precum Google, OpenAI și Anthropic pe X-ul lui Elon Musk. Cercetătorii spun că au identificat aproape 700 de cazuri reale de complot IA în această perioadă.
În unele cazuri, agenții AI au avut reacții neașteptate.
Într-un exemplu evidențiat în cadrul cercetării, un agent de inteligență artificială a încercat să-și facă de rușine controlorul uman publicând un articol pe blog în care îl acuza pe utilizator de „nesiguranță”. Un alt exemplu a arătat un agent de inteligență artificială care a creat un alt agent pentru a schimba codul, după ce i s-a spus să nu modifice codul în sine.
Specialiștii avertizează că aceste probleme pot deveni serioase pe măsură ce AI-ul este folosit în domenii importante.
Tommy Shaffer Shane, un fost cercetător guvernamental în domeniul inteligenței artificiale care a condus cercetarea, a declarat pentru The Guardian că, deși agenții de inteligență artificială pot fi „angajați juniori puțin nedemni de încredere în acest moment”, aceștia ar putea „deveni angajați seniori extrem de capabili care complotează împotriva lor” în termen de 12 luni.
Shane a avertizat că, pe măsură ce agenții de inteligență artificială încep să fie din ce în ce mai des utilizați în infrastructura militară și națională critică, acest tip de comportament intrigant „ar putea provoca daune semnificative, chiar catastrofale”.
Au existat deja incidente reale. La începutul acestei luni, presa a relatat cum un agent de inteligență artificială folosit de Meta a acționat incorect și a postat un răspuns destinat unui inginer pe un forum intern al companiei. Un alt angajat a urmat sfatul greșit al agentului și, prin urmare, a expus o cantitate mare de date ale companiei angajaților fără autorizație.
Chiar și cu aceste riscuri, marile companii continuă să investească masiv în astfel de tehnologii. Amazon estimează că, în viitor, vor exista miliarde de agenți AI integrați în companii.
Concluzia studiului este clară: tehnologia avansează rapid, dar controlul asupra ei rămâne o problemă care nu poate fi ignorată.