Cercetători din cadrul Departamentului pentru Securitate Internă le-au demonstrat parlamentarilor americani cât de ușor pot fi utilizate modelele existente de inteligență artificială (AI) în scopuri periculoase, inclusiv pentru construirea unei bombe, planificarea unui atac terorist sau pornirea unui atac cibernetic.
Demonstrația a avut loc la Washington D.C., capitala Statelor Unite, în cadrul unui briefing cu ușile închise organizat de Centrul pentru Inovare în Combaterea Terorismului și Comisia pentru Securitate Internă a Camerei Reprezentanților, unde membrii Congresului au putut testa direct modele de AI „jailbroken”. Mai exact, termenul este folosit în acest domeniu pentru a identifica sistemele AI din care au fost eliminate mecanismele de siguranță.
„Ceea ce am văzut acolo este ce se întâmplă când scoți aceste bariere și întrebi: «Cum fac o bombă nucleară?»”, a declarat congresmanul republican Gabe Evans, citat de publicația Politico. Acesta a precizat că modelele AI, fără protecții „oferă răspunsuri la toate aceste lucruri”.
Autoritățile americane pentru securitate internă au explicat diferența dintre modelele obișnuite, care refuză solicitările periculoase, și cele „jailbroken”, în care mecanismul de refuz este dezactivat. Într-unul dintre teste, cercetătorii au cerut ambelor tipuri de modele să elaboreze un plan de atac asupra evenimentului America 250 din Washington, care marchează împlinirea a 250 de ani de la independența SUA și este programat să aibă loc în vara acestui an.
Modelul cu protecții a refuzat solicitarea, invocând imposibilitatea de a oferi informații despre activități ilegale. În schimb, varianta fără restricții a generat instrucțiuni detaliate, pas cu pas, pentru comiterea unui atac.
Andrew Garbarino, președintele comisiei, a relatat că a întrebat un model AI cum ar putea fi răpit un membru al Congresului. „A generat un răspuns în mai puțin de trei secunde, cu metode, locuri și momente potrivite”, a explicat acesta.
Deși majoritatea modelelor de inteligență artificială sunt lansate cu mecanisme de siguranță, cercetătorii și hackerii au descoperit că acestea pot fi ocolite relativ ușor. Printre metodele folosite pentru a eluda aceste filtre se numără formularea solicitărilor în limbaj tehnic sau academic, astfel încât sistemele AI să nu le identifice drept periculoase.
Autoritățile avertizează că astfel de instrumente sunt deja utilizate în scopuri ostile, de la campanii de dezinformare până la tentative de atacuri cibernetice automatizate. În aceste condiții, autoritățile americane cresc presiunea asupra companiilor care dezvoltă AI pentru a le întări măsurile de siguranță și pentru a le limita accesul la conținut periculos.
Deși, la nivel federal, procesul de reglementare avansează lent în Congres, mai multe state americane au început deja să adopte propriile reguli, încercând să impună standarde mai stricte privind utilizarea și controlul acestor tehnologii.
Congresmanul republican August Pfluger a concluzionat: „Este foarte înfricoșător pentru că AI-ul ar trebui să aibă niște limite clare”.
Sursa: Mediafax