Inteligența artificială generativă a fost văzută inițial ca o tehnologie care va transforma radical internetul, prin site-uri dinamice și conținut personalizat pentru fiecare utilizator.
Deși această viziune nu s-a materializat pe scară largă pentru publicul general, experții avertizează că primii care o pun cu adevărat în practică sunt, din păcate, infractorii cibernetici.
Cercetătorii în securitate de la Unit 42, divizia Palo Alto Networks, au demonstrat că modelele lingvistice mari (LLM) pot fi folosite pentru a crea o nouă generație de atacuri de phishing. Metoda presupune trimiterea victimei către o pagină aparent inofensivă, care nu conține cod malițios vizibil.
Odată accesată, pagina trimite solicitări atent formulate către un serviciu LLM legitim. Răspunsul primit constă în cod JavaScript, generat dinamic și diferit pentru fiecare utilizator. Acest cod este apoi asamblat și rulat direct în browser, rezultatul fiind o pagină de phishing complet funcțională, personalizată pentru victimă.
Avantajul major pentru atacatori este că nu există un „payload” static care să fie livrat prin rețea și interceptat ușor de soluțiile tradiționale de securitate.
Deși cercetătorii nu au confirmat că acest tip de atac a fost observat deja pe scară largă, ei subliniază că elementele necesare există și sunt deja folosite în alte contexte. LLM-urile sunt utilizate pentru a genera cod JavaScript ofuscat, malware asistat de AI, ransomware sau campanii de spionaj cibernetic, iar folosirea lor direct în timpul execuției este tot mai frecventă.
Potrivit Unit 42, phishing-ul generat dinamic de Inteligența artificială are șanse mari să devină viitorul înșelătoriilor online.
Specialiștii spun că detectarea acestor atacuri este încă posibilă, prin utilizarea unor instrumente avansate de analiză la nivel de browser. De asemenea, companiile sunt sfătuite să limiteze accesul angajaților la servicii LLM nesancționate, ca măsură preventivă.
În același timp, cercetarea scoate în evidență nevoia unor măsuri de siguranță mai solide în platformele de inteligență artificială, deoarece, prin formularea atentă a comenzilor, protecțiile actuale pot fi ocolite și folosite în scopuri malițioase.
Pentru utilizatori, mesajul rămâne același, dar devine mai important ca oricând: prudență sporită în fața linkurilor suspecte și a paginilor care cer date sensibile, chiar și atunci când totul pare perfect adaptat și convingător.