Asistentul AI Moltbot, fostul Clawdbot, care a devenit recent viral, are probleme de securitate a datelor

31.01.2026
Asistentul AI Moltbot, fostul Clawdbot, care a devenit recent viral, are probleme de securitate a datelor
Sursa foto: Samuel Boivin/NurPhoto / Shutterstock Editorial / Profimedia

Asistentul AI Moltbot a devenit viral în cercurile dezvoltatorilor și ale programatorilor în ultimele zile, fanii salutând „asistentul personal AI” open-source ca o potențială descoperire și devenind cea mai recentă obsesie AI a internetului. Însă cercetătorii în domeniul securității avertizează că implementarea neglijentă a Moltbot poate duce la scurgeri de date sensibile și la expunerea datelor, potrivit The Register.

Moltbot este un asistent AI personal open-source

Cunoscut inițial sub numele de Clawdbot, acesta se numește acum Moltbot, în urma unei plângeri din partea Anthropic privind similitudinile dintre acest nume și AI-ul său Claude. Moltbot este un asistent AI personal open-source cu integrare profundă în sistem, creat de Peter Steinberger, care poate fi găzduit local pe dispozitivele utilizatorilor și integrat direct cu aplicațiile utilizatorului, inclusiv mesageria și clienții de e-mail, precum și sistemul de fișiere. Nu este foarte obișnuit ca un instrument AI open-source să devină viral, având în vedere publicul său de nișă și cunoștințele tehnice necesare pentru a-l configura pe GitHub. Moltbot poate fi descărcat gratuit, dar va costa dacă alegeți să-l rulați pe un server virtual privat (VPS). Unii utilizatori au reușit să îl configureze pe nivelul gratuit al AWS. Contrar impresiei pe care o pot da postările de pe rețelele sociale, nu aveți nevoie de un Apple Mac mini pentru a-l rula, potrivit creatorului său, Peter Steinberger. Moltbot va rula pe orice computer, inclusiv pe vechiul laptop care adună praf în dulapul dumneavoastră. Caracteristicile definitorii ale Moltbot sunt că poate lua măsuri proactive fără să fie nevoie de solicitări specifice și poate lua aceste decizii accesând porțiuni mari din viața dumneavoastră digitală, inclusiv conturile externe și toate fișierele de pe computer. Poate să vă golească căsuța de e-mail, să vă trimită un briefing cu știrile dimineții sau să vă înregistreze pentru zborul dumneavoastră. Când termină, vă va trimite un mesaj prin aplicația dumneavoastră preferată, cum ar fi WhatsApp, iMessage sau Discord. Toate aceste funcționalități au însă un cost.

Moltbot are nevoie de acces la conturi și la datele de autentificare ale acestora

„Pentru ca un agent să fie util, trebuie să citească mesaje private, să stocheze date de autentificare, să execute comenzi și să mențină o stare persistentă”, spune platforma de informații de securitate cibernetică SOCRadar. „Fiecare cerință subminează ipotezele pe care se bazează modelele tradiționale de securitate.” Pentru ca Moltbot să poată citi și să răspundă la e-mailuri și la toate celelalte, are nevoie de acces la conturi și la datele de autentificare ale acestora. Utilizatorii predau cheile aplicațiilor de mesagerie criptate, numerelor de telefon și conturilor bancare către acest sistem agent.

Accesul deschis a ridicat probleme de securitate

Cercetătorii în domeniul securității avertizează asupra implementărilor nesigure în mediile enterprise ale asistentului AI Moltbot (fost Clawdbot), care pot duce la scurgerea cheilor API, a istoricului conversațiilor și a datelor de autentificare. Acest acces deschis a ridicat probleme de securitate. Documentația de asistență recunoaște chiar că „Rularea unui agent AI cu acces shell pe computerul dumneavoastră este… riscantă. Nu există o configurare „perfect sigură”.” Puteți să-l rulați pe modelul AI ales, fie local, fie în cloud.

Interfețe de administrare expuse

Mai mulți cercetători în domeniul securității avertizează că implementarea neglijentă a Moltbot poate duce la scurgeri de date sensibile, expunerea datelor corporative, furtul datelor de autentificare și executarea de comenzi, în funcție de permisiunile chatbotului și de nivelul de acces pe gazdă. Unele dintre implicațiile de securitate au fost evidențiate de pentesterul Jamieson O’Reilly. Cercetătorul explică faptul că sute de interfețe de administrare Clawdbot Control sunt expuse online din cauza configurării incorecte a proxy-ului invers. Deoarece Clawdbot aprobă automat conexiunile „locale”, implementările din spatele proxy-urilor inverse tratează adesea tot traficul de internet ca fiind de încredere, astfel încât multe instanțe expuse permit accesul neautentificat, furtul de date de autentificare, accesul la istoricul conversațiilor, executarea de comenzi și accesul la sistem la nivel de root. Cercetătorii au declarat că au analizat codul Moltbot și au descoperit că unele dintre secretele partajate cu asistentul de către utilizatori erau stocate în fișiere Markdown și JSON în format text simplu (necriptate) în sistemul de fișiere local al utilizatorului. Implicația este că, dacă o mașină gazdă ar fi infectată cu malware infostealer, atunci secretele stocate de asistentul AI ar putea fi compromise.

Risc pentru companii

Deși Moltbot poate fi mai potrivit pentru consumatori, firma de securitate Token Security susține că 22% dintre clienții săi enterprise au angajați care utilizează activ Moltbot, probabil fără aprobarea departamentului IT. Firma de securitate a identificat riscuri precum gateway-uri expuse și token-uri API/OAuth, date de autentificare stocate în format text simplu, scurgeri de date corporative prin accesul mediat de AI și o suprafață extinsă de atac de tip prompt-injection. O preocupare majoră este faptul că, în mod implicit, nu există sandboxing pentru asistentul AI. Acest lucru înseamnă că agentul are același acces complet la date ca și utilizatorul. Avertismente similare despre Moltbot au fost emise de Kevin Gosschalk de la Arkose Labs, 1Password, Intruder și Hudson Rock. Potrivit Intruder, unele atacuri au vizat punctele finale expuse ale Moltbot pentru furtul de acreditări și injectarea prompturilor. Hudson Rock a avertizat că malware-uri care fură informații, precum RedLine, Lumma și Vidar, se vor adapta în curând pentru a viza stocarea locală a Moltbot pentru a fura date sensibile și acreditări de cont.

Configurarea Moltbot în condiții de siguranță necesită cunoștințe și o atenție mărită

Implementarea Moltbot în condiții de siguranță necesită cunoștințe și o atenție mărită, dar cheia este izolarea instanței AI într-o mașină virtuală și configurarea regulilor firewall pentru accesul la internet, mai degrabă decât rularea directă pe sistemul de operare gazdă cu acces root. Wendi Whitmore, directorul de securitate al Palo Alto Networks, a avertizat că agenții AI ar putea reprezenta o nouă eră a amenințărilor cibernetice. Pe măsură ce sunt implementați în organizații mari, având încrederea de a îndeplini sarcini în mod autonom, aceștia devin ținte din ce în ce mai atractive pentru atacatorii care doresc să îi deturneze în scopuri personale. Cheia va fi să ne asigurăm că securitatea cibernetică este regândită pentru era agenților, garantând că fiecare agent beneficiază de cele mai puține privilegii necesare pentru a îndeplini sarcini și că activitățile rău intenționate sunt monitorizate cu strictețe.

Urmărește Go4IT.ro pe Google News