Margrethe Vestager, fostul vicepreședinte executiv al Comisiei Europeane, susține lansarea unui nou institut independent care își propune să evalueze cât de sigure sunt aplicațiile de inteligență artificială (AI) pentru copii și adolescenți.
Săptămâna aceasta, institutul va fi prezentat oficial în Parlamentul din Danemarca și este construit după un model inspirat din industria auto: aplicațiile AI ar urma să fie testate și evaluate similar testelor de siguranță pentru mașini. Inițiatorii proiectului spun că părinții ar trebui să poată verifica ce riscuri implică o aplicație AI înainte ca aceasta să fie utilizată de copii.
Noul organism va funcționa în cadrul Common Sense Media, organizație americană cunoscută pentru evaluarea conținutului digital destinat minorilor. Institutul intenționează să testeze chatboți și alte produse bazate pe AI pentru a identifica eventualele riscuri legate de sănătatea mintală, comportamente periculoase sau conținutul sensibil pentru minori. Printre aplicațiile analizate în studii anterioare s-au numărat ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google) și Meta AI (Meta).
Potrivit unui raport realizat în 2025 împreună cu laboratorul Stanford Brainstorm Lab, mai mulți chatboți nu au reușit să identifice corect semne ale problemelor de sănătate mintală la tineri. La acea oră, cercetătorii au descoperit că sistemele AI ignorau indicii clare privind depresia, anxietatea sau riscul de suicid și ofereau adesea explicații legate numai de sănătatea fizică.
În prezent, multe aplicații AI funcționează într-o zonă gri din punct de vedere legislativ. Deși Uniunea Europeană a introdus reguli pentru platformele digitale prin Digital Services Act, chatboții AI nu sunt încă reglementați clar în privința protecției minorilor. Margrethe Vestager a fost una dintre principalele figuri europene implicate în reglementarea marilor companii tehnologice în ultimul deceniu și a coordonat agenda europeană „Europe Fit for the Digital Age”. James P. Steyer, fondatorul Common Sense Media, a declarat că inteligența artificială „remodelează copilăria și adolescența”, în timp ce deciziile privind siguranța copiilor sunt luate fără suficiente date și standarde bine definite.
Noul institutul urmează să fie finanțat atât din donații filantropice, cât și din contribuții ale unor companii din industria tehnologiei. Printre acești finanțatori se numără Anthropic, fundația OpenAI și Pinterest, fără a avea influență asupra evaluărilor și concluziilor publicate. Institutul intenționează să dezvolte inclusiv instrumente open-source care să poată fi folosite de companiile AI pentru a-și testa propriile produse înainte de lansare.
Sursa: Mediafax