Anthropic caută expert în arme pentru a opri „utilizarea abuzivă catastrofală” a tehnologiei AI

17.03.2026
Anthropic caută expert în arme pentru a opri „utilizarea abuzivă catastrofală” a tehnologiei AI
Foto: Anthropic

Compania americană de inteligență artificială (AI) Anthropic caută să angajeze un expert în arme chimice și explozivi de mare putere pentru a încerca să prevină „utilizarea abuzivă catastrofală” a software-ului său.

Cu alte cuvinte, se teme că instrumentele sale de AI ar putea indica cuiva cum să fabrice arme chimice sau radioactive și dorește ca un expert să se asigure că măsurile de protecție sunt suficient de solide, potrivit BBC.

În anunțul de recrutare de pe LinkedIn, firma precizează că eventualii candidați trebuie să aibă o experiență de cel puțin cinci ani în „apărarea împotriva armelor chimice și/sau a explozivilor”, precum și cunoștințe despre „dispozitive de dispersie radiologică”, cunoscute și sub denumirea de „dirty bombs” (bombe murdare).

Compania a declarat pentru BBC că rolul este similar cu posturile din alte domenii sensibile pe care le-a creat deja.

Anthropic nu este singurul jucător de pe piața de AI care adoptă această strategie

Un post similar a fost oferit de OpenAI, dezvoltatorul ChatGPT. Pe site-ul său de recrutare, compania listează un post vacant pentru un cercetător în „riscuri biologice și chimice”, cu un salariu de până la 455.000 de dolari, aproape dublu față de cel oferit de Anthropic.

Însă unii experți sunt îngrijorați de riscurile acestei abordări, avertizând că aceasta oferă instrumentelor de AI informații despre arme, chiar dacă li s-a cerut să nu le folosească.

Industria AI a avertizat în mod continuu cu privire la potențialele pericole pe care le prezintă tehnologia sa, dar nu s-a făcut nicio încercare de a încetini progresul acesteia. Problema a căpătat un caracter urgent, întrucât guvernul SUA apelează la firmele de AI în timp ce declanșează războiul în Iran și operațiuni militare în Venezuela.

Anthropic are probleme cu Casa Albă

Anthropic a inițiat o acțiune în justiție împotriva Departamentului de Război al SUA, care a desemnat compania drept un risc pentru lanțul de aprovizionare atunci când firma a insistat că sistemele sale nu trebuie utilizate nici în arme complet autonome, nici în supravegherea în masă a americanilor.

Dario Amodei, co-fondatorul Anthropic, a scris în februarie că nu crede că tehnologia este încă suficient de matură și că nu ar trebui utilizată în aceste scopuri. Iar Casa Albă a replicat dur, transmițând că nu va permite ca armata SUA să fie condusă de către companiile de tehnologie.

Eticheta de risc plasează Anthropic în aceeași situație cu firma chineză de telecomunicații Huawei, care a fost, de asemenea, inclusă pe lista neagră din cauza unor preocupări diferite legate de securitatea națională.

OpenAI a declarat că este de acord cu poziția Anthropic, dar a negociat apoi propriul contract cu guvernul SUA, care, potrivit companiei, nu a intrat încă în vigoare. În ciuda acestor hotărâri, asistentul AI al Anthropic, numit Claude, nu a fost încă eliminat complet, fiind în prezent încă integrat în sistemele furnizate de Palantir și utilizat de SUA în războiul dintre SUA, Israel și Iran.

Sursa: Mediafax

Urmărește Go4IT.ro pe Google News
Alex Manole
Alex Manole
Alex Manole este un tânăr jurnalist, aflat la început de carieră, absolvent al Facultății de Jurnalism și Științele Comunicării din București. Alex este pasionat de gaming, internet și tehnologii neobișnuite. citește mai mult