Sam Altman a recunoscut că acordul OpenAI cu Departamentul de Război a fost „cu siguranță grăbit” și „nu arată bine”; compania dezvăluie mai multe detalii despre acordul semnat

02.03.2026
Sam Altman a recunoscut că acordul OpenAI cu Departamentul de Război a fost „cu siguranță grăbit” și „nu arată bine”; compania dezvăluie mai multe detalii despre acordul semnat
Sursa foto: Wikimedia Commons / Touch Of Light

OpenAI a transmis că acordul încheiat cu o zi înainte cu Pentagonul pentru implementarea tehnologiei în rețeaua clasificată a Departamentului Apărării al SUA include măsuri de protecție suplimentare pentru a proteja cazurile de utilizare.

Președintele SUA, Donald Trump, a ordonat vineri guvernului să înceteze colaborarea cu Anthropic, iar Pentagonul a declarat că va considera startup-ul un risc pentru lanțul de aprovizionare, ceea ce reprezintă o lovitură majoră pentru laboratorul de inteligență artificială, după o confruntare privind măsurile de protecție tehnologice. Anthropic a declarat că va contesta în instanță orice desemnare de risc.

Cum a reușit OpenAI să ajungă la un acord, în timp ce Anthropic nu a reușit?

După cum a recunoscut chiar CEO-ul Sam Altman, acordul OpenAI cu Departamentul Apărării a fost „cu siguranță grăbit” și „nu arată bine”, potrivit TechCrunch.

Apoi, OpenAI a anunțat rapid că a ajuns la un acord propriu pentru ca modelele să fie implementate în medii clasificate. Având în vedere că Anthropic a declarat că stabilește limite clare în ceea ce privește utilizarea tehnologiei sale în arme complet autonome sau în supravegherea internă în masă, iar Altman a afirmat că OpenAI are aceleași limite, au apărut câteva întrebări evidente: OpenAI a fost sinceră în privința măsurilor de protecție? De ce a reușit să ajungă la un acord, în timp ce Anthropic nu a reușit?

Așadar, în timp ce directorii OpenAI apărau acordul pe rețelele de socializare, compania a publicat și un articol pe blog în care își prezenta abordarea.

De fapt, articolul indica trei domenii în care modelele OpenAI nu pot fi utilizate: supravegherea internă în masă, sistemele de arme autonome și „deciziile automatizate cu miză mare (de exemplu, sisteme precum „credit social”)”.

Compania a afirmat că, spre deosebire de alte companii de IA care „și-au redus sau eliminat măsurile de siguranță și s-au bazat în principal pe politici de utilizare ca măsuri de protecție primare în implementările de securitate națională”, acordul OpenAI protejează limitele sale „printr-o abordare mai extinsă, cu mai multe niveluri”.

„Păstrăm discreția deplină asupra măsurilor noastre de siguranță, implementăm prin cloud, personalul OpenAI autorizat este la curent și avem protecții contractuale solide”, se arată în blog. „Toate acestea se adaugă protecțiilor solide existente în legislația SUA.”

Compania a adăugat: „Nu știm de ce Anthropic nu a putut ajunge la acest acord și sperăm că ei și alte laboratoare îl vor lua în considerare”.

Ordinul executiv 12333 îl contrazice pe Sam Altman

După publicarea postării, Mike Masnick de la Techdirt a afirmat că acordul „permite în mod absolut supravegherea internă”, deoarece prevede că colectarea datelor private va respecta Ordinul executiv 12333 (împreună cu o serie de alte legi). Masnick a descris acest ordin ca „modul în care NSA își ascunde supravegherea internă prin captarea comunicațiilor prin interceptarea liniilor *în afara SUA*, chiar dacă acestea conțin informații de la/despre persoane din SUA”.

Într-o postare pe LinkedIn, Katrina Mulligan, șefa parteneriatelor de securitate națională ale OpenAI, a susținut că o mare parte din discuțiile referitoare la limbajul contractului presupun că „singurul lucru care stă între americani și utilizarea IA pentru supravegherea internă în masă și armele autonome este o singură prevedere privind politica de utilizare într-un singur contract cu Departamentul de Război”.

„Nu așa funcționează lucrurile”, a spus Mulligan, adăugând: „Arhitectura de implementare contează mai mult decât limbajul contractului […] 

Prin limitarea implementării noastre la API-ul cloud, putem asigura că modelele noastre nu pot fi integrate direct în sisteme de arme, senzori sau alt hardware operațional.”

Altman a răspuns și la întrebări pe Twitter despre acordul semnat, unde a recunoscut că acesta a fost grăbit și a dus la reacții negative semnificative împotriva OpenAI (în măsura în care Claude de la Anthropic a depășit ChatGPT de la OpenAI în App Store-ul Apple sâmbătă). Deci, de ce să o facem?

„Am vrut cu adevărat să calmăm lucrurile și am considerat că acordul propus era bun”, a spus Altman. „Dacă avem dreptate și acest lucru duce la o calmare a tensiunilor între DoW și industrie, vom părea niște genii și o companie care a îndurat multe suferințe pentru a face lucruri care să ajute industria. Dacă nu, vom continua să fim caracterizați ca […] grăbiți și neglijenți.”

Urmărește Go4IT.ro pe Google News