10 martie, 2026

Anthropic a intentat luni două procese împotriva Departamentului Apărării din SUA, susținând că decizia guvernului de a eticheta firma de inteligență artificială drept un „risc pentru lanțul de aprovizionare” a fost ilegală și a încălcat drepturile sale prevăzute de Primul Amendament.

Cele două părți sunt blocate de luni de zile într-o dispută aprinsă privind încercarea companiei de a implementa măsuri de siguranță împotriva potențialei utilizări a modelelor sale de AI, de către autorități, pentru supravegherea în masă sau arme letale complet autonome, relatează The Guardian.

Procesele, pe care Anthropic le-a intentat la tribunalul districtual din nordul Californiei și la Curtea de Apel a SUA pentru Districtul Columbia, vin după ce Pentagonul a emis oficial desemnarea de risc pentru lanțul de aprovizionare, joia trecută, fiind pentru prima dată când instrumentul de includere pe lista neagră a fost utilizat împotriva unei companii americane.


Firma de AI a promis anterior că va contesta desemnarea, precum și solicitarea administrației americane ca orice companie care face afaceri cu guvernul să rupă toate legăturile cu Anthropic, o amenințare serioasă la adresa modelului de afaceri al companiei.

Anthropic susține că este sancționată pentru că nu se conformează ”cerințelor ideologice ale statului”

Acțiunea în instanță a Anthropic susține că administrația Trump pedepsește compania pentru refuzul companiei de a se conforma cerințelor ideologice ale guvernului, într-o încălcare a libertății sale de exprimare protejate și ca o încercare de a sancționa compania pentru neconformare.

„Aceste acțiuni sunt fără precedent și ilegale. Constituția nu permite guvernului să își exercite puterea enormă pentru a pedepsi o companie pentru discursul său protejat”, a menționat Anthropic în procesul din California.

Modelul de AI al Anthropic, numit Claude, a fost integrat profund în Departamentul Apărării în ultimul an. Până de curând, Claude a fost, de asemenea, singurul model de AI aprobat pentru utilizare în sisteme clasificate. Se pare că Departamentul Apărării l-a utilizat pe scară largă în operațiunile sale militare, inclusiv pentru a decide unde să direcționeze atacurile cu rachete în războiul împotriva Iranului.

Anthropic a subliniat în procesul său că rămâne angajată în furnizarea de AI pentru scopuri de securitate națională.


Compania a mai precizat în procesul din California că a colaborat anterior cu Departamentul Apărării pentru a-și modifica sistemele pentru cazuri de utilizare unice. Conform unei declarații, compania dorește, de asemenea, să continue negocierile cu guvernul.

„Solicitarea revizuirii judiciare nu schimbă angajamentul nostru de lungă durată de a valorifica AI pentru a ne proteja securitatea națională, dar acesta este un pas necesar pentru a ne proteja afacerea, clienții și partenerii”, a declarat un purtător de cuvânt al Anthropic pentru The Guardian. „Vom continua să urmăm orice cale spre o soluționare, inclusiv dialogul cu guvernul.”

Gigantul tech a susținut în proces că acțiunile punitive ale administrației Trump și ale Pentagonului „dăunează ireparabil Anthropic”, o acuzație ce contrazice într-o anumită măsură afirmația lui Dario Amodei, CEO-ul Anthropic, care a declarat săptămâna trecută pentru CBS News că „impactul acestei desemnări este destul de mic” și că firma „va fi bine”.

„Pârâții caută să distrugă valoarea economică creată de una dintre companiile private cu cea mai rapidă creștere din lume, care este lider în dezvoltarea responsabilă a unei tehnologii emergente de o importanță vitală pentru Națiunea noastră”, a susținut Anthropic în procesul său.

Departamentul Apărării nu a răspuns imediat unei cereri de comentarii.

(Citește și: Donald Trump interzice tehnologia Anthropic în Guvernul Federal, după ce compania a refuzat folosirea sistemului Claude în „toate scopurile legale”)


****

Articole recomandate:

citește și

lasă un comentariu

Faci un comentariu sau dai un răspuns?

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

toate comentariile

Faci un comentariu sau dai un răspuns?

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

articole categorie

Lucrăm momentan la conferința viitoare.

Îți trimitem cele mai noi evenimente pe e-mail pe măsură ce apar: