Agenzia Giornalistica
direttore Paolo Pagliaro

LA DICHIARAZIONE
DEL CEO DI ANTHROPIC

LA DICHIARAZIONE <BR> DEL CEO DI ANTHROPIC

Ecco per esteso, in italiano e in inglese, la dichiarazione con la quale il CEO di Anthropic, Dario Amodei, ha detto in nome della democrazia no al Pentagono sulla concessione dell’IA per il controllo di massa e le armi letali autonome.  

Dichiarazione di Dario Amodei sui nostri colloqui con il Dipartimento della Guerra

Credo profondamente nell'importanza esistenziale dell'uso dell'intelligenza artificiale per difendere gli Stati Uniti e le altre democrazie e per sconfiggere i nostri avversari autocratici.

Anthropic ha quindi lavorato in modo proattivo per distribuire i propri modelli al Dipartimento della Guerra e alla comunità dell'intelligence. Siamo stati la prima azienda di intelligenza artificiale di frontiera a distribuire i nostri modelli nelle reti classificate del governo degli Stati Uniti, la prima a distribuirli presso i Laboratori Nazionali e la prima a fornire modelli personalizzati per i clienti della sicurezza nazionale. Claude è ampiamente utilizzato presso il Dipartimento della Guerra e altre agenzie per la sicurezza nazionale per applicazioni mission-critical, come analisi di intelligence, modellazione e simulazione, pianificazione operativa, operazioni informatiche e altro ancora.

Anthropic si è anche attivata per difendere la leadership americana nell'intelligenza artificiale, anche quando ciò andava contro gli interessi a breve termine dell'azienda. Abbiamo scelto di rinunciare a diverse centinaia di milioni di dollari di fatturato per interrompere l' uso di Claude da parte di aziende legate al Partito Comunista Cinese (alcune delle quali sono state designate dal Dipartimento della Guerra come "Compagnie Militari Cinesi"), abbiamo bloccato gli attacchi informatici sponsorizzati dal PCC che tentavano di abusare di Claude e abbiamo sostenuto rigorosi controlli sulle esportazioni di chip per garantire un vantaggio democratico.

Anthropic è consapevole che è il Dipartimento della Guerra, non le aziende private, a prendere decisioni militari. Non abbiamo mai sollevato obiezioni a specifiche operazioni militari, né abbiamo tentato di limitare l'uso della nostra tecnologia in modo mirato .

Tuttavia, in un ristretto numero di casi, riteniamo che l'IA possa minare, anziché difendere, i valori democratici. Alcuni utilizzi sono semplicemente al di fuori di ciò che la tecnologia odierna può fare in modo sicuro e affidabile. Due di questi casi d'uso non sono mai stati inclusi nei nostri contratti con il Dipartimento della Guerra e riteniamo che non dovrebbero esserlo ora:

  • Sorveglianza interna di massa. Sosteniamo l'uso dell'IA per missioni di intelligence e controspionaggio estere legittime. Tuttavia, l'uso di questi sistemi per la sorveglianza interna di massa è incompatibile con i valori democratici. La sorveglianza di massa basata sull'IA presenta gravi e nuovi rischi per le nostre libertà fondamentali . Nella misura in cui tale sorveglianza è attualmente legale, ciò è dovuto solo al fatto che la legge non ha ancora raggiunto le capacità in rapida crescita dell'IA. Ad esempio, secondo la legge attuale, il governo può acquistare da fonti pubbliche registrazioni dettagliate dei movimenti, della navigazione web e delle associazioni degli americani senza ottenere un mandato, una pratica che la comunità dell'intelligence ha riconosciuto sollevare preoccupazioni in materia di privacy e che ha generato un'opposizione bipartisan al Congresso. Una potente IA consente di assemblare questi dati sparsi e singolarmente innocui in un quadro completo della vita di qualsiasi persona, automaticamente e su larga scala.
  • Armi completamente autonome. Le armi parzialmente autonome, come quelle utilizzate oggi in Ucraina, sono vitali per la difesa della democrazia. Anche le armi completamente autonome (quelle che escludono completamente gli esseri umani dal ciclo e automatizzano la selezione e l'ingaggio dei bersagli) possono rivelarsi fondamentali per la nostra difesa nazionale. Ma oggi, i sistemi di intelligenza artificiale di frontiera non sono semplicemente sufficientemente affidabili per alimentare armi completamente autonome. Non forniremo consapevolmente un prodotto che mette a rischio i combattenti e i civili americani. Ci siamo offerti di collaborare direttamente con il Dipartimento della Guerra in attività di ricerca e sviluppo per migliorare l'affidabilità di questi sistemi, ma non hanno accettato l'offerta. Inoltre, senza un'adeguata supervisione , non si può fare affidamento sulle armi completamente autonome per esercitare il giudizio critico che le nostre truppe professionali e altamente addestrate dimostrano ogni giorno. Devono essere schierate con le opportune protezioni, che oggi non esistono.

Per quanto ne sappiamo, queste due eccezioni non hanno finora rappresentato un ostacolo all'accelerazione dell'adozione e dell'utilizzo dei nostri modelli all'interno delle nostre forze armate.

Il Dipartimento della Guerra ha dichiarato che stipulerà contratti solo con aziende di intelligenza artificiale che acconsentono a "qualsiasi uso lecito" e rimuovono le misure di sicurezza nei casi sopra menzionati. Hanno minacciato di rimuoverci dai loro sistemi se mantenessimo queste misure di sicurezza; hanno anche minacciato di designarci come "rischio per la catena di approvvigionamento" – un'etichetta riservata agli avversari statunitensi, mai applicata prima a un'azienda americana – e di invocare il Defense Production Act per imporre la rimozione delle misure di sicurezza. Queste ultime due minacce sono intrinsecamente contraddittorie : una ci etichetta come un rischio per la sicurezza; l'altra etichetta Claude come essenziale per la sicurezza nazionale.

In ogni caso, queste minacce non cambiano la nostra posizione: non possiamo in coscienza acconsentire alla loro richiesta.

È prerogativa del Dipartimento selezionare i fornitori più in linea con la propria visione. Tuttavia, dato il valore sostanziale che la tecnologia di Anthropic offre alle nostre forze armate, ci auguriamo che ci ripensino. La nostra ferma preferenza è continuare a servire il Dipartimento e i nostri combattenti, con le due garanzie richieste in atto. Qualora il Dipartimento decidesse di abbandonare Anthropic, ci impegneremo per consentire una transizione graduale verso un altro fornitore, evitando qualsiasi interruzione della pianificazione militare in corso, delle operazioni o di altre missioni critiche. I nostri modelli saranno disponibili alle condizioni espansive che abbiamo proposto per tutto il tempo necessario.

Restiamo pronti a proseguire il nostro lavoro a sostegno della sicurezza nazionale degli Stati Uniti.

Statement from Dario Amodei on our discussions with the Department of War

26 feb 2026

I believe deeply in the existential importance of using AI to defend the United States and other democracies, and to defeat our autocratic adversaries.

Anthropic has therefore worked proactively to deploy our models to the Department of War and the intelligence community. We were the first frontier AI company to deploy our models in the US government’s classified networks, the first to deploy them at the National Laboratories, and the first to provide custom models for national security customers. Claude is extensively deployed across the Department of War and other national security agencies for mission-critical applications, such as intelligence analysis, modeling and simulation, operational planning, cyber operations, and more.

Anthropic has also acted to defend America’s lead in AI, even when it is against the company’s short-term interest. We chose to forgo several hundred million dollars in revenue to cut off the use of Claude by firms linked to the Chinese Communist Party (some of whom have been designated by the Department of War as Chinese Military Companies), shut down CCP-sponsored cyberattacks that attempted to abuse Claude, and have advocated for strong export controls on chips to ensure a democratic advantage.

Anthropic understands that the Department of War, not private companies, makes military decisions. We have never raised objections to particular military operations nor attempted to limit use of our technology in an ad hoc manner.

However, in a narrow set of cases, we believe AI can undermine, rather than defend, democratic values. Some uses are also simply outside the bounds of what today’s technology can safely and reliably do. Two such use cases have never been included in our contracts with the Department of War, and we believe they should not be included now:

  • Mass domestic surveillance. We support the use of AI for lawful foreign intelligence and counterintelligence missions. But using these systems for mass domestic surveillance is incompatible with democratic values. AI-driven mass surveillance presents serious, novel risks to our fundamental liberties. To the extent that such surveillance is currently legal, this is only because the law has not yet caught up with the rapidly growing capabilities of AI. For example, under current law, the government can purchase detailed records of Americans’ movements, web browsing, and associations from public sources without obtaining a warrant, a practice the Intelligence Community has acknowledged raises privacy concerns and that has generated bipartisan opposition in Congress. Powerful AI makes it possible to assemble this scattered, individually innocuous data into a comprehensive picture of any person’s life—automatically and at massive scale.
  • Fully autonomous weapons. Partially autonomous weapons, like those used today in Ukraine, are vital to the defense of democracy. Even fully autonomous weapons (those that take humans out of the loop entirely and automate selecting and engaging targets) may prove critical for our national defense. But today, frontier AI systems are simply not reliable enough to power fully autonomous weapons. We will not knowingly provide a product that puts America’s warfighters and civilians at risk. We have offered to work directly with the Department of War on R&D to improve the reliability of these systems, but they have not accepted this offer. In addition, without proper oversight, fully autonomous weapons cannot be relied upon to exercise the critical judgment that our highly trained, professional troops exhibit every day. They need to be deployed with proper guardrails, which don’t exist today.

To our knowledge, these two exceptions have not been a barrier to accelerating the adoption and use of our models within our armed forces to date.

The Department of War has stated they will only contract with AI companies who accede to “any lawful use” and remove safeguards in the cases mentioned above. They have threatened to remove us from their systems if we maintain these safeguards; they have also threatened to designate us a “supply chain risk”—a label reserved for US adversaries, never before applied to an American company—and to invoke the Defense Production Act to force the safeguards’ removal. These latter two threats are inherently contradictory: one labels us a security risk; the other labels Claude as essential to national security.

Regardless, these threats do not change our position: we cannot in good conscience accede to their request.

It is the Department’s prerogative to select contractors most aligned with their vision. But given the substantial value that Anthropic’s technology provides to our armed forces, we hope they reconsider. Our strong preference is to continue to serve the Department and our warfighters—with our two requested safeguards in place. Should the Department choose to offboard Anthropic, we will work to enable a smooth transition to another provider, avoiding any disruption to ongoing military planning, operations, or other critical missions. Our models will be available on the expansive terms we have proposed for as long as required.

We remain ready to continue our work to support the national security of the United States. (27 FEB - deg)

(© 9Colonne - citare la fonte)