ETICA AI 6 min

Anthropic vs Pentagono: il Caso AI

Anthropic dice no al Pentagono su sorveglianza e armi autonome. Il risultato? Designata rischio nazionale. L'analisi completa del caso e cosa cambia per chi usa AI in azienda.

etica AI governance AI Anthropic uso militare AI regolamentazione

Un precedente senza precedenti

Il rapporto tra intelligenza artificiale e settore militare ha raggiunto un punto di rottura. Dario Amodei, CEO di Anthropic - l’azienda dietro Claude, uno dei modelli AI più avanzati al mondo - ha rifiutato pubblicamente di rimuovere due restrizioni specifiche sull’uso della propria tecnologia da parte del Pentagono. La risposta? Un’escalation senza precedenti: designazione come “rischio per la catena di approvvigionamento”, un’etichetta normalmente riservata ad aziende russe e cinesi.

Questa vicenda non riguarda solo la geopolitica americana. Riguarda il futuro della governance dell’intelligenza artificiale e stabilisce un precedente che ogni azienda che sviluppa o adotta AI dovrebbe comprendere.

Le due linee rosse di Anthropic

Anthropic è stata, per ammissione dello stesso Amodei, l’azienda AI più proattiva nella collaborazione con il governo USA. Prima a posizionare i propri modelli sul cloud classificato, prima a creare modelli personalizzati per la sicurezza nazionale, presente nell’intelligence e nelle operazioni militari.

Eppure, su due punti specifici, Amodei ha tracciato un confine netto:

  • Sorveglianza di massa domestica. L’AI rende possibile ciò che prima era tecnicamente impraticabile: acquistare dati raccolti da aziende private sui cittadini - posizioni, informazioni personali, affiliazioni politiche - e analizzarli in massa. Questo non è illegale, ma solo perché la legge non ha ancora raggiunto la tecnologia. Il quarto emendamento americano, nella sua interpretazione attuale, non copre questo scenario.
  • Armi completamente autonome. Non le armi parzialmente autonome già utilizzate in Ucraina, ma sistemi che sparano senza alcun intervento umano. Amodei sottolinea due problemi concreti: i modelli AI attuali non sono sufficientemente affidabili per decisioni letali, e un esercito di droni controllato da una singola persona solleva questioni di responsabilità che nessuno ha ancora affrontato.

L’ultimatum e la risposta del governo

Il Pentagono ha concesso ad Anthropic tre giorni per accettare condizioni che, secondo Amodei, contenevano clausole come “se il Pentagono lo ritiene opportuno” - di fatto svuotando le restrizioni di qualsiasi significato reale.

Di fronte al rifiuto, il Segretario alla Difesa Hegseth ha designato Anthropic come rischio per la catena di approvvigionamento - una misura mai applicata prima a un’azienda americana, utilizzata in precedenza solo contro soggetti come Kaspersky Labs (legata al governo russo) e fornitori cinesi di chip.

Il Presidente Trump ha definito la posizione di Anthropic “egoismo che mette a rischio le vite americane”. Amodei ha risposto con una dichiarazione chiara: anche sotto queste pressioni, Anthropic continuerà a supportare il Dipartimento della Difesa durante la transizione, garantendo continuità del servizio ai militari sul campo.

Perché questa vicenda riguarda tutte le aziende

Al di là dello scontro politico, questa situazione solleva una questione centrale per chiunque lavori con l’intelligenza artificiale nelle aziende: chi decide i limiti dell’AI?

Amodei ha posto il tema in termini pragmatici:

  • La tecnologia supera la legge. L’AI si muove così velocemente che le normative non riescono a stare al passo. I modelli raddoppiano la potenza computazionale ogni quattro mesi. Il Congresso non si muove a questa velocità.
  • Chi sviluppa l’AI conosce i limiti. Un modello AI ha una personalità, capacità specifiche, margini di affidabilità. Chi lo costruisce è nella posizione migliore per valutare cosa può fare in modo affidabile e cosa no.
  • Servono conversazioni democratiche. Amodei stesso riconosce che la soluzione a lungo termine non può essere che un’azienda privata e il Pentagono discutano tra loro. Serve un intervento del Congresso per definire le regole.

Questo schema - tecnologia che avanza, normative che restano indietro, aziende che devono prendere decisioni etiche in assenza di regole - non è esclusivo degli Stati Uniti. È lo stesso scenario che vivono le aziende italiane che adottano l’AI.

La lezione per chi adotta l’AI oggi

Che si tratti del Pentagono o di una PMI italiana, il principio resta lo stesso: adottare l’intelligenza artificiale senza un framework etico e strategico è un rischio.

Non basta implementare la tecnologia più potente disponibile. Serve:

  • Chiarezza sui limiti. Definire in anticipo cosa l’AI può e non può fare nel proprio contesto aziendale.
  • Governance interna. Stabilire chi prende le decisioni sull’uso dell’AI e con quali criteri.
  • Aggiornamento continuo. La tecnologia cambia ogni trimestre. Le policy aziendali devono tenere il passo.

Se Anthropic - un’azienda che vale miliardi - è disposta a rischiare contratti governativi per due principi, forse è il momento che anche le aziende più piccole si chiedano quali sono le proprie linee rosse.

La trasformazione digitale con l’AI non è solo una questione tecnologica. È una questione di valori, responsabilità e visione strategica.

Perché Anthropic è stata designata rischio per la catena di approvvigionamento?

Anthropic è stata designata rischio nazionale dal Pentagono dopo che il CEO Dario Amodei ha rifiutato di rimuovere due restrizioni specifiche sull'uso della tecnologia AI: il divieto di sorveglianza di massa domestica e il divieto di armi completamente autonome.

Cosa significa la decisione di Anthropic per le aziende che usano AI?

La vicenda stabilisce un precedente importante: le aziende che sviluppano o adottano AI devono definire confini etici chiari. La governance dell'intelligenza artificiale non è più solo un tema teorico ma una questione di business con conseguenze concrete.

Quali sono le due linee rosse di Anthropic sull'uso militare dell'AI?

Le due restrizioni riguardano la sorveglianza di massa domestica, ovvero l'uso dell'AI per analizzare dati personali dei cittadini acquistati da aziende private, e le armi completamente autonome che sparano senza alcun intervento umano.