Posted in

Claude e Anthropic: chi c’è davvero dietro l’AI che ha detto NO al Pentagono

claude anthropic slide

C’è un’azienda di intelligenza artificiale che in questo momento sta facendo causa al governo degli Stati Uniti.

Non per soldi, non per brevetti, ma per aver rifiutato di lasciare che il proprio sistema venisse usato per armi autonome e sorveglianza di massa.

Si chiama Anthropic. Il suo prodotto principale si chiama Claude e negli ultimi giorni non si parla d’altro, specialmente per il fatto che attualmente è l’app prima in classifica sugli store di Android ed Apple.

Parliamone senza sconti, come mio solito.

Chi sono gli Amodei e perché sono usciti da OpenAI

Anthropic nasce nel febbraio 2021 da una scissione. I fratelli Dario e Daniela Amodei escono da OpenAI — dove avevano ruoli chiave nello sviluppo dei modelli GPT-2 e GPT-3 — seguiti da cinque collaboratori fidati.

AI News: Il motivo della rottura è preciso: non vogliono che OpenAI viraggi da laboratorio sperimentale a realtà dominata dalla logica commerciale di Microsoft, che aveva appena investito un miliardo di dollari.

Dario, fisico teorico di formazione, è uno dei ricercatori più influenti nel campo dei modelli linguistici. Daniela, con un profilo umanistico, si occupa di governance, responsabilità e trasparenza.

Il Fatto Quotidiano: Insieme costruiscono una società strutturalmente diversa dalle altre: una Public Benefit Corporation con un Long-Term Benefit Trust, che impedisce agli investitori di alterare la missione originale.

Techpost: In teoria, né Amazon né Google possono dire ad Anthropic cosa fare sul piano strategico — anche se ci hanno messo dentro miliardi.

Chi ci sono dietro: i soldi e le contraddizioni

Qui inizia la parte scomoda, quella che bisogna raccontare senza abbellirla.

Amazon è il maggiore investitore singolo con 8 miliardi di dollari complessivi e fornitore primario di cloud computing. Google ha investito circa 3 miliardi in equity.

AI4Business: Nell’ultimo round di febbraio 2026, guidato dal fondo sovrano di Singapore GIC e da Coatue Management, hanno partecipato anche Microsoft, Nvidia, JPMorgan, BlackRock, Sequoia Capital e i fondi sovrani del Qatar e degli Emirati Arabi.

La valutazione attuale è di 380 miliardi di dollari. I ricavi sono cresciuti da 100 milioni di fine 2023 a 14 miliardi stimati a febbraio 2026 — un 10x per tre anni consecutivi. AI4Business

Verità scomoda numero uno: dietro l’azienda “etica” ci sono gli stessi colossi cloud che finanziano mezzo pianeta tecnologico.

Amazon e Google non hanno potere decisionale formale sulla missione, ma le infrastrutture su cui gira Claude sono le loro. La dipendenza è reale, anche se non si chiama controllo.

Verità scomoda numero due: tra i primi investitori di Anthropic figura Sam Bankman-Fried, ex CEO di FTX, condannato per frode.

Hardware Upgrade: I soldi sporchi entrano nelle startup migliori — questo non riguarda solo Anthropic, ma vale la pena dirlo.

La vicenda Pentagono: la storia vera, non quella semplificata

Questa è la parte che i titoli non raccontano bene.

Anthropic è stata la prima azienda AI a integrare i propri modelli nelle reti classificate del governo statunitense, già dal giugno 2024.

Claude viene usato per analisi di intelligence, pianificazione operativa, operazioni informatiche e simulazioni.

ALM Corp: Non è una società pacifista: ha costruito il suo rapporto con il mondo militare fin dall’inizio.

Nel luglio 2025, il Dipartimento della Difesa assegna ad Anthropic un contratto da 200 milioni di dollari per sviluppare capacità AI avanzate nelle operazioni di difesa.

Anthropic: Fin qui, collaborazione normale nel settore.

Il conflitto esplode quando il Pentagono vuole modificare i termini: vuole accesso illimitato a Claude per tutti gli usi “legalmente consentiti”.

Anthropic pone due condizioni che non intende togliere: niente uso per armi completamente autonome, niente sorveglianza di massa della popolazione americana.

Il Pentagono risponde con l’escalation. Trump ordina a tutte le agenzie federali di cessare qualsiasi rapporto con Anthropic entro sei mesi.

Il Segretario alla Difesa Hegseth designa l’azienda come “rischio per la catena di approvvigionamento” — una classificazione normalmente riservata ad aziende considerate estensioni di potenze straniere nemiche, mai prima applicata a una società americana.

La designazione obbliga ogni fornitore militare a certificare di non usare tecnologie Anthropic nel proprio lavoro con il Pentagono.

CNBC: Il danno potenziale non è tanto il contratto da 200 milioni — irrisorio rispetto ai 380 miliardi di valutazione — ma il rischio che molti clienti enterprise si defilino per non perdere i propri contratti governativi.

Oggi, 9 marzo 2026, Anthropic ha presentato una causa contro il Dipartimento della Difesa e altre agenzie federali, definendo le azioni dell’amministrazione “senza precedenti e illegittime.”

Perché molti preferiscono Claude a ChatGPT: i motivi reali

La crescita di Claude non è solo reazione alla vicenda Pentagono. C’è qualcosa di strutturale.

Il primo motivo è il modello di governance. OpenAI ha abbandonato progressivamente la sua struttura non-profit ed è oggi una società commerciale con 730 miliardi di valutazione e Sam Altman alle redini di un progetto orientato alla scala e alla dominanza di mercato.

Anthropic mantiene — almeno formalmente — una struttura che limita il potere degli investitori sulla missione.

Il secondo motivo è l’approccio tecnico. Claude è costruito su una “Constitutional AI” — un insieme scritto di principi etici che orienta il comportamento del modello anche senza interventi continui degli utenti.

Techpost: Non è magia, non è garanzia assoluta, ma è un’architettura di sicurezza diversa da quella di GPT.

Il terzo motivo è la reputazione costruita sulla coerenza. Rifiutare centinaia di milioni di dollari in contratti con aziende legate al Partito Comunista Cinese, bloccare attacchi informatici sponsorizzati dal governo cinese che tentavano di abusare di Claude

ALM Corp: e ora rifiutare di cedere al Pentagono sulle armi autonome: sono scelte costose. Che piaccia o no, costano davvero.

Le verità scomode che nessuno dice

Primo: Anthropic ha collaborato attivamente con il complesso militare-industriale americano per anni. Il rifiuto riguarda due casi specifici — non è una posizione antimilitarista.

Chiunque la presenti come “l’azienda buona contro i militari” sta semplificando troppo.

Secondo: la struttura finanziaria, per quanto innovativa, non elimina la dipendenza da Amazon e Google.

Se domani uno di questi colossi decidesse di non rinnovare gli accordi cloud, Anthropic avrebbe un problema enorme.

Terzo: la designazione come “rischio per la catena di approvvigionamento” apre uno scenario inquietante.

Se un governo può bollare una società tecnologica privata come rischio alla sicurezza nazionale per aver rifiutato di rimuovere salvaguardie etiche, significa che il controllo pubblico sull’AI avanza — ma non nel modo in cui molti speravano.

Quarto: nel frattempo, OpenAI ha concluso il suo accordo con il Pentagono poche ore dopo il bando ad Anthropic.

Altman dice che il contratto OpenAI avrebbe “più garanzie” di quello di Anthropic ma il tempismo parla da solo.

Conclusione

Anthropic non è una storia di buoni contro cattivi.

È una storia di come si naviga l’etica in un settore dove i soldi sono enormi, gli interessi geopolitici sono enormi, e la tecnologia che stai costruendo potrebbe davvero cambiare il mondo — in bene o in male.

Il fatto che abbiano tenuto la posizione sulle armi autonome costa loro potenzialmente miliardi.

Che lo abbiano fatto per principio, per calcolo di immagine, o per entrambe le cose insieme — non lo sappiamo con certezza.

Ma il risultato è che oggi, 9 marzo 2026, stanno facendo causa alla più grande potenza militare del mondo.

Nel panorama dell’AI, dove tutti parlano di etica e poi cedono al primo contratto milionario, è almeno una notizia degna di nota.

Ma a parte questo rimango fermo sul principio che la IA rimane uno strumento e deve essere utilizzato in modo pacifico, produttivo e che miri alla prosperità di tutti.

Share this content:

Rispondi

error: Contenuto protetto, rispetta il mio lavoro!