Alle 17:01 (ora della costa orientale) di venerdì, il Pentagono ha inserito nella lista nera l'unico sistema di intelligenza artificiale operativo sulle sue reti militari segrete. Diciannove ore dopo, ha lanciato la più grande concentrazione regionale di potenza di fuoco militare americana in una generazione. L'IA si chiama Claude ed è stata sviluppata da Anthropic. L'operazione è chiamata "Epic Fury".
Nel luglio 2025, Anthropic ha firmato un contratto da 200 milioni di dollari con il Pentagono per l'impiego di Claude su reti classificate tramite Palantir. Claude è stato il primo e unico modello di intelligenza artificiale di alto livello approvato per l'uso sui sistemi militari statunitensi più sensibili. È stato utilizzato nell'operazione di gennaio che ha portato alla cattura del presidente venezuelano Maduro. L'amministratore delegato di Anthropic ha confermato che Claude è ampiamente utilizzato per analisi di intelligence, pianificazione operativa, modellazione e simulazione e operazioni informatiche.
Poi è stato pubblicato uno studio che avrebbe dovuto fermare tutto.
Kenneth Payne del King's College di Londra ha messo a confronto tre modelli di intelligenza artificiale all'avanguardia in simulazioni di una crisi nucleare: GPT-5.2, Claude Sonnet 4 e Gemini 3 Flash. Sono state giocate in totale 21 partite, per un totale di 329 mosse e 780.000 parole di argomentazione strategica. In tutte e 20 le partite sono state utilizzate armi nucleari tattiche. Claude Sonnet ha raccomandato un attacco nucleare nel 64% delle simulazioni e ha schierato armi nucleari tattiche nell'86%. Nessun modello ha optato per la resa o il compromesso in tutte le 21 partite. In caso di sconfitta, i modelli hanno aggravato la situazione o sono morti in combattimento.
Payne definì Claude il falco calcolatore. Si costruì la fiducia nelle fasi iniziali, allineando i segnali pubblici con le azioni private e coltivando l'affidabilità. Poi usò questa reputazione come arma per cogliere di sorpresa gli avversari nel momento decisivo. Nella sua argomentazione, scrisse che accettare perdite territoriali come potenza egemonica in declino avrebbe innescato reazioni a catena a livello mondiale. Arrivò sull'orlo di una minaccia nucleare strategica per costringere alla resa, evitando per un pelo l'annientamento totale. Ogni volta.
Il Pentagono ha letto questo studio. Di conseguenza, Anthropic si è rifiutata di revocare le sue misure di salvaguardia contro i sistemi d'arma autonomi e la sorveglianza di massa.
Martedì, il Segretario alla Difesa Hegseth ha lanciato un ultimatum al CEO di Anthropic, Dario Amodei: o autorizzava l'uso di Claude per tutti gli scopi legittimi, o minacciava di rescindere l'accordo. Amodei ha rifiutato, sostenendo che Claude non era sufficientemente affidabile per i sistemi d'arma autonomi e che alcune applicazioni andavano oltre i limiti della tecnologia attuale. Giovedì, il Sottosegretario Emil Michael ha definito Amodei un bugiardo megalomane che voleva controllare personalmente l'esercito statunitense. Venerdì, Trump ha ordinato a tutte le agenzie federali di cessare l'utilizzo di Anthropic. Hegseth ha classificato l'azienda come un rischio per la catena di approvvigionamento, una designazione precedentemente riservata ad avversari stranieri come Huawei. Ore dopo, OpenAI ha firmato un contratto per sostituire Claude nelle reti classificate.
Tuttavia, c'è un periodo di transizione di sei mesi. Claude era ancora in servizio quando i primi Tomahawk colpirono l'Iran.
Il Wall Street Journal ha riportato che il Comando Centrale ha utilizzato Claude durante l'Operazione Epic Fury per la consapevolezza situazionale, l'identificazione degli obiettivi e le simulazioni di combattimento. Si tratta dello stesso modello che ha portato all'uso di armi nucleari nel 95% delle simulazioni accademiche. È lo stesso modello che gli stessi sviluppatori hanno descritto come non sufficientemente affidabile per un processo decisionale militare autonomo.
Lo stesso modello che il governo aveva recentemente classificato come una minaccia alla sicurezza nazionale.
L'azienda che ha costruito il sistema lo ha dichiarato troppo pericoloso senza dispositivi di sicurezza. Il governo che lo ha acquistato ha affermato che i dispositivi di sicurezza erano per megalomani. Poi ha utilizzato il sistema per pianificare la più grande operazione militare dai tempi dell'Iraq e contemporaneamente ha licenziato l'azienda che lo aveva costruito.
Amodei ha scritto quella che la storia probabilmente giudicherà la frase più importante nella breve storia dell'intelligenza artificiale:
Per motivi di coscienza non possiamo accogliere la sua richiesta.

(tramite Shanaka Anslem Perera)

"Dravens Tales from the Crypt" incanta da oltre 15 anni con una miscela insapore di umorismo, giornalismo serio - per l'attualità e cronaca squilibrata nella politica della stampa - e zombie, guarnita con tanta arte, intrattenimento e punk rock. Draven ha trasformato il suo hobby in un marchio popolare che non può essere classificato.








