Per colpire 1.000 obiettivi nelle prime 24 ore dell’attacco contro l’Iran, l’esercito statunitense ha utilizzato l’intelligenza artificiale più avanzata mai impiegata in guerra: uno strumento a cui il Pentagono potrebbe avere difficoltà a rinunciare, anche mentre interrompe i rapporti con l’azienda che lo ha sviluppato. Il sistema Maven Smart System, sviluppato dalla società di data mining Palantir, elabora informazioni provenienti da un’enorme quantità di dati classificati – satelliti, sistemi di sorveglianza e altre fonti di intelligence – generando analisi che consentono di individuare e classificare gli obiettivi in tempo reale durante le operazioni militari in Iran, secondo tre persone a conoscenza del funzionamento del sistema. All’interno della piattaforma è integrato Claude, lo strumento di intelligenza artificiale sviluppato da Anthropic, una tecnologia che il Pentagono ha vietato la scorsa settimana dopo negoziati molto tesi sulle condizioni del suo utilizzo in ambito bellico. Nell’ultimo anno i pianificatori militari hanno visto Claude, utilizzato insieme a Maven, trasformarsi in uno strumento ormai impiegato quotidianamente nella maggior parte dei reparti delle forze armate, secondo due delle persone informate. Mentre era in corso la pianificazione di un possibile attacco contro l’Iran, Maven – alimentato da Claude – ha suggerito centinaia di obiettivi, fornito coordinate geografiche precise e stabilito le priorità dei bersagli in base alla loro importanza, hanno spiegato due delle fonti. L’integrazione tra Maven e Claude ha creato uno strumento capace di accelerare il ritmo della campagna militare, riducendo la capacità dell’Iran di rispondere e trasformando una pianificazione delle operazioni che normalmente richiederebbe settimane in attività svolte praticamente in tempo reale, ha affermato una delle persone. Gli strumenti di AI valutano inoltre l’esito di un attacco dopo che è stato avviato. Claude è stato utilizzato anche per contrastare complotti terroristici e durante il raid che ha portato alla cattura del presidente venezuelano Nicolás Maduro. Ma questa è la prima volta che viene impiegato in operazioni di guerra su larga scala, secondo due delle fonti. Nonostante lo strumento sia attualmente utilizzato a sostegno della campagna militare statunitense in Iran, i rapporti tra l’amministratore delegato di Anthropic, Dario Amodei, e l’amministrazione Trump si sono deteriorati. Poche ore prima dell’inizio dei bombardamenti sull’Iran, il presidente Donald Trump ha annunciato che le agenzie governative non potranno più utilizzare gli strumenti di Anthropic, concedendo sei mesi di tempo per eliminarli progressivamente. La decisione è arrivata dopo un duro scontro tra l’azienda e l’esercito sul controllo dell’uso di queste tecnologie nella sorveglianza di massa interna e nello sviluppo di armi completamente autonome. L’esercito continuerà a utilizzare la tecnologia nell’attesa che venga introdotto un sistema sostitutivo, hanno detto due delle fonti. I comandanti militari sono diventati talmente dipendenti dal sistema di AI che, se Amodei ordinasse di interromperne l’uso, l’Amministrazione Trump ricorrerebbe ai poteri del governo per mantenere la tecnologia operativa fino alla sua sostituzione, ha spiegato una delle persone. “Che la sua posizione morale sia giusta o sbagliata, non permetteremo che le decisioni di Amodei costino la vita anche a un solo americano”, ha detto la fonte. Il Pentagono non ha risposto immediatamente a una richiesta di commento. Il portavoce di Anthropic, Eduardo Maia Silva, ha rifiutato di commentare. Anche la portavoce di Palantir, Lisa Gordon, non ha rilasciato dichiarazioni. L’uso di Claude negli attacchi contro l’Iran era stato riportato per primo dal Wall Street Journal, negli scorsi giorni. L’impiego di avanzati sistemi di intelligenza artificiale generativa nella campagna in Iran arriva in un momento di acceso dibattito sull’etica e sulla rapidità con cui queste tecnologie vengono adottate in guerra. “E’ significativo che siamo già arrivati al punto in cui l’AI è passata dall’essere una possibilità teorica a sostenere operazioni reali condotte oggi”, ha affermato Paul Scharre, vicepresidente esecutivo del Center for a New American Security e autore di diversi studi sull’uso dell’intelligenza artificiale nei conflitti. “Il cambiamento di paradigma fondamentale è che l’AI permette all’esercito statunitense di sviluppare pacchetti di targeting alla velocità delle macchine, invece che alla velocità umana”. Il problema, ha aggiunto, è che “l’AI può sbagliare”. “Quando la posta in gioco è la vita o la morte, abbiamo bisogno che esseri umani verifichino i risultati prodotti dall’intelligenza artificiale generativa”. Il Pentagono ha iniziato a integrare il chatbot Claude di Anthropic nel sistema Maven alla fine del 2024, secondo annunci pubblici. Il sistema è stato utilizzato per generare possibili obiettivi, monitorare la logistica e fornire sintesi delle informazioni di intelligence provenienti dal campo. L’Amministrazione Trump ha ampliato enormemente l’uso di Maven in molte altre aree delle forze armate: a maggio dello scorso anno oltre 20.000 militari lo utilizzavano già. Gli attuali comandanti responsabili della campagna in Iran conoscono bene il sistema Maven: avevano già utilizzato versioni precedenti durante il ritiro degli Stati Uniti dall’Afghanistan nel 2021 e per sostenere Israele dopo gli attacchi del 7 ottobre 2023, secondo un intervento tenuto nel 2024 dal contrammiraglio della Marina Liam Hulin. Hulin, oggi vicedirettore delle operazioni presso il Central Command, aveva spiegato che il sistema raccoglieva informazioni da 179 diverse fonti di dati. “Il Centcom utilizza intensamente MSS”, aveva detto Hulin, riferendosi a Maven con il suo acronimo. Non è chiaro se le liste di obiettivi generate da Maven siano state condivise con Israele prima dell’attacco, ma le due parti hanno collaborato per mesi nella scelta dei bersagli. Le Forze di difesa israeliane hanno dichiarato che, “in stretta cooperazione con l’esercito degli Stati Uniti, hanno lavorato per migliaia di ore per costruire una banca di obiettivi il più ampia e preziosa possibile”. Anthropic è stata la prima grande azienda di intelligenza artificiale a lavorare con dati classificati, mentre il Pentagono cerca di sfruttare la tecnologia per modernizzare il modo in cui conduce la guerra. La scorsa settimana Amodei ha affermato che Claude è “ampiamente distribuito” all’interno del dipartimento della Difesa e di altre agenzie di sicurezza, dove viene utilizzato per analizzare intelligence e pianificare operazioni. “Credo profondamente nell’importanza esistenziale di usare l’AI per difendere gli Stati Uniti e le altre democrazie e per sconfiggere i nostri avversari autocratici”, ha scritto Amodei in un post sul blog mentre i negoziati con il Pentagono arrivavano a un punto morto. L’adozione è stata rapidissima. La Nato, che lo scorso anno ha firmato un contratto con Palantir, ha presentato la propria versione di Maven come uno strumento che offre ai comandanti capacità di supervisione delle battaglie simili a quelle di un videogioco, in un video recente. Nell’esercito americano il sistema ha permesso a un’unità di artiglieria di svolgere il lavoro normalmente affidato a 2.000 persone con una squadra di appena 20 militari, secondo uno studio sull’uso del sistema condotto dalla Georgetown University sul XVIII Corpo aviotrasportato dell’esercito. Ma altre aziende di AI sono ora pronte a sostituire Anthropic al Pentagono. La società xAI di Elon Musk ha firmato la scorsa settimana un accordo per lavorare su sistemi governativi classificati, così come il principale rivale di Anthropic, OpenAI. (Il Washington Post ha una partnership sui contenuti con OpenAI). Ben Van Roo, amministratore delegato e cofondatore della startup di software militare Legion Intelligence, ha dichiarato che nel suo lavoro degli ultimi due anni e mezzo di integrazione dell’AI generativa nei sistemi informatici del Dipartimento della Difesa “l’utilizzo di base riguarda chat e funzioni avanzate di ricerca – in sostanza la sintesi delle informazioni”. Secondo lui, l’AI non è ancora profondamente integrata nei sistemi d’arma o nei sistemi mission-critical. Van Roo ha detto di non essere a conoscenza del suo uso in Iran, ma si è chiesto come questo impiego si inserisca rispetto ai software già esistenti in grado di stabilire le priorità dei bersagli. Scharre ha detto di essere rimasto colpito dalla rapidità con cui il sistema è stato impiegato in Iran. “E’ davvero notevole”, ha aggiunto. “Vederlo utilizzato nel pieno di un’operazione militare”. Tara Copp, Elizabeth Dwoskin e Ian Duncan, Copyright Washington Post
Continua a leggere su "Il Foglio"