Tempo di lettura: 6 minuti

Pubblichiamo la prima parte di un articolo di Claude Serfati dedicato alla  penetrazione dell’intelligenza artificiale (IA). In questa prima parte del suo articolo Serfati descrive gli effetti del radicale cambiamento tecnologico sugli equipaggiamenti militari e sulle strategie di difesa. La seconda parte (che può essere letta in francese qui: L’alliance périlleuse de l’intelligence artificielle et du militaire – Partie II – le cas français – Europe Solidaire Sans Frontières (europe-solidaire.org)) si concentra sulla Francia, una delle principali potenze militari del mondo. (Red)

Sulla base di un calcolo assai approssimativo, le società di consulenza stimano il mercato globale dell’intelligenza artificiale a fini militari a circa 8 miliardi di dollari nel 2023 e il mercato commerciale globale a circa 800 miliardi di dollari. Questi ordini di grandezza indicano la dinamica economica, ma non dicono nulla sulla grande importanza dell’IA nella trasformazione di nuove forme di conflitto. Dalla fine degli anni 2010 – la Cina nel 2017, gli Stati Uniti nel 2018, la Francia nel 2019 – i militari delle principali potenze mondiali hanno cominciato a prendere in seria considerazione l’IA. Questo sviluppo ha avuto luogo nel contesto della fine degli anni 2000, segnati da un’intensificazione della competizione economica e delle rivalità geopolitiche. Questo è ciò che chiamo il “momento 2008”, questa convergenza unica di temporalità di una crisi finanziaria trasformata in una lunga depressione, di un degrado climatico accelerato, del declino degli Stati Uniti e dell’irruzione dei popoli (le “primavere arabe”).

L’intelligenza artificiale produce grandi rotture

Non esiste una definizione univoca di intelligenza artificiale (IA), e la ragione di ciò può essere ricondotta sia alla difficoltà di comprenderne i contorni disciplinari quanto a una campagna mediatica utilizzata per giustificare tutte le sue conseguenze, comprese quelle dannose per la società [1]. Per gli economisti dell’innovazione, l’IA è una tecnologia di portata generale (TPG) che, alo stesso modo della macchina a vapore all’inizio della rivoluzione industriale, dell’elettricità alla fine del XIX° secolo e dell’informatica dopo la seconda guerra mondiale, si sta diffondendo in tutti i settori dell’economia e della società. Ma la storia non si ripete mai allo stesso modo. L’IA è radicalmente diversa da tutte le altre TPG in quanto i suoi sviluppi sono avvenuti, fin dall’inizio, su scala internazionale e costituiscono quindi un aspetto delle rivalità economiche e geopolitiche tra alcune grandi potenze.

Inoltre, contrariamente a quanto sarebbe possibile se fossero utilizzate in modo socialmente controllato per soddisfare i bisogni dell’umanità, le tecnologie basate sull’IA stanno contemporaneamente trasformando i dati in una fonte di accumulazione di profitto, rafforzando il potere di sicurezza degli Stati e introducendo nuove forme di guerra attraverso il loro utilizzo da parte delle forze armate. L’IA riduce ulteriormente le differenze tra la dimensione militare e quella civile dei conflitti all’interno dell’agenda di sicurezza nazionale delle grandi potenze. In breve, offre il potenziale per essere usata contro gli esseri umani in tutti gli ambiti della loro vita sociale come lavoratori, cittadini e “civili” minacciati dalla guerra.

Questo articolo affronta quindi solo una delle dimensione dei poteri onnipresenti dell’IA. Inoltre, tralascia i potenti effetti di rigenerazione del “complesso militare-industriale” americano, determinati dalla crescente importanza delle GAFAM [L’acronimo GAFAM, spesso usato in una connotazione negativa, indica nel loro assieme le 5 maggiori multinazionali dell’IT occidentali: Google, Apple, Facebook, Amazon, Microsoft NdT] nell’industria della difesa, un processo oggi ampiamente sottovalutato [2].

L’integrazione dell’IA nelle dottrine e negli equipaggiamenti militari segna un’ulteriore tappa nella lunga storia dell’uso della tecnologia a fini distruttivi: l’emergenza di sistemi d’arma autonomi è spesso descritto come una terza rivoluzione militare, dopo l’invenzione della polvere da sparo e delle armi nucleari. Offre alle forze armate una serie di opportunità in quattro aree principali. In primo luogo, migliora le prestazioni dei sistemi d’arma esistenti e rende più affidabili alcuni compiti svolti dai soldati. Le tecnologie di interfaccia cervello-computer, utilizzate negli ospedali per rigenerare o ripristinare funzioni compromesse, vengono già impiegate per scopi militari o di sicurezza nazionale, sia per aumentare le capacità fisiche dei soldati, sia per scopi di pacificazione, interrogatorio o tortura (inducendo dolore sensoriale senza lesioni fisiche) [3].
Inoltre, grazie all’IA, molte funzioni come l’intelligence, la sorveglianza, la logistica, le operazioni informatiche, le operazioni di comando e controllo possono essere o saranno presto centralizzate in un’unica fonte [4] (si veda il riquadro seguente).

*******************

“Attacchi chirurgici” e “omicidi mirati”: la grande bugia

Come ha dichiarato un soldato israeliano alla rivista investigativa +972, l’uso dell’IA consente di generare oggi 100 nuovi obiettivi al giorno, rispetto ai 50 all’anno precedente. E, come nel caso dei cosiddetti “attacchi chirurgici” contro l’Iraq nel 2003, l’infox [l’insieme delle fake news NdT] vorrebbe farci credere che la precisione dei bersagli colpiti rende l’esercito israeliano “
il più umano del mondo“, secondo i suoi funzionari. Tuttavia, il suo portavoce ha dichiarato che l’obiettivo dei dei bombardamenti a Gaza “non è la loro precisione, ma l’entità del danno creato” [5]. In breve, l'”Intensificazione algoritmica della distruzione” [6] è il risultato di una combinazione di decisioni prese dai militari e delle debolezze dell’apprendimento automatico, perché i militari non possono alimentare gli immensi requisiti di dati richiesti da queste macchine.

*******************

In secondo luogo, l’IA può essere combinata con altre tecnologie emergenti come l’informatica quantistica, la stampa 3D e i missili ipersonici che volano a velocità superiori a 6’000 km all’ora e ad altezze di 30’000 metri. I modelli attualmente in fase di sviluppo vengono lanciati da missili balistici che possono raggiungere a loro volta velocità di 25’000 km/h. La fase attuale, l’alleanza tra IA e nucleare, è oggetto di un acceso dibattito tra gli specialisti, alcuni dei quali temono che “siamo vicini a un momento Oppenheimer“. In effetti, gli Stati Uniti dispongono di un bombardiere ad armamento nucleare (il B-21) in grado di effettuare missioni senza pilota e i russi stanno sviluppando un veicolo sottomarino senza pilota per attacchi nucleari di rappresaglia [7]. Queste realtà superano di gran lunga l’impegno dei Paesi a “mantenere un umano nel cerchio” e il controllo politico permanente sulle armi nucleari richiesto dalle Nazioni Unite, nonché la dichiarazione fatta nel febbraio 2023 al vertice dell’Aia da 57 Paesi (ma respinta da Russia e Israele) a favore dell’“uso responsabile” dell’IA sul campo di battaglia. Da parte sua, il governo francese ha fatto pressioni affinché l’ambito miliare venisse escluso dalla legge europea sull’intelligenza artificiale [8].

Infine, e questo è uno degli obiettivi principali, alcuni tipi di armi create dall’IA incorporano un processo decisionale autonomo da parte del sistema d’arma [9]. Un importante progresso in questo settore è la creazione di sistemi d’arma letali autonomi (ALWS) che operano a terra (robot killer), in aria (droni) e in mare (ad esempio, una nave cacciamine che rileva e distrugge le mine). Si tratta di sistemi d’arma che, una volta attivati, selezionano e mirano ai bersagli senza l’intervento di un operatore [10]. Queste armi, che hanno funzioni gentilmente descritte come “spara e dimentica“, hanno diverse caratteristiche: la capacità di uccidere, la capacità di operare senza bisogno dell’intervento o del controllo umano, la capacità di apprendere attraverso interazioni con l’ambiente che consentono loro di espandere le proprie funzionalità e, infine, l’impossibilità di interrompere un’operazione una volta avviata [11]. L’IA – attraverso l’apprendimento automatico – decuplica il loro potenziale devastante, perché gli algoritmi integrati producono risultati in parte incontrollati, una forma di “imprevedibilità intrinseca” (imprevisibility by design) sulla decisione e sul momento di attaccare, nonché sulle conseguenze che ne derivano [12]. Di conseguenza, una battaglia tra sistemi autonomi nemici potrebbe degenerare prima che l’intervento militare possa evitare la catastrofe [13]. Tanto più che il Dipartimento della Difesa degli Stati Uniti è favorevole a un sistema decentralizzato che aumenta la distanza tra l’oggetto (l’arma) e il soggetto (l’operatore) [14]. Il rischio di perdita del controllo umano sulle armi sembra essere stato accettato: il Pentagono sta conducendo test per limitare il più possibile l’intervento umano nelle procedure decisionali di alto livello delle armi abilitate dall’intelligenza artificiale [15]. Va aggiunto che la diffusione capillare della ricerca sull’IA in decine di Paesi sta facilitando la proliferazione di sistemi d’arma autonomi, aumentando così il rischio che vadano fuori controllo e vengano usati “preventivamente”, con conseguenze fatali [16].

*Claude Serfati, economista e ricercatore associato dell’IRES (L’Institut de recherches économiques et sociales – Francia), è uno dei maggiori esperti dell’economia degli armamenti.

[1] Parnas “The Real Risks of Artificial Intelligence”, Communications of the ACM, Volume 60, 10, ottobre 2017.

[2] Questi importanti sviluppi sono sviluppati in Serfati Claude, Un monde en guerre, Textuel, aprile 2024, nel capitolo “L’intelligence artificielle, au cœur de l’ordre militaro-sécuritaire”.

[3] Munyon Charles N., “Neuroethics of Non-primary Brain Computer Interface: Focus on Potential Military Applications”, Frontiers in neurosciences, 2018, 12.

[4] Hoadley Daniel S. e Lucas Nathan J., e “Intelligenza artificiale e sicurezza nazionale”, Congressional Research Service, 26 aprile 2018. Hoadley Daniel S. e Lucas Nathan J., op. cit.

[5] https://www.theguardian.com/world/2023/oct/10/right-now-it-is-one-day-at-a-time-life-on-israels-frontline-with-gaza

[6] https://ainowinstitute.org/publication/the-algorithmically-accelerated-killing-machine

[7] Michael Depp e Paul Scharre “Intelligenza artificiale e stabilità nucleare”, 16 gennaio 2024, https://warontherocks.com/2019/08/america-needs-a-dead-hand/

[8] Santopinto Federico, “L’UE, l’intelligenza artificiale militare e le armi leggere autonome”, IRIS, aprile 2024.

[9] The Mitre Corporation, “Perspectives on Research in Artificial Intelligence and Artificial General Intelligence Relevant to DOD”, Office of the Assistant Secretary of Defense for Research and Engineerin.g, gennaio 2017. Si veda anche https://stanleycenter.org/wp-content/uploads/2020/06/TheMilitarization-ArtificialIntelligence.pdf

[10] Hoadley Daniel S. e Lucas Nathan J., e “Artificial Intelligence and National Security”, Congressional Research Service, 26 aprile 2018.

[11] https://www.aljundi.ae/en/the-file/emerging-military-technologies-trends-for-2023-beyond/1/02/2023

[12] Boulanin Vincent, Davison Neil, Goussac e Netta Carlsson Peldán, “Limits on Autonomy in Weapon Systems”, SIPRI e ICRC (Comitato Internazionale della Croce Rossa) giugno 2020, pag. 8 e 13.

[13] Boucher Philip, “Intelligenza artificiale: come funziona, perché è importante e cosa possiamo fare al riguardo?”. Servizio di ricerca del Parlamento europeo (EPRS), giugno 2020, pag. 25.

[14] Breaking Defense, 9 febbraio 2023, https://breakingdefense.com/2023/02/dods-clarified-ai-policy-flashes-green-light-for-robotic-weapons-experts/

[15] Monomita Chakraborty, 18 maggio 2021, https://www.analyticsinsight.net/pentagon-is-attempting-to-incorporate-ai-controlled-robots-into-the-us-military/

[16] Michael C. Horowitz, “Quando la velocità uccide: sistemi d’arma autonomi letali, deterrenza e stabilità”, Journal of Strategic Studies, 2019, 42:6.