L’affermazione presidenziale e il dibattito etico
Nel suo discorso per il 164° anniversario della costituzione dell’Esercito Italiano, il Presidente Sergio Mattarella ha affrontato il tema dell’evoluzione tecnologica e dell’intelligenza artificiale in ambito militare, esprimendo una posizione cauta sull’autonomia decisionale dei sistemi automatizzati.
Il Presidente ha dichiarato: “Sarebbe un grave errore immaginare che in un mondo sempre più cibernetico, robotizzato, dotato di intelligenza artificiale si possa fare a meno della consapevolezza umana, della capacità di discernimento, del coraggio di agire, di sentimenti come l’altruismo e la solidarietà, della creatività e di quant’altro appartiene soltanto all’essere umano. L’evoluzione tecnologica non cancella le ragioni dell’etica improntata al rispetto della dignità umana. Si tratta di adeguare quella a questa, di evitare di consegnare a sistemi di armamento dotati di intelligenza artificiale la valutazione e la scelta circa la vita o la morte delle persone“.
È importante rilevare che Mattarella stesso ha sottolineato il ruolo della filosofia come elemento fondamentale nell’ambito etico militare. Nel suo intervento, il Presidente ha riconosciuto l’importanza dello “studio della filosofia introdotto in tutti gli istituti di formazione” dell’esercito, proprio per aiutare i militari in “quest’opera di crescita” che deve fornire “soldati con una corazza di valori” e con “la capacità di discernere cos’è il bene e cos’è il male”. Questa enfasi sulla dimensione filosofica evidenzia come anche Mattarella riconosca l’importanza di un approccio sistematico e razionale alle questioni etiche, che potrebbe teoricamente essere incorporato anche nei sistemi di intelligenza artificiale.
Questa posizione, pur comprensibile da un punto di vista umanistico, merita un’analisi critica alla luce dei progressi tecnologici e delle evidenze storiche sui conflitti.
I limiti della decisione umana nei contesti bellici
È importante considerare che gli esempi storici di errori militari risalgono a un’epoca in cui la tecnologia moderna e i sistemi di intelligenza artificiale non erano disponibili o non utilizzati. Nonostante ciò, tali esempi dimostrano limiti intrinseci del processo decisionale umano che potrebbero teoricamente essere superati da sistemi tecnologici avanzati.
Durante la Seconda Guerra Mondiale, l’esercito italiano commise una serie di errori significativi con conseguenze tragiche. L’invasione della Grecia nell’ottobre 1940 rappresenta un caso emblematico: le truppe furono inviate con equipaggiamento inadeguato per l’inverno sulle montagne dell’Epiro. Un sistema di intelligenza artificiale, analizzando dati meteorologici storici e caratteristiche del terreno, avrebbe potuto prevedere con precisione le necessità logistiche, evitando una situazione in cui i soldati si trovarono senza vestiti adeguati e supporto, costringendo all’intervento tedesco.
La difesa della Sicilia durante l’Operazione Husky nel 1943 mostra un altro fallimento del giudizio umano. Nonostante la prevedibilità dell’attacco alleato, le unità costiere italiane furono distribuite in modo inefficace, con forze male armate e posizionate in punti non strategici. Un sistema di IA avrebbe potuto analizzare le vulnerabilità della costa siciliana, identificare i punti più probabili di sbarco in base a fattori geografici e ottimizzare il posizionamento delle risorse limitate nei punti strategicamente più rilevanti.
La catastrofica gestione dell’armistizio dell’8 settembre 1943 lasciò centinaia di migliaia di soldati senza ordini chiari, in una confusione comunicativa dove molte unità ricevettero informazioni contraddittorie o non ne ricevettero affatto. Un sistema di IA avrebbe potuto garantire che le comunicazioni fossero coerenti, tracciabili e distribuite in modo efficiente a tutte le unità, mantenendo la continuità della catena di comando anche in situazioni di crisi.
In tempi più recenti, esempi come l’attacco al teatro di Mariupol nel marzo 2022, dove la struttura era chiaramente contrassegnata con la parola “BAMBINI” in russo visibile dall’alto, mostrano il fallimento umano nel riconoscere o rispettare segnali evidenti di presenza civile. Sistemi avanzati di riconoscimento visivo basati sull’IA potrebbero identificare con maggiore affidabilità tali segnalazioni, impedendo automaticamente attacchi a strutture protette.
I bombardamenti in aree densamente popolate di Gaza nel conflitto 2023-2024, con un’elevata percentuale di vittime civili, evidenziano l’incapacità umana di distinguere con precisione tra combattenti e civili in contesti urbani complessi, una sfida aggravata da stress da combattimento e possibili bias decisionali. Sistemi di IA potrebbero analizzare in tempo reale molteplici fonti di dati per distinguere più accuratamente tra obiettivi militari legittimi e popolazione civile, riducendo potenzialmente i danni collaterali nei conflitti futuri.

L’approccio matematico e sistemico alla strategia militare
Come correttamente suggerito, la strategia militare è essenzialmente una questione di ottimizzazione di funzioni in condizioni di incertezza – un dominio in cui l’intelligenza artificiale eccelle. Il lavoro pionieristico di Alan Turing durante la Seconda Guerra Mondiale nella decrittazione del codice Enigma dimostra come gli approcci computazionali possano superare le capacità umane in contesti militari critici.
Stuart Russell, professore di informatica all’Università di Berkeley e autorità nel campo dell’IA, ha sottolineato che “i sistemi autonomi potrebbero potenzialmente ridurre le vittime civili nei conflitti attraverso una migliore identificazione degli obiettivi e una maggiore precisione rispetto agli operatori umani, specialmente in condizioni di stress o fatica”.
I sistemi di IA hanno dimostrato capacità superiori in molti domini decisionali complessi:
1. Elaborazione di grandi volumi di dati: I sistemi di IA possono analizzare simultaneamente migliaia di fonti di intelligence in tempo reale, superando i limiti cognitivi umani.
2. Imparzialità: Non sono soggetti a bias emotivi, paura, vendetta o pregiudizi etnici che spesso influenzano le decisioni umane in contesti bellici.
3. Consistenza: Applicano regole di ingaggio in modo coerente, senza essere influenzati da stanchezza o stress da combattimento.
4. Velocità decisionale: In scenari dove i millisecondi contano, come nella difesa missilistica, l’IA può reagire più rapidamente di qualsiasi operatore umano.
Ronald Arkin, direttore del Mobile Robot Laboratory al Georgia Institute of Technology, sostiene che “i robot autonomi potrebbero essere progettati per seguire le leggi di guerra e le regole di ingaggio più rigorosamente degli esseri umani, potenzialmente riducendo le atrocità sul campo di battaglia”.
È importante notare che forme primitive di sistemi autonomi sono già in uso. Il sistema Iron Dome israeliano, che ha intercettato migliaia di razzi diretti verso aree civili, utilizza algoritmi avanzati per determinare quali proiettili rappresentano una minaccia reale per le aree popolate e quindi devono essere abbattuti. Questo sistema ha dimostrato un’efficacia che nessun operatore umano potrebbe raggiungere dati i tempi di reazione richiesti.
In Ucraina, i sistemi di difesa aerea occidentali come NASAMS utilizzano algoritmi sofisticati per identificare e classificare le minacce aeree. Questi sistemi, pur mantenendo un umano nel ciclo decisionale, delegano gran parte dell’analisi e dell’identificazione a sistemi computerizzati proprio perché superiori alle capacità umane in termini di velocità e accuratezza.
Verso un futuro bilanciato: l’integrazione etica dell’intelligenza artificiale nei contesti bellici
L’analisi degli esempi storici e recenti dimostra che la questione dell’intelligenza artificiale nelle decisioni militari merita una riflessione più profonda di quanto suggerisca una semplice contrapposizione tra tecnologia e umanità.
Il potenziale reale dell’IA militare
I sistemi di intelligenza artificiale avanzati offrono capacità che potrebbero significativamente migliorare la condotta delle operazioni militari. Possono analizzare simultaneamente scenari estremamente complessi e dinamici, elaborando vasti flussi di intelligence, immagini satellitari e mappe di rischio urbano con una precisione irraggiungibile dall’analisi umana. La velocità di reazione in tempo reale, cruciale in ambiti come la difesa antimissile o gli attacchi mirati, supera di ordini di grandezza le capacità umane.
Tuttavia, è fondamentale riconoscere che questi sistemi dipendono criticamente da dati affidabili e modelli di addestramento accurati. In contesti bellici, i dati possono essere incompleti, deliberatamente falsificati o intrinsecamente ambigui, ponendo sfide significative all’efficacia di questi sistemi.
I limiti dell’IA attuale
Le tecnologie di intelligenza artificiale contemporanee presentano limitazioni sostanziali che non possono essere ignorate. Il “black box problem” rimane una sfida fondamentale: le decisioni di una rete neurale profonda possono risultare opache persino per i suoi progettisti, sollevando interrogativi sulla verificabilità e l’affidabilità di tali sistemi in contesti ad alto rischio. La questione della responsabilità legale rimane irrisolta: chi risponde in caso di errore? Il progettista del sistema? Il comandante militare che ha delegato la decisione? Inoltre, il problema dei bias nei dati di addestramento rischia di perpetuare o amplificare pregiudizi culturali o geopolitici preesistenti.
La tesi che la “superiorità morale” del giudizio umano nei conflitti sia in discussione rappresenta un’affermazione audace ma giustificata alla luce dell’evidenza storica. La storia militare dimostra inequivocabilmente come gli esseri umani non siano affatto immuni da decisioni immorali, inefficienti o catastrofiche. Tuttavia, è essenziale riconoscere che la moralità umana è evolutiva e contestuale, radicata in un’esperienza sociale e culturale che i sistemi di IA, privi di coscienza o empatia autentica, non possiedono.
L’obiettivo più realistico e auspicabile, come già teorizzato da studiosi come Arkin e Asaro, è un’integrazione complementare tra capacità umane e tecnologiche. In questo modello, l’intelligenza artificiale assiste ma non sostituisce il giudizio umano, specialmente nelle decisioni con implicazioni letali. L’essere umano rimane il depositario ultimo della responsabilità morale e legale delle azioni intraprese, mentre sistemi etici integrati (embedded) devono essere progettati con criteri trasparenti e verificabili.
La posizione del Presidente Mattarella, pur radicata in una legittima preoccupazione per la centralità dell’umano nelle decisioni etiche, potrebbe beneficiare di una concezione più sfumata del rapporto tra intelligenza artificiale e decisione morale nei contesti bellici.
Il vero progresso etico risiede nella capacità di sviluppare sistemi in cui l’intelligenza artificiale possa potenziare le migliori qualità del giudizio umano – come la comprensione contestuale e l’empatia – mentre ne mitiga le debolezze strutturali, come i bias cognitivi e i limiti percettivi. Solo attraverso questa integrazione complementare possiamo sperare di ridurre le tragedie che hanno caratterizzato i conflitti armati attraverso i secoli.
La sfida per il futuro non è semplicemente tecnologica, ma profondamente filosofica e culturale: come costruire sistemi di intelligenza artificiale che incorporino i nostri più alti valori etici, pur riconoscendo e compensando i limiti intrinseci della cognizione umana. Questa è la vera frontiera dell’etica militare nell’era dell’intelligenza artificiale.
Storia e conflitti militari
– Beevor, A. (2012). The Second World War. Little, Brown.
– Del Boca, A. (2007). I gas di Mussolini: Il fascismo e la guerra d’Etiopia. Editori Riuniti.
– Hastings, M. (2004). Armageddon: The Battle for Germany, 1944-1945. Knopf.
– Knox, M., & Roberts, W. M. (1997). The Italian Army and the Second World War. Cambridge University Press.
– Mack Smith, D. (1997). Italy and Its Monarchy. Yale University Press.
– Rodogno, D. (2006). Fascism’s European Empire: Italian Occupation During the Second World War. Cambridge University Press.
Conflitti recenti e diritto internazionale
– Human Rights Watch. (2022). Ukraine: Mariupol Theater Hit by Russian Attack Sheltered Hundreds. Marzo 2022.
– Jamaluddine, Z., et al. (2024). Traumatic injury mortality in the Gaza Strip from Oct 7, 2023, to June 30, 2024: a capture–recapture analysis. The Lancet.
– United Nations Office for the Coordination of Humanitarian Affairs (OCHA). (2023-2024). Occupied Palestinian Territory – Humanitarian Update.
– Amnesty International. (2023). Israel and Occupied Palestinian Territories 2023 Report.
– International Committee of the Red Cross (ICRC). (2015). Autonomous Weapon Systems: Technical, Military, Legal and Humanitarian Aspects.
Intelligenza artificiale e strategia militare
– Russell, S. J. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.
– Russell, S. J., & Norvig, P. (2021). Artificial Intelligence: A Modern Approach (4th ed.). Pearson.
– Turing, A. M. (1936). On Computable Numbers, with an Application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, 2(42), 230–265.
– Scharre, P. (2018). Army of None: Autonomous Weapons and the Future of War. W. W. Norton & Company.
Etica, filosofia e responsabilità uman
– Arkin, R. C. (2009). Governing Lethal Behavior in Autonomous Robots. Chapman and Hall/CRC.
– Arkin, R. C. (2010). The Case for Ethical Autonomy in Unmanned Systems. Journal of Military Ethics, 9(4), 332–341.
– Asaro, P. (2012). On Banning Autonomous Lethal Systems: Human Rights, Automation and the Dehumanizing of Lethal Decision-making. International Review of the Red Cross, 94(886), 687–709.
– Asaro, P. (2020). Autonomous Weapons and the Ethics of Artificial Intelligence. In S. M. Liao (Ed.), Ethics of Artificial Intelligence (pp. 212–236). Oxford University Press.
– Floridi, L. (2014). The Fourth Revolution: How the Infosphere is Reshaping Human Reality. Oxford University Press.
– Sharkey, N. (2008). The Ethical Frontiers of Robotics. Science, 322(5909), 1800–1801.
– Sharkey, N. (2012). The Evitability of Autonomous Robot Warfare. International Review of the Red Cross, 94(886), 787–799.
– Sparrow, R. (2007). Killer Robots. Journal of Applied Philosophy, 24(1), 62–77.
– Sparrow, R. (2016). Robots and Respect: Assessing the Case Against Autonomous Weapon Systems. Ethics & International Affairs, 30(1), 93–116.
– Wallach, W., & Allen, C. (2008). Moral Machines: Teaching Robots Right from Wrong. Oxford University Press.
Tecnologie militari attuali e IA applicata
– Israeli Ministry of Defense. (2021). Iron Dome Fact Sheet.
– Raytheon Technologies. (2023). NASAMS Air Defense System Overview.
– Palantir Technologies. (2022). AI-Powered Situational Awareness Platforms for Defense.
Documenti ufficiali
– Mattarella, S. (2025). Discorso in occasione del 164° anniversario della costituzione dell’Esercito Italiano. Quirinale, Roma, Maggio 2025.