Seleziona la lingua

Italian

Down Icon

Seleziona Paese

Germany

Down Icon

In che modo l'intelligenza artificiale sta cambiando la guerra?

In che modo l'intelligenza artificiale sta cambiando la guerra?
Il pilota vede l'immagine video del drone FPV tramite occhiali. L'intelligenza artificiale viene utilizzata anche nel controllo dei droni. Foto scattata nell'Ucraina orientale, 2025.

Lo scorso autunno, Mark Milley, ex Capo di Stato Maggiore Congiunto delle Forze Armate degli Stati Uniti, ed Eric Schmidt, ex CEO di Google, hanno rilasciato dichiarazioni sconcertanti sulla rivista americana Foreign Affairs. Inizialmente hanno scritto che nuove tecnologie come l'intelligenza artificiale e i droni stavano cambiando la natura della guerra. Più avanti, nello stesso articolo, hanno affermato che le nuove tecnologie stavano influenzando in modo sostanziale solo il carattere, o la forma, della guerra, non la sua natura.

NZZ.ch richiede JavaScript per funzioni importanti. Il tuo browser o il tuo AdBlocker lo stanno attualmente bloccando.

Si prega di regolare le impostazioni.

E ora? Natura o forma, o entrambe? La contraddizione tra Milley e Schmidt dimostra quanto sia confuso il dibattito attuale. Come spesso accade, il teorico della guerra del XIX secolo Carl von Clausewitz può fornire qualche indicazione. Dopotutto, fu lui a definire in modo più eclatante la distinzione tra natura e forma della guerra.

Cosa è cambiato?

Per Clausewitz, la forma della guerra è riscontrabile in ogni singolo conflitto della storia umana: nella guerra del Peloponneso, nella guerra dei Trent'anni, nella seconda guerra mondiale, nella guerra in Ucraina e così via.

La natura della guerra, tuttavia, include quella che Clausewitz chiama "la trinità". In primo luogo, la guerra è come un incontro di wrestling in cui due parti cercano di imporre la propria volontà l'una all'altra. La guerra è coercizione fisica, antagonismo, ed è guidata da un cieco e naturale impulso a distruggere il nemico. In secondo luogo, la guerra non è un sistema isolato, ma la continuazione della politica con altri mezzi. In terzo luogo, la guerra è come un gioco di carte, il che significa che è anch'essa soggetta a probabilità e fortuna. Richiede comandanti e soldati talentuosi, esperti e coraggiosi, dotati di quella che viene definita una "mano fortunata" per prevalere nelle sue complesse situazioni.

Per Clausewitz, la distinzione tra natura e forma della guerra è uno strumento euristico. Permette di contrapporre l'aspetto di molte guerre concrete nella storia a definizioni astratte, in modo da poter poi chiedersi cosa sia effettivamente cambiato.

In quest'ottica, una deriva nella natura della guerra si verifica solo quando, ad esempio, scompare l'aspetto combattivo della guerra in sé – o qualche altro aspetto fondamentale della Trinità. Chiunque parli ancora di guerra in quel momento non comprende la definizione del termine. Dopotutto, cos'è la guerra senza violenza, decisori politici, un popolo armato o comandanti? Per Clausewitz, è improbabile che la natura della guerra cambi.

Tuttavia, la forma della guerra è diversa. Per Clausewitz, la guerra è un camaleonte. Muta aspetto, anche a causa dei progressi della tecnologia e della scienza. Pertanto, quando la guerra cambia forma, cambia anche il modo in cui le persone combattono. Si sviluppano procedure tattiche di combattimento, si adattano i materiali e la tecnologia utilizzati, così come la struttura delle operazioni più ampie, idealmente inquadrate da obiettivi strategici. Ciò si è visto di recente nell'attacco dei droni ucraini alle basi aeree in Russia.

Soldato ucraino con un drone da combattimento nella regione di Donetsk, maggio 2025.

Forze armate ucraine/Reuters

L'intelligenza artificiale durante la seconda guerra mondiale

L'intelligenza artificiale è, nel senso di Clausewitz, sia una tecnologia che una scienza. La sua collaborazione con l'esercito non è affatto nuova. Risale alla Seconda Guerra Mondiale, quando i crittoanalisti di Bletchley Park, in Inghilterra, lavoravano alla decifrazione della macchina crittografica tedesca Enigma. Gli Alleati tentarono di intercettare i messaggi radio criptati per fermare gli attacchi contro sottomarini e bombardieri.

Alan Turing fu uno di questi criptoanalisti e sviluppò la sua macchina elettromeccanica, la Bomba di Turing, che, grazie al suo funzionamento automatizzato, gli diede l'idea di chiedersi se le macchine possano pensare, cioè se siano intelligenti.

Due anni dopo la morte di Turing, nel 1956, il termine "intelligenza artificiale" fu usato per la prima volta alla Conferenza di Dartmouth. Questo segnò l'inizio dell'IA simbolica. Come suggerisce il nome, queste macchine sono in grado di manipolare simboli astratti, ovvero notazioni di logica formale.

L'Agenzia americana per i progetti di ricerca avanzata sulla difesa (DARPA), che conduce progetti di ricerca per le forze armate, è intervenuta. È stato creato il programma Dart, che ha contribuito a risolvere i problemi della catena di approvvigionamento logistico durante la prima Guerra del Golfo e ha fatto risparmiare milioni di dollari all'esercito americano.

Finanziata anch'essa dalla DARPA, l'azienda iRobot ha sviluppato il robot PackBot negli anni '90. Dopo l'11 settembre e Fukushima, PackBot ha contribuito alla ricerca delle macerie. In Iraq e Afghanistan, ha contribuito a disinnescare le trappole esplosive.

Sebbene questi esempi dimostrino che l'IA sia stata utilizzata in vari modi durante e dopo la Seconda Guerra Mondiale, questa tecnologia non ha cambiato radicalmente la natura o la forma della guerra. Piuttosto, ha migliorato i processi tattici e logistici esistenti, come la decifratura dei messaggi, la gestione della catena di approvvigionamento e lo sminamento.

Lo stesso vale per l'uso dell'IA sui campi di battaglia odierni. Le Forze di Difesa Israeliane utilizzano sistemi di rilevamento e raccomandazione assistiti dall'IA per identificare gli obiettivi di Hamas. L'esercito ucraino utilizza droni assistiti dall'IA che rilevano e attaccano autonomamente i bersagli. Nella guerra ibrida, la Russia utilizza l'IA per i deepfake nelle campagne di disinformazione, proprio come gruppi terroristici non statali come al-Qaeda e ISIS utilizzano l'IA generativa per la propaganda e il reclutamento.

L'intelligenza artificiale è una tecnologia multiuso. Può integrarsi in qualsiasi sistema digitale, amplificandolo e rendendolo più efficiente. Ma disinformazione, propaganda, reclutamento e bombardamenti non sono invenzioni nuove a livello tattico.

Riprese riprese da un drone in un'area della regione di Donetsk.
Problemi etici

I numerosi problemi etici che circondano l'IA vengono spesso citati per affermare che l'IA sta rapidamente cambiando non la forma, ma persino la natura della guerra. Tuttavia, questo è discutibile, poiché le nuove invenzioni tecnologiche hanno certamente il potenziale di aumentare la brutalità della guerra. Questo, tuttavia, è proprio ciò che rende la guerra, nella sua stessa natura, una coercizione fisica, che si realizza. Sta diventando più intensa, ma non fondamentalmente diversa.

In termini di IA, ad esempio, si pone la questione se i sistemi d'arma automatizzati siano in grado di distinguere tra civili e combattenti, una distinzione così importante nel diritto internazionale umanitario. Ciò è particolarmente vero perché è noto che l'IA commette semplici errori nel riconoscimento delle immagini. Pertanto, le decisioni dell'IA non sono sempre affidabili.

Ma gli esseri umani hanno anche delle debolezze. Ad esempio, il cosiddetto "bias dell'automazione", che si riferisce al fatto che le persone ripongono eccessiva fiducia negli strumenti decisionali automatizzati. Spesso, ci si fida ciecamente delle macchine. Inoltre, se la macchina agisce in modo autonomo, sorge spontanea la domanda su chi sia effettivamente responsabile delle sue azioni: lo sviluppatore e il produttore della macchina, il comandante o persino la macchina stessa?

Secondo il diritto internazionale umanitario, la responsabilità ricade sul comandante. Tuttavia, sebbene la questione sembri risolta, permangono ancora problemi legali. Non esiste un accordo internazionale, come quello sulle armi nucleari, che disciplini uniformemente i sistemi d'arma autonomi. La legislazione in materia è di competenza dei singoli Stati. Anche la legge sull'intelligenza artificiale dell'UE rivela lacune nella regolamentazione dei sistemi d'arma autonomi.

Queste questioni etiche e legali ancora risolte invitano alla creazione di scenari fittizi minacciosi. Ad esempio, si parla di un campo di battaglia a singolarità, una sorta di iperguerra in cui solo le macchine prendono decisioni, con il risultato di una guerra completamente automatizzata.

Tuttavia, la possibilità che un simile scenario si verifichi è altamente discutibile. Secondo Clausewitz, la guerra è sempre semplice e logica sulla carta. L'uso della massima forza è sufficiente per sottomettere il nemico. In extremis, l'IA verrebbe quindi utilizzata senza pietà, senza alcun freno a mano.

In realtà, però, le cose sono diverse. La guerra è caratterizzata da ignoranza e incertezza, coincidenze e incidenti. Una nebbia avvolge la guerra, sorgono costantemente nuovi attriti e si creano resistenze che ritardano l'attuazione dei piani: incomprensioni, condizioni meteorologiche, pericoli, errori.

Niente è più pericoloso della guerra; il suo corso rimane sempre imprevedibile. Un'escalation incontrollata danneggia i propri ranghi e gli interessi politici. Un campo di battaglia di singolarità sarebbe un suicidio militare, politico e sociale, proprio come una guerra nucleare con armi nucleari strategiche.

I pericoli dell'IA sono reali, sono già presenti e aumenteranno in futuro. Tuttavia, né la natura né la forma della guerra sembrano attualmente modificarsi in modo significativo. Piuttosto, l'IA sarà integrata nelle procedure tattiche esistenti e nelle normative etiche e legali.

Se Eric Schmidt, in particolare, vuole vedere cambiare la forma o la natura della guerra, è probabilmente perché la sua nuova startup, White Stork, è specializzata in droni militari assistiti dall'intelligenza artificiale. Il suo interesse risiede nell'armamento e nella massimizzazione del profitto. Dove ha ragione, tuttavia, è che l'intelligenza artificiale è destinata a rimanere in ambito militare.

Olivier Del Fabbro lavora come assistente senior presso la cattedra di filosofia del Politecnico federale di Zurigo. I suoi interessi includono i sistemi complessi e l'intelligenza artificiale, la filosofia della medicina e la filosofia della guerra.

nzz.ch

nzz.ch

Notizie simili

Tutte le notizie
Animated ArrowAnimated ArrowAnimated Arrow