La militarizzazione dell'intelligenza artificiale sta rapidamente trasformando la logica dei conflitti attuali: infatti, l'integrazione dell'IA nelle attività decisionali dei comandi militari sta portando ad un cambiamento nei processi decisionali. Mentre fino a pochi anni fa il Mission Command era supportato da capacità, qualità, giudizi e valori umani, come leadership, motivazione delle truppe, fiducia reciproca, chiara comprensione degli ordini dei comandanti, valutazione della minaccia, tempestività delle decisioni, oggi l'IA pone nuove sfide ai tradizionali modelli decisionali e alla leadership delle catene di comando, supportando la capacità decisionale dei comandanti (fatta anche di istinto e intuizione) con modelli predittivi e algoritmi in grado di prendere il controllo della situazione senza la necessità dell'intervento umano, consentendo una rapida comprensione degli scenari e l'elaborazione di decisioni rapide ed efficaci. È ancora troppo presto per parlare di sostituzione degli gli umani con agenti IA sul campo di battaglia, ma i rapidi progressi nell'intelligenza artificiale e il crescente utilizzo di sistemi d'arma autonomi (LAWS), uniti ai timori sollevati da gran parte della comunità scientifica (inclusi gli stessi creatori di intelligenza artificiale), suggeriscono prospettive preoccupanti che portano a una domanda cruciale: potrebbe mai un esercito umano essere sottoposto al comando di una macchina? Questo articolo presenta una possibile alternativa ai rischi dell'avvento della singolarità tecnologica in ambito militare: nel contesto del dibattito sul potenziamento umano (human enhancement), si descriverà lo sviluppo di un nuovo modello di relazione uomo-macchina, che non assoggetta l'essere umano al controllo dell'intelligenza artificiale, ma offre un nuovo quadro cooperativo, in cui il fattore umano non scompare completamente dietro le decisioni artificiali di una macchina. Come parte di un'analisi evolutiva dei modelli di comando militare, verrà descritta la transizione ad una diversa logica di comando militare assistito dall'IA, che richiede la pratica del comando di rete collaborativo e un quadro di governance dell'etica cyborg in grado di garantire controllo umano significativo e responsabilità nella conduzione delle operazioni militari, incorporando regole e dottrine militari nel processo di ragionamento dell'IA con l'obiettivo di creare un sistema veramente adattivo, al fine di ridurre i rischi di instabilità intrinseca dell'IA negli scenari di guerra.

L’utilizzo dell’IA come supporto decisionale in ambito militare: dal Mission al Network Command fino ai sistemi AI DSS / Galetta, Giuseppe. - In: RIVISTA DI DIGITAL POLITICS. - ISSN 2785-0072. - 2(2024), pp. 383-420. [10.53227/115060]

L’utilizzo dell’IA come supporto decisionale in ambito militare: dal Mission al Network Command fino ai sistemi AI DSS

Giuseppe Galetta
2024

Abstract

La militarizzazione dell'intelligenza artificiale sta rapidamente trasformando la logica dei conflitti attuali: infatti, l'integrazione dell'IA nelle attività decisionali dei comandi militari sta portando ad un cambiamento nei processi decisionali. Mentre fino a pochi anni fa il Mission Command era supportato da capacità, qualità, giudizi e valori umani, come leadership, motivazione delle truppe, fiducia reciproca, chiara comprensione degli ordini dei comandanti, valutazione della minaccia, tempestività delle decisioni, oggi l'IA pone nuove sfide ai tradizionali modelli decisionali e alla leadership delle catene di comando, supportando la capacità decisionale dei comandanti (fatta anche di istinto e intuizione) con modelli predittivi e algoritmi in grado di prendere il controllo della situazione senza la necessità dell'intervento umano, consentendo una rapida comprensione degli scenari e l'elaborazione di decisioni rapide ed efficaci. È ancora troppo presto per parlare di sostituzione degli gli umani con agenti IA sul campo di battaglia, ma i rapidi progressi nell'intelligenza artificiale e il crescente utilizzo di sistemi d'arma autonomi (LAWS), uniti ai timori sollevati da gran parte della comunità scientifica (inclusi gli stessi creatori di intelligenza artificiale), suggeriscono prospettive preoccupanti che portano a una domanda cruciale: potrebbe mai un esercito umano essere sottoposto al comando di una macchina? Questo articolo presenta una possibile alternativa ai rischi dell'avvento della singolarità tecnologica in ambito militare: nel contesto del dibattito sul potenziamento umano (human enhancement), si descriverà lo sviluppo di un nuovo modello di relazione uomo-macchina, che non assoggetta l'essere umano al controllo dell'intelligenza artificiale, ma offre un nuovo quadro cooperativo, in cui il fattore umano non scompare completamente dietro le decisioni artificiali di una macchina. Come parte di un'analisi evolutiva dei modelli di comando militare, verrà descritta la transizione ad una diversa logica di comando militare assistito dall'IA, che richiede la pratica del comando di rete collaborativo e un quadro di governance dell'etica cyborg in grado di garantire controllo umano significativo e responsabilità nella conduzione delle operazioni militari, incorporando regole e dottrine militari nel processo di ragionamento dell'IA con l'obiettivo di creare un sistema veramente adattivo, al fine di ridurre i rischi di instabilità intrinseca dell'IA negli scenari di guerra.
2024
L’utilizzo dell’IA come supporto decisionale in ambito militare: dal Mission al Network Command fino ai sistemi AI DSS / Galetta, Giuseppe. - In: RIVISTA DI DIGITAL POLITICS. - ISSN 2785-0072. - 2(2024), pp. 383-420. [10.53227/115060]
File in questo prodotto:
File Dimensione Formato  
L’utilizzo dell’IA come supporto decisionale in ambito militare.pdf

accesso aperto

Tipologia: Versione Editoriale (PDF)
Licenza: Creative commons
Dimensione 1.21 MB
Formato Adobe PDF
1.21 MB Adobe PDF Visualizza/Apri

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11588/989103
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact