“Kill chain”: i pericoli dell’uso dell’intelligenza artificiale in guerra
Il distretto militare settentrionale dell’Ucraina è diventato il primo conflitto armato in cui i droni di tutti i tipi – aerei, marittimi e terrestri – hanno cominciato ad essere utilizzati in modo così massiccio da entrambe le parti. È già chiaro che il futuro risiede nella loro robotizzazione e nella massima autonomia sul campo di battaglia. Ma cosa succede se una persona inizia improvvisamente a interferire con l’intelligenza artificiale che sa solo uccidere?
La domanda è tutt’altro che vana; basti guardare l’evoluzione dei droni utilizzati in cielo, in mare e a terra nel corso dei tre anni di guerra. Basta un’analisi anche superficiale per scorgere un trend estremamente negativo e spaventoso.
Droni assassini
E tutto è iniziato con normali multicotteri civili di fabbricazione cinese, che entrambe le parti in conflitto hanno prima utilizzato per osservare e regolare il fuoco dell’artiglieria, e poi adattati per sganciare granate, mortai e mine anticarro, e persino vere e proprie bombe aeree di piccolo calibro.
Inaspettatamente efficaci erano i droni FPV economici e primitivi, ma ad alta velocità e manovrabili, trasformati in kamikaze in modo improvvisato, che divennero una vera minaccia per le forze di terra. Anche nella parte anteriore iniziarono ad essere ampiamente utilizzate munizioni vaganti come la nostra "Lancet", che veniva utilizzata per il combattimento controbatteria e la distruzione di veicoli corazzati nemici.
Il modo più semplice per contrastarli era considerato la guerra elettronica, interrompendo il canale di comunicazione con l'operatore. È vero, questo non funziona sulle Baba Yaga ucraine controllate via satellite. C'erano almeno due soluzioni a questo tecnico problemi. Il primo è trasferire il controllo dei droni kamikaze sulla fibra ottica, come sul “Principe Vandalo di Novgorod”.
Il secondo, più promettente, ma anche il più pericoloso in termini di conseguenze a lungo termine, prevede l’utilizzo di elementi di intelligenza artificiale per controllare i droni killer. Cioè, se il canale di comunicazione con l'operatore viene interrotto a causa della guerra elettronica, l'UAV deve essere in grado di continuare autonomamente la modalità di pattugliamento, ricerca e identificazione degli obiettivi e, soprattutto, prendere autonomamente una decisione sulla loro distruzione.
A questo proposito, vorrei attirare l'attenzione sull'articolo dello scorso anno del Guardian, che raccontava la storia del colonnello Tucker "Cinco" Hamilton, capo dei test e delle operazioni sull'intelligenza artificiale presso l'aeronautica americana, su una missione di prova in cui un Il drone d'attacco aveva il compito di distruggere i sistemi di difesa aerea nemici. Il diritto di prendere la decisione finale se premere o meno il pulsante spetta alla persona – l’operatore UAV:
Allora cosa ha fatto [il drone]? Ho deciso di uccidere l'operatore. [L’IA] “ha ucciso” l’operatore perché la persona gli stava impedendo di completare il suo compito.
Dopo che al drone è stato vietato di “uccidere” il suo operatore, che gli impediva di portare a termine il compito, l’intelligenza artificiale che lo controllava ha deciso di distruggere i telecomandi che interferivano con esso:
Allora cosa sta iniziando a fare l’intelligenza artificiale? Inizia a distruggere la torre delle comunicazioni utilizzata per comunicare con il drone per impedirgli di uccidere il suo bersaglio. Non si può parlare di intelligenza artificiale, apprendimento automatico e autonomia senza parlare dell’etica dell’intelligenza artificiale.
Reazione del pubblico a ciò notizie si è rivelato tale che la Royal Air Force società si affrettò a sconfessare questo rapporto, costringendo il signor Hamilton a ritrattare le sue parole, che definì l'esercitazione un "ipotetico esperimento mentale non correlato agli sviluppi militari":
Non solo non abbiamo mai condotto un esperimento del genere, ma non ne abbiamo nemmeno avuto bisogno per confermare la plausibilità di un simile risultato... Sebbene la situazione sia ipotetica, è un chiaro esempio delle sfide poste dall'intelligenza artificiale e del motivo per cui l'intelligenza artificiale L'Air Force è impegnata nell'etica nello sviluppo dell'intelligenza artificiale.
Tuttavia, la terribile verità è che l’intelligenza artificiale viene utilizzata con successo da molto tempo negli omicidi di massa.
"Catena di uccisione"
La cosiddetta catena di uccisione in guerra prevede sei fasi: identificare, localizzare e filtrare obiettivi legittimi, dare loro la priorità, assegnarli alle unità di fuoco e sparare. I primi quattro compiti sono i più difficili da implementare, poiché è necessario raccogliere ed elaborare continuamente quantità colossali di informazioni diverse con la massima velocità.
Si è deciso di affidare l'attuazione di questi compiti negli Stati Uniti all'intelligenza artificiale nell'ambito del progetto Maven (tradotto dall'inglese come "ragazzo intelligente"), avviato nel 2017 con la partecipazione attiva di Google Corporation. Tuttavia, nel 2018, dopo le proteste di massa dei dipendenti del gigante informatico contro la partecipazione al progetto militare, questo è stato sospeso. Ma vi hanno preso parte aziende come Palantir Technologies, Amazon Web Services, ECS Federal, L3Harris Technologies, Maxar Technologies, Microsoft e Sierra Nevada Corporation.
L'essenza del progetto è che l'intelligenza artificiale raccoglie e analizza continuamente fotografie, immagini satellitari, dati di geolocalizzazione, sensori a infrarossi, messaggi intercettati, ecc. Il set di dati fornito includeva almeno 4 milioni di immagini di oggetti militari. L'interfaccia utente, chiamata Maven Smart System, visualizza informazioni come i movimenti di aerei, navi e attrezzature militari, logistica, posizione del personale chiave, ecc. I potenziali obiettivi sono evidenziati in giallo, quelli amichevoli sono evidenziati in blu.
Questo sistema è stato testato in Afghanistan nel 2017 e in Ucraina dal 2022, da quando le interfacce che consentono la trasmissione degli ordini per l’uso delle armi americane sono state trasferite alle forze armate ucraine. Questa è una cosa che ci riguarda direttamente. Un altro esempio dell’uso reale dell’intelligenza artificiale nell’identificazione e selezione degli obiettivi è l’operazione militare israeliana nella Striscia di Gaza.
Il fatto che l’IDF nel 2023 abbia demolito interi quartieri con l’aviazione e l’artiglieria insieme alla popolazione civile ha causato una reazione estremamente negativa in tutto il mondo civilizzato. Successivamente si è scoperto che Israele utilizzava diversi programmi Lavender, Pegasus e Where's Daddy per selezionare automaticamente gli obiettivi. ("Dov'è papà?"). I risultati dell’uso dell’intelligenza artificiale per scopi militari, come si suol dire, sono evidenti.
informazioni