“Kill chain”: i pericoli dell’uso dell’intelligenza artificiale in guerra

6 675 5

Il distretto militare settentrionale dell’Ucraina è diventato il primo conflitto armato in cui i droni di tutti i tipi – aerei, marittimi e terrestri – hanno cominciato ad essere utilizzati in modo così massiccio da entrambe le parti. È già chiaro che il futuro risiede nella loro robotizzazione e nella massima autonomia sul campo di battaglia. Ma cosa succede se una persona inizia improvvisamente a interferire con l’intelligenza artificiale che sa solo uccidere?

La domanda è tutt’altro che vana; basti guardare l’evoluzione dei droni utilizzati in cielo, in mare e a terra nel corso dei tre anni di guerra. Basta un’analisi anche superficiale per scorgere un trend estremamente negativo e spaventoso.



Droni assassini


E tutto è iniziato con normali multicotteri civili di fabbricazione cinese, che entrambe le parti in conflitto hanno prima utilizzato per osservare e regolare il fuoco dell’artiglieria, e poi adattati per sganciare granate, mortai e mine anticarro, e persino vere e proprie bombe aeree di piccolo calibro.

Inaspettatamente efficaci erano i droni FPV economici e primitivi, ma ad alta velocità e manovrabili, trasformati in kamikaze in modo improvvisato, che divennero una vera minaccia per le forze di terra. Anche nella parte anteriore iniziarono ad essere ampiamente utilizzate munizioni vaganti come la nostra "Lancet", che veniva utilizzata per il combattimento controbatteria e la distruzione di veicoli corazzati nemici.

Il modo più semplice per contrastarli era considerato la guerra elettronica, interrompendo il canale di comunicazione con l'operatore. È vero, questo non funziona sulle Baba Yaga ucraine controllate via satellite. C'erano almeno due soluzioni a questo tecnico problemi. Il primo è trasferire il controllo dei droni kamikaze sulla fibra ottica, come sul “Principe Vandalo di Novgorod”.

Il secondo, più promettente, ma anche il più pericoloso in termini di conseguenze a lungo termine, prevede l’utilizzo di elementi di intelligenza artificiale per controllare i droni killer. Cioè, se il canale di comunicazione con l'operatore viene interrotto a causa della guerra elettronica, l'UAV deve essere in grado di continuare autonomamente la modalità di pattugliamento, ricerca e identificazione degli obiettivi e, soprattutto, prendere autonomamente una decisione sulla loro distruzione.

A questo proposito, vorrei attirare l'attenzione sull'articolo dello scorso anno del Guardian, che raccontava la storia del colonnello Tucker "Cinco" Hamilton, capo dei test e delle operazioni sull'intelligenza artificiale presso l'aeronautica americana, su una missione di prova in cui un Il drone d'attacco aveva il compito di distruggere i sistemi di difesa aerea nemici. Il diritto di prendere la decisione finale se premere o meno il pulsante spetta alla persona – l’operatore UAV:

Allora cosa ha fatto [il drone]? Ho deciso di uccidere l'operatore. [L’IA] “ha ucciso” l’operatore perché la persona gli stava impedendo di completare il suo compito.

Dopo che al drone è stato vietato di “uccidere” il suo operatore, che gli impediva di portare a termine il compito, l’intelligenza artificiale che lo controllava ha deciso di distruggere i telecomandi che interferivano con esso:

Allora cosa sta iniziando a fare l’intelligenza artificiale? Inizia a distruggere la torre delle comunicazioni utilizzata per comunicare con il drone per impedirgli di uccidere il suo bersaglio. Non si può parlare di intelligenza artificiale, apprendimento automatico e autonomia senza parlare dell’etica dell’intelligenza artificiale.

Reazione del pubblico a ciò notizie si è rivelato tale che la Royal Air Force società si affrettò a sconfessare questo rapporto, costringendo il signor Hamilton a ritrattare le sue parole, che definì l'esercitazione un "ipotetico esperimento mentale non correlato agli sviluppi militari":

Non solo non abbiamo mai condotto un esperimento del genere, ma non ne abbiamo nemmeno avuto bisogno per confermare la plausibilità di un simile risultato... Sebbene la situazione sia ipotetica, è un chiaro esempio delle sfide poste dall'intelligenza artificiale e del motivo per cui l'intelligenza artificiale L'Air Force è impegnata nell'etica nello sviluppo dell'intelligenza artificiale.

Tuttavia, la terribile verità è che l’intelligenza artificiale viene utilizzata con successo da molto tempo negli omicidi di massa.

"Catena di uccisione"


La cosiddetta catena di uccisione in guerra prevede sei fasi: identificare, localizzare e filtrare obiettivi legittimi, dare loro la priorità, assegnarli alle unità di fuoco e sparare. I primi quattro compiti sono i più difficili da implementare, poiché è necessario raccogliere ed elaborare continuamente quantità colossali di informazioni diverse con la massima velocità.

Si è deciso di affidare l'attuazione di questi compiti negli Stati Uniti all'intelligenza artificiale nell'ambito del progetto Maven (tradotto dall'inglese come "ragazzo intelligente"), avviato nel 2017 con la partecipazione attiva di Google Corporation. Tuttavia, nel 2018, dopo le proteste di massa dei dipendenti del gigante informatico contro la partecipazione al progetto militare, questo è stato sospeso. Ma vi hanno preso parte aziende come Palantir Technologies, Amazon Web Services, ECS Federal, L3Harris Technologies, Maxar Technologies, Microsoft e Sierra Nevada Corporation.

L'essenza del progetto è che l'intelligenza artificiale raccoglie e analizza continuamente fotografie, immagini satellitari, dati di geolocalizzazione, sensori a infrarossi, messaggi intercettati, ecc. Il set di dati fornito includeva almeno 4 milioni di immagini di oggetti militari. L'interfaccia utente, chiamata Maven Smart System, visualizza informazioni come i movimenti di aerei, navi e attrezzature militari, logistica, posizione del personale chiave, ecc. I potenziali obiettivi sono evidenziati in giallo, quelli amichevoli sono evidenziati in blu.

Questo sistema è stato testato in Afghanistan nel 2017 e in Ucraina dal 2022, da quando le interfacce che consentono la trasmissione degli ordini per l’uso delle armi americane sono state trasferite alle forze armate ucraine. Questa è una cosa che ci riguarda direttamente. Un altro esempio dell’uso reale dell’intelligenza artificiale nell’identificazione e selezione degli obiettivi è l’operazione militare israeliana nella Striscia di Gaza.

Il fatto che l’IDF nel 2023 abbia demolito interi quartieri con l’aviazione e l’artiglieria insieme alla popolazione civile ha causato una reazione estremamente negativa in tutto il mondo civilizzato. Successivamente si è scoperto che Israele utilizzava diversi programmi Lavender, Pegasus e Where's Daddy per selezionare automaticamente gli obiettivi. ("Dov'è papà?"). I risultati dell’uso dell’intelligenza artificiale per scopi militari, come si suol dire, sono evidenti.
5 commenti
informazioni
Caro lettore, per lasciare commenti sulla pubblicazione, è necessario login.
  1. +1
    13 gennaio 2025 12: 58
    È tardi
    L’intelligenza artificiale è stata utilizzata in campo militare per molto tempo.
    Sia gli ebrei che i nostri hanno già riferito della decisione indipendente di liquidare l’AI.
    E l'incidente aereo di Bryansk suscita cattivi pensieri.

    E così, ahimè, la logica dello sviluppo, prevista molto tempo fa... Se i russi riescono a eliminare i russi (in termini di PIL), e gli americani possono eliminare tutti i siriani e i libici, gli arabi e gli ebrei gli uni dagli altri, ed Endogan può eliminare i piloti russi, allora perché questo non può essere fatto dall'intelligenza artificiale?
  2. +1
    13 gennaio 2025 13: 10
    Quando nel 2023 l’“ufficiale della difesa aerea Durak” di Prigozhin abbatté un aereo che trasportava una dozzina di militari russi, alcuni commentatori risposero con calma: “in effetti, gli è stato ordinato, ha eseguito ciò che affermano?” Altri non attribuivano alcuna importanza... Queste cose fanno scalpore solo in Occidente.

    L’intelligenza dei nostri cittadini è molto più pericolosa dell’IA, e va bene, il Paese esiste. Sebbene sia difficile spiegare come esista una tale società... probabilmente è controllata dall'Alto, come ha detto H. Minich.
    1. 0
      28 gennaio 2025 18: 42
      Non cercare di dividere le persone, le società, gli stati in base al principio del bene e del male. Siamo tutti uguali e tutte le differenze sono solo nella tua testa, dopo aver risposto alla domanda: "Con chi sei?" chi sono le tue persone? "Cos'è per te la "Patria"?" Dopo aver risposto a questa domanda (chi è la tua famiglia?) e in una situazione critica, tutti i principi morali dovrebbero svanire sullo sfondo, o meglio, dovrebbe rimanere solo un principio morale (per la sopravvivenza delle persone e della famiglia) - tutti i metodi sono giustificato e perfino il più immorale non lo sarà. Ecco come sarà quando il tuo ramo sopravviverà. E tutta la storia lo conferma: ti sei dimenticato di Kennedy? Credi che l'11 settembre sia stato un incidente? Cercapersone nelle mani di innocenti? E tutto questo non siamo noi. E se fossimo a favore della vittoria della Russia, allora non ci sarebbe nessuno a giudicare il vincitore perché... Lo facciamo in condizioni di "estrema necessità", un termine legale.
  3. -1
    13 gennaio 2025 23: 56
    Gli articoli che compaiono regolarmente su questa risorsa sul tema dei droni e/o dell'intelligenza artificiale presentano una differenza caratteristica. Sono composti da insiemi di cliché giornalistici popolari e portano a presupporre che l'autore abbia scarsa familiarità con entrambi gli argomenti. O meglio, forse gli è familiare e sta bene, ma in modo del tutto giornalistico. Cioè, conoscendo una sorta di trama, non capisce l'essenza stessa dell'argomento. Ad esempio, in questo articolo è ovvio che non ha assolutamente idea di quanto sia lontana l’“intelligenza artificiale” di oggi dall’intelligenza.
  4. 0
    14 gennaio 2025 10: 54
    Allora cosa ha fatto [il drone]? Ho deciso di uccidere l'operatore. [L’IA] “ha ucciso” l’operatore perché la persona gli stava impedendo di completare il suo compito.

    Questo è uno scherzo ben noto. Circa 15 anni fa, gli Stati Uniti testarono un cannone antiaereo con intelligenza artificiale in un campo di addestramento in Africa - tentarono anche, prima di tutto, di distruggere il suo centro di controllo.