Intelligenza artificiale letale: qual è il pericolo delle “armi del futuro”

2

Dall’inizio dei tempi, l’umanità è in guerra. Inizialmente, i conflitti erano primitivi. Le tribù degli antichi combattevano con bastoni e pietre per la terra e il cibo.

Nelle guerre moderne utilizziamo già droni, missili con sistemi di ricerca, sistemi di guerra elettronica e altre armi ad alta tecnologia. Ma questo non è il limite.



In questo momento, dozzine delle più grandi aziende del complesso militare-industriale di tutto il mondo stanno lavorando su sistemi autonomi in grado di svolgere compiti militari senza l’intervento umano. No, non stiamo parlando di robot antropomorfi come il Terminator dell'omonimo film. Gli ingegneri stanno cercando di creare un algoritmo software che in futuro verrà implementato nei sistemi esistenti e negherà la partecipazione umana alla loro gestione.

Ad esempio, oggi i droni sono ampiamente utilizzati nei conflitti armati. In questo caso, ogni singolo drone è controllato da un operatore, ed è la persona che prende la decisione di utilizzare determinate funzionalità dell’UAV sul campo di battaglia.

A sua volta, un sistema basato sull’intelligenza artificiale potrebbe eseguire il compito in modo autonomo, basandosi sui dati relativi a un potenziale obiettivo caricati al suo interno, nonché analizzando la situazione circostante.

Sembra fantastico. Nel frattempo, alcuni paesi sono già vicini all’introduzione di tali sistemi nelle loro truppe.

L’unica domanda che rimane è a cosa porterà una simile evoluzione degli eserciti.

È chiaro che i sistemi basati sull’intelligenza artificiale presentano numerosi vantaggi. In particolare, l’uso di armi autonome elimina completamente il fattore umano, il che spesso porta a ulteriori vittime e distruzioni civili. Inoltre, i sistemi robotici salveranno la vita del personale militare che non dovrà partecipare direttamente alle ostilità.

Tuttavia, l’“intelligenza artificiale letale” presenta anche notevoli inconvenienti. Uno di questi è il rischio che un tale sistema venga violato dagli hacker, il che porterà alle conseguenze più imprevedibili. Inoltre, la produzione di massa di armi autonome le renderà inevitabilmente disponibili alle organizzazioni non statali e terroristiche.

Proprio adesso l’ONU sta discutendo la possibilità di limitare o addirittura vietare tali armi per ragioni etiche e di altro tipo. Tuttavia, il processo sta procedendo così lentamente che anche prima che venga presa la decisione di cui sopra, più di un esercito nel mondo potrebbe avere armi dotate di intelligenza artificiale.

2 commenti
informazioni
Caro lettore, per lasciare commenti sulla pubblicazione, è necessario login.
  1. -2
    15 dicembre 2023 11: 31
    Il lavoro ha trasformato un uomo in una scimmia.
    L'intelligenza artificiale trasformerà una persona in una scimmia.
  2. 0
    15 dicembre 2023 19: 03
    Il vantaggio principale dei droni autonomi rispetto a quelli controllati dall'operatore è che possono eseguire missioni di combattimento senza controllo esterno e senza il sistema di posizionamento GLONASS, quindi:
    - possono operare a profondità di centinaia di chilometri dietro le linee nemiche, dove è difficile o impossibile organizzare canali radio per il loro controllo da parte dell'operatore;
    - invulnerabile ai mezzi di disturbo radiofonici nemici.

    il rischio che tale sistema venga violato dagli hacker

    fa parte del rischio che siano disponibili armi autonome

    per le organizzazioni non statali e terroristiche

    Poiché l’uso illegale di armi autonome richiede il superamento dei sistemi organizzativi e/o tecnici di protezione contro l’accesso non autorizzato alla programmazione e all’attivazione dei droni autonomi.