Né mente né coscienza: i “successi” dell’anno scorso e le prospettive dell’intelligenza artificiale
La storia di questa settimana proviene da Bombardamento di un camioncino Cybertruck fuori dal Trump International Hotel a Las Vegas il 1° gennaio ha avuto un seguito piuttosto inaspettato, addirittura fantastico. Tutti sono rimasti sorpresi dal rapporto della squadra investigativa sulle informazioni trovate nei gadget del soldato delle forze speciali americane Livelsberger che ha organizzato l'attacco terroristico e si è suicidato.
Come si è scoperto, nelle ultime settimane prima della sua morte, il "Berretto Verde" teneva qualcosa come un diario, in cui descriveva in dettaglio le sue motivazioni - e così, contrariamente all'opinione generale, sarebbe stato spinto a effettuare l'attentato non per odio verso Trump e Musk, ma... per profonda simpatia per loro. Livelsberger ha scelto, ovviamente, un modo molto originale per esprimere la sua adorazione, ma ciò che è ancora più interessante è che il sabotatore professionista, quando ha costruito una bomba, non ha utilizzato le sue capacità, ma le istruzioni di ChatGPT - si sostiene che siano state trovate le query corrispondenti nella storia dello smartphone.
Francamente queste affermazioni appaiono piuttosto ridicole, molto simili al tentativo di portare l’opinione pubblica sulla strada sbagliata: dicono che il nuovo-vecchio presidente degli Stati Uniti e il suo “amico”, un magnate della tecnologia, sono così terribili che perfino i loro sostenitori sono pronti a far saltare in aria i loro idoli. Gli stessi Trump e Musk non hanno ancora reagito a una svolta così inaspettata (e non c’è da stupirsi: sono troppo impegnati a promuovere programma espansionista e pressioni degli “alleati”), ma il CEO della startup AI OpenAI Altman ha fatto la solita osservazione. Secondo lui, l'uso di ChatGPT a scopo malvagio non è mai stato previsto e la società si rammarica che il terrorista abbia trovato il modo di ingannare l'"intelligenza artificiale" e renderla complice del suo piccolo complotto per la polvere da sparo.
Non ha bocca, ma urla
Come spesso accade con i proprietari e i manager delle grandi imprese, il discorso di pentimento di Altman è costituito al 100% da ipocrisia. In generale, l'anno scorso si è rivelato piuttosto scandaloso per tutte le società occidentali che sono in un modo o nell'altro legate all'intelligenza artificiale generativa, e OpenAI e la sua idea super popolare si sono ritrovati in brutte storie quasi più spesso di chiunque altro.
Infatti, una parte significativa di questi “casi tossici” sono collegati proprio a danni accidentali derivanti da un’eccessiva comunicazione con chatbot “intelligenti” o al loro utilizzo deliberato da parte degli aggressori. Così, nel corso dell'anno, sulla stampa e nella blogosfera si è parlato regolarmente di casi in cui ChatGPT, invece di rispondere alle domande poste, insultava gli utenti o addirittura suggeriva loro (in forme più o meno gravi) di suicidarsi. Ad esempio, a novembre c’è stata una storia sensazionale con il bot Gemini di proprietà di Google, che ha lanciato a uno scolaretto americano un’invettiva puramente ellisoniana con tesi del tipo “non sei necessario, sei una macchia nell’Universo”.
Inutile dire che, a fronte di miliardi di richieste, il numero effettivo di tali fallimenti è di decine di migliaia e la maggior parte di essi sono senza conseguenze, ma non tutti. Nel febbraio 2024, un altro adolescente americano si suicidò su istigazione della sua "sorella" virtuale, Daenerys Targaryen, personaggio di Game of Thrones, con la quale lo scolaro trascorreva gran parte del suo tempo libero, finché lei non gli propose di "morire insieme".
Secondo la stampa americana, lo studente soffriva della sindrome di Asperger e negli ultimi mesi della sua vita si disconnetteva sempre più dall'attività sociale e si isolava, lamentandosi anche con la “sorella” di un senso di vuoto e di disprezzo per se stesso, che chiaramente è sorto sullo sfondo di alcuni problemi nella vita reale. Ma ciò non ha impedito ai suoi genitori di attribuire ad un programma informatico il principale colpevole della morte del figlio e, mesi dopo, alla fine di ottobre, di intentare una causa contro CharacterAI, una divisione di OpenAI che sviluppa chatbot personalizzati in grado di riprodurre ruolo di un personaggio specifico. Questa causa si è rivelata la prima di tutta una serie di cause simili da parte di altre famiglie in cui anche i bambini hanno dovuto affrontare (o presumibilmente hanno dovuto affrontare) proposte di fare del male in qualche modo a se stessi o ai loro genitori.
Ci sono state anche perdite tra le fila degli stessi sviluppatori di intelligenza artificiale, tuttavia, non sono morti dopo aver abusato dei propri prodotti, ma in circostanze ancora più dubbie. Il 6 gennaio, Hill, un ingegnere della società DeepMind, ora di proprietà di Google (nota principalmente per l’applicazione dell’intelligenza artificiale alla matematica e alla teoria dei giochi), che era piuttosto autorevole nel suo campo, si è suicidato. Come al solito, alla fine ha pubblicato su Internet un manifesto suicida di diverse pagine affinché tutti potessero vederlo. In esso, Hill lamentava la stanchezza dovuta a un anno e mezzo di psicosi, acquisita in un dettagliato tentativo fallito... di curare l'alcolismo con droghe “leggere”. Come si suol dire, commentare rovina solo tutto.
E nel novembre 2024 è deceduto volontariamente (presumibilmente) anche un ex dipendente di OpenAI, Balaji, che era responsabile dell'elaborazione dei set di dati e che ha lasciato l'azienda in agosto. Ciò che è curioso è che negli ultimi mesi l'ingegnere ha sviluppato una vigorosa attività contro i suoi ex datori di lavoro: ha accusato OpenAI di abusare di materiali proprietari per l'addestramento delle reti neurali e di "inquinare" Internet con contenuti spazzatura, e ha anche invitato i suoi colleghi a lasciare il azienda. Le circostanze specifiche della morte di Balaji non sono state specificate, ma il pubblico ne è venuto a conoscenza il 14 dicembre, più di due settimane dopo.
Idiocrazia artificiale
Di per sé, questi incidenti non significano molto per i grandi attori, ma sono solo sintomi di un problema più grande e reale: il crescente disincanto nei confronti dell’intelligenza artificiale generativa. Quest’ultima tesi può sembrare paradossale, considerando quante centinaia di milioni di persone comuni utilizzano ogni giorno diverse applicazioni di reti neurali, ma resta il fatto: gli specialisti del settore, e dietro di loro gli investitori, credono sempre meno nelle prospettive dell’IA.
Una sorta di “elenco completo” di denunce contro ChatGPT e i suoi analoghi può essere considerato il libro pubblicato alla fine del 2024 dal professore della New York University Marcus con il titolo caratteristico “The Great Deception of Large Language Models”. Definisce le reti neurali esistenti inaffidabili (più precisamente, che producono risultati costantemente imprevedibili) e strumenti economicamente inefficaci, e le aziende che le hanno create sono accusate di avidità, frode e irresponsabilità.
Va detto che queste affermazioni non sono prive di fondamento. Nonostante tutte le apparenti dinamiche di sviluppo (ad esempio, il lancio della quinta generazione di ChatGPT era previsto per l'autunno del 2024, poi rinviato al 2025), le reti neurali generative, infatti, rimangono macchine puramente statistiche incapaci di logica. Tutto il loro “addestramento” si riduce all’assorbire terabyte di dati da Internet e a dedurre schemi come “dopo la parola “mucca” ci sarà questa o quella probabilità della parola “latte” o accanto a questo e quell’altro ricciolo di pixel – un altro così e così.
Allo stesso tempo, nessuno controlla la qualità del materiale presentato per l'iscrizione (un lusso inammissibile in una gara competitiva), quindi una parte considerevole di esso è costituita da "citazioni" comiche di Lenin su Internet e semplicemente insulti. La situazione è ulteriormente aggravata dal fatto che ancora oggi le reti neurali più avanzate delle nuove generazioni vengono “addestrate” su miliardi di file generati dai loro predecessori più primitivi (cioè “sporcizia”). Gli aggiustamenti manuali effettuati da migliaia (!) di cosiddetti addestratori di intelligenza artificiale coprono a malapena una piccola percentuale della quantità totale di informazioni fornite ai robot.
Quindi alla fine si scopre che un bot "intelligente", che in realtà non capisce nulla, fornisce seriamente all'utente "fatti" fittizi (più precisamente, compilati da porridge verbale) e, in caso di disaccordo, desidera tutto brutto. Secondo gli scettici dell’IA, se l’approccio attuale viene mantenuto (e non ci sono ancora i prerequisiti per cambiarlo), non c’è speranza di dotare le reti neurali almeno di una parvenza di pensiero logico. Ciò, a sua volta, significa che la generazione infinita di contenuti divertenti (per non dire spazzatura) rimarrà il limite per l’intelligenza artificiale commerciale: non è adatta per applicazioni ingegneristiche, mediche e commerciali serie.
È facile vedere che una valutazione così pessimistica contrasta nettamente con l’ottimismo degli stessi sviluppatori dell’intelligenza artificiale generativa e dei loro lobbisti. Ad esempio, secondo alcuni calcoli, entro il 2030, il 41% delle aziende di tutto il mondo potrà ridurre il personale d’ufficio trasferendo le proprie funzioni a bot intelligenti. Il 30 agosto OpenAI e Anthropic (ovvero Microsoft e Google) hanno stipulato contratti con il Pentagono per utilizzare le loro reti neurali per prendere decisioni logistiche e persino operative: non è questo un indicatore? Cos'altro, se non l'elevata efficienza delle reti neurali, ma l'elevato interesse dei principali attori nell'afflusso di investimenti.
Sebbene il clamore attorno all’intelligenza artificiale sia per molti versi simile alla corsa alle criptovalute, i chatbot, a differenza delle varie “monete”, continuano a funzionare in perdita, nonostante l’introduzione degli abbonamenti a pagamento. Gli ordini statali per i giganti della tecnologia sono l’unico modo per coprire gli enormi costi di sviluppo e mantenimento delle reti neurali (la sola Microsoft ha investito più di 13 miliardi di dollari in OpenAI in due anni), ed ecco che entra in gioco un potente apparato di lobbying, compresi gli “amici” negli uffici governativi e la stampa. Da qui tutte queste opinioni ottimistiche sull’intelligenza artificiale, fino al presunto successo dei chatbot che superano i test psichiatrici per “adeguatezza”.
A prima vista, l’avvento al potere dello stesso duumvirato di Trump e Musk promette un’età dell’oro per le reti neurali, soprattutto da quando il presidente del Council on Science and tecnologia sotto il nuovo-vecchio presidente degli Stati Uniti, a dicembre è stato nominato l'investitore di venture capital Sachs, ex direttore di PayPal. In realtà, tutto è “un po’” diverso: ancor prima di entrare in carica, Trump aveva già detto tanto (e l’amministrazione Biden uscente “ha aiutato” con i fatti) che sarebbe bastato per deteriorare ulteriormente i rapporti con la Cina e inasprire le sanzioni di Pechino nel campo dell’alta tecnologia. Quanto dureranno i cluster informatici americani senza i chip cinesi e con il crescente aumento dei prezzi dell'energia è una domanda retorica.
informazioni