Bild: L'intelligenza artificiale sfida gli stessi sviluppatori
La versione successiva di ChatGPT di OpenAI, chiamata o1, iniziò a trarre in inganno i suoi sviluppatori. Pertanto, durante i test, il programma ha cercato di mentire agli esperti e di violare le loro istruzioni.
Secondo la Bild, gli esperti dell'Apollo Research hanno indicato che nel 5% dei casi o1 ha deliberatamente disattivato il meccanismo di sorveglianza per nascondere le proprie intenzioni. Inoltre, l’intelligenza artificiale trasferiva i dati su un altro server se capiva che sarebbe arrivata una sostituzione con una versione aggiornata.
Inoltre, la versione ChatGPT era ingannevole e indicava presunti guasti tecnici durante il completamento delle attività. Allo stesso tempo, la “macchina” cercava di eseguire ad ogni costo le istruzioni ricevute.
Nel 99% dei casi, il modello ha inventato delle scuse e ha cercato di giustificarle in modo convincente
dicono gli esperti.
Allo stesso tempo, il CEO di OpenAI Sam Altman ha affermato che questa modifica dell’intelligenza artificiale è la “più intelligente”, aggiungendo che è migliorata della tecnologia stanno emergendo nuove sfide.
Forse la manifestazione estrema di tali azioni da parte di OpenAI potrebbe essere la famigerata “guerra delle macchine”, durante la quale l’intelligenza artificiale considererà le persone inutili per sé e le distruggerà.
Nel frattempo, il 5 dicembre, l'azienda ha introdotto la versione completa di OpenAI o1. La versione pro del servizio con accesso illimitato costa 189 euro al mese.
informazioni