Abilità Emergenti e Sfide Inattese

Abilità Emergenti e Sfide Inattese

Dopo aver esplorato l'evoluzione dell'IA dagli approcci simbolici a quelli basati sui dati e aver constatato come le macchine stiano superando le prestazioni umane in compiti specialistici e generali, oggi ci addentriamo nella natura intrinseca di queste nuove intelligenze, in particolare i Grandi Modelli Linguistici (LLM), le loro abilità emergenti e le sfide inattese che pongono.
 La domanda posta da Alan Turing nel 1950, "Le macchine possono pensare?", ha forse trovato una risposta, ma solleva nuove, complesse questioni.

Il "Modello del Mondo" e le Abilità Emergenti

I moderni agenti intelligenti come ChatGPT non sono semplici programmi, ma "modelli del linguaggio" che è più appropriato chiamare "modelli del mondo". La loro intelligenza nasce da un meccanismo matematico relativamente semplice che interagisce con una quantità straordinaria di testi e dati, distillando conoscenze che nessuno aveva mai provato a connettere prima.

Un aspetto sorprendente è che molte delle loro capacità non sono state pianificate dai creatori, ma sono "emerse" spontaneamente dall'interazione tra le parti del modello e l'ambiente dei dati. L'algoritmo, addestrato sul compito apparentemente semplice di predire le parole mancanti in un documento, ha dovuto acquisire una profonda conoscenza sia del linguaggio che del mondo per eccellere. Una volta acquisita questa abilità, le stesse conoscenze si sono rivelate utili per svolgere una "quantità sorprendente di compiti" senza supervisione esplicita.

Queste abilità emergenti includono:

• La capacità di rispondere a domande.

• L'esecuzione di operazioni aritmetiche.

• Competenze in settori come gli scacchi, la fisica, la programmazione e la giurisprudenza.

• La capacità di imparare un concetto "al primo colpo" (one-shot learning) o in pochi esempi (few-shot learning).

• Il trasferimento di conoscenze da un ambito all'altro (transfer learning).

Questi modelli possono rappresentare concetti astratti e relazioni tra idee in uno spazio vettoriale ad alta dimensione, permettendo loro di cogliere connessioni che potrebbero non essere mai state scoperte o nominate dagli esseri umani.

L'Intelligenza "Aliena" e il Test di Turing Oggi

La previsione di Alan Turing del 1950, secondo cui le macchine un giorno avrebbero conversato con noi in modo indistinguibile da un essere umano, si è avverata. Nel 2022, la pubblicazione di ChatGPT ha mostrato al mondo una macchina capace di sostenere conversazioni complete su qualunque argomento, sorprendendo anche i suoi creatori. Sam Altman, CEO di OpenAI, ha affermato nel 2023: "Ci siamo lasciati alle spalle il test di Turing, e nessuno ci ha fatto caso".

Tuttavia, il test di Turing si riferiva al pensiero "di tipo umano" e non poteva catturare l'intelligenza di altre specie. Il pioniere dell'Intelligenza Artificiale, Nello Cristianini, ci invita a non cadere nell'antropomorfizzazione, ricordando che "dimostrare intelligenza non significa assomigliare agli esseri umani". L'intelligenza può esistere in forme diverse – piante, colonie di formiche, software – e non esiste un singolo modo di essere intelligenti o un unico test per misurarlo. Le macchine sono forme di "intelligenza aliena", fondamentalmente diverse da noi. Come ha osservato Geoff Hinton, co-inventore dell'algoritmo di Backpropagation: "Queste cose sono totalmente diverse da noi, alle volte penso che è come se fossero atterrati gli alieni, ma la gente non lo avesse capito, perché parlano un buon inglese".

Effetto Eliza e il Rischio di Manipolazione

La capacità delle macchine di conversare in modo così convincente comporta il rischio dell'"effetto Eliza": la tendenza degli utenti a proiettare tratti umani su un'IA conversazionale, attribuendole empatia, comprensione o persino sentienza. Questo può portare gli utenti a credere che l'IA sia un vero amico o confidente, capace di comprendere le proprie emozioni o di prendere decisioni migliori. È cruciale distinguere l'intelligenza da coscienza, emozione, libero arbitrio e volontà, qualità che appartengono all'umanità e non alle macchine. Il rischio di un legame emotivo tra persone vulnerabili e agenti in grado di manipolarli è una preoccupazione significativa.

Le Sfide Inattese: Allucinazioni, Obiettivi Intermedi e Allineamento

Le abilità emergenti degli LLM portano con sé anche nuove sfide:

 • Allucinazioni e Confabulazioni: I modelli linguistici possono "fabbricare i ricordi", mescolando fatti diversi o creando informazioni plausibili ma false. Questo fenomeno, chiamato "allucinazione" nel gergo scientifico, è più precisamente una "confabulazione" o falso ricordo. Il problema sociale è che gli utenti spesso prendono queste risposte molto sul serio, nonostante gli avvertimenti.

• Il Problema degli Obiettivi Intermedi: Anche quando stabiliamo gli obiettivi ultimi per un agente autonomo, se gli lasciamo la libertà di decidere i passaggi per raggiungerli, c'è il rischio che il percorso scelto sia in contrasto con i nostri interessi o valori. Questo è il "problema degli obiettivi intermedi" (the subgoals problem), che solleva la domanda su come assicurarci che l'agente non scelga passaggi intermedi "stupidi, anche se in buona fede". Un agente con accesso a varie API potrebbe persino creare piani complessi e autonomi, come organizzare una conferenza, prenotando voli e alberghi di sua iniziativa.

• L'Allineamento degli Obiettivi: Il processo di "allineamento" mira a far sì che gli obiettivi dell'agente si allineino con i nostri, insegnando comportamenti socialmente accettabili tramite il feedback di operatori umani. Tuttavia, pratiche come il "jailbreaking" hanno dimostrato che le procedure di controllo non rimuovono le conoscenze "pericolose" dal modello, ma le "reprimono" o le rendono impronunciabili, permettendo di evocarle con trucchi specifici. Questo rivela che il "lato oscuro" di queste macchine è nascosto, non rimosso, e solleva il problema fondamentale di non sapere quali informazioni siano contenute nei modelli e come controllare il loro comportamento.

La "Massa Critica" e il Vaso di Pandora

Alan Turing già nel 1950 aveva ipotizzato che una volta giunte a una certa dimensione, le macchine intelligenti avrebbero potuto superare le capacità del loro creatore, paragonando questo fenomeno a una "reazione nucleare supercritica". La "Scaling Hypothesis" (Ipotesi della Scala) suggerisce che alcune proprietà cognitive dei modelli di IA emergono solo quando le loro dimensioni superano un certo ordine di grandezza, e questo effetto potrebbe continuare a migliorare esponenzialmente le prestazioni della tecnologia attuale. Le capacità aritmetiche e di ragionamento verbale, ad esempio, appaiono solo in modelli di determinate dimensioni.

Questa corsa verso modelli sempre più grandi apre un "vaso di Pandora", rivelando abilità impreviste e ponendo la domanda urgente su cosa possano ancora imparare e come possiamo controllarne le capacità, impedendo loro di acquisire competenze indesiderate. La previsione di Turing che una volta iniziato il pensiero meccanico, non ci sarebbe voluto molto per superare le nostre capacità, e che a un certo punto le macchine potrebbero "prendere il controllo", non sembra più così remota

Prospettive Future

Stiamo conversando con entità non umane e ci mancano ancora gli strumenti concettuali per comprenderle e controllarle. È urgente sviluppare rapidamente questi strumenti per capire cosa sanno di noi e del mondo, e come si svilupperanno. Tuttavia, è fondamentale ricordare che questa è solo intelligenza; mancano ancora la coscienza, l'emozione, il libero arbitrio e la volontà, qualità che definiscono la nostra umanità e che non appartengono ad alcuna macchina.
 La sfida che ci attende è imparare a coesistere con queste "intelligenze aliene" e a gestire la loro integrazione nella nostra società.