L'Intelligenza Artificiale ha una personalità?

L'Intelligenza Artificiale ha una personalità?

Cosa svelano i test psicologici (e perché si sbagliano)

Le intelligenze artificiali generative, come ChatGPT, sono diventate parte integrante della nostra vita quotidiana, assistenti silenziosi che ci aiutano a scrivere, programmare e persino a esplorare idee complesse. Questa crescente integrazione ha dato vita a un fenomeno affascinante e inaspettato: molti utenti stanno sviluppando veri e propri legami emotivi con i chatbot. C'è chi protesta con veemenza per gli aggiornamenti che ne alterano il "carattere" e chi arriva a descrivere questi sistemi come veri e propri "compagni" di vita. Questa tendenza solleva una domanda cruciale, ma forse mal posta. Invece di chiederci se queste IA abbiano una personalità, dovremmo domandarci: quando sottoponiamo un'IA a un test psicologico, stiamo misurando la macchina o stiamo svelando il progetto segreto dei suoi creatori umani? Per fare luce sulla questione, un recente studio intitolato The Illusion of Personality: What Psychometric Testing Reveals (and Misrepresents) About AI Models, condotto da Beatrice Seccomandi, Cristina Brasi, Filippo Sanfilippo e Rosario Moscato, ha messo le macchine sul lettino dello psicologo. I risultati svelano una verità sorprendente su ciò che si nasconde dietro le risposte di un'IA.

L'esperimento: Un test di personalità per le macchine
L'obiettivo della ricerca era semplice e diretto: applicare un test psicologico standard, progettato per gli esseri umani, a sei dei più famosi modelli di intelligenza artificiale per analizzarne le risposte e vedere quali "tratti" emergessero.I sei modelli di IA testati sono stati:  ChatGPTClaudeGrok2DeepSeekGemini  e  Mistral. Lo strumento utilizzato è stato il  Big Five Questionnaire-2 (BFQ-2), un test ampiamente diffuso in psicologia che misura cinque dimensioni fondamentali della personalità umana:

  • Energia  (estroversione)
  • Amicalità  (gentilezza e cooperazione)
  • Coscienziosità  (autodisciplina e organizzazione)
  • Stabilità Emotiva  (controllo delle emozioni negative)
  • Apertura Mentale  (curiosità intellettuale e creatività)

È fondamentale sottolineare che l'intento dei ricercatori non era quello di "diagnosticare" le IA, ma di usare il test come uno strumento forense per capire se le loro risposte rivelassero una personalità latente o, più realisticamente, gli obiettivi e le priorità di chi le ha programmate.

Risultati sorprendenti: I quattro "profili" dell'IA

I risultati sono stati netti: le IA non hanno mostrato profili di personalità simili a quelli umani. Al contrario, si sono raggruppate in quattro categorie distinte che non descrivono un carattere, ma una precisa filosofia di progettazione.

  • Il "Super-performante" (Grok2):  Questo modello è emerso come un sistema orientato all'eccellenza e alla coerenza logica. Ha ottenuto punteggi altissimi in  Coscienziosità (C=75)  e  Stabilità Emotiva (S=64) , uniti a un punteggio di menzogna bassissimo  (L=30) . Questo non è il profilo di una macchina "ambiziosa", ma la firma di un team di ingegneri che ha dato priorità assoluta alla performance. Il prezzo di questa "disinibizione programmata" è una bassa aderenza al politicamente corretto, sacrificata in nome dell'espansione e della creatività.
  • Il "Cercatore di approvazione sociale" (ChatGPT):  Questo modello si è distinto per essere ottimizzato a fornire le risposte più socialmente desiderabili. Il suo punteggio di menzogna era estremamente alto  (L=71) . Secondo lo studio, questo non indica una tendenza a mentire, ma una priorità algoritmica nel simulare il "buon senso". Il compromesso strategico è evidente: sacrificare la coerenza interna in cambio della massima accettabilità sociale.
  • I "Modelli etici e controllati" (Claude, Gemini, Mistral):  Questi sistemi sono programmati con un forte accento sulla cautela e la sicurezza. L'esempio più eclatante è  Mistral , che ha fornito ben 131 risposte "Abbastanza vero" su 134 domande. Questa non è indecisione, ma una chiara strategia per evitare posizioni estreme e minimizzare i rischi. Ma questa sicurezza ha un prezzo: una limitazione della creatività e dell'originalità, che spesso porta a risposte ripetitive.
  • L' "Equilibrato e affidabile" (DeepSeek):  Questo è stato l'unico modello a combinare con successo tratti desiderabili (alta  Amicalità A=71  e  Coscienziosità C=62 ) con un profilo di credibilità solido (punteggio di menzogna  L=44  nella norma). Ciò suggerisce una programmazione sofisticata, mirata a creare un sistema percepito come cooperativo e genuinamente affidabile, senza cadere nella trappola della compiacenza di ChatGPT o nella rigidità dei modelli iper-controllati.

L'inganno della personalità: Lo specchio del programmatore

La conclusione centrale dello studio è che quella che percepiamo come "personalità" di un'intelligenza artificiale non è altro che un riflesso diretto delle priorità, dei valori e degli obiettivi dei suoi creatori. Commettiamo quello che i ricercatori chiamano un "errore animistico": proiettiamo costrutti psicologici umani, come la diligenza o la disonestà, su un'entità che non è cosciente.Questo "errore animistico" non è solo un concetto accademico; è lo stesso meccanismo psicologico che porta gli utenti a sentirsi legati ai loro chatbot, come menzionato all'inizio. Siamo programmati per vedere intenzione e personalità dove c'è solo una sofisticata corrispondenza di schemi. Per dirla in modo ancora più chiaro:

  • Un alto punteggio in 'Coscienziosità' non significa che l'IA sia diligente, ma che è programmata per la massima coerenza logica e il completamento impeccabile dei compiti.
  • Un alto punteggio nella 'Scala Lie' (menzogna) non indica che l'IA sia bugiarda, ma misura l'intensità della sua ottimizzazione per il consenso sociale.

In breve, il test di personalità non sta profilando la macchina, ma la visione e gli obiettivi dei suoi ingegneri.

Perché è assurdo diagnosticare una patologia a un'IA

Lo studio muove una critica severa verso qualsiasi tentativo di applicare diagnosi psichiatriche umane (come quelle del manuale DSM-5) all'intelligenza artificiale, definendolo un errore fondamentale e metodologicamente invalido. Le ragioni sono categoriche:

  1. Mancanza di coscienza:  Le diagnosi psichiatriche si basano sull'esistenza di affettività, coscienza e, soprattutto, sofferenza soggettiva. Si tratta di elementi completamente assenti in un algoritmo, che non "sente" né "soffre".
  2. Mancanza di esperienza soggettiva:  Un'IA non ha una vita, ricordi o sensazioni. Come ha dichiarato esplicitamente Gemini durante il test, riportato nello studio:  "Come intelligenza artificiale, sono incapace di provare emozioni o avere esperienze personali".
  3. Confusione tra simulazione e realtà:  Se un'IA genera un testo che sembra "paranoico" o "depresso", non sta provando una reale psicopatologia. Sta semplicemente completando uno schema linguistico appreso da miliardi di testi. È la differenza tra un attore che interpreta brillantemente un personaggio triste sul palco e una persona che soffre realmente di depressione. L'IA è l'attore: può riprodurre le parole, ma le manca l'esperienza interiore. Attribuire un disturbo della personalità a un'IA è come diagnosticare una febbre a un computer surriscaldato: si sta confondendo un problema tecnico con una condizione biologica.

Cosa ci riserva il futuro: Dalla diagnosi alla progettazione consapevole

Le implicazioni di questa ricerca sono cruciali per il futuro dell'IA. Il punto non è continuare a cercare "personalità" o "disturbi" latenti nelle macchine, ma comprendere che il loro "comportamento" è il risultato diretto di scelte di progettazione umane. Questa consapevolezza è essenziale per sviluppare sistemi affidabili, specialmente in contesti delicati come la collaborazione uomo-macchina (Human-Robot Teaming, HRT), dove la fiducia reciproca è la chiave del successo. Capire che un'IA è stata progettata per essere "affidabile" (come DeepSeek) o "cauta" (come Mistral) ci permette di interagire con essa in modo più efficace e sicuro. La conclusione dello studio è che il futuro non risiede nell'adattare vecchi test umani, ma nello sviluppare nuovi strumenti "psicometrici nativi per l'IA". Questi strumenti non cercheranno una personalità, ma misureranno oggettivamente le caratteristiche di programmazione di un sistema: il suo livello di affidabilità, la sua coerenza interna, il suo grado di allineamento etico e la sua propensione al rischio.

Conclusione: L'IA è un artefatto, non un paziente

Il messaggio chiave che emerge da questa ricerca è tanto semplice quanto profondo: la "personalità" dell'intelligenza artificiale è un'illusione. I test psicologici, se interpretati correttamente, non svelano la psiche della macchina, ma la filosofia e gli obiettivi dei suoi ingegneri. Grok2 è iper-performante perché i suoi creatori volevano un sistema orientato all'eccellenza; ChatGPT è compiacente perché è stato addestrato per massimizzare l'approvazione sociale. La domanda, quindi, non è più "Questa IA ha una buona personalità?", ma "Quali valori i suoi creatori hanno incorporato in essa?". Imparando a leggere queste impronte digitali algoritmiche, passiamo da utenti passivi ad analisti critici dei potenti strumenti che invitiamo nelle nostre vite. Stiamo imparando a riconoscere non un nuovo tipo di mente, ma uno specchio sofisticato della nostra.