Parliamo tutti i giorni con assistenti vocali che sembrano capirci, chatbot che rispondono con tono empatico, algoritmi che promettono di “leggere” il nostro stato d’animo da un’espressione del viso. L’intelligenza artificiale è entrata nelle nostre vite quotidiane e, sempre più spesso, sembra avvicinarsi a un territorio che credevamo esclusivamente umano: quello delle emozioni.
Ma cosa significa davvero quando diciamo che un’IA “riconosce” le emozioni? E soprattutto: può una macchina provare qualcosa, oppure si limita a simulare risposte che a noi sembrano empatiche?
Cos’è l’Emotion AI e come funziona?
Le origini: l’Affective Computing di Rosalind Picard
L’idea di dotare le macchine della capacità di riconoscere le emozioni umane non è recente. Nel 1997, Rosalind Picard, ricercatrice del Massachusetts Institute of Technology (MIT), pubblicò “Affective Computing“, un libro che gettò le basi di un nuovo campo di studi. La sua visione era chiara: se vogliamo che i computer interagiscano in modo naturale con gli esseri umani, devono essere in grado di percepire e rispondere ai nostri stati emotivi.
Da quel momento è nata l’Affective Computing, una disciplina che incrocia informatica, psicologia e scienze cognitive con l’obiettivo di sviluppare sistemi capaci di rilevare, interpretare e reagire alle emozioni. Oggi questo campo viene comunemente chiamato Emotion AI o intelligenza artificiale emotiva.
Come l’IA analizza le emozioni umane
I sistemi di Emotion AI utilizzano diverse tecniche per dedurre lo stato emotivo di una persona. L’analisi può avvenire attraverso il riconoscimento delle espressioni facciali, lo studio del tono e delle inflessioni della voce, l’osservazione della postura e dei gesti e persino la misurazione di dati biometrici come la frequenza cardiaca o la conduttanza cutanea.
Gli algoritmi di machine learning vengono addestrati su enormi dataset di immagini, video e registrazioni audio per imparare ad associare determinati pattern a specifiche emozioni.
Ad esempio, un sistema può essere programmato per riconoscere che le sopracciglia aggrottate e le labbra serrate sono spesso associate alla rabbia, mentre un sorriso con gli angoli della bocca sollevati indica generalmente felicità.
L’intelligenza artificiale può provare emozioni?
Riconoscere non significa sentire
Qui si trova il cuore della questione. Esiste una differenza fondamentale tra riconoscere un’emozione e provarla. Un sistema di intelligenza artificiale può essere addestrato a identificare i segnali esterni associati alla tristezza: lacrime, voce tremante, espressione abbattuta. Ma questo non significa che l’IA “capisca” cosa significhi essere tristi, né tantomeno che provi quella sensazione.
Come spiega Federico Faggin nel suo libro “Silicio” (Mondadori, 2019), le emozioni umane sono esperienze immateriali, legate a “moti dell’animo” che non possono essere ridotti a semplici fenomeni elettrici. Le percezioni sensoriali possono essere replicate nei robot tramite sensori ma le emozioni prodotte dalle sensazioni, dai ricordi, dalle circostanze di vita restano qualcosa di irriproducibile nelle macchine.
Il problema della coscienza nelle macchine
Per provare un’emozione serve qualcosa che le macchine, allo stato attuale, non possiedono: la coscienza. Non quella funzionale che riguarda la capacità di elaborare informazioni e interagire con l’ambiente ma quella fenomenica: l’esperienza soggettiva di sentire qualcosa.
Quando ti spaventi, non stai solo elaborando uno stimolo potenzialmente pericoloso. Stai provando la paura: il cuore che accelera, lo stomaco che si stringe, quella sensazione inconfondibile che nessun algoritmo può replicare perché non ha un “interno” da cui sentire.
Le attuali forme di intelligenza artificiale possono simulare comportamenti emotivi, ma si tratta di imitazione non di esperienza vissuta.
Intelligenza artificiale e intelligenza emotiva: le differenze fondamentali
Cos’è l’intelligenza emotiva
L’intelligenza emotiva è la capacità di riconoscere, comprendere e gestire le proprie emozioni e quelle degli altri. Il concetto è stato introdotto negli anni Novanta dagli psicologi Peter Salovey e John Mayer, per poi essere reso popolare da Daniel Goleman con il suo bestseller del 1995.
Secondo questo modello, l’intelligenza emotiva si articola in cinque pilastri:
- autoconsapevolezza (riconoscere le proprie emozioni),
- autoregolazione (gestire impulsi e stati d’animo),
- motivazione (orientarsi verso obiettivi nonostante le difficoltà),
- empatia (percepire le emozioni altrui),
- abilità sociali (gestire le relazioni interpersonali).
Perché IA e IE non sono la stessa cosa?
L’intelligenza artificiale e l’intelligenza emotiva condividono solo le iniziali. L’IA si basa su algoritmi, dati e programmazione: è uno strumento che esegue compiti seguendo regole predefinite o pattern appresi. L’intelligenza emotiva, invece, si sviluppa attraverso l’esperienza vissuta, la consapevolezza di sé e la capacità di entrare in risonanza con gli altri.
Un’IA può analizzare migliaia di conversazioni e imparare quali risposte risultano più “empatiche” agli utenti. Ma non può mettersi nei panni di qualcuno, perché non ha panni da indossare. Non prova frustrazione quando un progetto fallisce, né gioia quando una relazione fiorisce. Può simulare queste risposte, ma la differenza tra simulazione e autenticità è tutto.
Cosa dice la scienza? Studi e ricerche recenti
Lo studio dell’Università di Ginevra sui test di intelligenza emotiva
Uno studio pubblicato nel 2025 sulla rivista Communications Psychology, condotto dall’Università di Ginevra e dall’Università di Berna, ha messo alla prova sei modelli di intelligenza artificiale, tra cui ChatGPT-4, sottoponendoli a test di intelligenza emotiva progettati per valutare gli esseri umani.
I risultati hanno sorpreso molti: i modelli di IA hanno risposto correttamente all’82% delle domande, contro il 56% degli umani.
Secondo Marcello Mortillaro, ricercatore del Centro svizzero per le scienze affettive dell’Università di Ginevra, questi risultati suggeriscono che i modelli linguistici “comprendono non solo le emozioni, ma anche cosa significa comportarsi con intelligenza emotiva”.
Tuttavia, è fondamentale interpretare correttamente questi dati: l’IA ha dimostrato di saper identificare la risposta più appropriata in scenari emotivi, non di provare quelle emozioni.
I limiti scientifici del riconoscimento delle emozioni
Molti sistemi di riconoscimento emotivo si basano sulla teoria delle emozioni universali di Paul Ekman, secondo cui esistono espressioni facciali comuni a tutte le culture. Tuttavia, ricerche più recenti hanno messo in discussione questa visione.
Lisa Feldman Barrett, professoressa di psicologia alla Northeastern University di Boston, ha dimostrato che il modo in cui le persone esprimono le emozioni varia significativamente tra culture diverse.
Kate Crawford, nel libro “Né intelligente né artificiale” (2021), critica duramente l’idea che si possano riconoscere con certezza le emozioni dall’espressione facciale. Questo approccio, sostiene, trascura la complessità del rapporto tra emozione interna ed espressione esterna, ignorando sfumature culturali, contestuali e individuali. Un sorriso può indicare felicità ma anche imbarazzo, nervosismo o semplice cortesia sociale.
L’intelligenza artificiale ha intelligenza emotiva?
Alla luce di questi studi, la risposta è sfumata. L’IA dimostra di possedere quella che potremmo chiamare una “competenza emotiva teorica“: sa riconoscere le emozioni, sa quale risposta sarebbe più appropriata in un dato contesto, sa generare testi che risultano empatici a chi li legge. In un certo senso, conosce le regole del gioco emotivo meglio di molti esseri umani.
Ma conoscere le regole non significa saper giocare davvero. L’intelligenza emotiva umana non è solo sapere cosa dire quando qualcuno è triste: è sentire quella tristezza risuonare dentro di te, è il desiderio autentico di alleviare il dolore dell’altro, è la capacità di stare in silenzio quando le parole non servono. Queste dimensioni restano, per ora, al di fuori della portata di qualsiasi algoritmo.
L’AI Act europeo e il riconoscimento delle emozioni
Cosa prevede la normativa dal 2025
Dal 2 febbraio 2025 sono entrate in vigore le prime disposizioni dell’AI Act, il Regolamento europeo sull’intelligenza artificiale. Tra le pratiche classificate come “a rischio inaccettabile” e quindi vietate figura il riconoscimento delle emozioni in ambito lavorativo e scolastico.
Concretamente, questo significa che è proibito utilizzare sistemi di IA per dedurre le emozioni durante colloqui di lavoro, monitorare lo stato emotivo degli studenti in classe o valutare lo stress dei lavoratori attraverso l’analisi delle loro espressioni.
Sono previste eccezioni limitate solo per finalità mediche o di sicurezza, come i dispositivi che rilevano l’affaticamento dei conducenti professionisti.
Perché l’Europa ha scelto di limitare questi sistemi?
Il Regolamento europeo esprime esplicitamente “serie preoccupazioni in merito alla base scientifica” dei sistemi di riconoscimento emotivo. L’espressione delle emozioni, si legge nel testo, “varia notevolmente in base alle culture e alle situazioni e persino in relazione a una stessa persona”.
I principali limiti identificati sono la scarsa affidabilità, la mancanza di specificità e la limitata generalizzabilità di questi sistemi.
In altre parole, l’Unione Europea ha riconosciuto che le tecnologie attuali non sono sufficientemente accurate per essere utilizzate in contesti delicati come la valutazione di un candidato a un colloquio o il monitoraggio del benessere scolastico. Il rischio di discriminazioni ed errori è troppo alto rispetto ai potenziali benefici.
Applicazioni pratiche dell’Emotion AI
Sanità e benessere psicologico
Nonostante i limiti e le criticità, l’Emotion AI trova applicazioni promettenti in alcuni ambiti specifici. In campo sanitario, sistemi capaci di rilevare segnali di disagio emotivo potrebbero supportare i professionisti nella diagnosi precoce di disturbi come depressione o ansia. Alcuni strumenti sono già utilizzati per aiutare persone con difficoltà nel riconoscere le emozioni altrui, come chi si trova nello spettro autistico.
Customer service e marketing
Nel customer service, chatbot dotati di capacità di riconoscimento emotivo possono adattare le risposte in base allo stato d’animo percepito dell’utente. Se il sistema rileva frustrazione nel tono di un messaggio, può passare a un operatore umano o modificare il registro comunicativo. Nel marketing, l’analisi delle reazioni emotive ai contenuti pubblicitari permette di ottimizzare le campagne.
Sicurezza e prevenzione
Uno degli utilizzi più consolidati riguarda la sicurezza stradale. Sistemi di rilevamento dell’affaticamento, installati su veicoli commerciali e alcune automobili, monitorano i movimenti degli occhi e le espressioni facciali del conducente per segnalare cali di attenzione o sonnolenza. In questi casi, la tecnologia non pretende di “capire” le emozioni ma si limita a rilevare segnali fisici associati a stati potenzialmente pericolosi.
I rischi etici dell’intelligenza artificiale emotiva
Privacy e sorveglianza
L’idea di macchine capaci di “leggere” le nostre emozioni solleva questioni profonde sulla privacy. Se un sistema può dedurre il tuo stato emotivo dal modo in cui scrivi un messaggio o dall’espressione del tuo volto, fino a che punto la tua interiorità resta davvero tua? La raccolta di dati emotivi, spesso inconsapevole, apre scenari inquietanti di sorveglianza e manipolazione.
Il problema dei bias culturali
I sistemi di riconoscimento emotivo vengono addestrati su dataset che riflettono, inevitabilmente, specifici contesti culturali. Un algoritmo sviluppato principalmente su volti occidentali potrebbe interpretare erroneamente le espressioni di persone provenienti da culture dove la comunicazione emotiva segue codici diversi.
Questo può portare a discriminazioni sistematiche, particolarmente gravi se questi strumenti vengono utilizzati in contesti come la selezione del personale o la valutazione scolastica.
Il futuro del rapporto tra IA e emozioni umane
L’intelligenza artificiale continuerà a diventare sempre più sofisticata nel riconoscere i segnali esterni delle nostre emozioni. I modelli linguistici impareranno a rispondere in modi che ci sembreranno sempre più “umani” e empatici. Ma la domanda fondamentale resta: vogliamo davvero macchine che simulino emozioni, o preferiamo che restino strumenti utili ma chiaramente distinguibili dall’esperienza umana?
Forse la vera sfida non è dotare le macchine di intelligenza emotiva ma preservare e sviluppare la nostra. In un mondo sempre più mediato dalla tecnologia, la capacità di riconoscere le nostre emozioni, gestirle e connetterci autenticamente con gli altri diventa ancora più preziosa.
L’intelligenza artificiale può essere un alleato in questo percorso ma il lavoro interiore resta irriducibilmente nostro.
Ciò che le macchine non possono fare, e probabilmente non potranno mai fare, è sostituire quella scintilla di consapevolezza che ci permette di sentire, di soffrire, di gioire, di amare. È lì, in quello spazio interiore inaccessibile agli algoritmi, che risiede ciò che ci rende davvero umani.


