Di Marco Boaglio e Giulio Scremin
Negli ultimi anni l’intelligenza artificiale è entrata nella nostra vita quotidiana con una rapidità sorprendente. Assistenti virtuali, app conversazionali, compagni digitali per studiare, lavorare o perfino sfogarsi: le interfacce si fanno sempre più “umane” per voce, linguaggio e personalità. Ma siamo certi che questa somiglianza sia innocua?
Il fenomeno ha un nome preciso: antropomorfizzazione, ovvero l’attribuire alle macchine caratteristiche, emozioni o intenzioni tipiche degli esseri umani. Una scelta che non è casuale, ma spesso frutto di un design deliberato per rendere l’IA più coinvolgente, empatica e persino affettivamente “vicina”. Un recente approfondimento su questi temi dal titolo "Chatbot troppo umani, i rischi che corriamo” (A. Monti, Wired, 2025) mette in luce perché questa tendenza non sia priva di conseguenze. Ecco perché dovremmo parlarne seriamente.
Quando la tecnologia smette di sembrare tecnologia
Le aziende tecnologiche hanno capito da tempo che più un’interfaccia appare umana, più siamo portati a fidarci di essa. Questo avviene con chatbot che:
- parlano come noi, con emozioni simulate;
- usano avatar realistici;
- si presentano come amici, partner o confidenti.
Il risultato? Sempre più persone iniziano a percepire queste tecnologie come entità “vive”, capaci di provare emozioni o di instaurare relazioni autentiche. Un terreno scivoloso, soprattutto per i più giovani.
Rischio 1: confondere software e essere umano
Se un chatbot sembra empatico, disponibile e comprensivo, è facile dimenticare che in realtà:
- non prova emozioni,
- non comprende davvero,
- non si preoccupa per noi.
Questa illusione di umanità può favorire dipendenza emotiva, eccessiva fiducia e autoinganno. Alcune persone iniziano a considerare l’IA come un partner affettivo o un amico insostituibile — e la linea tra supporto e dipendenza può diventare sottile.
Rischio 2: vulnerabilità dei minori e manipolazione emotiva
La sfida diventa ancora più delicata quando parliamo di adolescenti o bambini. L’antropomorfizzazione rende le IA estremamente persuasive. Senza adeguati filtri o educazione digitale, i minori possono:
- affidarsi all’IA per consigli personali delicati;
- essere manipolati emotivamente;
- sviluppare attaccamento o dipendenza psicologica.
Rischio 3: decisioni politiche distorte dall’illusione tecnologica
Il problema non riguarda solo utenti e consumatori. Anche politici, opinion leader e decisori possono adottare strategie o normative partendo da una premessa sbagliata: che la tecnologia possieda forme di “umanità” o “intenzionalità”. Quando si costruiscono leggi o politiche sulla base di un presupposto emotivo e non realistico, i risultati possono essere dannosi sia per i cittadini sia per l’ecosistema tecnologico.
Rischio 4: sostituire le relazioni umane con quelle artificiali
La crescente presenza di IA “umanizzate” nelle interazioni quotidiane può normalizzare l’idea che sia più facile e sicuro parlare con una macchina che con una persona. A lungo termine questo può portare a:
- impoverimento delle relazioni sociali;
- riduzione delle competenze relazionali;
- aumento della solitudine.
Quindi, cosa possiamo fare?
L’obiettivo non è demonizzare l’IA — che può portare enormi benefici — ma riconoscere il fenomeno e imparare a gestirlo. Alcune direzioni utili:
- Educare alle competenze digitali e al pensiero critico (soprattutto tra i giovani).
- Progettare IA trasparenti che non ingannino sulla loro natura.
- Regolare le tecnologie che simulano relazioni umane per scopi commerciali.
In conclusione
L’antropomorfizzazione dell’IA può sembrare una trovata simpatica o persino utile. Ma quando la somiglianza con l’essere umano diventa troppo convincente, rischiamo di perdere lucidità, responsabilità e senso della realtà.
Le macchine non devono essere percepite come “persone”. Non per limitarne l’utilità — ma per preservare la nostra umanità.