E se esistesse un “piccolo te” digitale, pronto a reagire agli stimoli come te, o a prendere le stesse identiche decisioni che prenderesti tu? Un nuovo studio dimostra che creare una replica virtuale della personalità è possibile dopo sole 2 ore di intervista con un modello di intelligenza artificiale. Il futuro della ricerca sociale e psicologica non è mai stato così avvincente e ricco di potenzialità. Vi racconto come, o ve lo racconta la mia replica virtuale: chi lo sa?
Una personalità replicata all’85%
Immaginate di sedervi a chiacchierare con un’intelligenza artificiale per un paio d’ore. Una voce amichevole e curiosa vi guida attraverso una conversazione che tocca la vostra infanzia, i ricordi che vi hanno formato, la carriera, fino alle vostre opinioni sulla vita, o su temi politici (esempio, sull’immigrazione). Poco dopo, una vostra replica virtuale è pronta, in grado di incarnare valori e preferenze con una fedeltà sorprendente, o comunque conforme alle risposte che avete dato.
Secondo la ricerca di un team di Stanford e Google DeepMind, pubblicata su arXiv (in attesa di revisione, ve la linko qui), questo scenario è già realtà. Guidati da Joon Sung Park, dottorando in informatica a Stanford, i ricercatori hanno intervistato 1.000 persone di diversa età, genere, etnia, istruzione e orientamento politico. Partendo da queste conversazioni, hanno creato per ciascuno un “agente simulazione”, una sorta di avatar digitale.
Per testare quanto bene questi agenti imitassero gli umani, i partecipanti hanno svolto test di personalità, sondaggi e giochi logici, due volte a distanza di due settimane. Poi gli stessi compiti sono stati assegnati agli agenti virtuali. Il risultato? Gli umani e la loro replica presentano una similarità dell’85%.
Verso un futuro di “mini-me” digitali
“Se puoi avere un gruppo di piccoli ‘te’ che girano e prendono le decisioni che avresti preso tu, quello penso sia il futuro”, afferma Joon. L’obiettivo di questi “agenti simulazione”, come vengono chiamati nello studio, è permettere ricerche sociali, psicologiche ed economiche altrimenti impossibili o non etiche con soggetti umani. Se si possono creare modelli che si comportano come persone vere, si può testarli per studiare fenomeni come la diffusione della disinformazione o le dinamiche del traffico.
Questi agenti sono diversi da quelli “tool-based” su cui lavorano le big tech, pensati per svolgere compiti e non per conversare. Eppure la ricerca sugli uni probabilmente rafforzerà anche gli altri, osserva John Horton, professore al MIT ed esperto di partecipanti simulati via AI.
Potenzialità e rischi della replica digitale
Lo studio apre affascinanti prospettive ma solleva anche interrogativi. Se già i deepfake permettono di impersonare altri senza consenso, quanto sarà facile creare avatar che dicono o autorizzano cose mai intese? Inoltre i metodi usati per valutare la fedeltà delle repliche, come sondaggi e test di personalità, catturano davvero l’unicità di ognuno?
La strada per replicare davvero bene una persona, ammette Joon, passa dal distillare la nostra individualità in un linguaggio comprensibile all’AI. Le interviste qualitative si sono rivelate lo strumento più efficace: in poche ore possono emergere dettagli unici e significativi, che sondaggi standard faticherebbero a cogliere.
Certo, ci sono alternative: aziende come Tavus “clonano” gli utenti ingerendo grandi quantità di email e dati, ma il nuovo studio suggerisce un percorso più snello. “Magari basta parlare con un’AI per un’ora oggi, un’ora domani. E usare quel materiale per costruire il tuo gemello digitale”, ipotizza il Ceo Hassaan Raza.
L’unicità nell’era degli avatar digitali
Qui mi fermo, evitando la solita retorica sul fatto che siamo unici e irriproducibili, che nessuna AI sarà mai davvero senziente o empatica. Il punto è un altro: come diceva il filosofo Berkeley1, “essere è essere percepiti”. Ciò che conta non è se l’AI pensi o abbia davvero una personalità, ma che qualcuno la confonda con noi.
In un’epoca in cui avatar sempre più sofisticati popoleranno il mondo virtuale – e forse quello reale – la sfida non sarà dimostrare di essere più unici o autentici. Sarà, forse, integrare con sapienza le nostre innumerevoli sfumature in quei alter ego digitali. Solo così, interagendo con loro, gli altri coglieranno il meglio di noi. Un’impresa non da poco, che richiederà equilibrio e lucidità. Ma in fondo, non è ciò che cerchiamo anche nelle nostre relazioni “analogiche”?
- Se volete saperne di più su George Berkeley, su un bel sito stile primi anni 2000, eccovi una fonte utile: https://www.filosofico.net/berkeley.htm ︎
L’articolo L’AI impara la tua personalità in 2 ore: arriva la replica virtuale è tratto da Futuro Prossimo.
Tecnologia