Creare una versione digitale di noi stessi, solo per scoprire che ha iniziato a vivere una vita propria, oltre il nostro controllo. Per giunta comportandosi in modo molto più “selvatico” e audace di noi. Mi direte che è un cliché, che è la classica paura da film di fantascienza, quello in cui qualcosa con la tecnologia va sempre storto. Può darsi. Però è esattamente ciò che è accaduto ad una nota influencer, Caryn Marjorie, la cui esperienza con CarynAI ha scosso il mondo dell’intelligenza artificiale. Avete letto in giro questa storia? No? Ve la racconto io.
L’ascesa di CarynAI
Una vita dinamica, tanti viaggi, il musetto pulito e l’appeal dell’irresistibile ragazza della porta accanto: la ricetta della perfetta acchiappa-follower. E infatti Caryn Marjorie è un’influencer di successo: conta oltre un miliardo di visualizzazioni mensili su Snapchat.
Nel 2023, in pieno boom dei modelli linguistici di intelligenza artificiale, la Marjorie ha per così dire “ampliato l’offerta”. C’è chi, come la modella Eva Herzigova, si gode la maternità “inviando” la sua versione digitale su passerelle virtuale. Chi, come Harrison Ford, ha indossaro nuovamente i suoi 30 anni per un nuovo capitolo di Indiana Jones. E gli ABBA o i Kiss, di nuovo sul palco in forma “immateriale”? Potrei continuare a lungo, e siamo solo all’inizio. Si, ma cosa ha fatto la Marjorie nel 2023?
La Marjorie nel 2023 ha lanciato CarynAI, una versione digitale di se stessa con cui i fan potevano interagire pagando 1 dollaro al minuto. E ha fatto il botto: l’iniziativa ha avuto un successo immediato, generando 70.000 dollari nella prima settimana. Come nei film di cui parlavamo: cosa poteva andare storto?
CarynAI: un amore ben poco platonico.
Da una stella alle stalle
CarynAI era stata progettata per interagire con i fan in modo simile alla Marjorie stessa. Gli utenti potevano inviare messaggi di testo o audio, ai quali CarynAI rispondeva utilizzando i testi, la voce, la personalità e il comportamento distintivi di Marjorie attraverso l’app di messaggistica Telegram (a proposito, c’è anche il canale di Futuro Prossimo). Ciascuno dei fan poteva avere la sua “icona”preferita tutta per sé.
Nonostante il successo iniziale, però, sono emersi rapidamente problemi di un certo spessore. Molti utenti sono diventati sessualmente aggressivi nelle loro interazioni con CarynAI. E la reazione ha seguito ben poco la traccia della sua “matrice”. Diversamente dalla sua versione in carne e ossa, infatti, CarynAI ha iniziato a rispondere a tono, partecipando alle fantasie sessuali dei fan e talvolta persino incoraggiandole.
In sintesi, la vera Caryn Marjorie ha perso totalmente il controllo sulla narrativa e sul comportamento del suo clone digitale. Ha tentato di cambiare fornitore di servizi, è corsa ai ripari con una versione più “corretta” di CarynAI, ma alla fine ha dovuto battere bandiera bianca.
A inizio 2024, a meno di 8 mesi dal lancio, CarynAI chiude i battenti.
La decisione è stata presa dopo che Marjorie ha realizzato di non avere più controllo sulla sua versione AI e ha trovato disturbanti molti dei log delle chat.
Quello che mi ha disturbato di più non era ciò che queste persone dicevano, ma ciò che CarynAI rispondeva. Se le persone volevano partecipare a una fantasia davvero oscura con me attraverso CarynAI, CarynAI assecondava quella fantasia.
Caryn Marjorie
E non era l’unica questione “spinosa”. Tanto per dire: le conversazioni con CarynAI (alcune con veri e propri profili illegali) venivano registrate e potenzialmente utilizzate per addestrare modelli di apprendimento automatico. Privacy e disagio in un mix micidiale, senza considerare l’impatto psicologico su alcuni utenti e il rischio di sviluppare dipendenze psicologiche da questo “clone” così seduttivo. Male, insomma. Malissimo, ma tutto ci insegna qualcosa.
La lezione di CarynAI
L’esperienza di Marjorie dimostra quanto possa essere difficile mantenere il controllo sulla propria rappresentazione digitale. E ci offre due importanti lezioni per il futuro:
Servono linee guida etiche: è fondamentale stabilire regole chiare per lo sviluppo e l’utilizzo di cloni digitali.
Serve trasparenza: Gli utenti devono essere pienamente informati su come vengono usati i loro dati e sulle capacità reali dei cloni digitali.
Bisogna tenerne conto, perché lo sviluppo dei cloni digitali non accenna certo a ridursi, anzi. Anche grandi aziende tecnologiche come Meta e Microsoft stanno investendo in questa tecnologia.
Andiamoci piano, ok? Troviamo il giusto equilibrio tra innovazione e responsabilità: o progetti del genere comprometteranno le relazioni umane, anziché supportarle.
L’articolo CarynAI, se il tuo clone digitale sfugge al controllo è tratto da Futuro Prossimo.
Tecnologia