In principio fu GPT-3, con i suoi 175 miliardi di parametri. Poi vennero PaLM, Megatron-Turing, Chinchilla e così via, e i parametri sfondarono la soglia dei 1000 miliardi. Sono i LLM, Large Language Model, modelli addestrati su quantità sconfinate di testo per imitare il linguaggio umano. E sono diventati i protagonisti incontrastati della corsa all’intelligenza artificiale. Ma c’è un problema.
Più questi modelli diventano grandi e sofisticati, più energia divorano. E i miglioramenti che ottengono sembrano seguire una crescita solo lineare, non esponenziale come i costi. È il segnale che forse, per arrivare all’ambita AGI, l’intelligenza artificiale generale capace di pensare come (o più) degli esseri umani serva un cambio di paradigma. Che la risposta non sia solo nei big data, ma in architetture più efficienti e “razionali”.
Il paradosso dei LLM
Intendiamoci: i Large Language Model sono una meraviglia dell’ingegno umano. Hanno imparato a padroneggiare le sottigliezze del linguaggio con una maestria che ha dell’incredibile. Sono capaci di scrivere articoli, rispondere a domande, riassumere concetti complessi, tradurre tra decine di lingue, e ormai sanno pure generare codice. A volte, non credo di esagerare, sembrano cogliere il significato profondo dei testi, e avere una comprensione quasi umana del mondo.
Già. Quasi.
Ma più li mettiamo sotto stress, più il loro limite si palesa: sono bravissimi a riconoscere pattern e a imitare stili, ma non a ragionare in modo autonomo. Dietro la facciata scintillante delle loro performance linguistiche, non c’è una vera intelligenza, una capacità di inferenza e problem solving slegata dai dati su cui sono stati addestrati. Niente.
E per ottenere anche solo questi risultati parziali, i LLM richiedono quantità smodate di energia. Basti pensare che sul piano energetico addestrare GPT-3 è “costato” l’equivalente di far volare un aereo per 700 volte tra New York e San Francisco. Un costo ambientale ed economico enorme, che cresce esponenzialmente ad ogni salto di scala dei modelli. È come se per ottenere un lavoratore un po’ più produttivo, dovessimo raddoppiarne lo stipendio ogni mese. Una dinamica insostenibile nel lungo periodo.
La scintilla non c’è stata
Ma non è solo una questione di costi-benefici. C’è un problema più profondo che affligge i LLM, e che ne mina le ambizioni di diventare la base per un’intelligenza artificiale generale. Ed è la mancanza di ragionamento astratto, di vero “pensiero” al di là delle analogie superficiali.
Alcuni ricercatori speravano che questo tipo di capacità potesse “emergere” spontaneamente dai LLM, una volta raggiunti parametri e dataset sufficientemente ampi. L’idea era che più informazioni e potenza di calcolo si buttavano nel modello, più avrebbe iniziato a sviluppare un’intelligenza propria, non solo emulando il linguaggio umano ma anche i processi cognitivi sottostanti.
Finora però non ci sono segni di questa “emergenza”. Anche i LLM più avanzati, una volta messi di fronte a compiti che richiedono ragionamento logico, pianificazione, creatività fuori dallo schema, si perdono in congetture e allucinazioni prive di senso. Sembra che l’intelligenza, quella vera, non sia solo una questione di mostruosamente bruta statistica, ma richieda architetture e processi di apprendimento diversi, ancora in gran parte da scoprire.
Le nuove strade per l’intelligenza artificiale generale
Le difficoltà mostrate dai LLM sono alla base del fatto che molti ricercatori stanno esplorando strade alternative per arrivare all’obiettivo finale dell’AGI. Una di queste è la Category Theory, un ramo della matematica astratta che studia le relazioni tra strutture algebriche. Alcune startup, come Symbolica, ritengono che possa fornire il quadro teorico per costruire sistemi di intelligenza artificiale in grado di sviluppare rappresentazioni simboliche del mondo, e non solo associazioni statistiche tra parole.
Un altro filone promettente è quello delle AI “goal-oriented”, cioè progettate per raggiungere obiettivi specifici in ambienti tridimensionali complessi, interagendo con oggetti e agenti in modo fisico oltre che linguistico. L’idea è che l’intelligenza non nasca nel vuoto, ma si sviluppi attraverso l’embodiment, l’azione incarnata nel mondo, esattamente come succede ai bambini. Non a caso, si stima che un bimbo a 4 anni abbia già processato, attraverso l’esplorazione multisensoriale dell’ambiente, circa 50 volte i dati del più grande LLM attuale.
Queste sono solo due delle nuove frontiere che si stanno aprendo nel campo dell’intelligenza artificiale, nel tentativo di superare i limiti dei LLM e avvicinarsi davvero all’AGI. Frontiere che richiedono non solo avanzamenti tecnologici, ma anche e soprattutto un ripensamento profondo di cosa sia l’intelligenza e di come possa emergere in sistemi artificiali.
LLM, l’intelligenza (artificiale) non abita più qui
Vengo al punto. Per decenni, l’intelligenza artificiale è stata “intrappolata” in un paradigma di pura manipolazione simbolica, basato sull’idea che pensare sia essenzialmente processare stringhe di simboli astratti in base a regole sintattiche. È il paradigma che ha dato vita ai sistemi esperti e ai motori di ricerca semantici, e che in fondo sta alla base degli attuali LLM, per quanto potenziati da dataset e architetture neurali.
Ma forse è proprio questo paradigma “disincarnato” e riduzionista a rappresentare il vero collo di bottiglia verso l’AGI. Forse l’intelligenza non è solo un algoritmo da eseguire su un computer, ma una proprietà emergente di sistemi complessi che interagiscono dinamicamente con un ambiente, modificandolo e lasciandosi modificare in un ciclo continuo di percezione, azione e apprendimento.
Forse, per creare un’intelligenza artificiale davvero generale, dobbiamo ispirarci di più all’unica intelligenza generale che conosciamo, cioè quella biologica, con la sua architettura distribuita, la sua plasticità neurale, il suo ancoraggio sensorimotorio nel mondo. E forse dobbiamo anche riconoscere che l’intelligenza non è un traguardo da raggiungere, ma un processo in continua evoluzione, che non ha una forma finale predefinita.
Questo non significa che i LLM siano inutili o da buttare
Tutt’altro: rappresentano una tappa importante nell’evoluzione dell’AI, e hanno ancora molte applicazioni pratiche da esplorare. Ma forse è il caso di ridimensionare le aspettative messianiche che tanti hanno espresso, e di riconoscerne i limiti intrinseci come candidati all’intelligenza artificiale generale.
Se mai arriverà, probabilmente l’AGI non sarà un supercervellone disincarnato che ciancia in 1000 lingue, ma un agente integrato e incarnato che impara dal mondo e lo trasforma, un po’ come facciamo noi umani. E per arrivarci, servirà non solo molta più energia, ma soprattutto molta più immaginazione.
La frontiera del possibile
Credo che il punto non sia nemmeno arrivarci, all’AGI. Il punto è espandere continuamente la frontiera di quello che l’intelligenza, oggi umana e domani artificiale, potranno fare. È spingere sempre più in là i confini del pensabile e del possibile, attraverso la collaborazione ibrida tra le nostre menti biologiche e quelle sintetiche.
In fondo, è quello che abbiamo sempre fatto, da quando abbiamo solcato i primi simboli nella pietra o premuto i primi tasti di un computer. Usare la tecnologia per potenziare il nostro intelletto, per moltiplicare le nostre capacità cognitive e creative, per affrontare problemi sempre più vasti e complessi.
I LLM, con tutti i loro limiti, rappresentano un passo avanti in questo cammino. Ci mostrano quanto sia duttile e potente il linguaggio, una tecnologia a sua volta, che permea ogni aspetto della nostra vita. E ci sfidano a inventarne di nuovi, nuove grammatiche del pensiero, per esprimere l’inesprimibile e immaginare l’inimmaginabile.
Il vero obiettivo non è creare un’intelligenza artificiale che ci sostituisca, ma co-evolvere con essa in simbiosi, facendo emergere forme di intelligenza che ancora non sappiamo nemmeno concepire.
LLM e futuro dell’intelligenza
I LLM sono qui per restare. Come le bici nel mondo dei trasporti, sono destinati a darci una grossa mano, ma servirà dell’altro.
Forse il futuro dell’intelligenza non è una singolarità tecnologica, ma una pluralità di intelligenze interconnesse, umane e non umane, biologiche e sintetiche. Un’esplosione di diversità cognitiva che ci porterà oltre i limiti attuali del pensiero, verso nuove frontiere di senso e di possibilità.
Ma per arrivarci, dobbiamo prima liberarci dai preconcetti e dalle visioni anguste che ancora ci imprigionano. Dobbiamo smetterla di inseguire illusioni computazionali che riproducono in modo goffo e parziale le manifestazioni esteriori della nostra intelligenza, senza coglierne l’essenza profonda.
Dobbiamo avere il coraggio di ripensare radicalmente cosa significa essere intelligenti in un universo in continua trasformazione. E dobbiamo farlo con curiosità, apertura, entusiasmo. Con la consapevolezza che l’intelligenza non è un algoritmo da scoprire, ma un processo da creare e da espandere, giorno dopo giorno, errore dopo errore, intuizione dopo intuizione.
La strada verso l’AGI, o qualunque cosa sarà l’intelligenza del futuro, non passa (solo) per i LLM. Passa per le connessioni inattese che sapremo immaginare, per gli spazi inesplorati che sapremo abitare, per le domande impertinenti che sapremo porre.
Passa per la nostra capacità di stupirci e di sognare, di sbagliare e di imparare, di decostruire e ricostruire noi stessi e il mondo che ci circonda. Perché l’intelligenza non è altro che questo: il coraggio di avventurarsi sempre un po’ più in là, un po’ più in alto, un po’ più in profondità. Verso il prossimo limite da infrangere, la prossima frontiera da esplorare. Verso l’ignoto che ci attende, e che forse, proprio grazie all’AI, non ci farà più paura.
L’articolo LLM, il vicolo cieco: perché ChatGPT e altri non ci porteranno mai all’AGI è tratto da Futuro Prossimo.
Tecnologia, intelligenza artificiale