Pensate di fare una semplice radiografia al ginocchio e scoprire che l’intelligenza artificiale può dedurre se bevete birra o mangiate fagioli. Sembra assurdo, ma è esattamente ciò che hanno dimostrato i ricercatori di un centro medico americano. Il loro studio, pubblicato su Nature: Scientific Reports (ve lo linko qui), rivela come l’IA riesca a fare previsioni apparentemente impossibili analizzando le radiografie. Non è magia né un prodigio tecnologico, e non c’è da festeggiare. A ben guardare, infatti, è un problema serio che mette in discussione l’affidabilità degli algoritmi in medicina.
Un centro medico da brividi, ma non per quello che pensate
Ironia della sorte: il Centro Medico Dartmouth-Hitchcock, con un cognome che fa subito pensare al maestro del brivido cinematografico (no, nessuna parentela: il centro fu fondato nel 1893 da Hiram Hitchcock in memoria della moglie Mary), si trova ad affrontare una sfida degna di un thriller tecnologico. Le radiografie, strumenti diagnostici fondamentali della medicina moderna, stanno rivelando aspetti inquietanti quando vengono analizzate dall’intelligenza artificiale. Il Dr. Peter L. Schilling, chirurgo ortopedico presso il DHMC, ha guidato uno studio che ha dell’incredibile.
Utilizzando oltre 25.000 radiografie del ginocchio dal database Osteoarthritis Initiative, i ricercatori hanno addestrato delle reti neurali a fare previsioni che sembrano non avere alcun senso logico. Eppure. La presenza di variabili nascoste e correlazioni spurie nei dati ha permesso all’IA di raggiungere un’accuratezza del 73% nel prevedere il consumo di birra e del 63% nell’identificare chi evita i fagioli refritti. Numeri che fanno riflettere sulla vera natura dell’apprendimento automatico.
Le radiografie rivelano più del previsto
La capacità delle reti neurali convoluzionali (CNN) di identificare pattern non ovvi nelle immagini mediche si è rivelata un’arma a doppio taglio. Non solo possono dedurre informazioni apparentemente impossibili come le preferenze alimentari, ma riescono anche a determinare razza, età e genere dei pazienti con una precisione sconcertante.
Brandon G. Hill, scienziato specializzato in machine learning presso il DHMC, sottolinea come questo fenomeno vada oltre i semplici pregiudizi basati su indicatori di razza o genere. Gli algoritmi sono in grado persino di determinare l’anno in cui i medici hanno realizzato una radiografia, sfruttando sottili differenze nei protocolli di imaging e nelle caratteristiche delle macchine. Queste capacità non sono il risultato di una comprensione profonda dell’anatomia umana, ma di quello che gli esperti chiamano “shortcut learning”. in poche parole, l’IA trova scorciatoie nei dati che le permettono di fare previsioni accurate senza realmente comprendere la relazione causale sottostante.
Un futuro da ripensare per le radiografie digitali
La questione solleva preoccupazioni serie sulla validità delle diagnosi basate sull’IA. Se un algoritmo può “vedere” pattern che portano a conclusioni non correlate, come possiamo fidarci quando fa previsioni mediche realmente importanti? Gli autori dello studio sottolineano l’importanza di un approccio interdisciplinare per affrontare queste sfide. La collaborazione tra scienziati dei dati, clinici ed esperti di etica è fondamentale per sviluppare sistemi di IA affidabili che mantengano le loro promesse senza compromettere l’accuratezza diagnostica.
Come dice Hill, è fondamentale superare i nostri pregiudizi su come “vede” l’IA. Non si tratta di un’intelligenza che ragiona come noi. È quasi come confrontarsi con un’intelligenza aliena che trova soluzioni in modi completamente diversi dal pensiero umano. Una prospettiva che ci ricorda quanto sia importante mantenere un approccio critico nell’implementazione di queste tecnologie in medicina.
L’articolo Dalle radiografie l’IA deduce gusti alimentari: ecco perché è grave è tratto da Futuro Prossimo.
Tecnologia