UK ecco la “precrimine” alla Minority Report: realtà oltre la distopia Futuro Prossimo

UK ecco la “precrimine” alla Minority Report: realtà oltre la distopia Futuro Prossimo

I dati di centinaia di migliaia di cittadini britannici stanno alimentando un inquietante esperimento di precrimine che sembra uscito direttamente dal film e romanzi distopici. Il Ministero della Giustizia del Regno Unito ha sviluppato un algoritmo progettato per identificare potenziali assassini prima che commettano un crimine. Il progetto, chiamato inizialmente “homicide prediction project”, utilizza dati provenienti dalle forze di polizia britanniche. Questa tecnologia predittiva che non si limita a elaborare informazioni su sospetti, ma includerebbe anche dati di vittime e testimoni, fa riflettere sul confine tra prevenzione del crimine e sorveglianza di massa.

La sorveglianza che non ti aspetti

Ragazzi, pensavate che la fantascienza distopica fosse solo intrattenimento? Benvenuti nella realtà. L’organizzazione per i diritti civili Statewatch ha scoperto, attraverso richieste basate sul Freedom of Information Act, che il Ministero della Giustizia britannico ha segretamente sviluppato questo algoritmo utilizzando dati relativi a un numero di persone che oscilla tra 100.000 e 500.000. E non si tratta solo di chi ha precedenti penali: il sistema analizza informazioni sensibilissime come condizioni di salute mentale, dipendenze, tendenze suicide e persino disabilità.

Mi chiedo sinceramente come possa un simile approccio non perpetuare e amplificare i pregiudizi già esistenti nel sistema giudiziario. La ricercatrice di Statewatch, Sofia Lyall, ha espresso perfettamente il problema:

Time and again, research shows that algorithmic systems for ‘predicting’ crime are inherently flawed. This latest model, which uses data from our institutionally racist police and Home Office, will reinforce and magnify the structural discrimination underpinning the criminal legal system.

La vera questione non è se questo sistema funzioni tecnicamente (opinione-spoiler: probabilmente no), ma se sia eticamente accettabile in una società democratica.

Precrimine, un fenomeno globale

Il caso britannico non è isolato; anzi, rappresenta solo l’ultima manifestazione di una tendenza globale preoccupante. Negli Stati Uniti, l’Università di Chicago ha da tempo realizzato un algoritmo per predire dove e quando potrebbero verificarsi crimini con una settimana d’anticipo. L’esperimento ha sollevato critiche feroci, dimostrando come questi algoritmi tendano a concentrarsi su quartieri già fortemente sorvegliati, creando un circolo vizioso di controllo e criminalizzazione.

In Australia, il programma STMP (Suspect Target Management Plan) ha adottato un approccio simile, profilando giovani e minoranze indigene come potenziali criminali sulla base di indicatori statici. Il risultato? Un aumento sproporzionato della sorveglianza su gruppi già marginalizzati. Anche la Corea del Sud ha adottato tecnologie predittive per l’analisi del crimine, mentre in Argentina esperimenti simili hanno sollevato gravi preoccupazioni costituzionali sui diritti alla privacy e alla presunzione d’innocenza.

La giustificazione ufficiale

Quando The Guardian ha chiesto spiegazioni, un rappresentante del Ministero ha risposto con quella che possiamo definire una magistrale esibizione di minimizzazione burocratica:

This project is being conducted for research purposes only. It has been designed using existing data held by HM Prison and Probation Service and police forces on convicted offenders to help us better understand the risk of people on probation going on to commit serious violence. A report will be published in due course.

“Solo per scopi di ricerca”, dicono. Ma sappiamo bene come finiscono queste cose: ciò che inizia come progetto di ricerca tende a trasformarsi rapidamente in politica ufficiale, specialmente quando promette di ridurre crimini violenti. La tentazione di implementare questi sistemi precrimine sarà sempre troppo forte per i politici, desiderosi di mostrarsi “duri e puri”, capitalizzando la paura della popolazione.

La pre-precrimine: un precedente inquietante

La storia recente dell’applicazione dell’intelligenza artificiale nelle forze dell’ordine non ispira fiducia. Dagli USA ci arrivano esempi di come l’IA venga utilizzata per generare rapporti di polizia (con risultati disastrosi) o di come programmi come ShotSpotter vengano implementati in modo discutibile, amplificando la sorveglianza nelle comunità minoritarie.

Il problema fondamentale è che questi strumenti non sono neutri; ereditano e amplificano i pregiudizi presenti nei dati con cui vengono addestrati. Se i dati provengono da un sistema di giustizia penale che ha storicamente discriminato determinati gruppi, l’algoritmo non farà altro che perpetuare queste discriminazioni, ma con l’apparente oggettività della matematica.

Mi chiedo se stiamo assistendo all’erosione del principio fondamentale di presunzione d’innocenza. In un mondo di precrimine, diventiamo tutti potenziali criminali, catalogati e valutati da algoritmi opachi che decidono il nostro livello di “rischio” per la società. Forse dovremmo ricordarci che nel film “Minority Report”, alla fine, il sistema predittivo viene smantellato proprio perché fondamentalmente ingiusto.

E che, nella realtà, non c’è nessun Tom Cruise a salvare la situazione.

L’articolo UK ecco la “precrimine” alla Minority Report: realtà oltre la distopia è tratto da Futuro Prossimo.

Tecnologia 

Related Posts
Leave a Reply

Your email address will not be published.Required fields are marked *