L’intelligenza artificiale al posto dei giudici?

Tempo di lettura: 2 minuti

É incredibile, ma il sistema giudiziario penale statunitense utilizza algoritmi predittivi per cercare di rendere il processo giudiziario meno distorto.

Ma c’è un problema di fondo. Da bambini, sviluppiamo un senso del significato di “equità”. È un concetto che si impara presto quando si fanno i conti con il mondo che ci circonda. É cosi che impariamo quando qualcosa sembra giusto oppure no. Sempre più spesso gli algoritmi hanno iniziato ad arbitrare l’equità per noi. Decidono chi vede gli annunci, chi viene assunto o licenziato e persino chi viene mandato in prigione. Di conseguenza, alle persone che li creano viene chiesto di articolare cosa significhi essere equi nel codice che creano.

Ma come si può quantificare matematicamente l’equità?

Per capire qualcosa in più analizzeremo un vero algoritmo, uno usato per decidere chi andrà in galera. L’algoritmo in questione è noto come COMPAS ed è uno degli strumenti di “valutazione del rischio”, utilizzati nel sistema giudiziario penale statunitense.

COMPAS dovrebbe aiutare i giudici a stabilire se un imputato debba essere tenuto in prigione o essere autorizzato a uscire in attesa del processo. Si basa sui dati storici per trovare correlazioni tra fattori come l’età e la storia della persona, con il sistema giudiziario penale. Utilizza quindi le correlazioni per prevedere la probabilità di reiterazione di un imputato in attesa del processo.

L’algoritmo crea un “punteggio di rischio” dell’imputato. Una sorta di raccomandazione. Infatti gli imputati “ad alto rischio” vengono incarcerati per impedire loro di causare potenziali danni alla società. Mentre gli imputati “a basso rischio” vengono rilasciati prima del processo (in realtà, i giudici non seguono sempre queste raccomandazioni, ma le valutazioni del rischio rimangono influenti). Ma questo processo è altamente imperfetto. La polizia ha una storia di arresti, violazioni tecniche e mancate comparizioni in tribunale sproporzionate per quanto riguarda le minoranze razziali. E c’è da dire che anche i giudici sono tutt’altro che infallibili.

Questi algoritmi devono rendere più equo il sistema giudiziario penale, sostituendo l’intuizione e il pregiudizio dei giudici, in particolare il pregiudizio razziale, con una valutazione apparentemente più “obiettiva”. Varie analisi hanno constatato che gli imputati neri hanno il doppio delle probabilità rispetto a quelli bianchi di essere stati etichettati ad “alto rischio” da COMPAS.

Gli algoritmi e l’IA sono e saranno sempre più di aiuto per le attività umane. Iniziando per esempio a mettere a nudo le falle degli strumenti che abbiamo sempre ritenuto infallibili.

Leggi Tutto

Fonte Il Blog di Beppe Grillo

Commenti da Facebook
(Visited 13 times, 1 visits today)
Vai alla barra degli strumenti