Il riconoscimento facciale per “ prevedere i criminali ” scatena polemiche sulla propensione all’intelligenza artificiale

Copyright dell’immagine
Getty Images

L’affermazione di un’università americana che può usare il riconoscimento facciale per “prevedere il crimine” ha riacceso il dibattito sul pregiudizio razziale nella tecnologia.

I ricercatori dell’Università di Harrisburg hanno affermato che il loro software “può prevedere se qualcuno è un criminale, solo sulla base di una foto del suo volto”.

Il software “ha lo scopo di aiutare le forze dell’ordine a prevenire la criminalità”, ha detto.

Ma 1.700 accademici hanno firmato una lettera aperta chiedendo che la ricerca rimanga senza precedenti.

Un ricercatore di Harrisburg, un ex ufficiale di polizia, ha scritto: “Identifica il crimine di [a] una persona dalla sua immagine facciale offrirà un vantaggio significativo alle forze dell’ordine e ad altri servizi di intelligence nel prevenire la criminalità. “

I ricercatori hanno affermato che il loro software funziona “senza pregiudizi razziali”.

Ma gli organizzatori della lettera aperta, la Coalition for Critical Technology, hanno dichiarato: “Tali affermazioni si basano su premesse scientifiche, ricerche e metodi inaffidabili, secondo cui molti studi che coprono le nostre rispettive discipline hanno sfatato nel corso degli anni. .

“Queste affermazioni screditate continuano a riaffiorare.”

Il gruppo indica “innumerevoli studi” che suggeriscono che le persone appartenenti a determinate minoranze etniche siano trattate in modo più severo nel sistema giudiziario penale, distorcendo i dati su come dovrebbe apparire un criminale.

Krittika D’Silva, ricercatore informatico dell’Università di Cambridge, che non è tra i firmatari, ha dichiarato: “È irresponsabile per chiunque pensare di poter predire il crimine sulla base di una sola immagine. del volto di una persona.

“Le implicazioni di ciò sono che il software di” predizione “del crimine può causare seri danni – ed è importante che ricercatori e responsabili politici prendano sul serio questi problemi.

“Molti studi hanno dimostrato che gli algoritmi di apprendimento automatico, in particolare i software di riconoscimento facciale, hanno pregiudizi razziali, di genere e legati all’età”, ha detto, come uno studio del 2019 che indica il riconoscimento facciale funziona male su donne e anziani, neri e asiatici. persone.

La scorsa settimana, un esempio di tale difetto è diventato virale online, quando un’intelligenza artificiale di fascia alta di fronte a “depixel” è diventata bianca dall’ex presidente degli Stati Uniti Barack Obama.

L’upscaler stesso sta semplicemente inventando nuovi volti basati su una foto pixelata iniziale, non proprio finalizzata a una vera ricreazione della persona reale.

Ma il team dietro il progetto, Pulse, da allora modificato il loro documento per dire può “far luce su determinati pregiudizi” in uno degli strumenti che usano per generare facce.

Nel caso di Harrisburg, l’università detto che la ricerca sarebbe apparsa in un libro pubblicato da Springer Nature, i cui titoli includono la famosa rivista accademica Nature.

Ma dopo le proteste, Springer ha twittato che non avrebbe pubblicato l’articolo, senza fornire ulteriori dettagli.

Rapporti di revisione della tecnologia del MIT il documento è stato rifiutato durante il processo di revisione tra pari.

L’Università di Harrisburg, da parte sua, ha pubblicato il proprio comunicato stampa “su richiesta della facoltà interessata”.

Il documento è stato aggiornato “per rispondere alle preoccupazioni”, ha detto..

E sebbene supporti la libertà accademica, la ricerca del suo personale “non riflette necessariamente le opinioni e gli obiettivi di questa università”.

Gli organizzatori della Coalition for Critical Technology, nel frattempo, hanno chiesto che “tutti gli editori dovrebbero astenersi dal pubblicare studi simili in futuro”.

Avatar

Elario Necci

Accardi è un produttore digitale di Dico News con sede in Italia. Copre le ultime notizie e scrive sulla regione di Itlay, con particolare attenzione ai diritti umani. Prima di entrare a far parte di Dico News nel 2018, Accardi è stato redattore e scrittore presso TEME e produttore di video per i media in esilio in Myanmar.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *