Ultimi Nutizie

Attualità mundiale per u populu corsu

Rivista Principià

Quandu u pulizzeru hè un robot è u ghjudice un algoritmu

Quandu u pulizzeru hè un robot è u ghjudice un algoritmu

Intelligenza Artificiale, polizia predittiva, ricunniscenza faciale, analisi di sentimenti, bodycam: strumenti per riduce a criminalità è aumentà a sicurità publica o periculu per a privacy è risicu di ripressione ? L'articulu di Gian Marco Litrico

Washington DC, 2054. U capu di una unità di pulizie chjamata PreCrime è custituita da PreCogs, individui geneticamente mudificati capaci di predichendu crimini, si mette in furia quandu scopre ch'ellu hè in u cruciveru di a ghjustizia cum'è u futuru perpetratore di un omicidiu. In a storia cun un finale felice, l'eroe – ghjucatu da Tom Cruise – riesce à scopre a trama di un ufficiale di u Dipartimentu di Ghjustizia di altu gradu, sguassate u so nome è chjude u prugramma PreCrime.

A trama, ovviamente, hè quella di Minority Report , u filmu di u 2002 cù quale Steven Spielberg hà traduttu in imaghjini un raccontu distopicu di Philip K. Dick centratu annantu à un sistema ghjudiziariu cù u scopu dichjaratu di prutege i citadini, ma chì si trasforma invece in un strumentu per prosecuzione di crimini d'opinioni, mira è eliminazione di dissidenti pulitichi o altri gruppi ritenuti indesiderati da quelli in u putere.

Avà, u puntu hè chì in parechje cità americane, ma ancu in i paesi europei cum'è u Regnu Unitu, a Germania, l'Olanda è u Danimarca, o in i paesi asiatichi cum'è a Cina, u Giappone, l'India è l'Emirati Arabi Uniti, a polizia predictiva hè stata una realità per qualchi tempu avà, annu, ma ùn hè PreCogs chì predice u futuru, ma algoritmi.

In u 2010, a cità di Santa Cruz, California, hè stata unu di i primi à utilizà un algoritmu creatu cù e dati di crimini per predichendu i crimini futuri, identificendu "punti caldi" d'altu risicu micca più grande di 50 metri quadrati. L'ufficiali patrullavanu sti spazii quandu ùn eranu micca occupati à risponde à altre chjama. Risultatu ? I furti sò diminuiti di 19% in sei mesi.

U Dipartimentu di Pulizia di Los Angeles hà pruvatu u metudu in una cità assai più grande cù bisogni di patrulla più cumplessi. E carte distribuite à l'ufficiali à l'iniziu di u turnu, cum'è in Santa Cruz, sò in parte produtte cù metudi tradiziunali utilizati da a polizia, in parte sò creati da l'Intelligenza Artificiale (AI). Di novu cù risultati pusitivi: i carte creati da l'algoritmu eranu duie volte più precisi chì quelli basati nantu à l'esperienza umana, mentre chì i crimini di pruprietà diminuite da 12%.

In Camden, New Jersey, chì hè in cima à a lista di e cità più periculose d'America, l'algoritmu hà riduciutu i crimini da 26% è l'omicidi da 41%.

Grazie à questi risultati in u campu, è malgradu i fantasmi evocati da Tom Cruise, in u 2011, a pulizzia predittiva hè stata inclusa da Time Magazine in a lista di i 50 migliori invenzioni di l'annu, inaugurandu una dicada di entusiasmu in l'opinione publica è creendu novi opportunità. di l'affari per l'imprenditori è l'investituri. PredPol, fundata in 2012 da un prufissore UCLA, cù Palantir, hè oghje unu di i capi di u mercatu cù una sessantina di dipartimenti di polizia cum'è clienti, chì paganu circa 15 mila dollari annu per u serviziu.

Per i so sustenidori, a polizia predictiva guarantisci una predizione più precisa di i crimini futuri perchè si basa nantu à Big Data piuttostu cà solu l'instintu di i pulizzeri, limitendu u risicu di decisioni basate nantu à i preghjudizii piuttostu cà elementi fattuali.

Tuttu cù un risparmiu chì un studiu 2019 da Rand Corporation hà stimatu in i Stati Uniti per esse in l'ordine di 2,7 miliardi di dollari annu, per via di a riduzzione di a criminalità è di una distribuzione più sàvia di risorse.

Un algoritmu sviluppatu da l'Università di Chicago in 2022 prumette previsioni settimanali cù affidabilità di 90%. Dieci punti percentuali in più di a previsione climatica. Per u mumentu, però, u sistema hà sopratuttu permessu di verificà cumu e strategie operative di a pulizza sò, à u turnu, cundizionate da i preghjudizii socio-ecunomichi, perchè tendenu à aumentà a vigilanza in i zoni principarmenti neri è à pocu redditu, mentre registranu. più arresti per i crimini di a pruprietà in i zoni d'altu redditu, trascuratendu l'impattu in i zoni di ingressu bassu. Inoltre, i dati generali sò spessu usati per prufilu un individuu unicu, assai menu per offre più servizii suciali è aumentà l'implicazione di a cumunità per luttà contra e cause radicali di u crimine.

Un spaziu in u quale a polizia predittiva hà suscitatu grandi speranze hè quella di prevene u fenomenu quasi esclusivamente americanu di fucili di massa , attacchi à scole, centri cummerciali, chjese è altri lochi di aggregazione chì anu afflittu u paese per decennii: cù l' analisi di sentimenti AI analisi publicazioni di e social media è altre attività in linea per identificà e minacce potenziali o crimini. L'assunzione hè chì un postu razzista o unu chì emula altri tiratori di massa nantu à e social media, cum'è elementi cum'è una storia di viulenza domestica o pussessu di armi di focu, ponu aiutà à identificà unu prima ch'ellu agisca, postu chì almenu in u 45% di i casi u sughjettu palesa i so intenzioni. Questu in un paese induve ci sò 390 milioni d'armi di focu è 344 milioni d'abitanti.

Ancu a videovigilanza, chì esiste dapoi decennii, hà fattu un grande saltu in qualità cù AI. A diferenza avà hè chì ùn avete più bisognu di un umanu per cuntrullà l'imaghjini. Un algoritmu si cura.

Hè cusì chì i cuntrolli di e fruntiere sò realizati è, per esempiu, falsi targhe di i veiculi sò identificati in tempu reale.

U prublema diventa assai più cuntruversu quandu sta tecnulugia porta à a ricunniscenza faciale di e persone d'interessu in una investigazione, identificate mentre sò in grandi lochi di riunione cum'è un stadiu o un aeroportu.

A ricunniscenza faciale hè criticata, sicuru, quandu ùn funziona micca: un studiu di u 2019 da l'Istitutu Naziunale di Standards è Tecnulugia hà truvatu chì era 100 volte più prubabile di misidentificà individui di discendenza africana o asiatica. Famosu, l'identificazione incorrecta hè una di e cause primarie di l'errori ghjudiziali: hè per quessa chì a ricunniscenza faciale hè cunsiderata cum'è una pista, è micca cum'è una certa prova. In casu di dubbitu, cità cum'è San Francisco è Oakland anu pruibitu u so usu.

Paradossalmente, però, a ricunniscenza faciale hè criticata soprattuttu quandu travaglia è diventa u strumentu perfettu per a surviglianza di massa, minacciandu u catalogu sanu di e libertà individuali, cumpresu u dirittu à a privacy è a libertà di spressione, assemblea è associazione.

Ci sò quelli chì, cum'è Agnès Callamard, secretariu generale di Amnistia Internaziunale, parlanu à tutta corte di l'incompatibilità di a ricunniscenza faciale , quandu hè aduprata per a surviglianza, cù i diritti umani è di "l'apartheid automatizatu", mettendu in discussione un novu sistema chjamatu Red Wolf . utilizatu da l'autorità israeliane per monitorà è cuntrullà i muvimenti di i Palestiniani in Ghjerusalemme Est è Hebron, induve i coloni israeliani viaghjanu in diverse rotte è ùn sò micca obligati à aduprà punti di cuntrollu.

I massacri perpetrati da Hamas in questu tragicu ottobre anu suscitatu parechji dubbii nantu à a capacità di questi sistemi per prevene u terrurismu: i sistemi di cuntrollu di e fruntiere israeliani basati in rete cellulari, camere, sensori è mitragliatrici robotiche cuntrullate remotamente sò stati messi fora di azzione, ugualmente remotamente. , da i droni di Hamas.

Certamente, i Cinesi ùn anu micca dubbitu, chì, cum'è u New York Times hà scrittu in u 2021, campanu in una gabbia invisibule, induve a polizia hè automaticamente avvisata se trè persone cun record penali si trovanu in u stessu hotel, o se un omu cù un passatu di un agitatore puliticu cumprà un bigliettu di trenu o una donna cù prublemi mentali lassa a casa o si avvicina troppu à una scola.

Hè attraversu queste tecnulugia chì l'insurrezioni Uighur in Xinjiang sò soppresse o u bloccu più strettu di u mondu hè statu mantinutu durante a pandemia di Covid 19.

Xi Jinping hà dettu esplicitamente: Big Data deve esse usatu cum'è un mutore per u sviluppu di a sicurità publica è e so capacità operative. Tuttu chistu in un paese induve l'autorità ùn anu micca bisognu di un mandatu per cullà infurmazioni persunali.

Cumpagnia cum'è Megvii è Hikvision ponu vede una persona chì passa troppu tempu in una stazione è ghjunghje à a cunclusione chì ellu hè un pickpocket. In corta, i cattivi ùn anu un locu per ammuccià, ma questu vale ancu per quelli chì sfidanu u regime.

Ci hè un software chì predice e prutestazioni, cullendu dati da quelli chì informanu i lucali à l'autorità superiore, creendu profili individuali di manifestanti, cù una formulazione cum'è "paranoica, meticulosa o litigata" o cunsiderendu fatturi di risicu cum'è un statutu suciale bassu o esse colpitu da luttu. U sistema pò seguità e persone cù e malatie mentali, cù una storia di sedizione pulitica, immigrati, minori disoccupati o fora di scola, stranieri, malati di AIDS, minoranze etniche. O identificà quelli chì cunsumanu troppu acqua o elettricità è puderia esse un immigratu illegale chì vive inseme cù l'altri per riduce e spese.

Trà e diverse opzioni, ci hè a pussibilità di preparà listi speciali di persone – per esempiu ufficiali lucali di u Partitu Comunista Cinese – chì u sistema di surviglianza deve ignurà: cum'è in a splutazioni Orwelliana, "tutti l'animali sò uguali, ma alcuni sò più uguali. chè l'altri ".

U scambiu di privacy-per-security mostra notevoli differenze in l'accettazione è a desiderabilità di sti tecnulugii in diverse zone geografiche di u mondu: l'Europa è l'America di u Nordu sò più attenti à a privacy, mentre chì l'America Latina è l'Asia sò più disposti à cumprumissu à a sicurità. i diritti individuali per ottene livelli più alti di sicurità.

In ultimamente, resta l'ambivalenza irriducibile di una tecnulugia chì pò minaccia i diritti individuali, ma ancu identificà e persone mancanti (ci sò 88 mila per annu solu in i Stati Uniti) è cumbatte u trafficu umanu (quasi 25 milioni di vittimi in u mondu). In 2018, u ricunniscenza faciale hà permessu à a polizia di New Delhi identificà quasi 3,000 zitelli mancanti in solu quattru ghjorni.

Intantu, l'evoluzione tecnologica cuntinueghja senza diminuzione: Clearview AI, fundata in u 2017, furnisce una basa di dati cù più di 20 miliardi d'imaghjini faciale, raccolte per mezu dispunibuli publicamente, cum'è e foto caricate in i cunti Facebook, Twitter è Instagram. U sistema hè alimentatu da una rete neurale chì cunverte l'imaghjini in vettori custituiti da più di 500 punti chì identificanu e caratteristiche faciale uniche, cum'è a forma particulare di a bocca o a distanza trà l'ochji. Questa quantità massiva di dati hà permessu à Clearview AI di ottene u 99% di affidabilità in tutti i segmenti demografichi.

In Detroit, a cità più nera d'America, ci sò 300 omicidi à l'annu. Hè ancu per quessa chì u Prughjettu Green Light hà iniziatu in 2016, inizialmente chì implicava ottu stazioni di serviziu dotate di camere è cunnessi à a stazione di polizia. Una luce verde identifica questi spazii induve l'utilizatore si sente più sicuru è u criminale hè più espunutu à l'azzione di a polizia. Finu a data, ci sò più di 700 imprese monitorate, chì paganu circa 5 000 dollari per installà camere è cunnessione.

Opere ? Per Giovanni Circo, di l'Università di New Haven, "i crimini cummessi in unu di i lochi prutetti sò più probabili di esse risolti, ma ùn ci hè micca evidenza chì u sistema hà ridutta i crimini". A realità hè chì i crimini anu aumentatu perchè i casi cum'è u furtu in a buttrega appariscenu avà in e statistiche, chì prima ùn eranu mancu signalati, mentre chì i crimini viulenti ùn anu micca aumentatu.

U prughjettu Green Light hè ancu finitu in u visu di l'associazioni per a difesa di i diritti civili: u sistema ùn usa micca u ricunniscenza faciale , ma u ricunniscenza faciale usa l'imaghjini pigliati da a camera di surviglianza. È ci hè certamente una grande differenza chì e foto per paragunà sti imagine sò quelli di mug o quelli di u permessu di guida.

Una tecnulugia chì hà u scopu di limità i casi di usu eccessivu di forza da a polizia hè quella di e camere wearable, introdutte sottu a pressione di Black Lives Matter, u muvimentu chì lotta contru a discriminazione razziale contr'à l'Africani-Americani riportendu incidenti di brutalità di e forze di polizia.

Sutta sta prissioni, circa un terzu di i dipartimenti di pulizie municipali in i Stati Uniti avianu digià aduttatu bodycams deci anni fà. In u 2014, u presidente Barack Obama hà avutu u Cungressu chì autorizeghja un finanziamentu di 20 milioni di dollari per cumprà altri 20.000.

Alcune ricerche, cum'è quella di l'Università di Arizona in u 2014, anu dimustratu chì i bodycams guarantisci più trasparenza in a ricerca di evidenza è una più grande propensione di u citadinu à rispettà l'ordine di u pulizzeru, è ancu un aumentu di a produtividade in quantu à arresti è una riduzione di 65% in lagnanza annantu à l'usu di a forza da l'ufficiali.

Bodycams riducenu i rapporti di carta, facenu l'ufficiali più prudenti in e so azioni per via di u scrutinu constante di l'azzioni di u persunale, è aumentanu u cuntattu spontaneu cù i residenti di a cumunità.

Per fà chì i pulizzeri portanu bodycams , u LAPD prova una nova tecnulugia chì attiva e camere quandu l'ufficiale accende e so luci lampanti è a sirena d'emergenza.

Trà i critichi sò i sindicati, preoccupati di a pussibilità chì l'ufficiali seranu distratti da i bodycams , mentre ch'elli sò contru à l'accessibilità di i video nantu à una semplice dumanda da u publicu. U risicu, dicenu, hè chì crea un deterrent per e vittime di a viulenza domestica per chjamà a polizia, sapendu chì seranu filmati. Per ùn dì chì i costi di e camere è di mantenimentu ponu purtà à taglii in altre parti di u budget di a polizia.

Intantu, l'automatizazione avanza à pocu pressu: i rivelatori di metalli tradiziunali in i scoli è in altri lochi publichi, per esempiu, sò uniti da scanners di nova generazione, cum'è quelli pruduciuti da Zero Eyes o da Evolv Technology, una sucietà di Massachusetts chì prumetti di identificà – grazia à AI – "tutte l'armi, i dispusitivi splusivi è i culteddi pruduciuti in u mondu".

È questu senza cercà fisicamenti persone o vagliate sacchetti è sacchetti, ma facendu u publicu passà per una porta simplice capace di screening millaie di persone per ora, chì pò esse facilmente integrata in l'edificazioni o usata fora. Questi sistemi sò pensati per detectà armi brandisate è parzialmente esposte, in l'assunzione chì i tiratori di massa in particulare sò generalmente impegnati in una missione suicida è ghjunghjenu à a scena di u crimine cù l'intenzione di instillà a paura è di pudè "cuntrullà" l'ambiente circondu cù a minaccia di l'arme, à u puntu di ùn avè micca bisognu di ammuccià. In altri palori, u sistema scommette chì i tiratori di massa ponu piglià parechji minuti per u focu, tirà fucili è pistole fora di vitture o sacchetti in u parking o scala o in ogni locu coperto da una camera di surviglianza.

U paradossu hè chì u sistema hè messi in dubbitu più chè da i falsi pusitivi è falsi negativi, cum'è lunchboxi sbagliati per splusivi o fucili micca rilevati, da u periculu chì rapprisenta per a Seconda Emenda, quella chì attribuisce à i citadini americani u dirittu. per tene è portà l'arme.

L'obiezione di e cumpagnie di fabricazione hè chì senza AI, una camera di surviglianza risicate di esse solu un deterrente o, à u più, un strumentu per ricustruisce retrospettivamente u modus operandi di un attaccu, piuttostu cà un mezzu di gestisce l'emergenza: una metropoli americana pò avè. finu à 30 mila camere, u ragiunamentu va, ma cù troppu pocu staffu per monitorallu.

Inoltre, i sistemi d'avvisu attivati ​​​​à l'AI seranu più affidabili in furnisce infurmazioni nantu à u locu di l'attaccante è l'arme. Cum'è a prova di più di 100 chjamate da i studienti è u persunale di a scola à u numeru d'emergenza 911, durante l'attaccu à a Robb Elementary School in Uvalde in u 2022, senza chì i 376 agenti di polizia chì sò ghjunti in u situ puderanu piglià azzione efficace.

Un'altra applicazione di punta hè a " ricunniscenza di u fucile ". U sistema di deteczione di SoundThinking usa una reta di sensori acustici posizionati in una zona urbana (20-25 microfoni per chilometru quadru) per detectà u sonu di un fucile, u calibre di l'arma, u locu di u tiratore è u numeru di colpi splutati. I dati sò trattati da AI è validati da esperti di l'industria durante a fase di prova.

Se questu pare una idea pazza, cunzidira chì SoundThinking, listatu in u NASDAQ dapoi u 2017, hà 46 cumpagnie in competizione è chì più di un centu di cità in i Stati Uniti, cumprese Chicago, New York è San Francisco, spende centinaie di millaie di dollari ogni ghjornu. annu per implementà u sistema.

U MacArthur Justice Center hà trovu chì sti sistemi sò ancu installati più in e cumunità nere, chì anu digià u peghju di una presenza più grande di a polizia. Aghjunghjite i 60 falsi pusitivi per ghjornu, registrati per esempiu in Chicago, è avete a ricetta per aumentà u dighjà tragicu di l'assassini di i neri da a polizia.

D'altronde, ci sò quelli chì sottolineanu – cum'è Jeff Merritt, capu di l'IoT è a trasfurmazioni urbane à u Forum Ecunomicu Mundiale – u fattu di "sfiducia trà e cumunità è a pulizza, chì significa chì e cumunità à pocu redditu sò tradizionalmente marginalizati. menu prubabile di dumandà aiutu. L'introduzione di tecnulugia cum'è a rilevazione di pistole permette à l'ufficiali di polizia è à l'infurzatori di a lege per risponde è aiutà a cumunità ".

L'algoritmi ponu esse aduprati per analizà l'evidenza di DNA in sceni di crimini per identificà i sospettati potenziali o vittimi, ancu parechji anni dopu è cù tracce minime o tracce mischiate cù quelli di altri sugetti. In u 2018, a polizia in California hà utilizatu un situ specializatu in genealogia basatu annantu à l'analisi di DNA per identificà Joseph James DeAngelo Jr., un assassinu seriale chì era attivu in l'anni 1970 è 1980. Ùn ci hè micca dubbitu chì in u so casu u dirittu à a privacy di u parente di l'assassinu hè statu violatu, chì e so dati eranu spartuti da u situ cù a polizia senza accunsentu.

Paradossalmente, u dibattitu nantu à a privacy in u casu di l'adoptati è i figlioli di i donatori di sperma chì utilizanu sti stessi metudi per truvà i so genitori face menu rumore mentre quì hè a pulizza chì ne prufitta, ma hè grazia à l'evidenza DNA chì i culpevuli. sò identificati, ma ancu l'innocenti sò exonerated, cum'è accadutu in Colorado in u 2009, quandu un omu hè statu liberatu da a prigiò dopu avè passatu guasi 10 anni in prigiò per un violu chì ùn hà micca fattu.

In u film Robocop di Paul Verhoeven, Hollywood hà dettu ancu un altru filu di l'evoluzione tecnologica di l'attività di a polizia quasi 40 anni in anticipu. Quellu ligatu à l'usu di robots.

I robots ponu esse aduprati per eseguisce travaglii di rutina, per esempiu, cum'è quelli di Spot, u robot chì in Singapore ricorda à e persone in i parchi publichi di osservà una distanza suciale di almenu un metru. O per realizà travaglii risicatu cum'è a surviglianza, cuntrollà i veiculi sospetti, detectà splusivi o gestione situazioni di ostaggi. In i Stati Uniti, 50 agenti di polizia sò stati ammazzati in u travagliu in u 2020, mentre chì 58,000 sò stati feriti in a linea di serviziu in u 2018.

Un rapportu di Rand Corporation hà suggeritu chì l'usu di robots in a polizia puderia migliurà a capacità è u tempu di risposta in emergenze da 10-20%.

Ancu in questu casu, però, ùn mancanu micca i prublemi etichi, soprattuttu in quantu à l'usu di a cusì chjamata "forza letale". In Dallas, in u 2016, un robot hà uccisu un ex-militariu chì s'era barricatu in un garage dopu avè uccisu 5 pulizzeri cù un bloccu di splusivi C4.

In u 2022, a cità di San Francisco, chì hà una decina di elli in serviziu, hà autorizatu l'usu di a forza letale da i robots, chì ùn sò micca armati, ma equipati di carichi splusivi per "cuntattà, neutralizà o disorientà un suspettatu viulente. armati o periculosi”. In cortu, forza letale sì, ma solu in i casi estremi è per salvà a vita, è sempre sottu à u cuntrollu umanu postu chì solu un certu nùmeru d'ufficiali d'altu rangu pò autorizà l'usu di a forza letale da i robots.

Almenu per avà. Intantu, u so usu in a polizia hà digià suscitatu un prublema di accettazione suciale: un sondaghju da a National League of Cities, in u 2020, hà truvatu chì solu u 36% di i residenti americani si sentenu cunfortu cù l'idea di utilizà robots in l'attività di l'applicazione di a lege . .

In Dubai, induve sò in turnu dapoi u 2017, u prublema di l'usu di a forza letale da i robocops ùn pare micca esiste: parlanu 6 lingue, anu un touchscreen induve ponu esse presentate lagnanze è utilizanu càmera per identificà i prudutti falsificati. . Sò cusì efficaci chì si prevede ch'elli puderanu custituiscenu u 25% di a forza di polizia da u 2030.

Numeri simili à quelli chì suscitanu a preoccupazione di i sindicati di a polizia americani: secondu l'Università di Oxford, finu à u 35% di i travaglii di polizia è di sicurità publica in i Stati Uniti puderanu esse automatizati in i prossimi 20 anni.

Inoltre, l'AI ùn minaccia micca di rimpiazzà solu i pulizzeri, ma ancu i ghjudici. Compas, per esempiu, hè un software pruprietariu pruduciutu da Equivant è hè utilizatu in i Stati Uniti per valutà a probabilità chì un imputatu cummette crimini futuri analizendu e risposte à un questionnaire di 137 elementi. In corta, più è più spessu, a ghjustizia penale americana usa un algoritmu per decide nantu à a fianza, cundanna è liberazione anticipata di un individuu.

Ma cum'è in Minority Report , a ghjustizia ùn hè micca sempre garantita. À u cuntrariu. In u frivaru di u 2013, l'afro-americanu Eric Loomis hè statu arristatu cunducendu una vittura chì era stata aduprata in una fucilazione. L'omu, chì hà nigatu d'avè participatu, hè statu cundannatu di "tentativu di fughje da un agentu di trafficu è di guidà un veiculu di mutore senza l'accunsentu di u pruprietariu".

In a determinazione di a so pena di sei anni, u ghjudice hà basatu micca solu nantu à u so casu criminali, ma ancu nantu à u puntuatu assignatu da Compas, chì l'avia classificatu cum'è una persona à risicu altu di recidiva. In 2016, Loomis appellu à a sentenza: l'algoritmu avia violatu i so diritti procedurali perchè i dati analizati includenu micca solu accusazioni attuali o pendenti, storia di arrestu precedente, stabilità residenziale, status di u travagliu, relazioni cù a cumunità è abusu di sustanzi, ma ancu identità di genere è razza. . Inoltre, l'algoritmu si prisentava cum'è una scatula nera chì i miccanismi di u funziunamentu ùn pudianu esse cunnisciutu è a so validità scientifica ùn pudia esse contestata.

L'affare Loomis hà iniziatu un dibattitu chì dura dapoi anni: secondu a redazione indipendente ProPublica "i neri sò guasi duie volte più probabili di i bianchi per esse marcati cum'è e persone cù un risicu più altu di recidivismu, senza esse veramente cusì" , mentri "Compas face l'errore cuntrariu cù i bianchi, chì sò assai più probabili di i neri per esse etichettati cum'è à pocu risicu, ancu s'elli cuntinueghjanu à offend.

Per u fabricatore Equivant, però, hè pussibule di creà un algoritmu ghjustu. L'accusati anu attribuitu u puntu di risicu più altu cummessu novi crimini quattru volte più freti di quelli chì anu attribuitu un puntu di risicu più bassu. È questu senza differenze razziali. Per esempiu, trà l'accusati chì anu puntuatu un sette nantu à a scala Compas, u 60% di l'accusati bianchi ripetuti hè quasi identica à u 61% di l'accusati neri ripetuti.

A realità hè chì Compas hà dimustratu un pocu più affidabile di e previsioni individuali fatte da un gruppu di vuluntarii 400 (65% versus 63%), ma ancu un pocu menu affidabile di e previsioni sviluppate cullettivamente, chì eranu currette in 67% di i casi.

A contra-prova hè stata furnita da un studiu da l'Università di Duke: un algoritmu assai simplice, u tipu chì pò esse scrittu nantu à una carta di visita, basatu annantu à l'età, u sessu è i detenzioni precedenti, hà ottinutu una precisione in a prediczione di recidivisma equivalente à quella di Compas.

Ci vole à dì chì, malgradu tutte e so limitazioni, l'usu di l'algoritmu hà permessu di riduce a pupulazione di prigiuneri in attesa di prucessu di 16% senza aumentà a taxa di criminalità. Ancu di più quandu u paràmetru di imparzialità di i ghjudici in carne è sangue hè pigliatu in cunsiderà: in New York, per esempiu, i più stretti impone a cauzione duie volte quant'è i più morbidi, in ciò chì hè, per tutti i scopi, una manifestazione. di l'arbitraria totale.

Cum'è in altri campi, cumpresu in e so applicazioni per l'amministrazione di a ghjustizia è di l'attività di polizia, l'AI da una parte promette, ma ùn sempre ottenga, veri salti quantistici in termini di efficienza, da l'altra parte crea novi minacce o rinforza i vechji, in particulare in materia di diritti individuali.

Per Rand Corporation, per esempiu, a polizia predittiva "ùn hè micca una bola di cristallu è pò identificà solu e persone o lochi chì anu un risicu aumentatu di crimine". Infatti, classificendu i quartieri cum'è altu o bassu risicu, inculca un preghjudiziu in i pulizzeri, mettenduli in alerta inutile o dendu un falsu sensu di sicurità.

Comu avemu vistu, ci sò quelli chì pensanu chì sti tecnulugii sò "discriminatori" per natura. Per Dorothy Roberts, in a so Digitizing the Carceral State , i dati alimentati in algoritmi di pulizie predictive per predice induve i crimini si saranu o quale hè prubabile di fà attività criminali, tende à cuntene infurmazione chì hè tainted da u razzisimu.

A serie storica di arresti o incarcerazioni, infurmazioni nantu à u quartiere di residenza, u livellu di educazione, l'appartenenza à gang o gruppi criminali organizzati, 911 call records, ponu pruduce algoritmi chì portanu à una surviglianza eccessiva di e minoranze etniche o un redditu bassu.

Esse arrestatu per un crimine ùn hè micca listessa per avè fattu quellu crimine. L'Africani americani, per esempiu, sò fermati più di i bianchi per u pussessu di marijuana, malgradu chì i dui gruppi l'utilizanu in a stessa misura. Statistiche in manu, e donne sò assai menu inclinate chè l'omi à fà crimini viulenti : per quessa, un algoritmu basatu annantu à a neutralità di genere dannu irreparablemente l'amministrazione di a ghjustizia versu l'universu femminile.

In e parolle di una Corte d'Appello americana, "a pulizza predittiva hè l'antitesi di u principiu di a presunzione d'innocenza, un strumentu d'applicazione di a lege chì ùn hè più cà u rinfurzamentu di un statu quo razzista".

Una postura forte, ancu s'è in una ispezione più stretta, cum'è u New York Times hà nutatu in 2017, "ùn hè micca l'algoritmu chì hè 'biased', ma hè a realità chì cuntinueghja à esse carattarizata da sfarenze razziali scioccanti. Hè ingannatu à culpisce l'algoritmu quandu revela mudelli statistichi reali. Ignore questi mudelli ùn affronta micca e inuguaglianze sottostanti ".

Ciò chì hè sicuru hè chì dopu à pocu più di un decenniu da u so esordiu, a pulizzia predittiva scontra sempre più resistenza: ghjustu dopu à l'assassiniu di George Floyd in Minneapolis, u cunsigliu municipale di Santa Cruz hà vutatu in favore di a pruibizione cumpleta cù l'usu di predictive. pulizza. U LAPD hà sospesu u so prugramma di previsione di crimini Laser per l'impattu sproporzionatu chì u sistema hà nantu à e persone di culore, mentre chì in u 2020 un gruppu di matematichi hà publicatu una lettera in Notices of the American Mathematical Society urgendu i culleghi à piantà u travagliu nantu à a polizia predittiva. Più di 1500 altri matematichi si sò uniti à u boicottu.

Più in generale, hè a surviglianza di massa da l'infurzatori di a lege, è sopratuttu a pussibilità chì i dati raccolti sò usati in modu improperu, secondu u Pew Research Center, chì preoccupa 54% di l'Americani.

Una preoccupazione legittima, à ghjudicà da ciò chì si vede in l'esibizioni di u settore, chì mette in mostra tecnulugii d'avanguardia cum'è i lettori di onde cerebrali per detectà e bugie di l'interrogati, droni chì ponu esse ricaricati remotamente, vetri per u ricunniscenza faciale è supercamere chì ponu zoom da più di un chilometru di distanza è ricunnosce facce è targhe, è ancu sistemi chì permettenu di decriptà u cuntenutu almacenatu in un telefuninu.

Ricordemu tutti di a guerra in tuttu trà Apple è l'FBI, chì hà iniziatu in u 2015 cù quella lettera di 1.100 parolle cù a quale Tim Cook hà ricusatu di creà una backdoor in iOS per superà a criptografia di u telefunu di l'assassinu di San Bernardino, rispunsevuli di l'assassiniu di 15 persone.

Oghje, però, ci sò cumpagnie cum'è l'Israele Cellebrite è l'American Greyshift chì ponu decriptà un telefunu per uni pochi di millai di dollari.

In cortu, u pendulu hè swing: da una banda l'AI prumette di riduce a criminalità da 30-40% è i tempi di risposta per i servizii d'urgenza da 35%, cum'è Deloitte calcula, da l'altra face u diafragma trà a sicurità publica è a ripressione.

Per questo qualsiasi progresso nell'AI nel campo delle attività di polizia deve essere accompagnato da una discussione approfondita e aperta su come contenere i rischi di una deriva algocratica della società, senza perdere i benefici enormi che dall'uso di queste tecnologie, quando sono mature, possono derivare.

Pensare, per esempio, ai servizi bancari moderni senza l'AI a prevenire e combattere le frodi, i furti di identità e il riciclaggio del denaro è impossibile. I principi basilari del diritto si possono applicare per analogia anche ai più moderni ritrovati della tecnica: per questo la polizia deve generalmente ottenere un mandato di perquisizione prima di utilizzare un drone per condurre una sorveglianza o raccogliere prove in un'indagine penale. Questo perché l'uso di droni per questi scopi è considerato una “perquisizione” ai sensi del Quarto Emendamento della Costituzione degli Stati Uniti, che protegge da perquisizioni e sequestri irragionevoli.

Non mancano esempi in cui è la tecnologia stessa a rimediare ai danni che produce ea ristabilire il diritto: i circa 1.400 manifestanti che erano stati pestati, accecati dallo spray al peperoncino, rinchiusi come animali e arrestati indiscriminatamente per aver marciato contro la violenza della polizia e l'ingiustizia razziale a New York, nel 2020, all'indomani dell'omicidio di George Floyd, tre anni dopo sono stati risarciti con circa 10 mila dollari a testa come esito transattivo di una class action che è costata ai contribuenti più di 13 milioni di dollari, l'importo più alto mai pagato nella storia degli Stati Uniti.

Tutto questo grazie a Codec, uno strumento di categorizzazione dei video lanciato nel giugno 2022 e che si sta rivelando essenziale nelle battaglie legali in tutto il mondo: ore di riprese video ottenute da bodycam , smartphone ed elicotteri delle news serali, possono rivelare violenze orchestrate e sostenute dallo Stato contro i manifestanti.

In Brasile, dove chiunque, in qualsiasi momento o luogo, può essere vittima di un proiettile vagante esploso durante uno scontro a fuoco tra spacciatori di droga per il controllo del territorio o un'operazione di polizia, ci sono in media 111 omicidi al giorno e l'81% dei cittadini teme di esserne vittima.

Dal 2016, l'app “Onde Tem Tiroteio?”, “Dov'è la sparatoria?”, permette ai suoi quasi 5 milioni di utenti di monitorare le aree che attraversano e determinare i percorsi più sicuri, grazie alle informazioni su proteste, furti di veicoli, violenze armate, incidenti o traffico e disastri naturali.

Ecco, insomma, una piattaforma interattiva e geolocalizzata che ha determinato una riduzione del 15% degli omicidi e del 13% delle rapine in strada e dove l'utente è l'elemento fondamentale perché segnala situazioni di violenza o comportamenti sospetti direttamente dal proprio smartphone, attuando una forma di sicurezza da cittadino a cittadino (C2C). Tutti gli avvisi inviati dagli utenti all'applicazione vengono controllati dal team operativo interno, che convalida le informazioni con fonti affidabili prima di emettere qualsiasi allarme, fungendo da filtro per impedire la trasmissione di informazioni false.

Il crowdsourcing come alternativa all'AI centralizzata? Ovviamente no, anche perché i pregiudizi non colpiscono solo i programmatori di algoritmi, ma anche i solerti cittadini che riportano una sparatoria.

La sfida è quella di combattere l'opacità di algoritmi complessi che limitano la possibilità di valutare la loro equità, laddove dati potenzialmente distorti vengono utilizzati per creare modelli che violano i diritti costituzionali degli individui, incluso quello a un giusto processo, o disegnano steccati basati sulla discriminazione di razza e censo nel vivo del tessuto sociale.

La strada è quella di permettere solo algoritmi white-box che rispettino i principi di trasparenza, interpretabilità e spiegabilità, così come privilegiare la raccolta di dati anonimi, aggregati e non identificabili per ottenere le informazioni utili per creare linee-guida nella gestione di eventi rilevanti per il pubblico. Parigi, per esempio, ha utilizzato l'AI per monitorare la metropolitana e garantire che i passeggeri indossassero maschere facciali. L'obiettivo non era quello di identificare e punire i trasgressori, ma di generare dati anonimi per aiutare le autorità ad anticipare futuri focolai di infezione.

Nel 1829, Robert Peel, il padre della polizia moderna, formulò i Nove Principi dell'applicazione della legge, una sorta di manuale etico per le forze dell'ordine britanniche. Il secondo principio recitava: “La capacità della polizia di svolgere i propri compiti dipende dall'approvazione pubblica dell'esistenza, delle azioni, del comportamento della polizia e dalla capacità della polizia di garantire e mantenere il rispetto pubblico”.

Quasi 200 anni dopo, il principio di Peel è ancora valido: la capacità delle forze dell'ordine di combattere efficacemente il crimine continua a dipendere dalla percezione del pubblico della legittimità delle azioni degli agenti. Non c'è motivo di pensare che lo stesso principio non vada applicato all' Artificial Intelligence .


Questa hè una traduzzione automatica da a lingua italiana di un post publicatu in StartMag à l’URL https://www.startmag.it/innovazione/quando-il-poliziotto-e-un-robot-e-il-giudice-un-algoritmo/ u Fri, 27 Oct 2023 05:42:21 +0000.