Chì usi ponu a forza di pulizzia aduprà e tecnulugia novi ?
Profiling algoritmicu, ricunniscenza faciale è pulizzia predittiva. Quessi sò solu unipochi di e tecnulugia novi chì a polizia usa o teste in l'UE (sì, ancu in Italia). Ma se a prevenzione di l'attività criminali hè impurtante per a sicurità di a sucità, u so abusu pò dannà i diritti fundamentali, in particulare di i più indifesi. Tutti i dettagli
L'Agenzia di l'Unione Europea per i Diritti Fundamentali (FRA) hà dumandatu se e tecnulugia novi ponu rinfurzà u razzisimu in a forza di polizia. È a risposta hè sì.
L'usu di software per profiling algoritmicu, ricunniscenza faciale è pulizzia predittiva pò daveru aiutà à identificà o prevene l'attività criminali, ma implica ancu risichi per i diritti fundamentali ( cum'è digià accadutu, per esempiu, in a Striscia di Gaza è a Cisjordania , induve Israele raccoglie illegale). è usa dati biometrichi di a pupulazione.)
COSA FA L'AGENZIA UE PER I DIRITTI FUNDAMENTALI
Fundata in u 2007 è basata in Vienna, l'Agenzia di l'Unione Europea per i Diritti Fundamentali (FRA) offre cunsiglii indipendenti basati nantu à l'evidenza à i decisori di l'UE è naziunali per facilità i dibattiti, e pulitiche è a legislazione nantu à i diritti fundamentali.
Si focalizeghja principalmente nantu à a discriminazione, l'accessu à a ghjustizia, u razzisimu è a xenofobia, a prutezzione di dati, i diritti di e vittime è di i zitelli.
L'Agenzia cullabureghja cù istituzioni, corpi è agenzie di l'UE; i guverni è i parlamenti naziunali di i paesi membri; u Cunsigliu di l'Auropa; gruppi è urganisazioni chì travaglianu in i diritti fundamentali; organi naziunali di diritti umani, Nazioni Unite, OSCE è altre urganisazioni internaziunali.
U RAPPORTU DI RACISMU IN A PULIZIA
U razzismu, senza risolve è sempre incredibbilmente diffusa, hè un male chì ùn hà cunfini nè in u tempu nè in u spaziu. A morte di George Floyd in u 2020 in i Stati Uniti per mani di un ufficiale di pulizza hè solu unu di i casi più cunnisciuti è u culore di a so pelle era abbastanza per scrive u tragicu epilogu. Ma i preghjudizii chì anu e so radiche in i seculi oghje risicheghjanu d'esse rinvivitu è fomentati da e tecnulugia novi chì, frà altre cose, in più di esse falaci, anu spessu i stessi preghjudizii di l'omu .
In u so primu rapportu nantu à u razzisimu in a forza di pulizza, l'Agenzia di l'UE per i Diritti Fundamentali (FRA) suscita l'alarma precisamente nantu à l'usu di sti strumenti per detectà o prevene attività criminali.
PUNTI POSITIVI È NEGATIVI DI NEW TECHNOLOGIES
Nuvelle tecnulugii di preoccupazione include profiling algoritmicu, ricunniscenza faciale, vocale è cumportamentale, è pulizie predictive. E alcuni di questi, dice u rapportu, "sò basati nantu à una gamma potenzialmente larga di dati, cumprese caratteristiche prutette cum'è a razza è l'etnia".
In certi casi, hè innegabile chì ponu esse d'aiutu, cum'è per esempiu in a valutazione di risichi in relazione à i casi di viulenza domestica di genere, ma in altri sò un risicu per i diritti fundamentali è a discriminazione razziale hè unu di i più probabili. violazioni.
In generale, 21 Stati Membri di l'UE regulanu e pratiche di profilazione di a polizia per via di a lege o altre disposizioni amministrative. Tuttavia, solu a Finlandia è certi Länder in Germania si riferiscenu specificamente à u prufilu in basa di a razza è l'origine etnica in a so legislazione.
QUALI PAESI USE FACIAL RICOGNITION
L'usu di u software di ricunniscenza faciale hè statu signalatu da l'urganisazione Homo Digitalis in Grecia in i campi di rifuggiati custoditi da a polizia, u rapportu hà dettu, è in Francia, u Défenseur des droits hà avvirtutu di u putenziale senza precedente per l'amplificazione è l'automatizazione di a discriminazione in l'usu. di l'applicazioni biometriche da e forze di l'ordine.
Tuttavia, in parechji Stati Membri, a polizia hà introduttu tecnulugii di ricunniscenza faciale à livellu naziunale o in spazii specifichi, cum'è aeroporti o fruntiere. Questu hè applicà à Austria, Bulgaria, Repubblica Ceca, Danimarca, Grecia, Finlandia, Ungheria, Lituania, Paesi Bassi, Pulonia è Slovenia.
A Lettonia, Malta, a Romania è a Spagna valutanu s'ellu li presentanu, mentre chì a Francia è a Germania li testanu.
QUALI PAESI UTILIZZANO POLIZIA PREDICTIVE
U software di pulizie predittiva rende e dati dispunibuli da a polizia, l'autorità pubbliche è e fonti aperte per pruduce indicazione di quandu è induve l'attività criminale pò accade.
Parechji Stati Membri, dice u rapportu, sò attualmente sperimentate o aduprendu questi strumenti o altri tipi di software di apprendimentu automaticu per sustene l'attività di a polizia. À mezu à elli, inseme cù l'Italia, sò Austria, Belgio, Danimarca, Germania, Grecia, Irlanda, Lituania, Spagna è Paesi Bassi.
Tuttavia, u putenziale di discriminazione etnica è razziale hà allarmatu parechje autorità pubbliche è urganisazioni di a sucità civile in Danimarca è in Irlanda.
Ciò chì l'AI ACT PROVE
L'UE hà travagliatu da 2018 per regulà l'usu di l'intelligenza artificiale (AI), cumpresu l'usu di l'algoritmi da a polizia. Avà, cù l'AI Act, passata circa un mese fà , ùn li hà micca pruibitu cumplettamente. Hà in fattu stabilitu chì "in principiu" l'agenzii di l'infurzazioni di a lege ùn puderanu micca aduprà sistemi d'identificazione biometrica, salvu chì ùn si tratta di situazioni specifiche espressamente previste da a lege.
L'identificazione "in tempu reale" pò esse aduprata solu s'ellu hè rispettatu strette garanzie, per esempiu se l'usu hè limitatu in u tempu è u spaziu è sottumessu à l'autorizazione ghjudiziaria o amministrativa. L'usi permessi includenu, frà altri, a ricerca di una persona mancante o a prevenzione di un attaccu terrorista.
L'usu di sti sistemi a posteriori hè cunsideratu altu risicu è, per quessa, in questu casu l'autorizazione ghjudiziaria duverà esse ligata à un crimine.
A CRITICA
A regula hè stata contestata da l'urganisazioni di i diritti civili, chì l'hà chjamatu "un fallimentu per i diritti umani, una vittoria per l'industria è l'applicazione di a lege" perchè u testu hè "pienu di loopholes, eccezzioni è tweaks chì ùn prutege micca a ghjente, nè i so diritti umani, da alcuni di l'usi più periculosi di l'AI ".
In particulare, mettemu in risaltu i risichi perpetrati da l'usu di sistemi chì permettenu a surviglianza biometrica di massa è i sistemi di pulizie predittivi, chì creanu "un regime separatu per e persone chì migranu, cercanu rifuggiu è / o campanu senza documenti, lascenduli cù assai menu menu di diritti cà. I citadini di l'UE è quasi nisun accessu à rimedii quandu questi diritti sò violati ".
Questa hè una traduzzione automatica da a lingua italiana di un post publicatu in StartMag à l’URL https://www.startmag.it/innovazione/nuove-tecnologie-forze-di-polizia/ u Wed, 10 Apr 2024 11:23:00 +0000.