Ultimi Nutizie

Attualità mundiale per u populu corsu

Rivista Principià

AI Act, tutte e regule, pruibizioni è eccezzioni

AI Act, tutte e regule, pruibizioni è eccezzioni

Livelli di risicu, ricunniscenza biometrica, copyright, deepfakes è sanzioni. Hè ciò chì cuntene l'AI Act, a prima lege in u mondu nantu à l'intelligenza artificiale (AI) appruvata ieri da u Parlamentu Europeu. Tutti i dettagli (inclusi i tempi di implementazione)

Cù 523 voti à favore, 46 contru è 49 astensioni, u Parlamentu Europeu hà appruvatu ieri l'AI Act, a prima legislazione in u mondu nantu à l'intelligenza artificiale (AI) chì, cum'è dettu Brando Benifei (Pd-Pse), co-rapporteur. di a lege , hà u scopu di "limità i risichi è cresce l'opportunità" di sta tecnulugia.

Tuttu ciò chì hè necessariu per entra in vigore hè u lume verde da u Cunsigliu di l'UE, per quale ùn ci sò micca ostaculi in vista. Tuttavia, Benifei hà clarificatu chì u regulamentu ùn serà micca immediatamente ubligatoriu per l'imprese è l'istituzioni, postu chì serà cumplettamente applicabile 24 mesi dopu a so entrata in vigore, eccettu per i pruibizioni di pratiche pruibiti (dopu à 6 mesi), codici di cumportamentu (dopu à 9 mesi) , regule generale nantu à i sistemi di IA, cumpresa a guvernanza (dopu à 12 mesi) è l'obligazioni per i sistemi d'altu risicu (dopu à 36 mesi).

A PIRAMIDE DI AI RISCHI

Per stabilisce i risichi di l'IA à un livellu cumunu, l'UE hà imaginatu una piramide cù quattru gradi di risicu: minimu (video games AI è filtri anti-spam), limitatu (chatbots), altu (assignazione di punteggi à a scola è esami prufessiunali, classificazione di CV, valutazione di l'affidabilità di l'evidenza in tribunale, chirurgia assistita da robot) è inaccettabile (qualsiasi cosa chì rapprisenta una "minaccia chjara à a sicurità, a sussistenza è i diritti di e persone", cum'è l'assignazione di un "puntu suciale" da i guverni) .

Per i sistemi à pocu risicu ùn hè micca previstu intervenzione, per quelli à un livellu limitatu ci sò dumande di trasparenza. Tuttavia, i tecnulugii d'altu risicu devenu esse regulati è quelli di un livellu cunsideratu inacceptable sò pruibiti.

PROHIBITIONS ED ECCEPTIONS À A RICONOSCUSSION BIOMETRICA

I sistemi di categurizazione biometrica basati nantu à e caratteristiche sensittivi è l'estrapolazione indiscriminata di l'imaghjini faciale da Internet o registrazioni CCTV per creà basa di dati di ricunniscenza faciale eranu trà i temi caldi in u framing di l'AI Act.

Cù a legislazione, i sistemi di ricunniscenza di l'emozioni in u locu di travagliu è in i scoli, i sistemi di creditu suciale, e pratiche di pulizie predittivi (se sò basati esclusivamente nantu à u prufilu o a valutazione di e caratteristiche) sò à tutti l'intenzioni è scopi pruibiti è seranu ancu pruibiti. è sistemi chì manipulanu u cumpurtamentu umanu o sfruttanu e vulnerabilità di e persone.

Ancu l'agenzii di l'applicazione di a lege, "in principiu", ùn puderanu micca aduprà sistemi d'identificazione biometrica, salvu in certi situazioni specifiche espressamente previste da a lege. L'identificazione "in tempu reale" pò esse aduprata solu s'ellu hè rispettatu strette garanzie, per esempiu se l'usu hè limitatu in u tempu è u spaziu è sottumessu à l'autorizazione ghjudiziaria o amministrativa. L'usi permessi includenu, frà altri, a ricerca di una persona mancante o a prevenzione di un attaccu terrorista.

L'usu di sti sistemi a posteriori hè cunsideratu altu risicu è, per quessa, in questu casu l'autorizazione ghjudiziaria duverà esse ligata à un crimine.

COPYRIGHT E DEEPFAKE

L'attu AI prevede ancu chì i sistemi AI di u scopu generale è i mudelli nantu à quale sò basati devenu risponde à certi requisiti di trasparenza è rispettà e regule di copyright di l'UE durante e fasi di furmazione di i diversi mudelli. I mudelli più putenti, chì ponu esse risichi sistemichi, anu ancu altri obblighi, cum'è a realizazione di valutazioni di mudelli, a mitigazione di risichi sistemichi è a rappurtazione di incidenti.

Inoltre, l'imaghjini artificiali o manipulati è u cuntenutu audio o video (i cosiddetti "deepfakes") deve esse chjaramente etichettati cum'è tali.

SUPPORTU PER L'INNOVAZIONE

Per sustene l'innuvazione è a sicurità, l'AI Act dice chì i paesi di l'UE anu da stabilisce è rende accessibile à u livellu naziunale spazii di sperimentazione regulatori è miccanismi di teste in cundizioni reali (sandbox), in modu chì e PMI è startups ponu furmà sistemi di IA prima di purtàlli. à u mercatu.

E SANZIONI

A violazione di l'Attu AI richiede chì una sucietà paghe un percentualità di u so ingaghjamentu glubale annuale in l'annu finanziariu precedente o una quantità predeterminata: 35 milioni d'euros o 7% per violazioni di applicazioni pruibite; 15 milioni d'euros o 3% per violazioni di l'oblighi legali; 7,5 milioni d'euros o 1,5% per furnisce infurmazioni sbagliate. Tuttavia, i tetti proporzionati saranu applicati à e PMI è startups.

COSA RESTA FÀ

Comme l'ont souligné à la fois Benifei et l'autre co-rapporteur de la loi sur l'IA, Dragos Tudorache (Renew, Roumanie), il reste beaucoup à faire au-delà de la loi, en particulier dans le domaine de l'IA sur le lieu de travail, pour lequel la Commission était dumandatu à una direttiva specifica.

"L'intelligenza artificiale ci spingerà à ripensà u cuntrattu suciale chì sustene e nostre demucrazie. Inseme cù i nostri mudelli educativi, i nostri mercati di u travagliu, a manera di fà a guerra. A lege AI ùn hè micca a fine di u viaghju, ma piuttostu u puntu di partenza per un novu mudellu di guvernanza basatu in tecnulugia ", hà dettu Tudorache.


Questa hè una traduzzione automatica da a lingua italiana di un post publicatu in StartMag à l’URL https://www.startmag.it/innovazione/ai-act-tutto-su-regole-divieti-ed-eccezioni/ u Thu, 14 Mar 2024 09:55:25 +0000.