Ultimi Nutizie

Attualità mundiale per u populu corsu

Rivista Principià

Chì pensa u Garante di Meta chì vole aduprà i nostri dati per a so AI

Chì pensa u Garante di Meta chì vole aduprà i nostri dati per a so AI

Mark Zuckerberg vulia aduprà u nostru cuntenutu Facebook è Instagram per furmà a so intelligenza artificiale, ma l'intervenzione di u Centru Europeu per i Diritti Digitali hà sappiutu impedillu per avà. Tuttavia, questa hè una battaglia legale chì hè appena principiata. U cummentariu di Laura Turini tiratu da a newsletter Appunti

U rispettu di a privacy hè diventatu un puntu cruciale chì, inseme à a gestione di u copyright, pò cambià u destinu di l'intelligenza artificiale. L'Attu di l'Intelligenza Artificiale, u Regolamentu Europeu nantu à l'intelligenza artificiale, ùn ne tratta micca, ma si riferisce à u GDPR (Reg. UE 679/2016 nantu à u trattamentu di e dati persunali), ripetendu chì quellu chì sviluppa o usa sistemi di intelligenza artificiale deve rispettà quellu. legislazione, cum'è assai altri.

In pratica, però, u rispettu di u GDPR hè cumplessu.

U Regolamentu Europeu di Privacy prevede una serie d'obblighi per quelli chì trattanu dati persunali, unu di i quali, unu di i più impurtanti, riguarda l'obbligo di furnisce infurmazioni nantu à l'usu di dati è nantu à i diritti di e parti interessate, cumpresu u dirittu di oppone à u trattamentu.

Inoltre, per esse trattatu i dati legalmente, deve esse una basa legale, chì pò esse ricunnisciuta in u cuntrattu, interessu legittimu, obbligazione legale o cunsensu di l'interessatu.

In i primi trè casi, u accunsentu di l'interessatu ùn hè micca necessariu, postu chì a persona chì tratta i dati face cusì per cumpiendu un cuntrattu chì hà stipulatu cù a persona fisica, perchè u trattamentu hè impostu à ellu da a lege, per esempiu per scopi fiscali, o perchè esercita u so legittimu interessu sopra i diritti di l'interessatu.

L'interpretazione di l'interessu legittimu hè spessu difficiule è troppu spessu hè invucatu in modu infundatu. In essenza, esiste quandu, basatu annantu à e rilazioni chì esistenu trà a persona fisica è quelli chì trattanu i so dati, hè legittimi à aspittà un certu usu di u stessu, cum'è in u casu di una ditta prufessiunale chì manda informativa, è micca. -cummerciale, cumunicazioni à i so clienti à aghjurnà li nantu à certi obblighi expiring.

Precisamente l'interessu legittimu, invucatu da Meta in a so infurmazione, hè in u centru di una nova battaglia legale promossa da l' associu NOYB, Centru Europeu per i Diritti Digitali , chì hè guidatu da Max Schrems, l'attivista austriacu chì avia digià purtatu numerosi azzioni contr'à parechje cumpagnie, distrughjendu l'accordu Privacy Shield chì permette u scambiu di dati trà l'Europa è i Stati Uniti.

Cù i nostri dati

NOYB hà presentatu recentemente un appellu davanti à undici garanti di privacy in Europa, cumpresa l'Italia, per dumandà chì l'adopzione di AI Meta sia impedita, annunziata cum'è imminente, cù quale Mark Zuckerberg intende integrà i sistemi di intelligenza in i so servizii artificiali.

Meta AI, leghjemu nantu à u situ ufficiale, hè un assistente intelligente, basatu annantu à Meta Llama 3, "capace di ragiunamentu cumplessu, seguitu istruzzioni, visualizendu idee è risolve i prublemi", attualmente dispunibule solu in certi paesi selezziunati.

In Auropa ùn hè micca dispunibule perchè Meta hà decisu di mette in pausa, dopu à l'appelli di NOYB, in Irlanda è in u Regnu Unitu, i Garanturi anu dumandatu à Meta per suspende u prughjettu chì ùn include micca solu a prestazione di u serviziu Meta AI, ma ancu l'usu. di dati Facebook è Instagram per furmà u sistema di intelligenza artificiale.

Unu di i prublemi di cuntizzioni sò e novi cundizioni di privacy di Meta, annunziate prima di u mese, chì duverebbe entra in vigore da u 26 di ghjugnu, chì mette in risaltu chì i dati publichi di l'utilizatori chì utilizanu i so servizii seranu ancu utilizati per a furmazione di sistemi di intelligenza artificiale, senza a necessità di l'accunsentu di i partiti interessate, ma nantu à a basa di l'interessu legittimu di Meta.

A nova pulitica, chì cuncernava circa quattru miliardi d'utilizatori, permetterà à Meta di utilizà, da u 2007 in poi, i dati di l'utilizatori, cù l'unica eccezzioni di i chat privati, in sistemi di intelligenza artificiale, senza precisarà chjaramente u scopu di stu usu.

In una entrevista Max Schrems hà dichjaratu chì una tale definizione hè inaccettabile, postu chì Meta deve indicà espressamente l'usu chì farà di elli è micca solu indicà quale tecnulugia seranu trattati.

U prublema hè assai cumplessu, sia da un puntu di vista legale è praticu.

Pudemu certamente argumentà nantu à a correttezza o altrimenti di una infurmazione, ma hè assai difficiule à un livellu praticu per dimustrà chì un sistema di intelligenza artificiale hè furmatu nantu à a basa di e dati persunali di qualchissia in particulare.

Nisunu sapi esattamente i dati di furmazione è quandu finiscinu in a massa di dati da quale sò estratti, piuttostu cà unicu pezzi di infurmazione, mudelli matematichi, sò cusì terra è digeriti chì sò dispersi in u prucessu.

Da un puntu di vista praticu, a situazione hè ancu più critica, postu chì i dati utilizati sò cusì numerosi è raccolti indiscriminatamente, chì ùn hè micca pussibule di selezziunà dati generici, persunali, sensibili o particulari da elli, per quessa, s'ellu hè statu identificatu un delittu. , unu risicate d'avè impedisce a cullizzioni di dati tout court. Prublemu, in certi modi, simile à quellu chì sorge in quantu à e dati coperti da copyright.

Ciò chì dice l'uffiziu di u Garante

In attesa di cunnosce a pusizione italiana nantu à u puntu, è cù tutti i limiti per via di u sicretu di l'inchiesta, avemu parlatu cù l'avucatu Guido Scorza, membru di u Cunsigliu di u Garante di a privacy, è unu di i principali esperti in u sughjettu.

Avucatu Guido Scorza, u vostru uffiziu hè statu u primu à ricunnosce l'intelligenza artificiale cum'è un strumentu chì pò mette in periculu u rispettu di a privacy.

A vostra decisione in quantu à ChatGPT u 30 di marzu di u 2023 hà causatu una certa discussione, ma poi diventò un mudellu per altri uffizii.

Oghje vi sò di novu affruntatu cù a relazione trà l'intelligenza artificiale è a privacy. Chì ci hè di sfarente in i dui casi?

A quistione sottostante hè cumuna è cuncerna e cundizioni in quale una entità pò processà e dati persunali di centinaie di milioni di persone in Europa è miliardi in u mondu per furmà i so algoritmi.

Inoltre, questu hè un prublema chì cuncerna tutte e "fabbriche di intelligenza artificiale generativa" è micca solu OpenAI è Meta.

Diciaraghju chì una di e differenzi principali trà i dui avvenimenti si trova in u fattu chì in u primu, OpenAI, in l'absenza di qualsiasi precedente, avia essenzialmente ignoratu ogni tema cunnessu à l'applicazione di i reguli di privacy europei mentre chì in u sicondu Meta era capace di prufittà di ciò chì emerge in u cuntestu di u primu casu è hà dunque cercatu una seria di suluzioni destinate à cuncilià i so bisogni cummerciale cù e regule di privacy.

Se a cumpagnia di Zuckerberg hà successu hè qualcosa chì duverà esse valutatu durante l'investigazione pendente è nantu à quale, dunque, ùn possu micca dì nunda.

Di sicuru, Meta hà u vantaghju – almenu in relazione à u trattamentu di e dati raccolti ind'è e so pruprietà digitale – di "cunnosce" l'interessati è di avè, almenu, pussutu prisintà li cun infurmazioni specifiche.

Max Schrems, in u so appellu, rammenta a decisione di a Corte di Ghjustizia (C-252/21) per dichjarà chì l'interessu legittimu ùn pò esse una basa legale adatta per u trattamentu di dati. Chi pensi?

Sarà abbastanza una rivisione di l'infurmazioni o simu di fronte à un prublema più cumplessu ?

Cumu l'anu dettu, ùn possu micca cummentà nantu à u casu specificu. In generale, però, escluderaghju chì a quistione di a legittimità o altrimenti di l'usu di l'interessu legittimu per a furmazione di l'algoritmi pò esse esaurita è risolta cù un aghjurnamentu di una dichjarazione.

Hè assai più cumplessu è cuncerna, prima di tuttu, a valutazione comparativa trà l'interessu – pensu chì possu dì l'interessu indiscutibile è indiscutibilmente legittimu di Meta – è u sacrifiziu in termini di diritti è interessi di centinaie di milioni di partiti interessati europei nantu à e so piattaforme. U primu prevale veramente nantu à l'ultimi?

Inoltre, in ogni casu, ci hè u prublema di dati particulari chì in nisun casu pò esse trattatu nantu à a basa di l'interessu legittimi.

È ancu s'è no vulemu cuncludi in l'affirmative, l'interessati ponu cuntà nantu à l'eserciziu efficace di i diritti – à partesi da u dirittu di ughjettà – chì u GDPR li ricunnosce ? Hè certamente legittimu di dubbità.

Meta hà furnitu chì l'utilizatori ponu esercità u dirittu di opt-out in quantu à l'usu di e so dati persunali. Hè questu un mecanismu chì pò travaglià?

In principiu, questu hè ciò chì a legislazione europea prevede quandu u trattamentu di e dati persunali hè statu validamente iniziatu nantu à a basa di l'interessu legittimu.

In particulare, vulendu è avè da evità di parlà di u casu cuncrettu, credu chì dui aspetti duveranu esse cunsideratu: u primu hè chì a ricunniscenza di u dirittu di opposizione, se a basa giuridica di l'interessu legittimu hè ritenuta inadeguata, hè, ovviamente, inadatta per rimedià a violazione è u sicondu hè chì, durante l'inchiesta, l'efficacezza è l'estensione di u dirittu di l'uppusizione chì Meta ricunnosce à i partiti interessate hà da esse necessariamente evaluatu.

Meta dichjara chì ùn hè micca capace di distinguishà e dati chì usa per a furmazione è per quessa ùn pò micca separà e dati d'usu liberu da i dati coperti da diritti o dati persunali, sia generale sia specifichi.

Se Meta hè impeditu di utilizà dati persunali, ùn ci hè micca risicu di bluccà u sviluppu di sistemi di intelligenza artificiale? Chì suluzione vede pussibule, ancu "de iure condendo" ?

Certamente sì, u risicu hè cuncretu in relazione à u casu Meta, è ancu in relazione à u casu OpenAI è, naturalmente, à tutti l'altri trattamenti simili in corso.

In tutta l'onestà, crede chì u prublema ùn pò esse risolta da l'autorità europee di prutezzione di i dati persunali solu interpretendu è applicà e regule attuali, ma avissi bisognu è cuntinueghja à dumandà intervenzione legislativa.

Ci hè una scelta pulitica da fà. E soluzioni, da una perspettiva de iure condendo , ponu esse diverse.

In modu persunale, s'ellu ci era una vulintà di affruntà u prublema à u livellu legislativu, cunsideraghju a pussibilità di cunsiderà a furmazione di l'algoritmi – è, dunque, i trattamenti ligati à questa attività – cum'è in l'interessu publicu, prubabilmente associendu tali una dichjarazione cù un sistema di limiti è cundizioni, cumpresu un mecanismu di licenze obbligatorie è / o altre soluzioni simili per a distribuzione di benefici, vantaghji è ricchezza perchè l'idea di cunsiderà una attività chì arricchisce uni pochi è aumenta l'oligopoli per esse di interessu publicu tout court pari difficiule à mè digià esistenti senza ricunnosce nunda à e persone chì i so dati persunali sò usati è à a sucetà in tuttu.

Sfurtunatamente, nè l'AI Act, nè u prugettu talianu nantu à l'intelligenza artificiale in discussione in u Senatu, ùn tratta stu prublema è ùn furnisce micca suluzioni.

Aspittemu di leghje a decisione di u Garante chì puderia, una volta di più, riservaci sorprese è suggerisce misure currettive.

(Strattu da a newsletter Notes di Stefano Feltri : iscriviti quì )


Questa hè una traduzzione automatica da a lingua italiana di un post publicatu in StartMag à l’URL https://www.startmag.it/innovazione/cosa-pensa-il-garante-di-meta-che-vuole-usare-i-nostri-dati-per-la-sua-ia/ u Sat, 29 Jun 2024 05:23:55 +0000.