Ultimi Nutizie

Attualità mundiale per u populu corsu

Rivista Principià

Cosa succede dopu à a riunione trà u Garante di Privacy è OpenAi in ChatGpt

Cosa succede dopu à a riunione trà u Garante di Privacy è OpenAi in ChatGpt

OpenAi risponderà à e dumande di u Garante per ùn curriri in blocchi simili in a mità di u mondu? Fatti è insights

Mentre eri tutti i geeks chì passanu una bona parte di a so esistenza nantu à e rete soziale fighjenu à u Ministeru di a Cultura, a sede di e negoziazioni trà Meta è Siae , una altra istituzione di u nostru paese ancu in Roma hà accoltu, virtualmente, una altra cumpagnia di i Stati Uniti.

In fatti, una riunione hè stata fatta trà u Garante di Privacy è a casa di software rispunsevuli di ChatGpt. L'obiettivu hè di superà l'impasse chì hà purtatu l'autorità italiana à lancià un'inchiesta contr'à a cullizzioni illecita di dati da l'utilizatori italiani è à urdinà, cù effettu immediatu, a limitazione pruvisoria di u so trattamentu da OpenAI, a cumpagnia US chì hà sviluppatu è gestisce l'operazioni. piattaforma, finu à chì a legislazione di privacy hè rispettata. In risposta, OpenAi avia suspesu l'accessu à u situ per l'utilizatori italiani.

Ma, in fattu, i dui lati intendenu di cullaburazione. Tant que les critiques ont plu sur le Garant italien, en nombre inattendu pour l'admission de Guido Scorza lui-même, membre du collège, souvent même grossier et flou, qui ont essentiellement accusé notre pays d'obscurantisme (en réalité l'Autorité). ùn hà micca intervenutu nantu à i prublemi eticu-morali, cum'è riclamatu nantu à e social media, ma solu nantu à tematiche di a so stretta cumpetenza in u trattamentu di dati), è perchè a casa di software di i Stati Uniti – dopu à una chjusura iniziale – hà dettu chì era aperta à stabilisce una struttura constructiva. dialogu: "Travagliemu attivamente per riduce i dati persunali in a furmazione di i nostri sistemi di intelligenza artificiale cum'è ChatGpt, perchè vulemu chì a nostra intelligenza artificiale impara nantu à u mondu, micca l'individui", anu spiegatu da OpenAi. "Credemu ancu chì a regulazione di l'IA hè necessaria. Spergu dunque di pudè travaglià strettamente cù u Garante u più prestu pussibule per spiegà cumu i nostri sistemi sò custruiti è usati ", leghje a nota da l'urganizazione di ricerca di l'intelligenza artificiale emessa dopu l'intervenzione italiana.

Questu ùn hè micca solu perchè l'IA di i Stati Uniti si alimenta di dati, per quessa, più l'utilizatori participanu à a conversazione cù u chatbot, u megliu hè per i sviluppatori, ma ancu è sopratuttu perchè l'avucati di a casa di software anu avvistu à quelli incaricati chì A mossa italiana puderia rapprisintà u ciottolu classicu chì dà vita à l'avalanche.

In fatti, u cuntraparte canadese si trasfirìu subitu dopu à noi, da l'altra parte di u globu, u casu hè nantu à u desk di l'autorità giapponese è in l'UE ci sò parechji paesi pronti à attivà a trappula, principalmente Francia è Germania, studiendu u talianu. casu. Hè megliu, in cortu, per spegne u focu in u bughju.

A riunione, à a quale era ancu participatu Sam Altman, CEO di OpenAI à l'iniziu, hà participatu, in più di u Cunsigliu di u Garante ( Pasquale Stanzione, Ginevra Cerrina Feroni, Agostino Ghiglia, Guido Scorza ), Che Chang, Deputy General Counsel. di a cumpagnia US, Anna Makanju , Capu di Pulitica Publica è Ashley Pantuliano , Cunsigliu Generale Associatu.

Ciò chì CHATGPT hà dettu à a GARANTIA DI PRIVACY

OpenAI, leghjite u comunicatu di stampa emessu da u Garante di a privacy, mentre ripete ch'ellu hè cunvintu chì rispetta e regule nantu à a prutezzione di i dati persunali, ma hà cunfirmatu a so vuluntà di cullaburazione cù l'Autorità Italiana cù u scopu di ghjunghje à una suluzione pusitiva di i prublemi critichi identificati da u Garante riguardanti ChatGPT.

A nota di u garante hè sparsa. Per scopre a linea difensiva di l'antica startup chì hè entrata in l'orbita di Microsoft (parlemu d'un investimentu di 10 miliardi) ci vole à turnà a nostra attenzione à ciò chì hè statu divulgatu, in listesse ore, in un post nant'à u so blog di cumpagnia. in quale ellu hà ovviamente reiteratu chì hà realizatu "testi rigurosi", chì implicanu ancu esperti esterni, per migliurà u cumpurtamentu di u mudellu.

"Dopu chì u nostru ultimu mudellu, GPT-4, hà finitu a furmazione, avemu passatu più di sei mesi à travaglià in l'urganizazione per rende più sicura è allinata prima di liberà publicamente", spieganu da OpenAi.

L'enfasi hè poi pusata nantu à u fattu chì permette à l'utilizatori di pruvà u chatbot hà un "componente criticu" per creà è liberà sistemi AI sempre più sicuri. "L'usu di u mondu reale ci hà ancu purtatu à sviluppà sempre più pulitiche contr'à u cumportamentu chì pone un veru risicu per e persone, mentre chì permette ancu u ricorsu per i numerosi usi benifichi di a nostra tecnulugia", scrive a cumpagnia.

"Prima di liberà qualsiasi novu sistema, facemu teste rigurosu, purtamu esperti esterni, travagliendu per migliurà u cumpurtamentu di i mudelli, è custruemu sistemi di sicurezza è di surviglianza estensivi. […] Cridemu chì i sistemi AI putenti duveranu esse sottumessi à valutazioni rigurose. A regulazione hè necessaria per assicurà chì queste pratiche sò aduttate, è ci impegnimu attivamente cù i guverni ".

U TEMA DI A PROTEZIONE DI MINORI

In realità, certi elementi critichi in a cundotta di a casa di software di i Stati Uniti brillanu, soprattuttu nantu à un puntu particularmente delicatu cum'è quellu di a prutezzione di i minori. OpenAi reiterates chì duvete esse 18, o 13 cù l'appruvazioni di i genitori, per utilizà ChatGPT, ma ùn spiega micca cumu verifica l'età, tantu chì specifica chì hè "studià l'opzioni di verificazione". Ricurdemu chì l'absenza di un filtru per i sottu 13 anni era una di e lagnanze più pressanti di u garante di privacy talianu.

OpenAi pare esse trasfirendu l'attenzione à altre cose, per esempiu dichjarà chì ùn permette micca u chatbot per esse usatu per creà cuntenutu viulente è dichjara chì cù GPT-4 ci hè 82% menu chance chì generà cuntenutu di u tipu pruibitu. paragunatu à GPT-3.5. In cortu, u chatbot ùn hè micca una "mala cumpagnia", ancu s'ellu un zitellu l'utiliza, ma u fattu resta chì a casa di u software duverà cuncepisce sistemi per chì questu ùn pò micca succede.

COSA DICE A GARANTIA

L'Autorità di Garanzia di a Privacy di Dati hà sottolineatu chì ùn ci hè micca intenzione di mette un frenu à u sviluppu di l'IA è l'innuvazione tecnologica è hà ripetutu l'impurtanza di rispettà e regule destinate à prutege i dati persunali di i citadini italiani è europei.

OpenAI, sempre riporta a nota liberata da u Garante di a privacy, s'impegna à rinfurzà a trasparenza in l'usu di e dati persunali di e parti interessate, i meccanismi esistenti per l'eserciziu di diritti è garanzie per i minori è di mandà un documentu chì indicà e misure chì risponde à e richieste di l'Autorità. In corta, ci hè un dialogu trà l'istituzione italiana è a casa di software americana. È pare più fruttu di quellu cù un bot.


Questa hè una traduzzione automatica da a lingua italiana di un post publicatu in StartMag à l’URL https://www.startmag.it/innovazione/cosa-succedera-dopo-lincontro-garante-della-privacy-e-openai-su-chatgpt/ u Fri, 07 Apr 2023 10:33:43 +0000.