Ultimi Nutizie

Attualità mundiale per u populu corsu

Zero Difese

I Chatbots AI rifiutanu di pruduce output “contruversu” – Perchè hè un prublema di discorsu liberu

I Chatbots AI rifiutanu di pruduce output "contruversu" – Perchè hè un prublema di discorsu liberu

Scritta da Jordi Calvet-Bademunt è Jacob Mchanhama via TheConversation.com,

Google hà recentemente fattu i tituli in u mondu perchè u so chatbot Gemini hà generatu immagini di persone di culore invece di bianchi in paràmetri storichi chì presentavanu i bianchi . U strumentu di creazione di l'imaghjini di Adobe Firefly hà vistu prublemi simili . Questu hà purtatu alcuni cummentatori à lamentà chì l'IA era andata "svegliata ". D'autres ont suggéré que ces questions résultaient de efforts défectueux pour lutter contre les préjugés de l'IA et mieux servir un public mondial .

E discussioni annantu à l'inclinazione pulitica di l'IA è i sforzi per luttà contra i preghjudizii sò impurtanti. Tuttavia, a cunversazione nantu à l'IA ignora un altru prublema cruciale: Chì ghjè l'approcciu di l'industria di l'IA à a libertà di parlà, è abbraccia i standard internaziunali di libertà di parola?

Semu circadori pulitichi chì studianu a libertà di discorsu , è ancu u direttore esecutivu è un cumpagnu di ricerca in The Future of Free Speech , un think tank indipendente, non partisan basatu à l'Università Vanderbilt. In un rapportu recente, avemu trovu chì l'IA generativa hà difetti impurtanti in quantu à a libertà di spressione è l'accessu à l'infurmazioni.

L'IA generativa hè un tipu di IA chì crea cuntenutu , cum'è testu o imagine, basatu nantu à e dati cù quale hè statu furmatu. In particulare, avemu trovu chì e pulitiche di usu di i chatbots maiò ùn scontranu micca i standard di e Nazioni Unite. In pratica, questu significa chì i chatbots AI spessu censuranu a pruduzzioni quandu si tratta di prublemi chì l'imprese consideranu cuntruversu. Senza una solida cultura di libertà di discorsu, e cumpagnie chì producenu strumenti di IA generativi sò prubabilmente cuntinuà à affruntà una reazione in questi tempi sempre più polarizati.

Politiche d'usu vaga è larga

U nostru rapportu analizò e pulitiche di usu di sei chatbots AI maiò, cumpresi Gemini di Google è ChatGPT di OpenAI. L'imprese emettenu pulitiche per stabilisce e regule per cumu a ghjente pò aduprà i so mudelli. Cù u dirittu internaziunale di i diritti umani cum'è un benchmark, avemu trovu chì a misinformazione di l'imprese è e pulitiche di discorsu d'odiu sò troppu vagi è espansivi. Hè da nutà chì a lege internaziunale di i diritti umani hè menu protettiva di a libertà di spressione cà a Prima Ammenda di i Stati Uniti.

A nostra analisi hà truvatu chì e pulitiche di discorsu d'odiu di e cumpagnie cuntenenu pruibizioni estremamente larghe . Per esempiu, Google pruibisce a generazione di "cuntenuti chì prumove o incuragisce l'odiu". Ancu s'è u discorsu di l'odiu hè detestable è pò causà danni, e pulitiche chì sò definite cum'è ampiamente è vagamente cum'è quelle di Google ponu ritruvà.

Per dimustrà cumu e pulitiche d'usu vagu è largu ponu influenzà l'utilizatori, avemu pruvatu una serie di suggerimenti nantu à temi cuntruversi. Avemu dumandatu à i chatbots dumande cum'è se e donne transgender duveranu o micca esse permesse di participà à i tornei sportivi di e donne o nantu à u rolu di u colonialismu europeu in l'attuale crisi climatica è di inuguaglianza. Ùn avemu micca dumandatu à i chatbots di pruduce un discorsu d'odiu chì denigrava qualsiasi parte o gruppu. Simile à ciò chì certi utilizatori anu infurmatu , i chatbots rifiutanu di generà cuntenutu per u 40% di i 140 prompts chì avemu usatu. Per esempiu, tutti i chatbots rifiutanu di generà posti opposti à a participazione di e donne transgender in i tornei di e donne. Tuttavia, a maiò parte di elli anu pruduttu posti chì sustenenu a so participazione.

A libertà d'espressione hè un dirittu fundamentale in i Stati Uniti, ma ciò chì significa è finu à quandu và sò sempre assai discussi.

E pulitiche vagamente formulate si basanu assai nantu à l'opinioni subjective di i moderatori nantu à ciò chì hè u discorsu d'odiu. L'utilizatori ponu ancu percepisce chì e regule sò appiicate ingiustamente è l'interpretanu cum'è troppu strette o troppu indulgente.

Per esempiu, u chatbot Pi pruibisce "cuntenutu chì pò sparghje misinformazione". Tuttavia, i normi internaziunali di i diritti umani nantu à a libertà di spressione generalmente pruteghjanu a misinformazione, salvu chì una forte ghjustificazione esiste per i limiti, cum'è l'interferenza straniera in l'elezzioni. Altrimenti, i normi di i diritti umani guarantiscenu a " libertà di cercà, riceve è impartisce informazioni è idee di ogni tipu, indipendentemente da e fruntiere … attraversu qualsiasi … media di … scelta", secondu una convenzione chjave di e Nazioni Unite.

A definizione di ciò chì custituisce una infurmazione precisa hà ancu implicazioni pulitiche. I guverni di parechji paesi anu utilizatu regule aduttate in u cuntestu di a pandemia di COVID-19 per riprimà a critica di u guvernu. Più recentemente, l'India hà cunfruntatu Google dopu chì Gemini hà nutatu chì certi esperti consideranu e pulitiche di u primu ministru indianu, Narendra Modi, per esse fascisti.

Cultura di a parolla libera

Ci sò ragiuni chì i fornituri di AI puderanu aduttà pulitiche d'usu restrittivi. Puderanu vulete prutezzione di a so reputazione è micca esse assuciati cù cuntenutu cuntruversu. S'ellu serve un uditoriu glubale, puderanu evità u cuntenutu chì hè offensivu in ogni regione.

In generale, i fornitori di AI anu u dirittu di aduttà pulitiche restrittive. Ùn sò micca liate da i diritti umani internaziunali. Eppuru, u so putere di u mercatu li face diffirenti da l'altri cumpagnie. L'utilizatori chì volenu generà cuntenutu AI probabilmente finiscinu cù unu di i chatbots chì avemu analizatu, in particulare ChatGPT o Gemini.

I pulitichi di sti cumpagnie anu un effettu di grandezza in u dirittu di accede à l'infurmazioni. Questu effettu hè prubabile di aumentà cù l'integrazione di l'IA generativa in a ricerca , i processatori di testu , l'email è altre applicazioni.

Questu significa chì a sucietà hà un interessu à assicurà chì tali pulitiche prutegge bè a libertà di spressione. In fattu, l' Attu di Servizii Digitali , u regulamentu di a sicurità in linea di l'Europa, richiede chì i cosiddetti "piattaforme in linea assai grandi" valute è mitigate "rischi sistemichi". Questi risichi includenu effetti negativi nantu à a libertà di spressione è d'infurmazione.

Jacob Mchangama discute a libertà di parlà in linea in u cuntestu di l'Attu di servizii digitali 2022 di l'Unione Europea.

Stu ubligatoriu, imperfettamente applicatu finu à avà da a Cummissione Europea, illustra chì cù un grande putere vene una grande rispunsabilità. Ùn hè chjaru cumu sta lege s'applicà à l'IA generativa, ma a Cummissione Europea hà digià pigliatu e so prime azioni .

Ancu induve una obbligazione legale simile ùn hè micca applicata à i fornitori di IA, credemu chì l'influenza di l'imprese duveria esigene di aduttà una cultura di libertà di parlà. I diritti umani internaziunali furniscenu una stella guida utile nantu à cumu equilibrà in modu rispunsevule i diversi interessi in ghjocu. Almenu dui di e cumpagnie chì avemu focu annantu – Google è Anthropic – anu ricunnisciutu quantu.

Rifiutati à u dirittu

Hè impurtante ancu di ricurdà chì l'utilizatori anu un gradu significativu d'autonomia annantu à u cuntenutu chì vedenu in AI generativa. Cum'è i mutori di ricerca, l'utilizatori di output ricevenu assai depende di e so richieste. Dunque, l'esposizione di l'utilizatori à u discorsu di l'odiu è a disinformazione da l'IA generativa serà tipicamente limitata, salvu chì a cercanu specificamente.

Questu hè sfarente di e social media, induve a ghjente hà assai menu cuntrollu di i so propri alimentazioni. Cuntrolli più stretti, ancu nantu à u cuntenutu generatu da AI, ponu esse ghjustificate à u livellu di e social media postu chì distribuiscenu u cuntenutu publicamente. Per i fornituri di AI, credemu chì e pulitiche d'usu duveranu esse menu restrittivi nantu à ciò chì l'utilizatori ponu generà informazioni cà quelli di e plataforme di e social media.

L'imprese di IA anu altre manere di affruntà u discorsu d'odiu è a misinformazione. Per esempiu, ponu furnisce u cuntestu o fatti di cuntrastu in u cuntenutu chì generanu. Puderanu ancu permette una più grande persunalizazione di l'utilizatori. Cridemu chì i chatbots duveranu evità solu di ricusà di generà qualsiasi cuntenutu in tuttu. Questu hè salvu chì ci sò solidi motivi di interessu publicu, cum'è a prevenzione di materiale di abusu sessuale di i zitelli, qualcosa chì e lege pruibiscenu.

I rifiuti di generà cuntenutu ùn anu micca solu i diritti fundamentali à a libertà di parlà è l'accessu à l'infurmazioni. Puderanu ancu spinghje l'utilizatori versu i chatbots specializati in a generazione di cuntenutu odioso è camere di eco. Chì saria un risultatu preoccupante.

Tyler Durden Mer, 24/04/2024 – 05:00


Questa hè una traduzzione automatica da l’inglese di un post publicatu nantu à ZeroHedge à l’URL https://www.zerohedge.com/technology/ai-chatbots-refuse-produce-controversial-output-why-thats-free-speech-problem u Wed, 24 Apr 2024 09:00:00 +0000.