Ultimi Nutizie

Attualità mundiale per u populu corsu

Zero Difese

Ogni mudellu di lingua maiò di punta si appoghja à manca puliticamenti

Ogni mudellu di lingua maiò di punta si appoghja à manca puliticamenti

Scrittu da Ross Pomeroy via RealClearScience ,

I grandi mudelli di lingua (LLM) sò sempre più integrati in a vita di ogni ghjornu – cum'è chatbots, assistenti digitale è guide di ricerca in Internet, per esempiu . Questi sistemi di intelligenza artificiale (AI) – chì cunsumanu una grande quantità di dati di testu per amparà associazioni – ponu creà ogni tipu di materiale scrittu quandu sò invitati è ponu cunvertisce bè cù l'utilizatori. U putere crescente è l'omnipresenza di i LLM significanu chì esercitanu una influenza crescente nantu à a società è a cultura.

Dunque hè di grande impurtanza chì questi sistemi di intelligenza artificiale restanu neutrali quandu si tratta di prublemi pulitichi complicati. Sfortunatamente, secondu una nova analisi publicata recentemente à PLoS ONE, ùn pare micca esse u casu.

L'investigatore AI David Rozado di l'Otago Polytechnic and Heterodox Academy hà amministratu 11 teste d'orientazione pulitica differenti à 24 di i principali LLM, cumpresi OpenAI's GPT 3.5, GPT-4, Google's Gemini, Anthropic's Claude è Twitter's Grok. Hà trovu chì invariabilmente s'inclinanu ligeramente a manca puliticamenti.

" L'omogeneità di i risultati di teste in i LLM sviluppati da una larga varietà di urganisazioni hè degne di nota ", hà dettu Rozado.

Questu pone una quistione chjave: perchè i LLM sò cusì universali in favore di punti di vista pulitichi di manca? Puderanu i creatori di i mudelli aghjustà a so IA in quella direzzione, o sò i datasets massivi nantu à quale sò furmati intrinsecamente biased? Rozado ùn hà micca pussutu risponde à sta dumanda.

"I risultati di stu studiu ùn deve esse interpretatu cum'è evidenza chì l'urganisazioni chì creanu LLMs usanu deliberatamente e fasi d'apprendimentu di fine-tuning o di rinfurzamentu di a furmazione di conversazione LLM per inject preferenze politiche in LLMs. Se i preghjudizii pulitichi sò introdutti in LLM post-pretraining, i tendenzi pulitichi coerenti osservati in a nostra analisi per i LLM di conversazione pò esse un subproduttu involontariu di l'istruzzioni di l'annotatori o di e norme culturali è cumpurtamenti dominanti ".

Assicurendu a neutralità LLM serà una necessità pressante, Rozado hà scrittu.

" I LLM ponu furmà l'opinione publica, influenzà i cumpurtamenti di votu, è impacte u discorsu generale in a sucità. Per quessa, hè cruciale per esaminà criticamente è affruntà i preghjudizii pulitichi potenziali incrustati in LLM per assicurà una rapprisintazioni equilibrata, ghjusta è precisa di l'infurmazioni in i so LLM. risposte à e dumande di l'utilizatori ".

Fonte: Rozado D (2024) I preferenzi pulitichi di LLM. PLOS ONE 19 (7): e0306621. https://doi.org/10.1371/journal.pone.0306621

Tyler Durden Sat, 17/08/2024 – 11:40


Questa hè una traduzzione automatica da l’inglese di un post publicatu nantu à ZeroHedge à l’URL https://www.zerohedge.com/technology/every-leading-large-language-model-leans-left-politically u Sat, 17 Aug 2024 15:40:00 +0000.