Ultimi Nutizie

Attualità mundiale per u populu corsu

Rivista Principià

Tuttu u turbulu in OpenAI, Google DeepMind è Anthropic contru l’AI

Tuttu u turbulu in OpenAI, Google DeepMind è Anthropic contru l'AI

L'evoluzione di l'intelligenza artificiale pone "risichi seri". Anziani, ma ancu attuali, impiegati di OpenAI, Google DeepMind è Anthropic dicenu questu in una lettera aperta, ancu sustinutu da i padrini di l'AI. Tutti i dettagli

Un novu appellu avvirta di i "risichi seri" di l'evoluzione di l'intelligenza artificiale (AI). Questa volta hè una lettera aperta da un gruppu di ex, ma ancu attuali, impiegati di i principali cumpagnie AI: OpenAI, Google DeepMind è Anthropic.

In particulare, 13 firmatarii, alcuni di i quali vulianu restà anonimi, denuncianu e cumpagnie AI per una mancanza di surviglianza è di trasparenza è dumandanu ancu più prutezzione per i whistleblowers, vale à dì quelli chì denuncianu o segnalanu attività illecite.

CHE RISCHI (INCLUSI L'ESTINTU UMANA) AI POSE

In u so appellu, l'esperti ricunnoscenu u putenziale di l'intelligenza artificiale per generà "benefizii senza precedente per l'umanità", in ogni modu, dicenu ancu chì sò cuscenti di i "risichi seri chì ponu esse tecnulugichi".

"Questi – leghjemu in a lettera – varieghja da u rinfurzamentu di e inuguaglianze esistenti, à a manipulazione è a disinformazione, finu à a perdita di cuntrollu di i sistemi AI autonomi chì puderanu purtari à l'estinzione umana. E cumpagnie di l'IA anu ricunnisciutu sti risichi, cum'è i guverni di u mondu è altri esperti di IA ".

A pussibilità chì l'AI hà da purtà à l'estinzione di l'esseri umani era digià statu signalatu à a fine di u 2023 in u documentu da un gruppu di circadori di l'università di Oxford è Berkeley, chì anu implicatu 2,778 esperti di u settore tecnulugicu in un studiu per pruvà à capisce. l'impattu di l'IA nantu à a società. Quasi a mità di elli dicenu chì ci era una probabilità di 5% chì l'IA diventerà cusì incontrollata chì pruvucarà l'estinzione umana.

L'ACCUSAZIONI CONTRA L'IMPRESE AI

L'attuali è l'antichi impiegati di OpenAI, Google DeepMind è Anthropic speranu chì questi risichi ponu esse mitigati adeguatamente cù una guida sufficiente da a cumunità scientifica, i decisori pulitichi è u publicu. Tuttavia, credenu chì "l'imprese AI anu forti incentivi finanziarii per evità una sorveglianza efficace" è ùn credenu micca chì e strutture di governance corporativa "sò abbastanza per cambià sta situazione".

I grandi cumpagnie AI, in fattu, secondu a lettera, "possedenu infurmazioni sustinibili non-pubbliche nantu à e capacità è limitazioni di i so sistemi, l'adegwatezza di e so misure di prutezzione è i livelli di risicu di diversi tipi di dannu", ma "attualmente". Hanu solu una debbuli obligazione di sparte una parte di sta informazione cù i guverni è nimu cù a sucità civile ".

Per quessa, i sperti credenu chì tutti ùn ponu esse affidati per sparte volontariamente tali informazioni.

L'OSTAGGIO DI WHISTLEBLOWER

Hè per quessa, cum'è dichjaratu in a lettera, e pochi persone chì ponu informà a cumpagnia sò l'attuali è l'antichi impiegati chì, in ogni modu, devenu sottumettenu à largu accordi di cunfidenziale chì impediscenu di sprime e so preoccupazioni, salvu cù e cumpagnie stesse, chì però, ùn pò micca vulete affruntà questi prublemi.

In questu riguardu, dumandanu dunque una più grande prutezzione di i denuncianti, chì anu ragiò di teme "diverse forme di ritorsione".

Per esempiu, Daniel Kokotajlo, unu di i sette autori di a lettera, hè un investigatore chìhà lasciatu OpenAI u mese passatu "dopu à perde a fiducia chì si cumportassi in modu rispunsevule". In ogni casu, scegliendu micca di rispettà l'accordu di cunfidenziale per criticà apertamente a cumpagnia li costò u so capitale, cum'è ellu hà dettu in u so situ web .

A RISPOSTA DI OPENAI

OpenAI, i rapporti Guardian , hà difesu e so pratiche in una dichjarazione, dicendu chì hà viaghji cum'è una linea telefonica dispunibile per signalà i prublemi in a cumpagnia è chì ùn libera micca novi tecnulugia finu à chì ci sò garanzii adatti. Google, però, ùn hà ancu rispostu à una dumanda di cummentariu.

Tuttavia, a settimana passata, Vox hà dettu chì OpenAI hà fattu l'impiegati chì abbandunonu a cumpagnia di firmà documenti estremamente restrittivi di non divulgazione è non-opt-out o risicate di perde tutte e so azioni acquistate. Sam Altman s'hè scusatu dopu dopu a nutizia, dicendu chì cambiassi e so prucedure di separazione.

TEMPO RANDOM?

The Guardian poi nota chì a lettera vene dopu à dui impiegati prominenti OpenAI, u cofundatore Ilya Sutskever è u ricercatore chjave di sicurità Jan Leike , dimissioni da a cumpagnia u mese passatu. Leike hà dettu dopu avè lasciatu u postu chì OpenAI avia abbandunatu a so cultura di sicurità in favore di "prodotti brillanti".

A lettera dice ancu chì l'imprese ùn anu micca ubligatoriu di esse trasparenti nantu à e so operazioni, secondu u ghjurnale britannicu, fa eco di alcune dichjarazioni di Leike è hà ricevutu appruvazioni da i "padrini" di l'IA – Yoshua Bengio è Geoffrey Hinton – è l'informaticu Stuart Russell. , chì hà cuntribuitu à a ricerca strumentale chì hà purtatu à a creazione di l'AI mudernu è hà diventatu alcuni di i so più grandi critichi .


Questa hè una traduzzione automatica da a lingua italiana di un post publicatu in StartMag à l’URL https://www.startmag.it/innovazione/ex-attuali-dipendenti-di-openai-google-deepmind-e-anthropic-contro-rischi-intelligenza-artificiale/ u Thu, 06 Jun 2024 04:49:41 +0000.