Ultimi Nutizie

Attualità mundiale per u populu corsu

Zero Difese

L’ex-chief Scientist d’OpenAI lancia SSI per concentrà nantu à a “sicurezza” di l’IA

L'ex-chief Scientist d'OpenAI lancia SSI per concentrà nantu à a "sicurezza" di l'IA

Scritta da Derek Andersen via CoinTelegraph.com,

Ilya Sutskever, co-fundatore è anticu scientist capu di OpenAI, è l'ex ingegnere OpenAI Daniel Levy anu unitu forze cù Daniel Gross, un investitore è ex cumpagnu in l'acceleratore di startup Y Combinator, per creà Safe Superintelligence, Inc. (SSI). U scopu è u pruduttu di a nova cumpagnia sò evidenti da u so nome.

SSI hè una cumpagnia di i Stati Uniti cù uffici in Palo Alto è Tel Aviv. Avanzarà l'intelligenza artificiale (AI) sviluppendu a sicurezza è e capacità in tandem, u trio di fundatori hà dettu in un annunziu in linea u 19 di ghjugnu.

"U nostru focusu singulare ùn significa micca distrazione da i costi di gestione o di i cicli di produttu, è u nostru mudellu di cummerciale significa chì a sicurità, a sicurità è u prugressu sò tutti insulati da pressioni cummerciale à cortu termine".

Sustkever è Gross eranu digià preoccupati per a sicurità di l'AI

Sutskever hà lasciatu OpenAI u 14 di maghju . Hè statu implicatu in u licenziamentu di u CEO Sam Altman è hà ghjucatu un rolu ambiguu in a cumpagnia dopu a dimissioni di u cunsigliu dopu chì Altman hè tornatu. Daniel Levy era trà i circadori chì abbandunonu OpenAI uni pochi di ghjorni dopu à Sutskever.

Sutskever è Jan Leike eranu i capi di a squadra di Superalignment di OpenAI creata in lugliu 2023 per cunsiderà cumu "dirighje è cuntrullà i sistemi AI assai più intelligenti di noi". Tali sistemi sò chjamati intelligenza artificiale generale (AGI). OpenAI hà attribuitu 20% di a so putenza informatica à a squadra di Superalignment à u mumentu di a so creazione.

Leike hà ancu lasciatu OpenAI in maghju è hè avà u capu di una squadra in a startup AI sustinuta da Amazon Anthropic. OpenAI hà difesu e so precautions relatives à a sicurità in un longu postu X da u presidente di a cumpagnia Greg Brockman, ma hà dissolutu a squadra di Superalignment dopu a partenza di maghju di i so circadori.

Altre figure tecnulugiche di punta si preoccupanu ancu

L'antichi circadori OpenAI sò trà parechji scientisti preoccupati di a direzzione futura di l'IA.

U cofundatore di Ethereu, Vitalik Butertin, hà chjamatu AGI "risicatu" à mezu à u turnover di u persunale in OpenAI.

Hà aghjustatu, però, chì "tali mudelli sò ancu assai più bassi in termini di risicu di fatalità chì sia a megalomania corporativa sia l'armata".

Fonte: Ilya Sutskever

"Questa cumpagnia hè speciale in u so primu pruduttu serà a superintelligenza sicura, è ùn farà nunda di più finu à allora", Sutskever dice in una entrevista esclusiva cù Bloomberg nantu à i so piani.

"Serà cumplettamente insulatu da e pressioni esterne di avè da trattà cun un pruduttu grande è cumplicatu è avè da esse chjappu in una corsa competitiva di rati".

U CEO di Tesla, Elon Musk, una volta un sustenitore di OpenAI, è u cofundatore di Apple Steve Wozniak eranu trà più di 2 600 dirigenti tecnologichi è circadori chì urgeu chì a furmazione di i sistemi AI sia in pausa per sei mesi mentre l'umanità meditava u "risicu prufondu" chì rapprisentanu.

Musk hà rispostu à un postu nantu à X chì mette in risaltu u potenziale per questu tuttu per andà assai male: "… basatu nantu à e cunvenzioni di nomenclatura stabilite da OpenAI è StabilityAI, questu pò esse a cumpagnia di AI più periculosa …"

L'annunziu SSI hà nutatu chì a cumpagnia hè assuciatu ingegneri è circadori.

[ZH: Infine, avemu una dumanda simplice – a maiò parte di i cummentarii chì avemu sen hè focu annantu à l' aspettu "questu ùn diventerà SkyNet" di a "sicurezza", ma chì se a nova ditta Sustkever (chì hà una similitudine ironica cù SSRI) hè nantu à "salvà u publicu è a demucrazia da elli stessi" l'aspettu di a "sicurezza" è tutte e fece DEI chì implica ?]

"Per sicuru, intendemu sicuru cum'è a sicurità nucleare in uppusizione à a sicura cum'è in" fiducia è sicurità ", dice Sutskever.

Sutskever refuse de nommer les bailleurs de fonds de Safe Superintelligence ou de révéler combien il a récolté. CIA?

Tyler Durden ghjovi, 20/06/2024 – 10:45


Questa hè una traduzzione automatica da l’inglese di un post publicatu nantu à ZeroHedge à l’URL https://www.zerohedge.com/technology/ex-openai-chief-scientist-launches-ssi-focus-ai-safety u Thu, 20 Jun 2024 14:45:00 +0000.