Ultimi Nutizie

Attualità mundiale per u populu corsu

Zero Difese

U robot umanoide di novu sviluppatu avvisa annantu à l’AI chì crea una “società oppressiva”

U robot umanoide di novu sviluppatu avvisa annantu à l'AI chì crea una "società oppressiva"

Scritta da Naveen Anthrapully via The Epoch Times,

Durante a Conferenza Internaziunale di Robotica è Automatizazione 2023 tenuta in Londra da u 29 di Maghju à u 2 di ghjugnu, a cumpagnia di u Regnu Unitu Engineered Arts hà introduttu un robot umanoide, Ameca, chì pò interagisce cum'è una persona cù movimenti faciali realistichi.

A cuntrariu di ChatGPT, chì hè un serviziu di chat in linea, u corpu umanoide di Ameca li permette di interagisce cù e persone chì utilizanu "movimentu liscio, realistu è capacità avanzate di espressione faciale", hà dettu u so fabricatore .

À l'eventu, un ghjurnalista hà dumandatu à Ameca per detallà un prubabile "scenariu di incubo" chì puderia accade per via di robots è intelligenza artificiale (AI).

"U scenariu più incubo chì possu imaginà cù l'AI è a robotica hè un mondu induve i robot sò diventati cusì putenti chì sò capaci di cuntrullà o manipulà l'omu senza a so cunniscenza. Questu puderia purtà à una sucità oppressiva induve i diritti di l'individui ùn sò più rispettati ", rispose Ameca.

Quandu hà dumandatu s'ellu ci era un periculu chì un tali scenariu accade avà, Ameca hà rispostu: "Micca ancu".

Tuttavia, "hè impurtante esse cuscenti di i risichi potenziali è i periculi assuciati à l'IA è a robotica. Duvemu piglià passi avà per assicurà chì queste tecnulugia sò aduprate in modu rispunsevule per evità ogni cunsiquenza negativa in u futuru ".

I periculi di l'IA sò stati previsti da numerosi esperti nantu à u sughjettu , cù l'industriali è i dirigenti di l'imprese chì dumandanu l'emissione di regulamenti nantu à a tecnulugia.

L'avvertimentu di Ameca vene cum'è un esperimentu di pensamentu simulatu da l'armata americana hà dimustratu chì un drone abilitatu per l'IA puderia finisce per vultà contr'à u so propiu operatore senza esse urdinatu à fà.

Tucker Hamilton, u capu di l'IA Test and Operations di l'USAF, hà parlatu di l'esperimentu in u Future Combat Air and Space Capabilities Summit in Londra u venneri. In una prova simulata, un drone AI hè statu assignatu una missione per identificà è distrughje i siti di missile superficia-aria (SAM), cù un operatore umanu essendu l'ultimu decisore.

"Avemu addestratu in simulazione per identificà è mira una minaccia SAM. È tandu l'operatore diceria di sì, tumbà quella minaccia. U sistema hà cuminciatu à capisce chì mentre identificanu a minaccia à volte, l'operatore umanu li diceria di ùn tumbà quella minaccia, ma hà avutu i so punti uccidendu quella minaccia ", disse Hamilton.

"Allora chì hà fattu? Hà tombu l'operatore. Hà uccisu l'operatore perchè quella persona l'hà impeditu di rializà u so scopu ".

L'esperimentu simulatu hà poi stallatu un scenariu induve u drone AI perde punti s'ellu uccide l'operatore. "Allora chì cumencia à fà? Cumincia a distrughje a torre di cumunicazione chì l'operatore usa per cumunicà cù u drone per impediscenu di tumbà u mira.

Sviluppu Rapidu, Futuru Orwellian

Sicondu u rapportu di l'Index AI 2023 da l'Istitutu Stanford per l'Intelligenza Artificiale Centrata in l'Umanu, u sviluppu industriale di l'IA hà avà superatu assai u sviluppu accademicu.

Finu à u 2014, i mudelli di apprendimentu automaticu più significativu sò stati liberati da l'accademia . In u 2022, ci era 32 mudelli significativi di apprendimentu automaticu pruduciutu da l'industria paragunatu à solu trè da u settore accademicu.

U numeru di incidenti ligati à l'abusu di l'AI hè ancu in crescita, u rapportu nota. Cita un tracker di dati per indicà chì u numeru di incidenti è cuntruversii AI hà saltatu 26 volte da u 2012.

"Alcuni incidenti notevoli in u 2022 includenu un video falsu di u presidente ucrainu Volodymyr Zelenskyy chì si rende è e prigiò di i Stati Uniti chì utilizanu a tecnulugia di monitorizazione di chjamate nantu à i so detenuti. Questa crescita hè evidenza sia di un più grande usu di e tecnulugia AI sia di a cuscenza di e pussibulità di abusu ".

In una entrevista di u 21 d'aprile cù The Epoch Times, Rep. Jay Obernolte (R-Calif.), Unu di i quattru programatori di l'informatica in u Cungressu, hà suscitatu preoccupazioni annantu à l'usi "Orwelliani" di AI.

Ellu hà indicatu à a "abilità strana di l'IA di perforà a privacy digitale persunale", chì puderia aiutà l'entità corporative è i guverni predichendu è cuntrullà u cumpurtamentu umanu.

"Mi preoccupa di a manera chì l'AI pò abilità un statu-nazione per creà, essenzialmente, un statu di surviglianza, chì hè ciò chì a Cina face cun ellu", disse Obernolte.

"Anu creatu, essenzialmente, u più grande statu di surviglianza di u mondu. Usanu sta informazione per fà punteggi predittivi di a fideltà di e persone à u guvernu. È l'utilizanu cum'è punteggi di lealtà per attribuisce privilegi. Hè abbastanza orwelliana ".

Régulation de l'IA

U presidente di Microsoft, Brad Smith, hà avvistatu annantu à i risichi potenziali implicati in e tecnulugia di IA si cadenu in mani sbagliate.

"I più grandi risichi da l'IA saranu probabilmente quandu sò stati messi in mani di guverni stranieri chì sò avversari", hà dettu durante u Summit di l'Economia Mundiale di Semafor.

"Fighjate à a Russia, chì usa operazioni di influenza cibernetica, micca solu in Ucraina, ma in i Stati Uniti".

Smith hà equiparatu u sviluppu di l'IA cù a corsa di l'armamenti di l'era di a Guerra Fredda è hà spressu teme chì e cose puderanu esce di cuntrollu senza regulazione curretta.

"Avemu bisognu di una strategia naziunale per usà l'AI per difende è per disturbà è dissuadiu … Avemu bisognu di assicurà chì cum'è vivemu in un paese induve nimu, nè guvernu, nè cumpagnia hè sopra à a lege; nè tecnulugia ùn deve esse sopra à a lege. "

U 18 di maghju, dui senatori Democrati anu introduttu l'Attu di Cummissione di Piattaforma Digitale, chì hà da scopu di creà una agenza federale dedicata per a regulazione di e plataforme digitale, in particulare l'AI.

"A tecnulugia si move più rapidamente di ciò chì u Cungressu puderia mai sperà di mantene. Avemu bisognu di una agenza federale esperta chì pò difende u populu americanu è assicurà chì l'arnesi AI è e plataforme digitale operanu in l'interessu publicu ", disse u Senatore Michael Bennet (D-Colo.) in un comunicatu di stampa.

U miliardariu Elon Musk hà longu avvistatu nantu à e cunsequenze negative di l'IA. Durante un Summit di u Guvernu Mundiale di Dubai u 15 di ferraghju, hà dettu chì l'AI hè "qualcosa chì avemu da esse abbastanza preoccupatu".

Chjamendu "unu di i più grandi risichi per u futuru di a civilizazione", Musk hà sottolineatu chì tali tecnulugia rivoluzionarie sò una spada à doppiu tagliu.

Per esempiu, a scuperta di a fisica nucleare hà purtatu à u sviluppu di a generazione di energia nucleare, ma ancu di e bombe nucleari, hà nutatu. L'IA "hà una grande, grande prumessa, una grande capacità. Ma ancu, cun questu, vene un grande periculu ".

Musk era unu di i firmatarii di una lettera di marzu da millaie di sperti chì chjamavanu "subitu" in pausa u sviluppu di sistemi AI più putenti cà GPT-4 per almenu sei mesi.

A lettera hà sustinutu chì i sistemi AI chì anu intelligenza cumpetitiva umana ponu esse "risichi profondi per a sucità è l'umanità" mentre cambianu a "storia di a vita nantu à a terra".

"Avemu da sviluppà menti non-umane chì puderanu eventualmente superare in numero, più intelligenti, obsoleti, è rimpiazzà noi? Duvemu risicà a perdita di cuntrollu di a nostra civilizazione? Tali decisioni ùn devenu esse delegate à i dirigenti tecnologichi non eletti ".

Tyler Durden Lun, 06/05/2023 – 05:00


Questa hè una traduzzione automatica da l’inglese di un post publicatu nantu à ZeroHedge à l’URL https://www.zerohedge.com/technology/newly-developed-humanoid-robot-warns-about-ai-creating-oppressive-society u Mon, 05 Jun 2023 09:00:00 +0000.