Ultimi Nutizie

Attualità mundiale per u populu corsu

Rivista Principià

Tutti volenu regulà l’AI (ma ognunu in u so modu). Rapportu Le Monde

Tutti volenu regulà l'AI (ma ognunu in u so modu). Rapportu Le Monde

UE, Stati Uniti, Cina, ma ancu u Regnu Unitu è ​​​​u Giappone. Tutti anu piani per regulà l'intelligenza artificiale (AI), ma e strategie sò diffirenti. L'articulu di Le Monde

OpenAI, Google, Microsoft è Meta ùn sò micca l'unichi cumpagnie chì saltanu in a corsa per esse u capu in l'intelligenza artificiale (AI). I dirigenti pulitichi sò ancu in cuncurrenza cù l'altri cù iniziative per regulà – è prumove – software capaci di realizà compiti umani, cum'è u ChatGPT o Midjourney generatori di testu o imagine. Giustu marti u 24 ottobre, l'Unione Europea spera di ghjunghje à un accordu puliticu nantu à a lege di l'intelligenza artificiale (AI) o, almenu, à un cumprumissu annantu à i punti principali di stu prugettu di regulamentu. Scrive Le Monde .

Dopu, l'1 è u 2 di nuvembre, u primu ministru britannicu Rishi Sunak accoglierà rapprisentanti di stati stranieri è giganti tecnulugichi in Londra per un "summit internaziunale di sicurezza AI". Più tardi in nuvembre, i paesi G7 si riuniscenu per una riunione di u "Processu di Hiroshima", una discussione nantu à l'IA chì hà iniziatu in Giappone in maghju.

Questa cunvergenza illustra un sensu d'urgenza pulitica per affruntà una tecnulugia chì hè vista cum'è assai promettente è preoccupante. Ma in questa frenesia – i Stati Uniti, l'OCDE è a Cina sò ancu attivi – strategie diverse.

L'ACT UE AI

In u 2021, Bruxelles hà lanciatu u primu prughjettu legislativu AI di u mondu: l'AI Act pruibisce certi usi (sistemi di classificazione suciale, tecniche di manipulazione subliminale, etc.) prestiti bancari, etc.), impone ubligatoriu, cum'è minimizing the error rate and biases discriminatory, verificating the quality of training data, etc.

In quantu à a questione cuntruversata di mudelli di IA "generative" (cum'è quelli chì generanu testu o imagine), u cumprumissu trà u Parlamentu Europeu è i Stati Membri prevede l'imposizione di obligazioni à mudelli più grandi (sopra à una certa soglia di putenza di calculu utilizata per a furmazione, o di un numeru di utilizatori o clienti corporativi in ​​l'UE, secondu un documentu citatu da Contexte). I pruduttori di software anu da assicurà ancu chì anu pigliatu i passi per rispettà u "copyright" di u cuntenutu utilizatu per a furmazione.

U REgnu Unitu IN LINEA CU I BIG IN THE SECTOR

Londra, chì vole diventà una capitale di l'IA, hà sceltu di fucalizza nantu à i risichi ritenuti i più esistenziali: questi cuncernanu un "usu maliziusu intenzionale" – per generà attacchi cibernetici o armi biologiche – o un "prublema di cuntrollu AI" chì puderia scappà di u cuntrollu umanu. , leghje un prugettu di dichjarazione cumuna da a cima, citata da Euractiv . A dichjarazione ricorda e lettere alarmiste chì chjamanu chì l'IA sia "pausata" o cunsiderendu cusì periculosa cum'è "pandemie o guerra nucleare".

L'approcciu di u Regnu Unitu hè ancu in linea cù a retorica di i giganti di l'industria: u summit si focalizeghja nantu à "mudelli AI di frontiera", l'espressione utilizata da OpenAI, Google, Microsoft è Anthropic quandu, in ghjugnu, anu creatu una associazione cummerciale di u software più putente. pruduttori. Londra hà ancu u scopu di creà una sorta di "AI Giec", un gruppu di sperti ispirati da quellu incaricatu di informà i guverni nantu à u cambiamentu climaticu – una idea ancu sustinuta in un op-ed per u Financial Times da parechji capi chì travaglianu in u campu. di AI.

U G7 MEDIA VIA

L'approcciu di u "codice di cumportamentu", discutitu à u G7, o l'"impegni vuluntarii", accettati sottu à l'egida di Washington da i giganti di l'industria in u ghjugnu, seguitanu una strada mediana: micca ubligatoriu, cum'è quellu di Londra, ma generalista, cum'è quellu di Bruxelles (i testi europei è americani necessitanu ancu un cuntenutu generatu da AI per esse scopre).

Hè pussìbule di truvà punti cumuni ?

Sò tutte queste strategie cumplementarii o mutualmente esclusive ? I capi di Francia (almenu u ministru digitale Jean-Noël Barrot) è di l'Europa (commissaria Vera Jourova è ancu a presidente Ursula Von der Leyen) anu decisu quantunque di andà in Londra, credendu chì l'approcciu di i risichi estremi hè cumplementarii à quellu di l'AI Act.

L'altri sò più critichi: mentre ùn vede nisuna "contraddizione" trà l'iniziativa britannica è l'AI Act, l'eurodeputatu Dragos Tudorache (Renew) crede chì "l'impegni voluntari ùn sò micca abbastanza, cum'è avemu vistu cù e rete suciale". "I grandi imprese anu un interessu à focalizà a cunversazione nantu à i risichi esistenziali è distanti di l'IA, perchè questu li permette di svià l'attenzione da prublemi più mundani è immediati", aghjusta u co-rapporteur di a lege AI.

U ROLE DI LOBBYIES IN U REGULAMENTE DI AI

U dibattitu nantu à a regulazione di mudelli generichi di IA hà ancu influenzatu l'AI Act: u lobby di l'imprese digitale Numeum – cum'è u presidente Emmanuel Macron è a start-up francese Mistral AI – hà rializatu u risicu di creà una "camicia di forza periculosa per l'innuvazione". , mentri Adrienne Williams, di DAIR, una ONG di ricerca nantu à l'etica di l'AI, lamenta chì a versione di u Parlamentu Europeu, chì impone regule più strette per mudelli di tutte e dimensioni, hè stata "annacquata".

Per u direttore di Meta Research Yann LeCun, focalizà u dibattitu nantu à i periculi per a sicurezza naziunale derivanti da future "superintelligenza" prodotte da grandi imprese minacciassi ancu l'innuvazione aperta è a publicazione di mudelli open source, cari à Meta è à a start-up Hugging Face. "U dibattitu nantu à i risichi esistenziali hè prematuru finu à chì avemu un sistema chì si avvicina à l'intelligenza di un gattu simplice", LeCun hà dettu à u FT .

(Extrait de la revue de presse étrangère éditée par eprcomunicazione )


Questa hè una traduzzione automatica da a lingua italiana di un post publicatu in StartMag à l’URL https://www.startmag.it/innovazione/tutti-vogliono-regolamentare-lia-ma-ognuno-a-modo-suo/ u Wed, 01 Nov 2023 06:38:54 +0000.