Ultimi Nutizie

Attualità mundiale per u populu corsu

Zero Difese

La lance dans le dos de l’IA

La lance dans le dos de l'IA

Scrittu da Charles Hugh Smith via u blog OfTwoMinds,

Ddu veru dannu risulterà da l'usu di strumenti AI hè un datu.

L'IA hè cum'è u caratteru putente in un filmu d'azzione chì pare invincibile finu à ch'elli si giranu, rivelando una lancia fatale incrustata in u so spinu. A lancia in u spinu di l'AI hè u sistema ghjuridicu americanu, chì dapoi decennii emette pass gratuiti à e cumpagnie tecnologiche è à e piattaforme cù l'idea chì a limitazione di l'innuvazione dannerà a crescita ecunomica, per quessa, avaristi megliu lascià e cumpagnie tecnulugiche funzionanu cù poche restrizioni.

L'emissione di passaggi gratuiti à i monopoli / cartelli è e plataforme di Tecnulugia pò esse fine. Lascià a Big Tech correre cù poche restrizioni hà purtatu à l'innuvazione sbulicata cum'è i monopoli tecnulugichi facenu ciò chì ogni monopoliu eccelle, chì hè cumprà potenziali competitori, supprime a cumpetizione, perseguite a cattura regulatoria via lobbying è spende liberamente in PR ingannevoli.

Avà i regulatori anti-trust stanu infine fighjendu i deserti micca cumpetitivi creati da Big Tech è ricunnoscendu e tattiche di scontri sindacali di quasi monopoli cum'è Starbucks è Amazon. A fioritura puderia esse da a rosa Big Tech / Monopoly.

Entra in AI, chì offre a prospettiva eccitante di trilioni di dollari in profitti supplementari per i fornitori di AI è tutte quelle cumpagnie chì utilizanu i so strumenti AI.

U sistema ghjuridicu americanu tratta di e tecnulugia novi cum'è un reptile digerisce un pastu – lentamente. Ricevu email da i lettori nantu à a difesa di a Custituzione , qualcosa chì tutti sustenemu. Ùn sò micca un avucatu, ma a mo impressione di u dirittu Custituziunale hè chì hè un tediosamente cumplessu di giurisprudenza chì deve esse sceltu cù cura prima di pudè ancu cumincià à capisce esattamente ciò chì difendemu: ogni prublema chì qualcunu puderia esse preoccupatu. hà digià accumulatu una immensa carica di decisioni è argumenti.

Questa hè a jurisprudenza americana: l'advocacy va in prucessu è e decisioni sò emesse , alcune cum'è decisioni chì perteneranu à tutti i casi futuri è altri chì ùn saranu micca. A lege avanza in novi campi cum'è l'AI, postu chì i pusizioni sò discututi davanti à i ghjudici / ghjuridichi è poi rivisiuti da i tribunali superiori cum'è perdenti appellu ghjudizii / decisioni.

Un gran numaru di cose chì pudemu pensà chì sò novi sò state stabilite da longu tempu. L'Attu di u Serviziu Selettivu ùn hè micca una forma di servitù involuntaria ? No, questu hè statu stabilitu assai fà. U dirittu di u guvernu di scrivevi per luttà in una guerra di scelta hè senza dubbitu a lege di a terra.

L'IA hà certe caratteristiche novi chì anu da esse decisu da i prucessi di advocacy, decisioni è appelli. In generale, e corporazioni chì vendenu / regalanu strumenti AI dichjaranu chì questi strumenti ùn incurrenu micca responsabilità à l'emittenti di l'arnesi perchè sò simili à un software chì, per esempiu, aghjunghje codificazione HTML à u testu chjaru: un strumentu chì esegue un prucessu.

Questu mi pare incompletu. Mi pare chì l'AI, per u so propiu nome è a natura, face affirmazioni implicite di utilità assai oltre a mera trasfurmazione di dati o testu: AI hè chjamatu AI perchè aghjunghje un valore intellettuale à dati o testu.

Tutti i disclaimers in u mondu ùn ponu micca dissolve sta pretensione implicita di utilità chì aghjunghje valore . Siccomu ùn sò micca un avucatu, ùn sò micca capaci di mette questu in termini legali propiu; Aghju aduprà a terminologia di a filusufìa. Ma a liggi hè un sistema basatu annantu à i principii filusufichi, è cusì a lingua di a filusufìa ghjoca un rolu chjave in e regule legale largamente applicabili.

Avà cunsideremu un esempiu di u mondu reale. Un paziente riceve un diagnosticu mediu è soffre com'è u risultatu direttu di u mis-diagnosis. In u nostru sistema di dirittu, qualcunu o una entità hè rispunsevuli di e cunsequenze di l'errore, è deve pagà a restituzione à quelli chì dannu da l'errore.

Cum'è a ricerca di fatti, si trova chì un strumentu AI hè statu utilizatu in a scanning iniziale di i dati di u paziente. A cumpagnia chì hà criatu l'utillita AI naturalmente dichjarà chì l'uttellu era destinatu solu à esse usatu sottu a tutela di un prufessiunale umanu, è ùn ci era micca rivindicazione in quantu à a precisione di a pruduzzioni di l'utillita AI.

Il s'agit d'un argument spécieux, car l'intention claire de l'outil AI est de remplacer l'expertise humaine comme un moyen de réduire les coûts de diagnostic en accélérant le processus et en augmentant l'exactitude du diagnostic.

Claramente, l'uttellu hè statu cuncepitu esattamente per questu scopu, è dunque e carenze in a so prestazione chì anu cuntribuitu à u mis-diagnosis – per esempiu, u fattu chì l'utillita AI hà valutatu u risultatu di diagnosticu cù una alta probabilità di precisione – sò a rispunsabilità. di a cumpagnia chì hà emessu u strumentu AI.

Se u tribunale trova a cumpagnia AI 1% rispunsevuli di u misdiagnosis, u principiu di a responsabilità solidale significa chì a liquidazione monetaria ricade nantu à qualsiasi partiti chì ponu pagà a liquidazione. Se l'altri partiti rispunsevuli ùn puderanu micca pagà una liquidazione di $ 10 milioni, allora a cumpagnia di AI puderia finisce per pagà $ 9 milioni di $ 10 milioni, malgradu a so responsabilità apparentemente limitata.

Fora di a cima di a mo testa, possu prevede decine d'esempii simili in quale un strumentu AI pò esse trovu parzialmente rispunsevuli di misrepresentations, errori di omissione, usu micca autorizatu di pruprietà intellettuale cunfidenziale, è cusì, in ciò chì pò facilmente diventà una profusione infinita. di rivendicazioni di responsabilità.

Se a fioritura hè fora di a rosa di Big Tech, a probabilità di un tribunale chì attribuisce a responsabilità à quelli chì emettenu strumenti AI aumenta proporzionalmente. Se a decisione hè cunfirmata da una corte d'appellu, in generale entrerà in a giurisprudenza è diventerà a basa per prucessi simili chì assignanu a responsabilità à quelli entità chì emettenu strumenti di IA.

Ddu veru dannu risulterà da l'usu di strumenti AI hè un datu. L'idea chì quelli chì emettenu sti arnesi deve esse datu un passaghju gratuitu perchè "ùn avemu micca veramente significatu chì pudete aduprà l'arnesi per riduce u travagliu umanu è aumentà a precisione" ùn passa micca a prova di sniff, nè negarà l'advocacy chì sustene chì questi Strumenti implicitamente facenu rivendicazioni di utilità chì incurrenu a responsabilità.

Aduprate una strumenta AI, fate una causa. L'affirmazioni di u Wild West of AI di responsabilità zero entreranu prestu in u macinatu di carne di a giurisprudenza, è i pretensioni implicite di utilità seranu più cà abbastanza per incurrà a responsabilità in un tribunale – cum'è duveranu.

A lancia legale in u spinu di l'IA puderia esse fatale. Un tassu d'errore di 1% è una responsabilità di 1% aghjunghjenu rapidamente.

***

Diventate un patronu di $ 3 / mese di u mo travagliu via patreon.com .

Abbonate à u mo Substack gratuitamente

Tyler Durden ghjovi, 18/04/2024 – 07:20


Questa hè una traduzzione automatica da l’inglese di un post publicatu nantu à ZeroHedge à l’URL https://www.zerohedge.com/geopolitical/spear-ais-back u Thu, 18 Apr 2024 11:20:00 +0000.