Ultimi Nutizie

Attualità mundiale per u populu corsu

Zero Difese

Ci hè solu un prublema: l’IA ùn hè micca intelligente, è questu hè un risicu sistemicu

Ci hè solu un prublema: l'IA ùn hè micca intelligente, è questu hè un risicu sistemicu

Scrittu da Charles Hugh Smith via u blog OfTwoMinds,

L'imitazione di l'intelligenza ùn hè micca intelligenza, è cusì mentre l'imitazione AI hè un strumentu putente, ùn hè micca intelligente.

A mitulugia di a Tecnulugia hà un altare speciale per l'IA, l'intelligenza artificiale , chì hè venerosamente venerata cum'è a surgente di riduzioni di costu maravigghiusu (cum'è u travagliu umanu hè rimpiazzatu da AI) è l'espansione illimitata di cunsumu è prufitti. L'IA hè a perfezione beata di l'avanzata naturale di a tecnulugia à putenzi sempre più grandi.

U cunsensu sustene chì l'avanzata di l'IA porta à una utopia di cuntrollu essenzialmente illimitatu di a Natura è una cornucopia di divertimentu è abbundanza.

Si écarte le rideau de la mythologie, on constate que l'IA imite l'intelligence humaine , et cette imitation est si captivante qu'on la prend comme preuve de l'intelligence réelle. Ma l'imitazione di l'intelligenza ùn hè micca intelligenza, è cusì mentre chì l'imitazione AI hè un strumentu putente, ùn hè micca intelligente.

L'iterazioni attuali di Generative AI – grandi mudelli di lingua (LLM) è l'apprendimentu automaticu – imitanu a nostra capacità di lingua naturale trasfurmendu milioni di esempi di scrittura è discorsu umani è estratte ciò chì algoritmi selezziunate cum'è e migliori risposte à e dumande.

Questi prugrammi AI ùn anu micca capiscenu di u cuntestu o u significatu di u sughjettu; minanu a cunniscenza umana per distillà una risposta. Questu hè potenzialmente utile, ma micca intelligenza.

I prugrammi AI anu una capacità limitata di discernisce a verità da a falsità , da quì a so propensione à allucinate fictions cum'è fatti. Sò incapaci di discernisce a diffarenza trà variazioni statistiche è errori fatali, è a stratificazione nantu à e misure di precauzione aghjunghjenu cumplessità addiziale chì diventa un altru puntu di fallimentu.

In quantu à l'apprendimentu automaticu, l'IA pò prughjettà suluzioni plausibili à prublemi di calculu esigenti cum'è cumu si plegavanu e proteine ​​​​, ma sta scatula nera computazionale di forza bruta hè opaca è dunque di valore limitatu: u prugramma ùn capisce micca veramente u plegamentu di proteine ​​​​in u modu umanu. capiscenu, è ùn avemu micca capitu cumu u prugramma hè ghjuntu à a so suluzione.

Siccomu l'AI ùn capisce micca veramente u cuntestu, hè limitatu à l'opzioni integrate in a so prugrammazione è l'algoritmi. Discernemu questi limiti in l'applicazioni è i bots basati in AI, chì ùn anu micca cuscenza di u prublema attuale. Per esempiu, a nostra cunnessione Internet hè falata per via di un aghjurnamentu di u sistema currutti, ma perchè sta pussibilità ùn era micca inclusa in l'universu di prublemi di l'app per risolve, l'app / bot AI informa chì u sistema funziona perfettamente ancu s'ellu hè rottu. (Questu hè un esempiu di a vita reale).

In essenza, ogni strata di sta minera / mimetismo crea punti di fallimentu supplementari: l'incapacità di identificà a diffarenza trà fatti è ficzioni o trà tassi d'errore permessi è errori fatali, a cumplessità aghjunta di e misure di precauzione è l'opacità di scatula nera generanu risichi. di accidenti normali cascate in fallimentu di sistemi.

Ci hè ancu u risicu sistemicu generatu da s'appoghjanu nantu à l'AI di scatula nera per operare sistemi à u puntu chì l'omu perde a capacità di mudificà o ricustruisce i sistemi. Questa dipendenza eccessiva di i prugrammi AI crea u risicu di fallimentu in cascata micca solu di i sistemi digitali, ma di l'infrastruttura di u mondu reale chì avà dipende di i sistemi digitali.

Ci hè un risultatu ancu più pernicious di dipende di l'AI per suluzione. Cum'è a natura addictiva di i telefoni cellulari, i media suciali è u cuntenutu di l'Internet hà disturbatu a nostra capacità di cuncentrazione, fucalizza è amparà materiale difficiuli – una diminuzione devastante di l'apprendimentu per i zitelli è l'adulescenti – l'AI offre una cornucopia di factoids snackable , snippets of codificazione, publicità TV generati da computer, articuli è libri interi chì ùn ci anu più bisognu di avè una cunniscenza prufonda di sughjetti è prucessi. In mancanza di questa capiscitura, ùn simu più equipati per perseguite inchiesta scettica o creà cuntenutu o codificazione da zero.

In verità, u prucessu arduu di acquistà sta cunniscenza pare avà inutile: u bot AI pò fà tuttu, rapidamente, à pocu pressu è precisamente. Questu crea dui prublemi: 1) quandu i prugrammi AI di scatula negra fallenu, ùn sapemu più abbastanza per diagnosticà è risolve u fallimentu, o fà u travagliu noi stessi, è 2) avemu persu a capacità di capisce chì in parechji casi, ci hè. nisuna risposta o suluzione chì hè l'ultima parola: a "risposta" esige l'interpretazione di fatti, avvenimenti, prucessi è basi di cunniscenza sò chì intrinsecamente ambigu.

Ùn ricunnoscemu più chì a risposta AI à una dumanda ùn hè micca un fattu per se, hè una interpretazione di a realità chì hè presentata cum'è un fattu , è a suluzione AI hè solu una di parechje strade, ognuna di e quali hà cummerci intrinseci chì generanu costi imprevisible. è cunsequenze nantu à a strada.

Per discernisce a diffarenza trà una interpretazione è un fattu suppostu hè bisognu di un mare di cunniscenze chì sia largu è prufondu, è perdendu l'impulsu è a capacità di amparà materiale difficiuli, avemu persu a capacità di ricunnosce ancu ciò chì avemu persu: quelli cun poca cunniscenza reale ùn mancanu di i fundamenti necessarii per capiscenu a risposta di l'AI in u cuntestu propiu.

U risultatu netu hè diventatu menu capaci è menu cunniscenzi, cecu à i risichi creati da a nostra perdita di cumpetenza mentre i prugrammi AI introducenu risichi sistemichi chì ùn pudemu micca prevede o prevene. L'IA degrada a qualità di ogni pruduttu è sistema, perchè l'imitazione ùn genera micca risposte definitive, suluzioni è intuizioni, genera solu una illusione di risposte definitive, soluzioni è intuizioni chì stupidamente cunfundemu cù l'intelligenza attuale.

Mentre chì u statu corporativu neofeudal applaude i prufitti da cuglieri culling u travagliu umanu à una scala di massa, a minera / mimica di a cunniscenza umana hà limiti. S'appoghjanu nantu à i prugrammi AI per eliminà tutti l'errori fatali hè in sè stessu un errore fatale, è cusì l'omu deve stà in u ciclu di decisione (u ciclu OODA di observe, oriente, decide, act).

Una volta chì i prugrammi AI s'impegnanu in prucessi di salvezza di vita o di assistenza sanitaria, ogni entità cunnessa à u prugramma AI hè esposta à una responsabilità aperta ( congiunta è solidale ) in casu di errori dannosi o fatali.

S'ellu ci hè a mitulugia è l'iperbole, simu lasciati cù una altra struttura neofeudale: i ricchi seranu servuti da l'omu, è u restu di noi serà stuck with low-quality, error-propens AI service with no recurse.

L'aspettativa di i prumutori di l'AI hè chì l'AI generativa cuglierà trilioni di dollari in profitti da u risparmiu di costi è novi prudutti / servizii. Questa storia ùn mappa micca u mondu reale , in quale ogni strumentu di software AI hè facilmente copiatu / distribuitu è ​​cusì serà impussibile di prutezzione di qualsiasi valore di scarsità , chì hè a dinamica essenziale per mantene a putenza di prezzi necessaria per ottene prufitti eccessivi.

Ci hè pocu valore in i strumenti di software chì ognunu pussede, salvu chì un monopoliu restringe a distribuzione, è pocu valore in u cuntenutu generatu automaticamente da questi strumenti: i milioni di canzoni, filmi, comunicati di stampa, saggi, documenti di ricerca, etc. scontru ogni audience potenziale, riducendu u valore di tuttu u cuntenutu generatu da AI à zero.

I prumutori dicenu chì l'abbattimentu di massa di l'impieghi serà magicamente compensatu da intere industrie novi create da l'IA , riechendu a transizione da u travagliu agriculu à l'impieghi in fabbrica. Ma u dragone AI hà da manghjà a so propria coda, perchè crea pocu impieghi o prufitti chì ponu esse tassati per pagà a ghjente per ùn travaglià (Ingressu Basic Universale).

Forse u limitu più cunsequenzale per l'IA hè chì ùn farà nunda per invertisce i prublemi più pressanti di l'umanità. Ùn pò micca pulizziari u Great Pacific Trash Gyre , o limità i 450 milioni di tunnellate di plastica soprattuttu micca riciclata spewed ogni annu, o invertisce u cambiamentu climaticu, o pulite l'orbite terrestri bassu di e millaie di pezzi d'alta velocità di detritus periculosi, o rifà i rifiuti assai prufittuali hè a crescita di l'Ecunumia di Landfill in un sistema globale sustenibile, o eliminà tutte e fonti di ciò chì chjamu Anti-Progress . Serà solu aghjunghje novi fonti di risicu sistemicu, rifiuti è sfruttamentu neofeudal.

***

Diventate un patronu di $ 3 / mese di u mo travagliu via patreon.com .

Abbonate à u mo Substack gratuitamente

Tyler Durden Ven, 08/09/2024 – 17:00


Questa hè una traduzzione automatica da l’inglese di un post publicatu nantu à ZeroHedge à l’URL https://www.zerohedge.com/technology/theres-just-one-problem-ai-isnt-intelligent-and-thats-systemic-risk u Fri, 09 Aug 2024 21:00:00 +0000.