Ultimi Nutizie

Attualità mundiale per u populu corsu

Zero Difese

Impetente, u CCP Ignore Rischi di Armi AI, dicenu l’Esperti

Impetente, u CCP Ignore Rischi di Armi AI, dicenu l'Esperti

Scrittu da Petr Svab via The Epoch Times (enfasi nostra),

L'armi d'avanguardia alimentati da l'intelligenza artificiale emergenu cum'è un periculu di sicurezza glubale, in particulare in mani di u Partitu Cumunista Cinese (CCP), secondu parechji esperti.

Roboti industriali in un stand u ghjornu prima di a Fiera Internaziunale di l'Industria Chine 2015 in u Centru Naziunale di Esposizione è Cunvenzione in Shanghai u 2 di nuvembre di u 2015. (Getty Images)

Ansioso di superà militarmente i Stati Uniti, u CCP hè improbabile di tene cura di e tecnulugii di IA letali, chì sò sempre più periculosi in u so propiu dirittu, l'esperti anu sustinutu. A natura di a tecnulugia hè propensu à alimentà alcune di e peggiori tendenzi di u regime è a psiche umana in generale, anu avvistatu.

" L'implicazioni sò abbastanza drammatiche. È ponu esse uguali di a rivoluzione nucleare ", hà dettu Bradley Thayer, un anzianu di u Centru per a Politica di Sicurezza, un espertu in una valutazione strategica di a Cina, è un cuntributore à The Epoch Times.

Robots Killer

U sviluppu di l'armi autonomi alimentati da AI sfurtunatamente avanza rapidamente, secondu Alexander De Ridder, un sviluppatore AI è cofundatore di Ink, una sucietà di marketing AI.

" Stanu diventendu rapidamente più efficaci è rapidamente più efficaci ", disse à The Epoch Times, aghjustendu chì "ùn sò micca à u puntu induve ponu rimpiazzà l'omu".

I droni, i tanki, i navi è i sottumarini autonomi sò diventati una realità cù e modalità più esotiche, cum'è i cani robot quadrupedi, digià armati di mitragliatrici in Cina.

Ancu i robot umanoidi alimentati da AI, e cose di l'horrori di sci-fi, sò in pruduzzione. Certu, sò sempre piuttostu goffi in u mondu reale, ma ùn saranu micca longu, De Ridder hà suggeritu.

" E capacità per tali robots avanzanu rapidamente", disse.

Una volta ghjunghjenu à l'utilità è l'affidabilità cummercializabili, a Cina hè prubabile di turnà a so putenza di fabricazione à a so pruduzzione in massa, secondu De Ridder.

"U mercatu serà inundatu di robot umanoidi, è poi tocca à a prugrammazione cumu sò usati".

Questu significa ancu l'usu militare.

"Hè un pocu inevitabbile", disse.

Tali macchine alimentate da AI sò assai efficaci à trasfurmà l'imaghjini per discernisce l'uggetti – per detectà un umanu cù i so sensori ottici, per esempiu, spiegò James Qiu, un espertu di IA, fundatore di GIT Research Institute, è ex CTO in FileMaker.

Chì face chì i robots AI sò assai boni per targeting.

" Hè una macchina di uccisione assai efficace ", disse.

Generali AI

À un livellu più largu, parechje nazioni stanu travagliendu in una IA capace di informà è di coordinà e decisioni di u campu di battaglia – un generale elettronicu, secondu Jason Ma, un espertu di AI è un capu di ricerca di dati in una cumpagnia multinaziunale Fortune 500. Ùn vulia micca chì u nome di a cumpagnia hè citatu per impedisce ogni impressione chì parlava in nome di ellu.

L'Armata di Liberazione Populare (PLA), l'armata di u PCC, hà realizatu recentemente esercizii di battaglia in quale una AI hè stata diretta direttamente à u cumandamentu.

L'armata di i Stati Uniti hà ancu prughjetti in questa zona, hà dettu Ma.

"Hè un tema di ricerca è sviluppu assai attivu".

A necessità hè ovvia, spiegò. E decisioni di u campu di battaglia sò infurmati da una quantità incredibile di dati da u cuntestu storicu è l'intelligenza passata à dati satellitari quasi in tempu reale, finu à l'input millisecondu per millisecondu da ogni camera, microfonu, è qualunque sensore in u campu di battaglia.

Hè "assai duru" per l'omu di processà flussi di dati cusì disparati è voluminosi, disse.

"Quantu più cumplessa hè a guerra, a parte più impurtante diventa cumu pudete integrà rapidamente, riassume tutte queste informazioni per piglià a decisione ghjusta, in sicondi, o ancu in sub-secondu", disse.

Un Shield AI V-BAT Teams, un sistema di aerei senza pilota (UAS) pilotatu da un sistema di intelligenza artificiale (AI) di decollo è ascensore verticale (VTOL), u ghjornu di l'apertura di u Farnborough International Airshow 2024, à u suduvestu di Londra, u 22 di lugliu. , 2024. (Justin Tallis/AFP via Getty Images)

Destabilizazione

L'armi AI sò digià ridefinisce a guerra, l'esperti accunsenu. Ma i cunsiquenzi sò assai più largu. A tecnulugia rende u mondu sempre più volatile, disse Thayer.

À u livellu più rudimentale, a mira di l'arme alimentata da l'intelligenza artificiale serà prubabilmente assai più faciule d'abbattimentu di missili balistici intercontinentali, di detectà è di distrughje sottumarini, è di abbattimentu di bombardieri à longu andà. Chì puderia neutralizà e capacità di a triade nucleare di i Stati Uniti, permettendu à l'avversarii di "escalà oltre u livellu nucleare" in impunità, hà suggeritu.

" L'IA affetterà ognuna di questi cumpunenti, chì avemu sviluppatu è capitu durante a Guerra Fredda cum'è assolutamente essenziale per una relazione stabile di deterrente nucleare", disse.

"Durante a Guerra Fredda, ci era una larga cunniscenza chì a guerra convenzionale trà e putenzi nucleari ùn era micca fattibile. … L'AI hè minendu questu, perchè introduce a pussibilità di cunflittu convenzionale trà dui stati nucleari ".

Se a ghjente cuntinueghja à sviluppà sistemi d'arme alimentati da AI senza restrizioni, a volatilità aggravarà solu, hà preditu.

" L'IA affetta assai u campu di battaglia, ma ùn hè ancu determinante", disse.

Se e capacità di l'IA righjunghjenu "l'effettu di a guerra nucleare senza aduprà armi nucleari", chì si mette u mondu nantu à una polvera, disse.

"Se hè pussibule, è hè abbastanza prubabile chì hè pussibule, allora hè una situazione estremamente periculosa è una situazione incredibbilmente destabilizzante perchè obbliga à qualcunu chì riceve un attaccu à andà prima, micca à suppurtà l'attaccu, ma à aggressà. "

In u lessicu di guerra, u cuncettu hè chjamatu "limitazione di danni", disse.

"Ùn vulete micca chì u tippu vada prima, perchè vi ferite assai male. Allora vai prima. È questu serà enormemente destabilizzante in a pulitica internaziunale. "

A preoccupazione ùn hè micca solu di robots assassini o droni, ma ancu di diverse armi AI non convenzionali. Un AI, per esempiu, puderia esse sviluppatu per truvà vulnerabilità in l'infrastruttura critica cum'è a rete elettrica o sistemi di fornitura d'acqua.

U cuntrollu di a proliferazione di tali tecnulugii pare particularmente intimidatori. AI hè solu un pezzu di software. Ancu i più grandi mudelli si adattanu à un discu duru regulare è ponu eseguisce in una piccula splutazioni di servitore. Armi AI simplici ma sempre più letali, cum'è i droni assassini, ponu esse spediti in parti senza suscitarà l'alarma.

"Tutti l'incentivi di proliferazione verticale è horizontale sò enormi, è si faci facilmente", disse Thayer.

De Ridder hà dettu chì u statu cinese vole esse vistu cum'è rispunsevuli nantu à a scena mundiale.

Ma questu ùn hà micca impeditu à u PCC di furnisce armi o di aiutà i prugrammi d'arme di altri regimi è gruppi chì ùn sò micca cusì ristretti di reputazione, altri esperti anu nutatu.

Ùn saria micca una sorpresa se u PCC avia da furnisce armi autonome à i gruppi terroristi chì poi liganu l'armata americana in cunflitti asimmetrici infiniti. U CCP puderia ancu mantene a so distanza è solu furnisce i pezzi, lascendu i proxy assemble i droni, cum'è i fornitori chinesi furniscenu precursori di fentanil à i cartelli messicani è li lascianu fà, spedite è vende droghe.

U CCP, per esempiu, hà una longa storia di aiutà i prugrammi di l'arme iraniani. L'Iran, à u turnu, furnisce armi à un panòpticu di gruppi terroristi in a regione.

"Ci hè pocu disincentive per l'Iran per fà questu", u Signore Thayer hà dettu.

Un camion militare iranianu porta un drone Arash durante una parata militare cum'è parte di una cerimonia chì marca u ghjornu annuale di l'armata di u paese in Teheran u 17 d'aprile di u 2024. (Atta Kenare/AFP via Getty Images)

Umanu in u Loop

Hè generalmente accettatu, almenu in i Stati Uniti è trà i so alleati, chì a salvaguardia più cruciale contr'à l'armi AI chì causanu stravaganti imprevisti hè di mantene un umanu in cuntrollu di decisioni impurtanti, in particulare l'usu di a forza mortale.

"In nessuna circustanza ogni macchina ùn deve esse permessa in modu autonomu di piglià una vita umana mai", disse De Ridder.

U principiu hè cumunamenti riassuntu in a frasa "umani in u ciclu".

"Un umanu hà una cuscenza è hà bisognu di svegliarsi a matina cù rimorsu è e cunsequenze di ciò chì hà fattu, per pudè amparà da ellu è micca ripetiri l'atrocità ", disse De Ridder.

Qualchidunu di l'esperti anu signalatu, però, chì u principiu hè digià sbulicatu da a natura di cummattimentu trasfurmata da e capacità AI.

In a guerra di l'Ucraina, per esempiu, l'armata ucraina hà avutu à equipà i so droni cù una certa autonomia per guidà si à i so miri, perchè a so cumunicazione cù l'operatori umani era stata bloccata da l'armata russa.

Tali droni funzionanu solu AI più simplici, Ma hà dettu, datu a putenza limitata di l'urdinatore di bordu di u drone. Ma questu puderà cambià prestu postu chì i mudelli AI è l'urdinatori diventanu più veloci è più efficaci.

Apple hè digià travagliatu nantu à una IA chì puderia esse ghjusta in un telefunu, dice Ma.

"Hè assai prubabile chì in u futuru sarà messu in un picculu chip".

Inoltre, in un cunflittu maiò induve centinaie o forse millaie di droni sò dispiegati in una volta, ponu sparte a putenza computazionale per realizà compiti autonomi assai più cumplessi.

"Hè tuttu pussibule", disse. "Hè ghjuntu à u puntu chì ùn hè micca fantascienza; hè solu [una questione di] s'ellu ci hè un gruppu di persone chì volenu dedicà u tempu per travaglià nantu à questu. Hè tecnulugia tangibile ".

Eliminazione di u cuntrollu umanu per necessità ùn hè micca un cuncettu novu, secondu James Fanell, ex ufficiale di intelligenza navale è espertu in Cina.

Hà datu l'esempiu di u Sistema di Combattimentu Aegis implementatu nantu à i cruisers è i distruttori di missile guidati da i Stati Uniti. Detecta automaticamente è traccia i miri aerei è lancia missili per abattà. Normalmente, un operatore umanu cuntrolla i lanciamenti di missile, ma ci hè ancu un modu per cambià in modu automaticu, cum'è quandu ci sò troppu miri per l'operatore umanu per seguità. U sistema allora identifica è distrugge i miri da sè stessu, disse Fanell.

In a guerra di drone di massa, induve una AI coordina migliaia di droni in un attaccu sistematicu, u latu chì dà a so autonomia AI per sparà guadagnà un vantaghju maiò di velocità nantu à u latu induve l'omu deve appruvà ogni colpu.

"À u livellu di u tirò individuale, a ghjente deve rinunzià à u cuntrollu perchè ùn ponu micca veramente piglià tutte e decisioni cusì rapidamente", disse Ma.

De Ridder hà dettu chì un drone sparendu un altru drone da sè stessu seria moralmente accettabile. Ma chì puderia scatinà assai sparatori autonomi in un campu di battaglia induve ci ponu esse umani ancu, aprendu a porta à vittime collaterali indicibili.

Nisuna regule

Qualunque sia e salvaguarda di l'IA pò esse praticabile, u CCP hè improbabile di rispettallu in ogni modu, a maiò parte di l'esperti accunsenu.

"Ùn vecu micca veramente chì ci saranu frontiere per a Cina per esse prudente", disse Ma. "Ciò chì hè pussibule, a feranu."

" L'idea chì a Cina si limitaria à l'usu di questu, ùn vecu micca ", disse Fanell.

"Anu da pruvà à prufittà di questu è esse capaci di sfruttà più veloce di ciò chì pudemu".

Un UAV hè mostratu durante a parata militare in Piazza Tiananmen, Beijing, Cina u 1 d'ottobre 2019. (Andrea Verdelli/Getty Images)

U principiu umanu in u ciclu puderia esse simplicemente reinterpretatu per applicà à "un livellu di battaglia più grande è sanu" piuttostu cà "u livellu di tirò individuale", disse Ma.

Ma una volta chì unu accetta chì l'IA pò cumincià à sparà per sè stessu in certi circustanze, u principiu di u cuntrollu umanu diventa maleable, disse Fanell.

" Se site dispostu à accettà questu in un sensu tatticu, quale hà da dì chì ùn l'avete micca purtatu finu à u più altu livellu di guerra? ", disse.

"Hè l'evoluzione naturali di una tecnulugia cum'è questu, è ùn sò micca sicuru chì pudemu fà per piantà. Ùn hè micca cum'è avete da avè un codice d'etica chì dice in a guerra [rispettemu] u Marchesu di Queensberry Regoli di pugilatu. Ùn succederà micca ".

Ancu s'è l'omu sò tenuti in u cuntrollu di e decisioni macro, cum'è s'ellu lancià una missione particulari, l'AI pò facilmente duminà u prucessu di decisione, parechji esperti accunsenu.

U periculu ùn saria micca una IA mal prestata, ma piuttostu una chì funziona cusì bè chì infunde fiducia in l'operatori umani.

De Ridder era scetticu di e pronostiche nantu à l'IA superintelligente chì supera assai l'omu. Hà ricunnisciutu, però, chì l'IA supera ovviamente l'omu in certi aspetti, in particulare a velocità. Pò crunch e muntagne di dati è sputa una cunclusione quasi subitu.

Hè praticamente impussibule di capisce cumu esattamente una IA vene à e so cunclusioni, secondu Ma è Qiu.

De Ridder hà dettu chì ellu è altri stanu travagliendu in modi per limità l'AI à un flussu di travagliu umanu, cusì i passi individuali di u so ragiunamentu sò più trasparenti.

Ma datu l'incredibile quantità di dati implicati, ùn saria impussibile per l'AI di spiegà cumu ogni pezzu d'infurmazione hà fattu in u so ragiunamentu senza sopraffare l'operatore, Ma ricunnosce.

"Se l'operatore umanu sà chjaramente chì questu hè una decisione [prudutta] dopu chì l'IA hà trattatu terabytes di dati, ùn hà micca veramente u curagiu di annullà questu in a maiò parte di i casi. Allora pensu chì sì, serà una formalità ", disse.

" Umanu in u ciclu hè un tipu còmode di frasa, ma in realtà, l'omu rinunceranu à u cuntrollu rapidamente. "

Pressione publica

Ancu s'è l'omu sò tenuti in u ciclu solu nominali, hè sempre impurtante, De Ridder hà dettu.

"Fin chì mantenemu l'omu in u ciclu, pudemu mantene l'omu rispunsevule", disse.

Infatti, tutti l'esperti accunsenu chì a pressione publica hè prubabile di limità u sviluppu è l'usu di l'arme AI, almenu in i Stati Uniti.

Ma hà datu l'esempiu di Google chì finisce un cuntrattu di difesa annantu à l'obiezioni di u so persunale.

Ùn pudia micca vede una situazione analoga in Cina, però.

Qiu hè d'accordu.

"Qualcosa in Cina hè una risorsa chì u CCP pò sfruttà", disse. "Ùn pudete micca dì:" Oh, questa hè una cumpagnia privata ". Ùn ci hè micca una cumpagnia privata per se [in Cina] ".

Ancu u CCP ùn pò micca disposti di u sentimentu publicu in tuttu, De Ridder hà dettu.

" U guvernu pò sopravvive solu se a pupulazione vole cullaburà. "

Ma ùn ci hè nisuna indicazione chì a pupulazione cinese vede l'usu militare di l'AI cum'è una preoccupazione urgente.

À u cuntrariu, l'imprese è l'università in Cina parenu esse ansiose di piglià cuntratti militari, Ma hà dettu.

De Ridder hà dumandatu "un quadru regulatori internaziunale chì pò esse infurzatu".

Ùn hè micca chjaru cumu tali regulamenti puderanu esse infurzati contr'à a Cina, chì hà una longa storia di ricusà qualsiasi limiti à u so sviluppu militare. I Stati Uniti anu longu inutilmente pruvatu à purtà a Cina à a tavula nantu à u disarmamentu nucleare. Recentemente, a Cina hà rifiutatu una dumanda di i Stati Uniti per guarantiscia chì ùn hà micca aduprà AI per e decisioni di attaccu nucleari.

Se i Stati Uniti regulanu u so propiu sviluppu AI, puderia creà una vulnerabilità strategica, suggerenu parechji esperti.

"Questi rigulamenti seranu assai studiati da u CCP è utilizati com'è strumentu d'attaccu", disse Qiu.

Ancu s'è qualchì tipu d'accordu hè ghjuntu, u CCP hà un poviru record di mantene e prumesse, secondu Thayer.

"Ogni accordu hè una crosta di torta fatta per esse rotta".

Soluzioni

De Ridder dice ch'ellu spera chì forse e nazioni s'accorderanu per aduprà l'IA in modi menu distruttivi.

"Ci hè parechje manere chì pudete aduprà AI per ghjunghje i vostri obiettivi chì ùn implicanu micca di mandà un sciame di droni assassini l'un à l'altru", disse.

"Quandu a spinta vene à spinta, nimu vole chì questi cunflitti accadenu".

L'altri sperti anu cridutu, però, chì u PCC ùn importa micca di inizià un tali cunflittu, sempre chì vede una strada clara per a vittoria.

"I Cinesi ùn saranu micca limitati da u nostru regule", disse Fanell. "Anu da fà tuttu ciò chì hè necessariu per vince".

A fiducia in i sussurri di un cunsiglieru militare AI, quellu chì infunde fiducia trattendu muntagne di dati è producendu piani di battaglia convincenti, puderia esse particularmente periculoso perchè pò creà una visione di vittoria induve prima ùn ci era micca, secondu Thayer.

"Pudete vede cumu questu puderia esse assai attraente per un decisore, in particulare quellu chì hè iperaggressivu, cum'è u CCP", disse Thayer. "Puderà fà l'aggressione più prubabile".

"Ci hè solu un modu per piantà, chì hè di pudè scunfighja", disse Fanell.

Un chip AI di Tongfu Microelectronics hè mostratu durante u Cungressu Mundiale di Semiconductor in Nanjing in a pruvincia di Jiangsu orientali in Cina u 19 di lugliu di u 2023. (STR / AFP via Getty Images)

Chuck de Caro, anzianu cunsultore per l'Uffiziu di Valutazione Netta di u Pentagonu, hà recentemente dumandatu à i Stati Uniti di sviluppà armi elettromagnetiche chì puderanu disattivà i chip di computer. Pò esse ancu pussibule di sviluppà armi energetiche chì puderanu disattivà un tipu particulare di chips, hà scrittu in un Blaze op-ed .

" Ovviamente, senza chips funzionanti, l'AI ùn funziona micca. "

Un'altra opzione puderia esse di sviluppà una superarma AI chì puderia serve cum'è deterrent.

"Ci hè un Prughjettu AI Manhattan chì i Stati Uniti facenu chì pò creà l'effettu chì Nagasaki è Hiroshima avarianu nantu à a RPC è u Partitu Cumunista Cinese, chì hè di purtà à a realizazione chì," Va bè, forse ùn avemu micca? vulete andà quì. Questu hè una distruzzione mutualmente assicurata ?' Ùn a sò micca. Ma hè ciò chì aghju da fà ", disse Fanell.

Chì puderia lascià u mondu in un stand-off simile à a Guerra Fredda – pocu un statu ideale, ma unu prubabilmente vistu cum'è preferibile à abnegazione di u vantaghju militare à u PCC.

"Ogni paese sà chì hè periculosu, ma nimu pò piantà perchè anu paura di esse lasciati", disse Ma.

De Ridder's dice chì puderia piglià un scossa prufonda per arrestà a corsa di l'armamenti AI.

"Pudemu avè bisognu cum'è una guerra mundiale, cù una immensa tragedia umana, per pruibisce l'usu di macchine autonome di uccisione di AI", disse.

Tyler Durden Mar, 08/06/2024 – 20:05


Questa hè una traduzzione automatica da l’inglese di un post publicatu nantu à ZeroHedge à l’URL https://www.zerohedge.com/technology/undeterred-ccp-ignore-risks-ai-weapons-experts-say u Wed, 07 Aug 2024 00:05:00 +0000.