Ultimi Nutizie

Attualità mundiale per u populu corsu

Zero Difese

L’ultima corsa agli armamenti di l’umanità: l’ONU ùn si mette d’accordu annantu à a prohibizione di “Killer Robot”.

L'ultima corsa agli armamenti di l'umanità: l'ONU ùn riesce à s'accordu annantu à a prohibizione di "Killer Robot".

Scrittu da James Dawes via Common Dreams,

Sistemi d'armi autonomi – cumunimenti cunnisciuti cum'è robot assassini – puderanu avè uccisu esseri umani per a prima volta in l'annu passatu , secondu un rapportu recente di u Cunsigliu di Sicurezza di l'ONU nantu à a guerra civile in Libia . A storia puderia identificà questu cum'è u puntu di partenza di a prossima corsa di l'armamenti maiò, quella chì hà u putenziale di esse l'ultima corsa di l'umanità.

A Cunvenzione di e Nazioni Unite nantu à Certe Armi Convenziunali hà discututu a quistione di pruibisce l'armi autonomi in a so riunione di rivisione una volta ogni cinque anni in Ginevra u 13-17 dicembre 2021, ma ùn hà micca ghjuntu à un cunsensu annantu à una prohibizione . Stabbilita in u 1983, a cunvenzione hè stata aghjurnata regularmente per limità alcune di l'armi cunvinziunali più crudeli di u mondu, cumprese mine terrestri, trappule è armi incendiarie.

I sistemi d'armi autonomi sò roboti cù armi letali chì ponu operare indipindentamente, selezziunendu è attaccà miri senza chì un umanu pesa in queste decisioni . I militari in u mondu investenu assai in a ricerca è u sviluppu di armi autonome. I Stati Uniti solu anu presu 18 miliardi di $ US per armi autonome trà 2016 è 2020.

Un manifestante Northrop Grumman X-47B Unmanned Combat Air System vola vicinu à u trasportatore di l'aviò USS George HW Bush. Image: US Navy

Intantu, i diritti umani è l'urganisazioni umanitarii sò in corsa per stabilisce regulamenti è pruibizioni nantu à u sviluppu di tali armi. Senza tali cuntrolli, l'esperti di pulitica estera avvisanu chì e tecnulugia di l'armi autonomi disruptive destabilizzaranu periculosamente e strategie nucleari attuali, sia perchè puderanu cambià radicalmente a percepzioni di a dominanza strategica,aumentendu u risicu di attacchi preventivi , sia perchè puderanu esse cumminati cù chimichi, biologichi, radiologichi. è l'armi nucleari stessi.

Cum'è un specialista in i diritti umani cun un focusu nantu à l' armamentu di l'intelligenza artificiale , aghju trovu chì l'armi autonomi facenu i equilibri instabili è i salvaguardi frammentati di u mondu nucleare – per esempiu, l' autorità minimamente limitata di u presidente di i Stati Uniti per lancià una greva – più instabile è più frammentatu. In vista di u ritmu di ricerca è di sviluppu in l'armi autonomi, a riunione di l'ONU puderia esse l'ultima chance per scaccià una corsa à l'armamenti.

Errori letali è scatuli neri

Vecu quattru periculi primari cù l'armi autonomi. U primu hè u prublema di misidentificazione. Quandu selezziunate un scopu, l'armi autonomi puderanu distingue trà i suldati ostili è i zitelli di 12 anni chì ghjucanu cù fucili di ghjoculi? Trà i civili chì fughjenu un locu di cunflittu è l'insurgenti chì facenu una ritirata tattica ?

U prublema quì ùn hè micca chì e macchine facenu tali errori è l'omu ùn. Hè chì a diffarenza trà l'errore umanu è l'errore algoritmicu hè cum'è a diffarenza trà l'invio di una lettera è u tweeting. A scala, u scopu è a velocità di i sistemi di robot assassini – guvernati da un algoritmu di mira, implementatu in un cuntinente interu – puderia fà chì l'identificazione sbagliata da l'omu individuali cum'è un recente attaccu di droni americani in Afganistan parenu solu errori di arrotondamentu per paragone.

L'espertu d'armi autònuma Paul Scharre usa a metàfora di a pistola in fuga per spiegà a diferenza. Un fucile in fuga hè una mitragliatrice difettu chì cuntinueghja à u focu dopu chì un grillu hè liberatu. U fucile cuntinueghja à u focu finu à chì a munizione hè sguassata perchè, per dì cusì, a pistola ùn sapi micca chì face un errore. I fucili in fuga sò estremamente periculosi, ma per furtuna anu operatori umani chì ponu rompe u ligame di munizioni o pruvate à puntà l'arma in una direzzione sicura. L'armi autonomi, per definizione, ùn anu micca tali salvaguardia.

Hè impurtante chì l'IA armata ùn deve mancu esse difettu per pruduce l'effettu di fucile di fucile. Cumu parechji studii nantu à l'errori algoritmichi in l'industrii anu dimustratu, i migliori algoritmi – chì funzionanu cum'è cuncepitu – ponu generà risultati internamente curretti chì, tuttavia, sparghjenu terribili errori rapidamente in e pupulazioni.

Per esempiu, una rete neurale pensata per l'usu in l'uspitali di Pittsburgh identificanu l' asma cum'è un riduttore di risicu in i casi di pneumonia; U software di ricunniscenza di l'imaghjini utilizatu da Google hà identificatu i neri cum'è gorilla ; è un strumentu d'apprendimentu automaticu utilizatu da Amazon per classificà i candidati à u travagliu sistematicamente attribuiti punteggi negativi à e donne .

Prutesta contr'à i "robots assassini" mentre l'ONU hà pigliatu a discussione, via AFP

U prublema ùn hè micca solu chì quandu i sistemi AI sbaglianu, sbaglianu in massa. Hè chì quandu si sbaglianu, i so creatori spessu ùn sanu micca perchè anu fattu è, dunque, cumu per correggerli. U prublema di scatula nera di l'AI rende quasi impussibile di imaginà u sviluppu moralmente rispunsevule di sistemi d'armi autonomi.

I prublemi di proliferazione

I prossime dui periculi sò i prublemi di proliferazione low-end è high-end. Cuminciamu cù a fine bassa. I militari chì sviluppanu armi autonome sò avà prucedendu in l'assunzione chì puderanu cuntene è cuntrullà l'usu di l'armi autonomi . Ma se a storia di a tecnulugia di l'arme hà amparatu à u mondu qualcosa, hè questu: Armi sparghje.

E pressioni di u mercatu puderianu risultatu in a creazione è a vendita generalizata di ciò chì pò esse pensatu cum'è l'equivalente di l'arma autònuma di u fucile d'assaltu Kalashnikov : robots assassini chì sò boni, efficaci è quasi impussibili di cuntene mentre circulanu in u globu. L'armi autonomi "Kalashnikov" puderanu entre in e mani di e persone fora di u cuntrollu di u guvernu, cumpresi i terroristi internaziunali è domestici.

U Kargu-2, fattu da un cuntrattu di difesa turcu, hè una croce trà un drone quadcopter è una bomba. Havi intelligenza artificiale per truvà è seguità i miri, è puderia esse usatu in modu autonomu in a guerra civile libica per attaccà e persone.

A proliferazione high-end hè cum'è male, però. E nazioni puderanu cumpete per sviluppà versioni sempre più devastanti d'armi autonomi, cumpresi quelli capaci di muntà armi chimiche, biologiche, radiulogiche è nucleari . I periculi murali di l'escalamentu di a letalità di l'arme seranu amplificati da l'escalamentu di l'usu di l'arme.

L'armi autonomi high-end sò prubabilmente di guidà à guerri più frequenti perchè diminuiranu duie di e forze primarie chì storicamente anu impeditu è ​​accurtatu guerri: preoccupazione per i civili à l'esteru è preoccupazione per i so suldati. L'armi sò prubabilmente equipati di guvernatori etichi costosi pensati per minimizzà i danni collaterali, utilizendu ciò chì a Relatore Speciale di l'ONU, Agnes Callamard, hà chjamatu u " mitu di una greva chirurgica " per soffocà e prutestazioni murali. L'armi autonomi riduceranu ancu a necessità è u risicu per i so suldati, alterendu drasticamente l' analisi di u costu-benefiziu chì e nazioni sottumettenu mentre lancianu è mantenenu guerri.

E guerri asimmetriche – vale à dì, guerri purtate nantu à a terra di e nazioni chì mancanu di tecnulugia cuncurrenti – sò prubabilmente diventate più cumuni. Pensate à l'instabilità globale causata da l'intervenzioni militari sovietiche è americane durante a Guerra Fredda, da a prima guerra proxy à u colpu sperimentatu in u mondu oghje . Multiplicà quellu per ogni paese chì attualmente mira à armi autonome high-end.

Minà e lege di a guerra

Infine, l'armi autonomi minà u stopgap finale di l'umanità contr'à i crimini di guerra è l'atrocità: e lege internaziunali di guerra. Queste liggi, codificate in trattati chì ghjunghjenu finu à a Cunvenzione di Ginevra di u 1864, sò a linea blu fina internaziunale chì separa a guerra d'onore da a massacre. Sò basati nantu à l'idea chì a ghjente pò esse rispunsevuli di e so azzioni ancu durante a guerra, chì u dirittu di tumbà l'altri suldati durante u cumbattimentu ùn dà micca u dirittu di assassinà civili. Un esempiu prominente di qualcunu tenutu à contu hè Slobodan Milosevic , ex presidente di a Republica Federale di Jugoslavia, chì hè statu inculpatu per crimini contru l'umanità è crimini di guerra da u Tribunal Penale Internaziunale di l'ONU per l'ex Jugoslavia.

Ma cumu ponu esse rispunsevuli di l'armi autonomi ? Quale hè a culpa per un robot chì commette crimini di guerra? Quale seria messu in prucessu ? L'arma ? U suldatu ? I cumandanti di u suldatu ? A corporazione chì hà fattu l'arma ? L'urganisazioni non governamentali è l'esperti in u dirittu internaziunale preoccupanu chì l'armi autonomi portanu à una seria mancanza di responsabilità .

Per ritene un suldatu criminalmente rispunsevule per l'implementazione di un'arma autònuma chì commette crimini di guerra, i procurori avissiru bisognu di pruvucà l'actus reus è mens rea, termini latinu chì descrivenu un attu culpèvule è una mente culpevule. Questu saria difficiuli cum'è una materia di lege, è possibbilmente inghjustu cum'è una materia di moralità, datu chì l'armi autonomi sò intrinsecamente imprevisible. Credu chì a distanza chì separa u suldatu da e decisioni indipendenti pigliate da l'armi autonomi in ambienti in rapida evoluzione hè simplice troppu grande.

A sfida legale è morale ùn hè micca facilitata trasferendu a culpa nantu à a catena di cummandu o torna à u situ di produzzione. In un mondu senza regulazioni chì mandate un cuntrollu umanu significativu di l'armi autonomi, ci saranu crimini di guerra senza criminali di guerra da rende rispunsevuli. A struttura di e lege di a guerra, inseme cù u so valore di deterrente, serà significativamente debilitatu.

Una nova corsa à l'armamenti glubale

Immaginate un mondu in quale i militari, i gruppi insurgenti è i terroristi internaziunali è domestici ponu implementà una forza letale teoricamente illimitata à un risicu teoricamente zero à i tempi è i posti di a so scelta , senza alcuna responsabilità legale risultante. Hè un mondu induve u tipu d' errori algoritmichi inevitabbili chì pisanu ancu i giganti tecnulugichi cum'è Amazon è Google ponu avà purtà à l'eliminazione di cità intere.

In u mo scopu, u mondu ùn deve micca ripetiri i sbagli catastròfichi di a corsa di l'armi nucleari. Ùn deve micca dorme in distopia.

Tyler Durden sab, 01/01/2022 – 10:00


Questa hè una traduzzione automatica da l’inglese di un post publicatu nantu à ZeroHedge à l’URL https://www.zerohedge.com/technology/humanitys-final-arms-race-un-fails-agree-killer-robot-ban u Sat, 01 Jan 2022 07:00:00 PST.