Ultimi Nutizie

Attualità mundiale per u populu corsu

Zero Difese

Cume Arme Autonomee Pò Esse Più Destabilizanti Di Nukes

Cume Arme Autonomee Puderanu esse Più Destabilizanti Di Nukes

Autore di James Dawes via TheConversation.com,

Sistemi d'arme autonomi – comunemente cunnisciuti cum'è robot assassini – anu pussutu avè tombu l'omi umani per a prima volta in l'annu passatu, secondu un recente rapportu di u Cunsigliu di Sicurezza di e Nazioni Unite nantu à a guerra civile libica . A storia puderia bè identificà questu cum'è u puntu di partenza di a prossima corsa armamentaria maiò, quella chì hà u putenziale di esse l'ultima di l'umanità.

I sistemi d'arme autonomi sò robot cù armi letali chì ponu operà indipindentamente, selezziunendu è attaccendu obiettivi senza chì un umanu pesa in quelle decisioni. I militari di u mondu investenu assai in ricerca è sviluppu di armi autonome. Solu i Stati Uniti anu budgetatu 18 miliardi di dollari americani per armi autonome trà 2016 è 2020.

Intantu, l' urganizazioni per i diritti umani è umanitarii correnu per stabilisce regulamenti è pruibizioni per stu sviluppu di armi. Senza tali verifiche, l'esperti di a pulitica estera avertiscenu chì e tecnulugie di armi autonome disruptive destabilizzeranu periculosamente e strategie nucleari attuali, sia perchè puderianu cambià radicalmente a percezione di a dominanza strategica,aumentendu u risicu di attacchi preventivi , sia perchè puderebbenu esse combinati cù chimichi, biologichi, radiologichi. è armi nucleari stessi.

Cum'è specialista in diritti umani cun focus nantu à l' armamentu di l'intelligenza artificiale , trovu chì l'arme autonome facenu l'equilibri instabili è e salvaguardie frammentate di u mondu nucleare – per esempiu, l' autorità minimamente limitata di u presidente americanu per lancià una greva – più instabile è più frammentatu.

Errori letali è scatule nere

Vecu quattru periculi primarii cù armi autonome.

U primu hè u prublema di l'identificazione errata. Quandu selezziunate un scopu, l'arme autonome saranu capaci di distingue trà suldati ostili è zitelli di 12 anni chì ghjucanu cù pistole di ghjocu? Trà civili chì fughjenu da un situ di cunflittu è insurgenti chì facenu un ritiru tatticu?

I robot assassini, cum'è i droni in u cortometraghju 2017 'Slaughterbots', sò stati longu un sottogeneru maiò di finta scienza. (Attenzione: raffigurazioni grafiche di viulenza.)

U prublema quì ùn hè micca chì e macchine faranu tali errori è l'umani ùn ne faranu. Hè chì a differenza trà l'errore umanu è l'errore algoritmicu hè cum'è a differenza trà invià una lettera è tweeting. A scala, a portata è a velocità di i sistemi di robot assassini – guvernati da un algoritmu di destinazione, dispiegatu in un continente interu – puderebbenu fà identificazioni sbagliate da umani individuali cum'è un recente attaccu di droni americani in Afghanistan sembranu semplici errori di arrotondamentu per paragone.

L'espertu autonomu in armi Paul Scharre utilizza a metafora di u fucile fugliale per spiegà a differenza. Un fucile fughjitu hè una mitragliatrice difettosa chì cuntinueghja à tirà dopu à a liberazione di un grillettu. A pistola continua à tirà finu à chì e munizioni sò esaurite perchè, per cusì dì, a pistola ùn sà micca chì face un errore. I fucili fugliali sò estremamente periculosi, ma per furtuna anu operatori umani chì ponu rompe u ligame di munizioni o pruvà à puntà l'arma in una direzzione sicura. L'arme autonome, per definizione, ùn anu micca una tale salvaguardia.

Impurtante, l'AI armata ùn deve mancu esse difettosa per pruduce l'effettu di fucile fugliale. Cum'è studii multipli nantu à l'errori algoritmichi in tutte e industrie anu mostratu, i migliori algoritmi – chì operanu cum'è prughjettati – ponu generà risultati internamente curretti chì quantunque sparghjenu errori terribili rapidamente trà e populazioni.

Per esempiu, una rete neurale cuncepita per l'usu in l'ospedali di Pittsburgh hà identificatu l' asma cum'è un riduttore di risicu in i casi di pneumonia; u software di ricunniscenza di l'imaghjini utilizatu da Google hà identificatu l'Africani Americani cum'è gorilla ; è un strumentu di apprendimentu automaticu adupratu da Amazon per classificà i candidati à u travagliu attribuiti sistematicamente punteggi negativi à e donne .

U prublema ùn hè micca solu chì quandu i sistemi AI sbaglianu, sbaglianu in massa. Hè chì quandu erranu, i so creatori spessu ùn sanu micca perchè anu fattu è, dunque, cumu correggerli. U prublema di a scatula nera di l'AI rende guasi impossibile immaginà un sviluppu moralmente responsabile di sistemi d'armi autonomi.

I prublemi di proliferazione

I dui prossimi periculi sò i prublemi di proliferazione di fascia bassa è di fascia alta. Cuminciamu cù a fine bassa. I militari chì sviluppanu armi autonome procedenu avà supponendu ch'elli saranu capaci di cuntene è di cuntrullà l'usu di l'arme autonome . Ma se a storia di a tecnulugia di l'armi hà amparatu qualcosa à u mondu, hè questu: Armi diffuse.

E pressioni di u mercatu puderanu resultà in a creazione è a vendita generalizata di ciò chì pò esse pensatu cum'è l'equivalente di l'arma autonoma di u fucile d'assaltu Kalashnikov : robot assassini chì sò economici, efficaci è guasi impussibili da cuntene mentre circulanu in u globu. L'arme autonome "Kalashnikov" puderanu entre in manu à e persone fora di u cuntrollu di u guvernu, cumprese i terroristi internaziunali è naziunali.

U Kargu-2, fattu da un imprenditore di difesa turcu, hè un incrociu trà un drone quadcopter è una bomba. Hà l'intelligenza artificiale per truvà è traccia obiettivi, è puderia esse stata aduprata autonomamente in a guerra civile libica per attaccà a ghjente. Ministeru di a Difesa di l'Ucraina , CC BY

Tuttavia, a proliferazione di fascia alta hè altrettantu male. E nazioni puderanu competere per sviluppà versioni sempre più devastanti di armi autonome, cumprese quelle capaci di montà armi chimiche, biologiche, radiologiche è nucleari . I periculi murali di a letalità letale di l'arma serà amplificatu da l'usu di l'arma in escalazione.

L'arme autonome di fascia alta sò prubabile di cunduce à guerre più frequenti perchè diminuiranu duie di e forze primarie chì storicamente anu impeditu è ​​accurtatu guerre: preoccupazione per i civili à l'esternu è preoccupazione per i so soldati. L'armi sò prubabilmente equipati di costosi guvernatori etichi destinati à minimizà i danni collaterali, aduprendu ciò chì a Rapportatrice Speciale di l'ONU Agnes Callamard hà chjamatu u "mitu di una greva chirurgica" per calà e proteste morali. L'armi autonome riduceranu ancu a necessità è u risicu per i so suldati, alterendu drammaticamente l' analisi costi-benefici chì e nazioni sò sottumessi mentre lancianu è mantenenu guerri.

E guerre asimmetriche – vale à dì, guerre purtate nantu à u terrenu di e nazioni chì mancanu di tecnulugia in cuncurrenza – sò prubabile di diventà più cumuni. Pensate à l'instabilità glubale causata da intervenzioni militari sovietici è americani durante a Guerra Freda, da a prima guerra proxy à u ritornu sperimentatu in u mondu oghje. Multiplica quellu per ogni paese chì attualmente mira à armi autonome di fascia alta.

Minà e leggi di a guerra

Infine, l'arme autonome mineranu l'ultima tappa di l'umanità contr'à crimini di guerra è atrocità: e leggi internaziunali di guerra. Queste leggi, codificate in trattati chì ghjunghjenu finu à a Cunvenzione di Ginevra 1864, sò a linea blu sottile internaziunale chì separa a guerra cù l'onore da u massacru. Sò basati annantu à l'idea chì e persone ponu esse ritenute responsabili per e so azzioni ancu durante a guerra, chì u dirittu di tumbà altri suldati durante u cummattimentu ùn dà micca u dirittu di assassinà civili. Un esempiu prominente di qualchissia ritenutu responsabileSlobodan Milosevic , anzianu presidente di a Republica Federale di Iugoslavia, chì hè statu accusatu di accusazioni contr'à l'umanità è crimini di guerra da u Tribunale Penale Internaziunale di l'ONU per l'ex Jugoslavia.

Ma cumu ponu esse armate autonome responsabili? Quale hè a colpa per un robot chì commette crimini di guerra? Quale seria messu in prucessu? L'arma? U suldatu? I cumandanti di u suldatu? A corporazione chì hà fattu l'arma? L'organizazioni non governamentali è l'esperti in u dirittu internaziunale si preoccupanu chì l'armi autonumichi portanu à una lacuna di responsabilità seria .

Per tene un suldatu incaricatu di u dispiegamentu di un'arma autonoma chì commette crimini di guerra, i prucuratori avianu bisognu di dimostrà sia l'actus reus sia u mens rea, termini latini chì descrivenu un attu di culpabilità è una mente culpabile. Questu seria difficiule per una materia di dirittu, è forse ingiustu per una materia di moralità, postu chì l'arme autonome sò intrinsecamente imprevedibili. Credu chì a distanza chì separa u suldatu da e decisioni indipendenti pigliate da armi autonome in ambienti in rapida evoluzione hè semplicemente troppu grande.

A sfida ghjuridica è murale ùn hè micca resa più faciule trasfurmendu a colpa in a catena di cumandu o torna à u situ di produzzione. In un mondu senza regulamenti chì mandanu un cuntrollu umanu significativu di l'armi autonome, ci saranu crimini di guerra senza criminali di guerra da rende responsabili. A struttura di e leggi di a guerra, cù u so valore dissuasivu, serà significativamente indebulita.

Una nova corsa à l'armamenti mundiale

Immaginate un mondu in u quale i militari, i gruppi insurgenti è i terroristi naziunali è internaziunali possanu schjattà forza letale teoricamente illimitata à risicu teoricamente nulu in tempi è posti di a so scelta, senza alcuna responsabilità legale resultante. Hè un mondu induve a sorte d' errori algoritmichi inevitabili chì affestanu ancu giganti tecnulugichi cum'è Amazon è Google ponu oramai purtà à l'eliminazione di cità intere.

In u mo scopu, u mondu ùn deve micca ripetiri l'errori catastrofici di a corsa à l'armamenti nucleari. Ùn deve micca sonnambulà in distopia.

* * *

Uttenite e migliori storie di scienza, salute è tecnulugia. Iscriviti à a newsletter di scienza di The Conversation .

Tyler Durden Ven, 10/01/2021 – 23:00


Questa hè una traduzzione automatica da l’inglese di un post publicatu nantu à ZeroHedge à l’URL http://feedproxy.google.com/~r/zerohedge/feed/~3/ZPO_dVZMMM0/how-autonomous-weapons-could-be-more-destabilizing-nukes u Fri, 01 Oct 2021 20:00:00 PDT.