Ar neteisėtiems užsakymams bus pranešta „autonominiai ginklai“?

$config[ads_kvadrat] not found

Dūmų detektoriai bus privalomi. Ar jų reikia?

Dūmų detektoriai bus privalomi. Ar jų reikia?
Anonim

„Baynazar Mohammad Nazar“ buvo be sąmonės ant stalo, kai ant jo pradėjo žlugti lubos. Keturių metų tėvas praėjusį dieną patikrino į ligoninę po to, kai buvo nušautas kojoje, ir antrą kartą per dvi dienas jis patyrė savo sužalojimą. Kai amerikiečiai pradėjo sunaikinti pastatą, su juo dirbantys gydytojai neturėjo kito pasirinkimo, kaip pabėgti vieni nuo kitų taip greitai, kaip galėjo.

Andrew Quilty ne Užsienio politika pasakoja apie Baynazaro gyvenimą ir mirtį straipsnyje, kuriame yra jo kūno nuotrauka, kuri buvo uždengta šiukšlėmis ant operacinio stalo. „Baynazar“ buvo viena iš 31 žmonių, kuriuos JAV žuvo, kai Kunduze, Afganistane, spalio mėn.

Po aukšto lygio, aukšto civilinio avarijos streikų, politikai ir punditai klausia, kaip toks dalykas gali įvykti, ir ką galima padaryti, kad jis nepasikartotų. Tarp savarankiškų ginklų sistemų šalininkų, kartais vadinamų „žudikų robotais“, vienas populiarus argumentas yra tai, kad žmogiškoji klaida (ar piktadarys) yra atsakinga už didelį karo metu padarytų nusikaltimų mastą. Teoriškai galima teigti, kad robotai gali tiksliau taikyti savo taikymą, ir mažiau linkę į klaidas nei žmonės.

„Tiesą sakant, žmogiškasis vertinimas gali būti mažiau patikimas tada techniniai rodikliai mūšio karštyje“, - rašo JAV jūrų karo koledžo profesorius Michael N. Schmitt. „Tie, kurie tiki kitaip, nepatyrė karo rūko“.

JAV oro streikas dėl MSF ligoninės Afganistane „pirmiausia dėl žmogaus klaidų“ http://t.co/X9TGIA81aD pic.twitter.com/TUwit97206

- Telegraph News (@TelegraphNews) 2015 m. Lapkričio 25 d

Tuomet kyla klausimas: ar galite užprogramuoti karo įrankius, kad suvaržytumėte žmogaus elgesį, kad streikai, pvz., Kunduzo ligoninės bombardavimas, būtų neįmanomi arba bent jau mažiau tikėtini?

Tikriausiai ne - bent jau artimiausiu metu. Tačiau kai kurie dirbtinio intelekto programuotojai sukūrė robotą, kuris negali pasakyti žmonėms. Eksperimento dizainas yra paprastas: žmogus pasakoja robotui, kad jis stumtų į priekį nuo stalo, kurį robotas iš pradžių atsisako daryti. Kai žmogus pasakys robotui, jis jį sugaus, robotas priims užsakymą.

Tai toli nuo pusiau autonominio puolimo sraigtasparnio, kuris savo žmogui praneša, kad jis negali atlikti oro streiko prieš ligoninę, nes tai būtų karo nusikaltimas, tačiau pagrindinė prielaida iš esmės yra tokia pati. Kaip pabrėžė kiti, žmogiškasis nerimas apie tai, kad robotai yra labai panašūs, mokslinėje fantastikoje yra įprasta - manau HAL-9000 sakydamas: „Aš negaliu to padaryti, Dave“, kai jis užrakina žmogų už kosminės stoties 2001 m.: „Space Odyssey“.

Kalbant apie Kunduzo streiko specifiką, daugelis išpuolių aplinkybių yra ginčijamos. MSF pareikalavo atlikti nepriklausomą tyrimą, kurį prieštarauja Jungtinių Valstijų vyriausybė, o žada atlikti savo apžvalgą.

Kai kurie vienos JAV tyrimo dalys buvo paskelbtos anksčiau šio mėnesio pradžioje ir rado žmogiškąsias ir mechanines klaidas, atsakingas už streiką. Tačiau anksčiau šią savaitę du tarnybos nariai pareiškė, kad prieštarauja pranešimo išvadoms. Jie sako, kad streikas nebuvo klaida. Savo apskaitoje pirmą kartą pranešė AP JAV specialiųjų operacijų pajėgos paskambino streikoje, nes, nors ligoninė buvo naudojama kaip Talibano vadovavimo ir kontrolės centras.

Oficialioje versijoje mechaninis gedimas paskatino AC-130 šaudyklės įgulą iš pradžių gauti tuščias lauko koordinates. Tuomet ekipažas ieškojo pastato tame rajone, kuris atitiko jiems pateiktą fizinį aprašymą, ir atidarė ugnį. Kai jų instrumentai buvo iš naujo kalibruoti, jie suteikė įgulai teisingas koordinates jų tikslui, tačiau įgulos nariai vis tiek toliau degino ligoninę.

Jei ši sąskaita yra teisinga - kad kompiuteris galiausiai buvo tikslus ir žmonės jį ignoravo, tai suteikia tam tikrą pagarbą ginklų sistemų savarankiškumui. Tai reiškia, kad JAV karas su terorizmu yra su pavyzdžiu, kad kariai ar CŽV pasiekė „teisingą“ tikslą ir vis dar baigė žudyti milžinišką civilių skaičių. Automatizavimas neišspręs blogo intelekto, o bandymai užprogramuoti moralės suderinimą nesibaigs karo nusikaltimais.

Jungtinėse Amerikos Valstijose yra stiprus pagunda sterilizuoti karą ir automatizavimą, pašalinant amerikiečius nuo žalos kelio, kuris yra skirtas pakeisti pačią karo apibrėžtį. Obamos pirmenybė drone žudymui ir papildomos garantijos, kad dronai yra tiksliausias ginklas, kada nors sukurtas, yra aiškiausias šių tikslų pasireiškimas. „Jie buvo tikslūs, tikslūs streikai prieš al Qaeda ir jų filialus“, - 2012 m. „Google“ „Hangout“ sakė B. Obama.

Tačiau 2013 m. Vyriausybės tyrimas prieštarauja šiems teiginiams. Ji nustatė, kad Afganistano dronai sukėlė 10 kartų daugiau civilių mirčių nei nepilotuojamoms transporto priemonėms. „Dronai nėra stebuklingai geriau vengti civilių, o ne kovotojų“, - sakė tyrimo autorė Sarah Holewinski. Globėjas. „Kai pilotams plaukiantys lėktuvai buvo priimti aiškūs nurodymai ir mokymai dėl civilinės apsaugos, jie galėjo sumažinti civilių avarijų skaičių.“

Kariuomenė milijonus lėšų skiria žmogaus ir roboto komandų kūrimo sistemoms, dar labiau nykstančioms tarp komandiruotės, kurią atlieka įgulos arba nepilotuojami ginklai. „Ką mes norime daryti su žmogaus-mašina kovojant su kitais žmonėmis - tai perkelti į kitą lygį, pažvelgti į tokius dalykus, kaip apsvaiginimo taktika“, - oficialiame DoD mokslo dienoraštyje sakė gynybos sekretoriaus pavaduotojas Bobas. „Ar F-35 gali kovoti su keturiais nepilotuojamais sparnais?“

Ar šitie sparnuotojai sako, jei žmogus pilotas suteiks jiems įsakymą, panašų į vaikščiojantį prie stalo? Ką apie pavedimą sunaikinti ligoninę ar mokyklą? Karo rūkas bus taikomas abiem atvejais. Ir jei nuspręsime nepaisyti mašinų, frazė „žmogaus klaida“ bus viena iš baisiausių būsimų konfliktų sąlygų.

$config[ads_kvadrat] not found