Ginklavimo mašinų mokymasis prieš ISIS sukabins karines grandines

$config[ads_kvadrat] not found

WORST MAPS ON GOOGLE MAPS

WORST MAPS ON GOOGLE MAPS
Anonim

Kiekvienas internete puikiai praleido laiką su „Microsoft“ „Twitter“ robotu „Tay“, kuris po kelių valandų tapo rasistiniu holokausto denieriu (tada grįžo ir dar kartą). Bendrovė sukūrė viešųjų ryšių sklendę - daugiau incidentų nei nelaimė - suteikdama visuomenei objekto pamoką apie mašininio mokymosi privalumus ir trūkumus: automatizavimas gali naudoti modelius patraukliu greičiu, tačiau rezultatai bus sunkiai prognozuojami.

Kaip dažnai būna, kariuomenė yra ankstyva automatizavimo technologijų diegėja. Vienu metu - tai mokestis į mašinų mokymąsi ir taip pat stengiasi neatsilikti. Vienas iš svarbiausių Pentagono dėmesio sričių yra autonominiai robotai ir kaip jie susitiks su žmonėmis - pavyzdžiui, R2D2 stiliaus robotų sparnas. Tačiau šią savaitę Gynybos sekretoriaus pavaduotojas Robertas Darbas supažindino su kita A.I užduotimi.

„Mes esame visiškai tikri, kad giliųjų mokymosi mašinų naudojimas leis mums geriau suprasti ISIL kaip tinklą ir geriau suprasti, kaip tiksliai ją nukreipti ir sukelti jo pralaimėjimą“, - sakė sekretorius. „DoD“ svetainė. Pagal šią sąskaitą, Darbas, kuris kalbėjo renginyje, kurį organizavo „Washington Post“, turėjo savo epiphany žiūrėdamas Silicio slėnio technologijų kompaniją, parodydamas „mašiną, kuri paėmė duomenis iš„ Twitter “,„ Instagram “ir daugelio kitų viešųjų šaltinių, kad parodytų„ 2014 m. liepos mėn.

Privačios įmonės ir teisėsauga ilgą laiką bandė suprasti „didelius duomenis“. Tačiau kariuomenė turi pranašumą: išteklius. Be to, jie turi prieigą prie įslaptintų medžiagų.

JAV vyriausybė, atrodo, pasirengusi lažintis, kad programinės įrangos algoritmai gali surūšiuoti didžiulį duomenų kiekį, kad nustatytų ISIS tikslus, kurie priešingu atveju juos būtų pašalinę, ir aptiktų bei sutrikdytų sklypus, kol planuotojai galės juos atlikti. Vyriausybė jau bando studijuoti socialinės žiniasklaidos priemones, kad būtų galima prognozuoti internetinių protestų dydį. Nėra abejonių, kad mašininis mokymas suteiks žvalgybos analitikams daugiau galios suvokti turimą informaciją pasaulyje. Bet kai šis intelektas tampa pagrindu, kuriuo imtasi mirtinų streikų, etiniai klausimai tampa sudėtingesni, net jei jie atrodo paprasti.

Nors darbas greitai parodė, kad Pentagonas „nežaduos mirtinos valdžios mašinai“, kuris lieka galutinis žaidimas. Tuo tarpu žmonės išliks „kilpoje“, kaip žargonas eina. Bet kadangi kiekvienas, kuris žiūri į „iPhone“ dėl oro pranešimo, stovėdamas šalia lango, žino, kad santykiai su mūsų prietaisais ir programine įranga nėra paprasti. Esame problemiški ir lengvai išsiblaškę UI klausimai.

„Automatikos šališkumas“ - tai tendencija, kad žmonės atideda į mašinas, kelia aiškų ir vis didesnį pavojų. Šį reiškinį iliustruojantis pavyzdys - tai, kai jūsų telefonas nurodo, kad turite kelionės maršrutą, apie kurį žinote, kad yra neteisinga, bet tai darote, darant prielaidą, kad telefonas turi žinoti ką nors. Tai yra bendra problema ne karinėse situacijose. Pentagonas, atrodo, dar labiau priartėja, tačiau yra grėsmės ataskaitos, sudarytos iš dirbtinio intelekto. Mes nieko nežinome apie galimą šios programos efektyvumą, išskyrus tai, kad žmonėms bus sunku įgyvendinti.

2001 m. Tyrime, kuriame buvo nagrinėjami studentų ir profesionalų pilotai bei automatikos šališkumas, mokslininkai nustatė, kad „scenarijuose, kuriuose buvo prieinama teisinga informacija, kad būtų galima patikrinti ir nustatyti automatikos anomalijas, klaidų lygis, artimas 55%, buvo dokumentuotas abiejose populiacijose“. kad pridedant papildomą žmogišką komandos draugą problema nebuvo sušvelninta.

Panašiai, praėjusių metų MIT tyrimas šiek tiek nerimą sukėlė, kad kompiuterių ir vaizdo žaidimų žaidėjai turėjo „didesnį polinkį viršyti automatizavimą“. Tai gali reikšti, kad kuo daugiau laiko praleidžiame į mūsų ekranus, tuo daugiau pasitikime tuo, ką matome. Vėlgi, problema nesusijusi su naudojamomis sistemomis, bet su jų naudojimo būdais. Gedimas nėra mūsų žvaigždėse, bet savyje.

Dideli duomenys lieka perspektyvūs. Mašinų mokymasis tebėra daug žadantis. Tačiau, kai mašinos pataria žmonėms, rezultatai yra nenuspėjami. Ar Tayo transformacija į neonacistinę misognistą reiškia, kad „Twitter“ nekenčia žydų ir moterų? Sunku žinoti, bet gana mažai tikėtina. Kai nesuprantame proceso, kaip sąnaudos tampa produkcija, mes stengiamės racionaliai spręsti rezultatus. Kuris iškelia Pentagoną į įdomią padėtį. Ar žmonės, planuojantys karinio kompiuterio mokymosi programinę įrangą, bus tie, kurie užsakys orlaivius? Tai ne kaip komandų grandinė, bet komandų grandinės susilieja, kai įsijungia technologija.

$config[ads_kvadrat] not found