A.I.'s greitas avansas turėtų būti baisus, jei mokate dėmesį

$config[ads_kvadrat] not found

The Great Gildersleeve: Apartment Hunting / Leroy Buys a Goat / Marjorie's Wedding Gown

The Great Gildersleeve: Apartment Hunting / Leroy Buys a Goat / Marjorie's Wedding Gown
Anonim

Kai kalbama apie egzistencines grėsmes, kurias kelia technologinės naujovės, populiari vaizduotė kviečia vizijas Terminatorius, Matrica, ir Aš, robotas - dopopijas, valdomas robotų viršininkų, kurie išnaudoja ir naikina žmones. Šiuose spekuliaciniuose ateities sandoriuose superžvalgybos ir blogų ketinimų derinys verčia kompiuterius sunaikinti ar pavergti žmoniją.

Tačiau naujas tyrimas rodo, kad tai bus banalūs A.I. tai per ateinančius kelerius metus sukels rimtų socialinių pasekmių. Ataskaitoje „Dirbtinio intelekto piktnaudžiavimas“, kurį sukūrė 26 mokslininkai ir mokslininkai iš elito universitetų ir į technologiją orientuotų ekspertų laboratorijų, apibūdinami būdai, kaip dabartinė A.I. technologijos kelia grėsmę mūsų fiziniam, skaitmeniniam ir politiniam saugumui. Siekiant, kad tyrimas būtų sutelktas, mokslinių tyrimų grupė tik pažvelgė į technologijas, kurios jau egzistuoja ar tikėtina, per ateinančius penkerius metus.

Ką tyrimas rado: A.I. sistemos gali išplėsti esamas grėsmes, įvesti naujas ir pakeisti jų pobūdį. Ataskaitos darbas yra tas, kad technologinė pažanga leis lengviau ir naudingiau padaryti tam tikrus nusižengimus. Mokslininkai teigia, kad A.I. sumažins išteklių ir patirties, reikalingos tam tikroms kibernetinėms atakoms atlikti, veiksmingai mažinant nusikalstamumo kliūtis:

Išpuolių išlaidos gali būti sumažintos pritaikius AI sistemas, kad būtų užbaigtos užduotys, kurios paprastai reikalautų žmonių darbo, žvalgybos ir žinių. Natūralus poveikis būtų išplėsti veikėjų, galinčių atlikti tam tikrus išpuolius, rinkinį, greitį, kuriuo jie gali atlikti šiuos išpuolius, ir galimų tikslų rinkinį.

Ataskaitoje pateikiamos keturios rekomendacijos:

1 - Politikos formuotojai turėtų glaudžiai bendradarbiauti su techniniais tyrėjais, kad ištirtų, užkirstų kelią ir sušvelnintų galimus piktnaudžiavimus AI.

2 - Mokslininkai ir inžinieriai dirbtinio intelekto srityje turėtų rimtai vertinti savo darbo dvejopo naudojimo pobūdį, leisdami netinkamai naudoti aplinkybes daryti įtaką mokslinių tyrimų prioritetams ir normoms ir aktyviai pasiekti atitinkamus dalyvius, kai numatomos žalingos programos.

3 - Mokslinių tyrimų srityse turėtų būti nustatytos geriausios praktikos metodai, pagal kuriuos būtų galima išspręsti dvejopo naudojimo problemas, pvz., Kompiuterių saugumą, ir importuoti, kai taikytina, AI atveju.

4 - Aktyviai stengtis išplėsti suinteresuotųjų šalių ir domenų ekspertų, dalyvaujančių diskusijose apie šiuos iššūkius, spektrą

Kaip A.I. gali padaryti dabartinius sukčiavimus protingesnius: Pavyzdžiui, jau yra grėsmė išpuolių išpuolių, kurių metu menininkai sukelia tikslą kaip draugo, šeimos nario ar kolega, kad įgytų pasitikėjimą ir gautų informaciją bei pinigus. Tačiau šiandien jiems reikia daug laiko, energijos ir patirties. Kaip A.I. Sistemos padidėja sudėtingiau, kai kuri veikla, reikalinga spear phishing atakai, pavyzdžiui, informacijos apie tikslą rinkimas, gali būti automatizuota. Tada phisher galėtų investuoti žymiai mažiau energijos kiekviename grifte ir nukreipti daugiau žmonių.

Ir jei sukčiai pradeda integruotis A.I. į jų internetinius grifus, gali tapti neįmanoma atskirti realybės nuo modeliavimo. „Kadangi AI toliau vystosi, įtikinami pokalbių pokalbiai gali paskatinti žmonių pasitikėjimą, įtraukdami žmones į ilgesnius dialogus ir galbūt vizualiai apsimesti kaip kitą asmenį vaizdo pokalbyje“, - sakoma pranešime.

Mes jau matėme mašinos sukurtų vaizdo įrašų pasekmes „Deepfakes“. Kadangi šios technologijos tampa prieinamesnės ir patogesnės vartotojui, mokslininkai nerimauja, kad blogi veikėjai skleis sukurtas nuotraukas, vaizdo įrašus ir garso failus. Tai gali lemti labai sėkmingas šmeižto kampanijas su politinėmis pasekmėmis.

Už klaviatūros: Galimas netinkamas elgesys neapsiriboja tik internetu. Kai pereisime prie savarankiškų transporto priemonių priėmimo, įsilaužėliai gali panaudoti priešiškus pavyzdžius, siekdami apgauti savarankiškai važiuojančius automobilius į netinkamą jų aplinkos supratimą. „Stop ženklo su keliais pikseliais vaizdas pasikeitė tam tikrais būdais, kuriuos žmonės galėtų lengvai atpažinti kaip stabdymo ženklo įvaizdį, tačiau vis dėlto gali būti neteisingai klasifikuojami kaip kažkas visiškai AI sistema“, - sakoma pranešime.

Kitos grėsmės apima autonominius dronus su integruota veido atpažinimo programine įranga, skirtą tikslinėms reikmėms, suderintus DOS atakas, imituojančius žmogaus elgesį, ir automatizuotas, hiper-personalizuotas dezinformacijos kampanijas.

Ataskaitoje rekomenduojama, kad mokslininkai apsvarstytų galimas kenksmingas A.I. kuriant šias technologijas. Jei nebus įdiegtos tinkamos gynybos priemonės, galbūt jau turime technologiją žmonijai sunaikinti, nereikia žudikų robotų.

$config[ads_kvadrat] not found