Pixelated Images neatitinka Cornell Tech veido atpažinimo A.I.

$config[ads_kvadrat] not found

Archeage 6.6 - Archeage 6.5 jau netrukus! / Tai labiausiai pageidaujamą dalykų!

Archeage 6.6 - Archeage 6.5 jau netrukus! / Tai labiausiai pageidaujamą dalykų!
Anonim

Trys mokslininkai Kornelio Tech mieste Niujorke atrado, kad neryškūs ir pixelated vaizdai neatitinka dirbtinio intelekto. Nors neaiškūs vaizdai žmogaus akims lieka nesuprantami, todėl atrodo, kad jie apsaugo jų jautrų turinį, nerviniai tinklai dažnai gali tiksliai pasakyti, kas iš pradinio vaizdo.

Kitaip tariant, žmonės nebėra lakmuso testas. Mes nebegalime paklausti, ar kažkas nugalėjo visus žmogaus smegenis. A.I.s - netgi paprastas A.I.s - gali pralenkti žmones, todėl jų nugalėjimas visada turi būti lygties dalis.

„Cornell Tech“ tyrėjų tyrimas buvo skirtas privatumo išsaugojimo algoritmų bandymams, kurie nulemia tam tikrą informaciją ar jų dalis. Anksčiau netikėtai pasitikėjome privatumo išsaugojimo programine įranga ar algoritmais, nurodydami, kad informacija, kurią jie uždengė, buvo saugi, nes ne žmogus galėtų pasakyti, kas buvo už skaitmeninio šydo. Tyrimas parodė, kad ši era baigėsi, ir susiję anonimizavimo metodai taip pat truks. Neuroniniai tinklai, su kuriais susitarta su šiomis privatumo priemonėmis, yra neištrinti.

Richardas McPhersonas yra Ph.D. Teksaso universiteto kompiuterių mokslų kandidatas Austin, kuris sekė savo profesoriumi Vitalijumi Šmatikovu į Kornelį Tech. Kartu kartu su Reza Shokri jie parodė, kad paprasti neuroniniai tinklai gali atskleisti bendrų vaizdų užgrobimo būdus. Šis metodas yra gana nesudėtingas, todėl šis atradimas kelia susirūpinimą. Tai yra bendri, prieinami metodai, ir jie sugebėjo nugalėti pramonės normas, susijusias su sukčiavimu.

Neuriniai tinklai yra didelės, sluoksniuotos mazgų struktūros arba dirbtiniai neuronai, kurie imituoja pagrindinę smegenų struktūrą. Jie „remiasi supaprastintu supratimu, kaip veikia neuronai“, - sako McPhersonas Inversinis. „Duokite jai šiek tiek informacijos, ir neuronas arba užsidega, ar neužsidega“.

Jie taip pat gali „mokytis“, apibendrinant terminą. Jei rodote laukinį (visiškai nekvalifikuotą) žmogų kažką „raudoną“ ir papasakosite, kad jie išsirinks visus „raudonus“ daiktus iš kibiro, jie iš pradžių kovos, bet laikui bėgant pagerės. Taip pat su neuronų tinklais. Mašininis mokymasis reiškia, kad kompiuteris mokomas išrinkti „raudonuosius“ dalykus, pvz., Iš virtualaus įvairiapusiškų daiktų.

Taip McPhersonas ir bendrovė mokė savo neuroninį tinklą. „Mūsų sistemoje mes sukuriame modelį - neuronų tinklų architektūrą, struktūrizuotą šių dirbtinių neuronų rinkinį - ir tada mes jiems suteikiame nemažai neaiškių vaizdų“, - sako jis. „Pavyzdžiui, mes galime suteikti jiems šimtą skirtingų„ Carol “nuotraukų, kurios buvo pixeluotos, tada šimtai skirtingų„ Bob “nuotraukų, kurios buvo piksuotos.“

Tuomet mokslininkai žymi šiuos vaizdo elementus, ir tokiu būdu pasakykite modelį, kuris yra kiekviename vaizde. Apdorojus šį duomenų rinkinį, tinklas funkcionaliai žino, kaip atrodo Pixelated Bob ir Pixelated Carol. „Tuomet mes galime suteikti kitokį vaizdą iš Bobo arba Karolio, be etiketės“, - aiškina McPhersonas, „ir jis gali atspėti ir sakyti:„ Manau, kad tai yra Bobas, turintis 95% tikslumo. ““

Šis modelis neatkuria sugadinto vaizdo, bet tai, kad jis gali nugalėti dažniausiai pasitaikančius ir anksčiau patikimus anonimizacijos metodus, yra nepatogus ir savaime. „Jie sugeba išsiaiškinti, kas yra sugadinta, bet jie nežino, kas iš pradžių atrodė“, - sako McPhersonas.

Tačiau neuroniniai tinklai vis dar gali padaryti daug geresnius nei žmonės. Kai vaizdai buvo labiausiai užgrobti naudojant vieną pramonės standartą, sistema vis dar buvo tiksli. Šiek tiek mažiau užmaskuotiems vaizdams sistema pasirodė esanti nepaprastai didelė, maždaug 70% tikslumu. „YouTube“ standartas dėl neryškių veidų nepavyko; net ir labiausiai neryškius vaizdus trikdė neuronų tinklas, kuris pasirodė 96 proc.

Kiti anksčiau neišrinkti duomenys, tekstas ir vaizdo anonimizavimo metodai taip pat yra nepatikimi. „Vasarą buvo atliktas darbas, kuriame buvo vertinamas anoniminis tekstas naudojant„ pixelation “ir„ bluring “, ir parodė, kad jie taip pat gali būti sugadinti“, - sako McPhersonas. Taip pat gali būti, kad kiti iš karto patikimi metodai išeis iš durų. Nors jis nežino, kokie yra balsų užgniaužimo būdai, pvz., Tie, kurie naudojami anoniminiams TV pokalbiams, jis „nebūtų nustebintas“, jei neuroniniai tinklai galėtų nutraukti anonimizaciją.

Taigi McPhersono atradimas įrodo, kad „privatumo išsaugojimo metodai, kurių mes buvome praeityje, iš tikrųjų neužgąsta, ypač su šiuolaikinėmis mašinų mokymosi technologijomis“. Kitaip tariant, mes koduojame save į nereikšmingumą, mokymo mašinas pranoksta mus visose sferose.

„Kadangi mašinų mokymosi galia auga, šis kompromisas pasikeis priešininkų naudai“, - rašė mokslininkai.

$config[ads_kvadrat] not found