Archeage 6.6 - Archeage 6.5 jau netrukus! / Tai labiausiai pageidaujamą dalykų!
Trys mokslininkai Kornelio Tech mieste Niujorke atrado, kad neryškūs ir pixelated vaizdai neatitinka dirbtinio intelekto. Nors neaiškūs vaizdai žmogaus akims lieka nesuprantami, todėl atrodo, kad jie apsaugo jų jautrų turinį, nerviniai tinklai dažnai gali tiksliai pasakyti, kas iš pradinio vaizdo.
Kitaip tariant, žmonės nebėra lakmuso testas. Mes nebegalime paklausti, ar kažkas nugalėjo visus žmogaus smegenis. A.I.s - netgi paprastas A.I.s - gali pralenkti žmones, todėl jų nugalėjimas visada turi būti lygties dalis.
„Cornell Tech“ tyrėjų tyrimas buvo skirtas privatumo išsaugojimo algoritmų bandymams, kurie nulemia tam tikrą informaciją ar jų dalis. Anksčiau netikėtai pasitikėjome privatumo išsaugojimo programine įranga ar algoritmais, nurodydami, kad informacija, kurią jie uždengė, buvo saugi, nes ne žmogus galėtų pasakyti, kas buvo už skaitmeninio šydo. Tyrimas parodė, kad ši era baigėsi, ir susiję anonimizavimo metodai taip pat truks. Neuroniniai tinklai, su kuriais susitarta su šiomis privatumo priemonėmis, yra neištrinti.
Richardas McPhersonas yra Ph.D. Teksaso universiteto kompiuterių mokslų kandidatas Austin, kuris sekė savo profesoriumi Vitalijumi Šmatikovu į Kornelį Tech. Kartu kartu su Reza Shokri jie parodė, kad paprasti neuroniniai tinklai gali atskleisti bendrų vaizdų užgrobimo būdus. Šis metodas yra gana nesudėtingas, todėl šis atradimas kelia susirūpinimą. Tai yra bendri, prieinami metodai, ir jie sugebėjo nugalėti pramonės normas, susijusias su sukčiavimu.
Neuriniai tinklai yra didelės, sluoksniuotos mazgų struktūros arba dirbtiniai neuronai, kurie imituoja pagrindinę smegenų struktūrą. Jie „remiasi supaprastintu supratimu, kaip veikia neuronai“, - sako McPhersonas Inversinis. „Duokite jai šiek tiek informacijos, ir neuronas arba užsidega, ar neužsidega“.
Jie taip pat gali „mokytis“, apibendrinant terminą. Jei rodote laukinį (visiškai nekvalifikuotą) žmogų kažką „raudoną“ ir papasakosite, kad jie išsirinks visus „raudonus“ daiktus iš kibiro, jie iš pradžių kovos, bet laikui bėgant pagerės. Taip pat su neuronų tinklais. Mašininis mokymasis reiškia, kad kompiuteris mokomas išrinkti „raudonuosius“ dalykus, pvz., Iš virtualaus įvairiapusiškų daiktų.
Taip McPhersonas ir bendrovė mokė savo neuroninį tinklą. „Mūsų sistemoje mes sukuriame modelį - neuronų tinklų architektūrą, struktūrizuotą šių dirbtinių neuronų rinkinį - ir tada mes jiems suteikiame nemažai neaiškių vaizdų“, - sako jis. „Pavyzdžiui, mes galime suteikti jiems šimtą skirtingų„ Carol “nuotraukų, kurios buvo pixeluotos, tada šimtai skirtingų„ Bob “nuotraukų, kurios buvo piksuotos.“
Tuomet mokslininkai žymi šiuos vaizdo elementus, ir tokiu būdu pasakykite modelį, kuris yra kiekviename vaizde. Apdorojus šį duomenų rinkinį, tinklas funkcionaliai žino, kaip atrodo Pixelated Bob ir Pixelated Carol. „Tuomet mes galime suteikti kitokį vaizdą iš Bobo arba Karolio, be etiketės“, - aiškina McPhersonas, „ir jis gali atspėti ir sakyti:„ Manau, kad tai yra Bobas, turintis 95% tikslumo. ““
Šis modelis neatkuria sugadinto vaizdo, bet tai, kad jis gali nugalėti dažniausiai pasitaikančius ir anksčiau patikimus anonimizacijos metodus, yra nepatogus ir savaime. „Jie sugeba išsiaiškinti, kas yra sugadinta, bet jie nežino, kas iš pradžių atrodė“, - sako McPhersonas.
Tačiau neuroniniai tinklai vis dar gali padaryti daug geresnius nei žmonės. Kai vaizdai buvo labiausiai užgrobti naudojant vieną pramonės standartą, sistema vis dar buvo tiksli. Šiek tiek mažiau užmaskuotiems vaizdams sistema pasirodė esanti nepaprastai didelė, maždaug 70% tikslumu. „YouTube“ standartas dėl neryškių veidų nepavyko; net ir labiausiai neryškius vaizdus trikdė neuronų tinklas, kuris pasirodė 96 proc.
Kiti anksčiau neišrinkti duomenys, tekstas ir vaizdo anonimizavimo metodai taip pat yra nepatikimi. „Vasarą buvo atliktas darbas, kuriame buvo vertinamas anoniminis tekstas naudojant„ pixelation “ir„ bluring “, ir parodė, kad jie taip pat gali būti sugadinti“, - sako McPhersonas. Taip pat gali būti, kad kiti iš karto patikimi metodai išeis iš durų. Nors jis nežino, kokie yra balsų užgniaužimo būdai, pvz., Tie, kurie naudojami anoniminiams TV pokalbiams, jis „nebūtų nustebintas“, jei neuroniniai tinklai galėtų nutraukti anonimizaciją.
Taigi McPhersono atradimas įrodo, kad „privatumo išsaugojimo metodai, kurių mes buvome praeityje, iš tikrųjų neužgąsta, ypač su šiuolaikinėmis mašinų mokymosi technologijomis“. Kitaip tariant, mes koduojame save į nereikšmingumą, mokymo mašinas pranoksta mus visose sferose.
„Kadangi mašinų mokymosi galia auga, šis kompromisas pasikeis priešininkų naudai“, - rašė mokslininkai.
Japonijos kompanija diskutuoja apie Veido atpažinimo programinę įrangą turinčią privatumo apsaugą
Susirūpinę dėl nepageidaujamų nuotraukų, kurios gali būti susietos su jūsų tapatybe? Na, galbūt turėtumėte būti. Skaitmeninė veido atpažinimo programinė įranga pasiekė tašką, kad yra laisva programinė įranga internete, kuri gali priversti jus atgal į savo „Facebook“ profilio nuotrauką su staigiu tikslumu. Tiesą sakant, vis didėjantis susirūpinimą keliantis abu ...
FTB veido atpažinimo technologijos nepaiso jūsų privatumo ir teisių
Kas yra sargas? Vyriausybės atskaitomybės tarnyba, kaip rodo jo pavadinimas. Trečiadienį GAO neseniai paskelbta ataskaita apie vyriausybės naudojimąsi veido atpažinimo technologija buvo vieša. Iš esmės, mes turime sau situaciją. Bloga padėtis. Trumpai tariant: su savo veido atpažinimo programomis ...
Rusų veido atpažinimo programa „FindFace“ yra lygiai taip pat rimta, kaip skamba
Nauja Rusijos veido atpažinimo programa, pavadinta „FindFace“, per pastarąjį mėnesį surinko 500 000 vartotojų ir daugiau nei 3 milijonus paieškų ir jau yra sudariusi sutartį su vietos policija, kad padėtų nustatyti įtariamuosius ir liudytojus. Tai ne nauja šliaužianti idėja, bet unikalus programos efektyvumas reiškė visus nuspėjamus problemų ...