„Human Rights Watch“: Kinija naudoja didelius duomenis tikslinėms mažumų grupėms

$config[ads_kvadrat] not found

AŠ KINIJOS MERAS?!

AŠ KINIJOS MERAS?!
Anonim

Kinijos vyriausybė, remdamasi pirmadienį paskelbta „Human Rights Watch“ ataskaita, naudoja nuspėjamuosius policijos algoritmus, kad nukreiptų etnines mažumas Xinjiang provincijoje.

Šiaurės Vakarų Kinijos provincijoje gyvena 11 mln. Uigūrų, turkų musulmonų etninės grupės, kuri pastaraisiais metais buvo diskriminuojama Kinijos vyriausybės.

Dabar, žinoma, valdžios institucijos naudoja didelius duomenis, kad sistemingai nukreiptų bet kurį asmenį, įtariamą politiniu nepasitikėjimu. Šis žingsnis yra „Strike Hard“ kampanijos dalis, kuria siekiama sustabdyti galimą teroristinę veiklą Kinijoje. Praktiškai tai sukėlė neproporcingai didelę uigūrų kontrolę, sako „Human Rights Watch“.

Prognozuojama policijos sistema, žinoma kaip IJOP - integruota bendrų operacijų platforma, yra gaunama iš įvairių priežiūros priemonių. Tai yra vaizdo stebėjimo kameros, numerio ženklas ir piliečių asmens tapatybės kortelės numeriai, gauti iš saugumo kontrolės punktų, ir asmeninės informacijos, įskaitant sveikatos, bankininkystės ir teisinius įrašus, gavimas.

Be automatizuotos priežiūros, valstybės pareigūnai vykdo apsilankymus namuose, kad rinktų duomenis apie gyventojus. Kinijos verslininkas pasidalino forma, kurią jis užpildė už „IJOP“ įrašus „Human Rights Watch“ - be kita ko, klausimynas paklausė, ar verslininkas buvo Uiguras, kaip dažnai jis meldžiasi ir kur jis eina religines paslaugas.

Visus šiuos duomenis įveda IJOP, kad žmonės galėtų tapti potencialiomis grėsmėmis. Kai kas nors yra pažymėtas, policija atidaro tolesnį tyrimą ir juos priima, jei laikoma įtariama.

„Pirmą kartą mes galime parodyti, kad Kinijos vyriausybės naudojimasis dideliais duomenimis ir nuspėjama policija ne tik akivaizdžiai pažeidžia privatumo teises, bet taip pat leidžia pareigūnams savavališkai sulaikyti žmones“, - sakė „Human Rights Watch“ vyresnysis Kinijos tyrėjas Maya Wang.

Remiantis pranešimu, kai kurie pažymėti žmonės buvo išsiųsti į politinio ugdymo centrus, kuriuose jie sulaikomi neribotą laiką be teismo.

„Nuo 2016 m. Balandžio mėn.„ Human Rights Watch “prognozuoja, kad Xinjiango valdžios institucijos„ politinio švietimo centruose “išsiuntė dešimtis tūkstančių uigūrų ir kitų etninių mažumų. IJOP yra patikimas šiems sulaikymams, taikant diskriminaciniams areštams objektyvios, algoritminės analizės fanerą.

Dar blogiau, IJOP vidiniai darbai yra apsaugoti paslaptyje.

„Xinjiango gyventojai negali atsispirti ar užginčyti vis labiau įsilaužiančią jų kasdienio gyvenimo kontrolę, nes dauguma nežino apie šią„ juodosios dėžės “programą ar kaip ji veikia“, - sakė Wang.

Tai ta pati problema, kuri užgrobia sudėtingiausias mašinų mokymosi sistemas: jų priimtos sprendimų priėmimo procedūros yra nepermatomos netgi algoritmo kūrėjams.

Ypač svarbu atkreipti dėmesį į tai, kad Kinija naudojasi IJOP, nes tikėtina, kad nuspėjant nuspėjamai policijai, technologija pagerės. Kaip pabrėžė Jonas Christianas Kontūras nuspėjamosios policijos sistemos jau naudojamos kai kuriose JAV vietose. Los Andželo policijos padalinys naudoja programinę įrangą, kuri numato, kur ir kada gali įvykti nusikaltimai, todėl pareigūnai gali juos nukreipti.

Kitoje baudžiamojo teisingumo sistemos pusėje teismo salės kartais naudoja algoritmus, kurie suteikia potencialų „rizikos vertinimo“ balą, kad teisėjai galėtų priimti labiau pagrįstus sprendimus. Deja, šie tariamai nešališki algoritmai iš tikrųjų diskriminuoja pagal rasę.

Kinijos įsibrovimas į nuspėjamą policijos veiklą pabrėžia, kad atsakingo algoritmo įgyvendinimas yra svarbus, nes mašina mokosi ir toliau į viešąjį sektorių. Galbūt atėjo laikas, kad pažangios vyriausybės priimtų naują mantrą: kartais dirbtinis intelektas sukuria daugiau problemų nei išsprendžia.

$config[ads_kvadrat] not found