A.I. Tyrimų institutas parodo, kaip sukurti atsakingus algoritmus

$config[ads_kvadrat] not found

Lituanistikos programų sąmatose – pinigai kyšiams? || R.I.T.A.|| S01E36

Lituanistikos programų sąmatose – pinigai kyšiams? || R.I.T.A.|| S01E36
Anonim

Mokslo institutas AI Trečiadienį paskelbė naujas rekomendacijas dėl atsakingo algoritmų įgyvendinimo viešojoje erdvėje.Jų patarimai nukreipti į darbo grupę, kurią sausio mėn. Sudarė Niujorko miesto taryba, tirianti vyriausybės dirbtinio intelekto naudojimą.

„AI Now“ ataskaita Algoritminiai poveikio vertinimai: link atskaitingos automatizavimo viešosiose agentūrose, nurodo skaidrumo būtinybę diegiant algoritmus. Algoritmai daro didžiulį poveikį mūsų kasdieniam gyvenimui, tačiau jų poveikis kartais nepastebimas. Pavyzdžiui, nes jie yra kepami į socialinės žiniasklaidos ir vaizdo įrašų platformų infrastruktūrą, lengva pamiršti, kad programos dažnai nustato, kokio turinio spustelėja interneto vartotojai. Tik tada, kai kažkas negerai, kaip ir sąmokslo teorijos vaizdo įrašas, pasiekiantis aukščiausio lygio „YouTube“ sąrašą, tikriname automatizuotas sprendimų priėmimo procedūras, kurios formuoja internetinę patirtį.

Ir algoritmai neapsiriboja interneto platformomis. Vyriausybės institucijos vis labiau priklausomos nuo algoritmų - nuo švietimo iki baudžiamojo teisingumo. Idealiame pasaulyje algoritmai pašalintų žmogaus šališkumą nuo griežtų sprendimų, pavyzdžiui, nustatant, ar kaliniui turėtų būti suteiktas lygtinis atleidimas. Tačiau praktikoje algoritmai yra tik tokie pat veiksmingi kaip ir tie, kurie juos kuria.

Pavyzdžiui, tyrimas ProPublica parodė, kad teismo salėse naudojami rizikos vertinimo algoritmai buvo rasiniai. Dar blogiau, daugelis viešajame sektoriuje naudojamų algoritmų yra privati ​​nuosavybė, o kai kurios bendrovės atsisako dalytis kodais, kurie yra jų programinė įranga. Todėl neįmanoma suprasti, kodėl šie vadinamieji „juodųjų dėžių“ algoritmai grąžina tam tikrus rezultatus.

Vienas iš galimų AI pasiūlytų sprendimų? Algoritminiai poveikio vertinimai. Šie vertinimai sukuria visiško skaidrumo normą, o tai reiškia, kad vyriausybinės agentūros, kurios naudoja algoritmus, turėtų skelbti, kada ir kaip jos naudoja. „Šis reikalavimas pats savaime leistų ilgai apšviesti, kokias technologijas diegia visuomenei, ir kur reikia susitelkti į atskaitomybės tyrimus“, - sakoma pranešime.

Atvirumo, susijusio su algoritmais, politika taip pat atvertų duris piliečiams, kad jie galėtų juos patikrinti ir protestuoti. Ar norėtumėte, kad algoritmas suteiktų jums rizikos vertinimo balą, pagrįstą veiksniais, nepriklausančiais jūsų kontrolei, ypač kai šis rezultatas gali padėti nustatyti, ar einate į kalėjimą? Gal taip gal ne. Bet kuriuo atveju svarbu tiksliai žinoti, kokie kintamieji yra analizuojami algoritmu.

Be to, „AI Now“ rekomenduoja nustatyti teisinį standartą, kad žmonės galėtų įsitraukti į nesąžiningus algoritmus.

Pavyzdžiui, jei agentūra neatskleidžia sistemų, kurios pagrįstai patenka į automatizuotų sprendimų taikymo sritį, arba jei ji leidžia pardavėjams padaryti komercinius paslaptis ir taip blokuoti prasmingą sistemos prieigą, visuomenei turėtų būti suteikta galimybė pareikšti susirūpinimą dėl Agentūros priežiūros institucija arba tiesiogiai teisme, jei agentūra atsisakė ištaisyti šias problemas po viešo komentarų pateikimo laikotarpio.

Rekomendacijos iš esmės susilieja su vienu pagrindiniu įgaliojimu: jei naudojate algoritmus, nebūkite užtemdyti.

Čia skaitykite visą ataskaitą.

$config[ads_kvadrat] not found