Mūsų A.I. Politika įstrigo praeityje

$config[ads_kvadrat] not found

Delfi rytas. Kas laukia Amerikos po dramatiškos prezidento rinkimų kovos?

Delfi rytas. Kas laukia Amerikos po dramatiškos prezidento rinkimų kovos?
Anonim

JAV vyriausiojo technologijų pareigūno Baltųjų rūmų mokslo ir technologijų politikos biuro pavaduotojas Edas Feltenas sako, kad dirbtinio intelekto plėtojimui ir tobulinimui žmonės turi dvi pagrindines pareigas.

Pirmasis, sako jis, yra „A.I. antra: „spręsti A.I. riziką“.

„Felten“ kalbėjo su daugybe žmonių Niujorko universiteto scenos menų centre A.I. Dabar - vasaros paskaitų serija, kurią remia Baltasis namas ir kurios tikslas buvo išnagrinėti ir aptarti pagrindinius klausimus, susijusius su A.I. technologijos.

A.I. yra kryžkelėje, A.I. Dabar nurodė pirmininkai Kate Crawford („Microsoft Research“ mokslininkas) ir Meredith Whittaker („Google Open Research“ įkūrėjas ir vadovas). Privatūs ir viešieji sektoriai turi dirbti kartu, kad sukurtų tam tikrą įmanomą A.I. politika. Tačiau problema yra ta, kad, nors technologijų įmonės daro didžiulį žingsnį į priekį, siekdamos, kad A.I. galinga jėga, mūsų dabartinės politikos struktūros yra pasenusios arba, dar blogiau, nėra.

Per ilgai, A.I. kaip futuristinė koncepcija, netaikoma šiuolaikiniam amžiui. Bet A.I. tyliai pasireiškė miesto politikoje, persiplėšdamas daugybę duomenų ir teikdamas paslaugas žmonėms taip, kad žmogiškoji galia nesugeba pasiekti. „Felten“ paminėjo, kaip algoritmai gali naudoti duomenis, kad žmonės susietų su įperkamu būstu, arba užtikrinti skaidrumą, kad visuomenė galėtų naudotis vertinga informacija.

Tai nereiškia, kad A.I. tobula; tai labai daug ne. Pagrindinės vakaro grupės „Latanya Sweeney“, A.I. Harvardo universiteto mokslininkas aptarė istoriją, kurią ji pavadino „Mano kompiuterio diena buvo rasistinė“.

Žurnalistas, apklausęs Sweeney, ieškojo savo vardo per „Google“ ir sužinojo, kad jos vardas buvo rodomas pagal skelbimus, skirtus svetainėms, siūlančioms rinkti ir dalytis kriminaliniais areštais. „Sweeney“ niekada nebuvo suimtas, o jos vardas netgi nebuvo svetainės duomenų bazės dalis, tačiau jos vardas buvo išpurkštas reklamoje. Kaip ir kiekvienas geras mokslininkas, Sweeney paėmė savo asmeninę patirtį ir atliko tyrimą ir nustatė, kad šie skelbimai buvo žymiai labiau linkę išvardyti juodųjų asmenų vardus nei baltieji. Priežastis? „Google“ šių skelbimų pristatymas yra algoritmo rezultatas, suteikiantis daugiau svorio tai, ką žmonės spustelėjo, kai buvo rodomi skelbimai. Kai juodas pavadinimas buvo „Google“, daugiau žmonių spustelėjo šiuos skelbimus. Sistema sužinojo modelį ir pradėjo teikti šiuos skelbimus dažniau.

Tai vertinga pamoka grindžiant A.I. Pažadą: žmonės galiausiai galios technologija, o rasistiniai veiksmai žmonėms gali turėti įtakos dizainui ir algoritmams, o taip pat ir A.I.

„Google“ galėtų lengvai aptikti šiuos skelbimų paslaugų šansus ir dirbti, kad juos ištaisytų. „Jie nusprendė ne“, - teigė Sweeney.

Ar šiuolaikiškesnė politikos sistema gali priversti „Google“ ištaisyti šią problemą? Galbūt. Nicolas Wongas, kuris 2013–2014 m. Buvo „Felten“ pirmtakas, pabrėžė, kad daugelis žmonių, įskaitant A.I. patys mokslininkai - turėjo didelį susirūpinimą dėl „didėjančios galios asimetrijos“ tarp žmonių, kurie naudojasi dideliais duomenimis, ir žmonių, kurie galiausiai nukentėjo, kurie svyravo nuo duomenų subjektų arba tų, kuriems įtakos turėjo tokie duomenys, apie kuriuos pranešė šie duomenys..

Šie klausimai nėra tik privačiame sektoriuje. Baltųjų rūmų vidaus politikos tarybos pirmininko pavaduotojo Royo Austino mintis kalbėjo apie tai, kaip A.I. - arba sukurti didžiulį galios viršijimą ir piktnaudžiavimą civilių gyventojų privatumu. „Klausimas tampa„ Ką mes darome su šiais duomenimis? “, - sakė jis. Vienas dalykas yra turėti duomenis, bet kas turi prieigą prie jo? Kaip ilgai? Kas turės prieigą prie jo? Vėlgi, mes neturime politinių atsakymų ar sprendimų šiems klausimams ir neaiškumams - ir tai kelia nerimą, nes mes vengiame ateities, kurią vis labiau kontroliuoja A.I.

Trečiasis susirūpinimą keliantis ramstis buvo mažiau susijęs su nežmonišku A.I. naudojimu ir dar labiau su tuo, kaip A.I. ir savarankiškos sistemos išstumia žmones nuo darbo vietų. Henry Siu, A.I. Britų Kolumbijos universiteto tyrinėtojas aptarė „įprastines“ profesijas (kai darbuotojai atlieka labai specifines užduotis, kurios beveik niekada nesiskiria nuo nustatytos tvarkos) ir kaip šie darbo vietų praradimai yra labiausiai pažeidžiami technologijų sutrikimams. Automatizavimas sukėlė šitų darbo vietų mažinimą, ir jie negrįžta.

Panašiai pasakytina apie tą pačią istorinę istoriją, bet ne visai. Nors „ši revoliucija jau gali būti čia … ji gali būti mažiau egzotiška, nei mes įsivaizdavome,“ įspėjo Davidas Edelmanas, specialusis Ekonomikos ir technologijų politikos prezidento padėjėjas. Darbo praradimas „ne visiems įvyksta“. Ir jis, ir Siu pabrėžė, kad sprendimas yra sukurti švietimo aplinką, kurioje žmonės nustoja eiti į mokyklą, jie nuolat įgyja naujų įgūdžių ir specializacijų, leidžiančių jiems prisitaikyti su technologijos.

Gali būti, kad politikos formuotojai būtų malonūs suprasti, kad Jungtinės Valstijos nėra viena iš šių problemų sprendimo. Bet jei Amerika ketina toliau vadovauti A.I., ji turi sustiprinti politiką.

„Google DeepMind“ įkūrėjas Mustafa Suleyman aptarė A.I. padėti sveikatos priežiūros sistemoms ir leisti gydytojams mašinų algoritmuose diagnozuoti tam tikras ligas ir ligas - atlaisvinti laiką žmonėms gydymo metodais. Suleymanui, kuris yra britas, neatrodė, kad jis būtų nutolęs, kad būtų sukurta tokia sistema, kaip ir ligoninėse. Tačiau Sweeney pažymėjo, kad „JAV neturite savo duomenų kontrolės“ - nėra jokių reguliavimo priemonių, kuriomis būtų užtikrinama, kad informacija nebūtų piktnaudžiaujama. Ir tai a didelis problema.

„Noriu viską, ką galiu išspausti iš visų technologijų sėkmės“, - sakė Sweeney. „Problema nėra technologijų pusė; problema yra ta, kad mes nesiekiame viešosios tvarkos. “

$config[ads_kvadrat] not found