Gruzijos technikos „Stereotyping“ robotas yra AI, o ne rasizmo ateitis

$config[ads_kvadrat] not found

Lietuva pirmoji leido Gruziją vadinti ir Sakartvelu

Lietuva pirmoji leido Gruziją vadinti ir Sakartvelu
Anonim

Ausims, kurias jautrina po mokyklos ir įvairovės seminarai, tai skamba blogai, bet norime, kad robotai sparčiai priimtų sprendimus pagal išvaizdą. Įžeidimų įveikimas yra geras, tačiau nesugebėjimas į stereotipą mažina intelektą - dirbtinį ir kitokį. Gruzijos technikos robotų mokslų daktaras Alanas Wagneris yra pagrindinė stereotipų kūrimo technologija. Jis teigia, kad tokia logika neturi būti taikoma rasės ar lyties, tik situacijų ir elgesio atžvilgiu.

Išanalizavęs savo stereotipo algoritmą, Wagner mokė naivų robotą, kad padarytų išvadas, ką jis matė. Robotas išmoko ir tapo suvokiamas, o tai leido Wagner kritiškai mąstyti apie roboto prielaidų, ypač iš anksto užprogramuotų, etiką. Jis kalbėjo Inversinis apie jo darbą ir jo pasekmes.

Pasivaikščiok mane, kaip eksperimentas veikė.

Robotas sąveikauja su skirtingų tipų asmenimis - gaisrininku, EMT arba bet kas - bet jis neturi jokios ankstesnės patirties su jokia šių kategorijų asmenimis. Iš esmės tai yra patirtinis mokymasis.

Idėja buvo parodyti, kad robotas galėtų naudoti individo suvokimo savybes, kad galėtų numatyti jų poreikius įrankių naudojimo atžvilgiu. Kaip algoritmas dirbo, roboto fotoaparatas suvoktų skirtingus aspektus, kurie atrodė individualiai - jų vienoda spalva, pavyzdžiui, ar jie turėjo barzdą, ir jų plaukų spalva.

Ji taip pat užduotų jiems klausimus, kaip jie atrodo. Žinoma, užduoti klausimus nėra tai, ką jūs norite padaryti šioje srityje, bet roboto suvokimas šiuo metu yra toks ribotas. Mums reikėjo būdų, kaip paleisti procesą apie mokymąsi apie asmenį. Asmuo pasirinktų įrankį, o tada robotas pasirinktų įrankį, o laikui bėgant robotas sužinotų, kokį įrankį kiekvienas pageidaujamas asmuo.

Ar tikėjotės, kad robotas sužinos, jog ženklelis reiškia policijos pareigūną arba sunkų atspindintį kailį - tai gaisrininkas?

Mes to tikėjomės. Tačiau taip pat buvo keletas nuostabių dalykų.Pvz., Robotas klaidingai pripažino, kad su ugniagesiu prognozuojama barzda - tai buvo keista, bet kai žiūrite į duomenis, tai nenuostabu. Pirmieji keli žmonės, sąveikaujantys su jais, buvo ugniagesiai, kurie turėjo barzdas. Taigi, mes teigiame, kad reikalinga suvokimo įvairovė, idėja, kad jei robotas galėtų matyti didelius, plačiai skirtingus asmenų tipus kategorijoje, tai geriau vystytų ir suprastų kategoriją.

Ar sakytumėte, kad savarankiški robotai turėtų būti išmokyti išlyginti šiuos kvapus, taigi robotas nemanys, ar šis asmuo turi barzdą, ar jis yra gaisrininkas?

Visiškai. Labai svarbu, kad mes juos išlyginame. Labai svarbu, kad šie robotai dirbtų iš įvairių asmenų.

Kaip atrodo šis mokymasis?

Tai leistų robotui sutelkti dėmesį į tuos, kurie geriau apibūdina gaisrininkus. Pavyzdžiui, gaisrininkas gali net nešioti švarką. Tuomet robotas pastebėtų kitus ugnies gesinimo aspektus, galbūt batus, galbūt pirštines, galbūt šalmus. Jis sakytų: „Gerai, šis asmuo yra gaisrininkas šioje aplinkoje. “

Jei turėtumėte pakankamai žmonių, tai galėtų atpažinti gaisrininką priešgaisrui prieš Helovino vakarėlį. Tai subtilios suvokimo detalės, pavyzdžiui, skirtumų tarp uniformų tipų arba kontekstinės aplinkos kokybės.

Kaip sėkmingai šis algoritmas buvo susijęs su barzdų susiejimu su ugniagesiais?

Buvo du dalykai, kuriuos mes tikrai norėjome pažvelgti: Vienas, ką jūs galite su juo daryti? Jei robotai gali atpažinti gaisrininkus, ar tai tikrai padeda? Straipsnis parodė, kad leido jums susiaurinti paiešką. Užuot žiūrėję į barzdas plaukų spalvai, ieško akių spalvos ar ką nors, ko galite ieškoti, galite sutelkti dėmesį į tuos dalykus, kurie tikrai svarbūs. Ar asmuo nešioja ugniagesių paltą? Tai galėtų pagreitinti procesą.

Kitas labai svarbus dalykas, kurį mes pažvelgėme, yra, kas, jei kategorija, kurią robotas prognozuoja, yra neteisinga? Kaip tai veikia? Galite įsivaizduoti, kad paieškos ir gelbėjimo aplinka gali būti chaotiška: galbūt dirbate su dūmais užpildytomis sąlygomis, robotas gali nesugebėti viską gerai suprasti, jis gali turėti klaidų. Galima įsivaizduoti blogesnį atvejį, kai robotas mano, kad asmuo yra auka, kai jie yra gaisrininkai. Taigi bandoma išgelbėti gaisrininką. Tai būtų baisu. Mes norėjome pamatyti, kur jis sulūžta, kaip jis sulaužo, kokias funkcijas jis daro labiausiai ir kokios yra skirtingos klaidų rūšys.

Šį požiūrį galite naudoti įvairiais būdais - jei jie negali matyti asmens, bet gali matyti veiksmus, kuriuos jie daro. Jei aš galiu matyti, kad žmogus pasirenka kirvį, galiu nuspėti, kad jie turi šalmą.

Kaip jūs vertinate robotą, kad įvertintumėte kontekstą ir nustatytumėte?

Stengėmės pažvelgti į keletą skirtingų tipų aplinką - restoraną, mokyklą ir slaugos namus. Mes stengėmės užfiksuoti aplinkybes apie aplinką ir kokie objektai yra aplinkoje, kokie veiksmai pasirenka žmogų ir ką žmonės atrodo aplinkoje, ir bandyti tai panaudoti daugeliui socialinių prognozių. Pavyzdžiui, mokyklos aplinkoje žmonės, prieš kalbėdami, pakelia rankas. Taigi, jei matau veiksmus, kuriuos žmonės iškelia savo rankomis, kokių objektų aš tikiuosi pamatyti aplinkoje? Ar tikiuosi, kad matysiu lentos lentą; ar tikiuosi matyti stalą? Tikiuosi pamatyti vaikus.

Tikimės, kad ši informacija bus naudojama. Jei robotas atlieka evakuacijos procedūrą, jis pamatys, kokie žmonės yra ir kur jie gali būti.

Tarkime, yra robotas, kuris ateina į tavo duris ir sako: „Prašome sekti mane prie išėjimo.“ Kažkas taip pat atrodytų labai paprasta. Jei robotas smūgiuoja į daugiabučio namo duris, jūs neturite idėjos, su kuo ketinate bendrauti. Tai galėtų būti ketverių metų vaikas, tai galėtų būti 95 metų žmogus. Mes norėtume, kad robotas savo interaktyvų elgesį pritaikytų prie asmens, kurį jis mato, kad galėtų juos išgelbėti. Mes imamės kai kurių šių kontekstinių pamokų ir bandome plėtoti šią programą.

Ar naudojate panašų „stereotipo“ apibrėžimą robotams ir žmonėms, ar vyksta kažkas?

Terminas „stereotipai“ turi neigiamą kontekstą. Tai, kaip mes naudojame, yra tik žmonių kategorijų kūrimas ir kategorinė informacija, kad būtų galima numatyti asmens charakteristikas. Žinau psichologijoje, daug darbo dėmesio skiriama veido stereotipams ir lyčių stereotipams. Mes nieko nedarome. Ar procesas yra tas pats? Nežinau. Nėra idėjos.

Ar nerimaujate, kad žmonės gali daryti klaidingą nuomonę apie jūsų darbą?

Prieš porą metų sukūrėme šią robotų idėją, kuri galėtų apgauti žmones. Žiniasklaidoje buvo šiek tiek klaidinga nuomonė, kad dėl to robotai pavogtų žmonių pinigines.

Norėčiau naudoti avarinės evakuacijos situaciją: jūs ne visada norite būti visiškai sąžiningas evakuacijos asmeniui, ar ne? Pavyzdžiui, jei kas nors tavęs paklausė: „Ar mano šeima yra gerai?“ Gali būti siaubinga, jei robotas pasakytų: „Ne, jie visi mirė. Prašome sekti mane prie išėjimo. “Yra keletas situacijų, kai robotas iš tikrųjų turi būti trumpai nesąžiningas. Bet mano patirtis buvo ta, kad žmonės pajuto, kaip bandėme pasiekti pasaulį.

Mes visada domisi pro-socialiniais šių žmogaus-roboto technikos aspektais. Mes stengiamės padėti žmonėms, o ne kažkas blogo.

$config[ads_kvadrat] not found