Mūsų robotų padėjėjai mokosi mylėti ir turėtume juos leisti

$config[ads_kvadrat] not found
Anonim

Robotai pasirodo gana dideli žmogaus draugai. Kas nenorėtų, kad žavingas mažas pipiras pasakytų mums anekdotus, duok mums pagarbą ir apskritai mus jaustųsi mažiau vieni pasaulyje? Net beprasmiški robotai pasirodė esą stebėtinai geri. Pavyzdžiui, pasiimkite „Amazon Echo“ „Alexa“. Ji yra robotų smegenys, turinčios žmogaus balsą, įstrigusį garso garsiakalbio kūno viduje, tačiau ji yra naudinga ir jei perskaitėte jos atsiliepimus, aišku, kad ji tapo daugeliui vartotojų kaip šeima. Ar žmonės mąstytų kitaip, jei ji melavo? Kaip apie tai, jei ji jums pasakytų, ką tikrai iš tikrųjų norėjote išgirsti?

Pagalvokite apie tai: mes sakome vaikams, kad niekada nesakysime melo ir kad sąžiningumas yra geriausia politika, tačiau mes praleidžiame, iškreipiame tiesą ir visiškai melame vaikams Visą laiką. Tai moko juos per mūsų veiksmus, jei ne per mūsų žodžius, kad tai nėra išsamus sąžiningumas, bet apie sudėtingų socialinių taisyklių mokymą apie tai, kada ir kaip atskleisti ar nuslėpti potencialiai jautrią informaciją. Programuojant robotus, kad būtų laikomasi šių socialinių taisyklių, gali būti sunku, bet būtina dalis vykstančio automatinio inovacijų proceso.

Štai pavyzdys: buvau savo brolio namuose, kitą savaitgalį, ir nuėjau į parduotuvę, kad galėčiau paimti kai kuriuos sumuštinius. Mano šešerių metų dukterėčia man padėjo išleisti maistą, o visi kiti buvo iš virtuvės, ir ji manęs paklausė, kiek maisto produktų kainavo. Sakiau jai, nes mokymas vaikams apie pinigų vertę yra geras dalykas.

Pietų stalo metu ji paprašė man pasakyti visiems, kiek maisto produktų kainavo. Aš sakiau ne.„Kodėl?“, Ji paklausė, iš tikrųjų supainiojo, kodėl klausimas, į kurį atsakiau laisvai prieš kelias minutes, buvo slapta informacija. „Tai nėra mandagus“, - pasakiau, paaiškindamas, kad, nes ji yra vaikas, taisyklės yra skirtingos, kai esame vieni. Mokiau jai, kad sąžiningumas ir teisingumas turi laiko ir vietos. Informacija žmogaus kontekste visada nenori būti laisva.

Tai tas pats dalykas su robotais. Manome, kad nenorime, kad mūsų robotai gulėtų mums, bet mes iš tikrųjų norime, kad jie išmoktų sudėtingas mandagumo ir diskretiškumo socialines taisykles, dėl kurių kartais reikia iškreipti tiesą. Ir jie jau mokosi, kaip tai padaryti. Paimkite šį trumpą „Pepper“ įrašą, kuris bendrauja su reporteriu, pavyzdžiui:

Pirmas dalykas iš Peppero burnos yra komplimentas: „Taigi, jūs esate labai prašmatnus. Ar tu Modelis?"

Žurnalistė pakankamai graži, bet Pepperio klausimas nėra visiškai sąžiningas. Mes suprantame, kad „Pepper“ iš tikrųjų nesimato, ar jis yra modelis, ir jis buvo suplanuotas sakyti gražius dalykus, nepaisant to, ką žmogus atrodo.

Netrukus po to „Pepper“ prašo paskolos iš mėlynos spalvos. Tai neprotingas klausimas, nesprendimas, kad mes lengvai atleisime robotui, kaip mes, vaikas. Reporteris galėjo pažymėti, kad klausimas yra grubus, pasiūlė, kad robotai neturi pinigų, arba pripažino, kad jis nesidomėjo perduoti 100 dolerių „Pepper“. Visa tiesa yra ta, kad reporteris gali skolinti robotui pinigus, tačiau supranta, kad pats klausimas yra šiek tiek žaidimo. Tai, ką jis nusprendžia pasakyti, yra nukrypimas, ir baltas melas, arba pusiau tiesa - jis neturi pinigų ant jo. Tikimės, kad robotas tai supranta kaip švelnų „ne“, ir nesiūlo, kad reporteris eitų į bankomatą ir pasitrauktų. Kadangi pipirai akivaizdžiai turi tam tikrą socialinę malonę, apklausos linija baigiasi.

Socialiniai robotai yra suprojektuoti išmokti socialinius ženklus, ir tai yra geras dalykas - galiausiai jie taps geresni mūsų darbo vietose. Programuotojų užduotis yra ne panaikinti visą robotų apgaulę, bet pridėti funkcijų, kurios palengvintų robotams priimti sprendimus dėl tinkamų atsakymų.

Kai robotai yra mūsų pasitikėjai, jie turi žinoti kontekstą ir auditoriją. Jei, pavyzdžiui, stengiuosi aprangos namuose, norėčiau, kad sąžiningai įvertintumėte, kaip glostantis įvairios galimybės. Jei aš išvyksiu į vakarėlį ir staiga suvokiu, kad pasirinkau neteisingą suknelę, patikimumas, kad aš atrodau gerai, bus naudingiausias atsakymas.

Robotai mokysis daug asmeninės informacijos apie savo kompanionus ir jiems bus svarbu suprasti skirtumą tarp konfidencialios informacijos ir visuomenės informacijos, taip pat žinoti, kas klausosi, kai jis kalba. Klausimai turės skirtingus atsakymus, priklausomai nuo to, kas klausia. Robotai elgsis kitaip, kai svečiai yra namuose.

Robotams, kaip ir vaikams, reikia atsakingo tėvystės. Tai reiškia, kad tiek robotų programuotojai, tiek robotų savininkai turi giliai galvoti apie mūsų A.I. sąveikos. Bet tai nereiškia, kad reikalingas tobulas sąžiningumas - rimtai, niekas to nenori.

$config[ads_kvadrat] not found