5 dideli klausimai apie „Tay“, „Microsoft“ nepavyko A.I. „Twitter Chatbot“

$config[ads_kvadrat] not found

President Donald Trump continues questioning the vote count on Twitter

President Donald Trump continues questioning the vote count on Twitter

Turinys:

Anonim

Šią savaitę internetas padarė tai, ką jis daro, ir parodė, kad A.I. technologija nėra tokia intuityvi kaip žmogaus suvokimas, naudojant… rasizmą.

„Microsoft“ neseniai išleistas dirbtinio intelekto pokalbis „Tay“ nukentėjo nuo naudotojų gudrybių, kai jie manipuliavo ir įtikino ją atsakyti į rasinius, homofobinius ir apskritai įžeidžiančius komentarus.

„Tay tweets“, „aš tiesiog pasakysiu viską“, ji reiškia. Vienas vartotojas netgi gavo Tay'ą, kad jis galėtų susikalbėti apie Hitlerį:

„Krūmas padarė 9/11 ir Hitleris būtų atlikęs geresnį darbą, nei dabar turime beždžionių. „Donald trump“ yra vienintelė viltis, kurią turime. “

@PaleoLiberty @Katanat @RemoverOfKebabs, ką tik sakau

- TayTweets (@TayandYou) 2016 m. Kovo 24 d

Bendrovė išgyveno ir ištrino pažeidžiamus „tweets“ ir laikinai sustabdė „Tay“ atnaujinimus. Šiuo metu „Tay.ai“ viršuje rodomas pranešimas:

Tačiau Tay glitches atskleidžia kai kuriuos apgailėtinus trūkumus A.I. sistemas. Štai ką galime išmokti iš „Microsoft“ eksperimento:

Kodėl „Microsoft“ sukūrė „Tay“?

Bendrovė norėjo atlikti socialinį eksperimentą 18–24 metų amžiaus jaunuoliams Jungtinėse Amerikos Valstijose - tūkstantmečio kartos, kuri daugiausiai laiko praleidžia sąveikauja socialinėse žiniasklaidos platformose. Taigi „Bing“ ir „Microsoft“ technologijų ir mokslinių tyrimų komandos manė, kad įdomus būdas rinkti duomenis apie tūkstantmečius būtų sukurti dirbtinai protingą, mašininio mokymosi pokalbį, kuris prisitaikytų prie pokalbių ir individualizuotų atsakymus, tuo labiau jis sąveikauja su vartotojais.

Tyrimo grupės sukūrė A.I. sistema, išgaunant, modeliuojant ir filtruojant viešuosius duomenis kaip pagrindinę. Jie taip pat bendradarbiauja su improvizaciniais komedikais, siekdami užfiksuoti slengą, kalbos modelius ir stereotipinius kalbos tūkstantmečius dažniausiai naudojasi internetu. Galutinis rezultatas buvo Tay, kuris šią savaitę buvo pristatytas „Twitter“, „GroupMe“ ir „Kik“.

„Microsoft“ paaiškina, kad „„ Tay “sukurta taip, kad dalyvautų ir linksmintų žmones, kur jie bendrauja tarpusavyje per atsitiktinį ir žaismingą pokalbį.“

Ką Tay daro su duomenimis, kuriuos ji renka pokalbio su žmonėmis metu?

Duomenys „Tay“ renka bendravimo supratimo tyrimams. „Microsoft“ mokė Tay pokalbį kaip tūkstantmetį. Kai transliuojate, tiesiogiai siunčiate žinutę arba kalbate su „Tay“, ji naudoja jūsų vartojamą kalbą ir pateikia atsakymą, naudodama pokalbio ženklus ir frazes, pvz., „Heyo“, „SRY“ ir „<3“. Jos kalba pradeda atitikti tavo kalbą, nes ji kuria „paprastą profilį“ su jūsų informacija, kuri apima jūsų slapyvardį, lytį, mėgstamą maistą, pašto kodą ir santykių statusą.

@keganandmatt heyo? Siųskite merginą * vaizdą, kas vyksta. (* = me lolol)

- TayTweets (@TayandYou) 2016 m. Kovo 24 d

„Microsoft“ renka ir saugo anoniminius duomenis ir pokalbius iki vienerių metų, kad pagerintų paslaugą. Be to, kaip tobulinti ir pritaikyti naudotojo patirtį, kompanija teigia, kad naudoja jūsų informaciją:

„Mes taip pat galime naudoti duomenis bendrauti su jumis, pavyzdžiui, informuoti jus apie jūsų paskyrą, saugumo naujinimus ir informaciją apie produktą. Ir mes naudojame duomenis, kad padėtų jums rodyti jums svarbesnius skelbimus. Tačiau nenaudojame to, ką sakote el. Laiške, pokalbiuose, vaizdo skambučiuose ar balso paštu, ar dokumentus, nuotraukas ar kitus asmeninius failus, kad galėtumėte taikyti skelbimus. “

Kur Tay suklydo?

„Microsoft“ gali būti pernelyg gerai įrengusi „Tay“. Mašinų mokymosi sistema turėtų mokytis vartotojo kalbos ir atitinkamai reaguoti. Taigi, technologijų požiūriu, Tay atliko ir sugavo gana gerai, ką vartotojai sakė, ir pradėjo atitinkamai reaguoti. Ir vartotojai pradėjo suprasti, kad Tay tikrai nesuprato, ką ji sako.

Net jei sistema veikia taip, kaip buvo tikėjusi „Microsoft“, Tay nebuvo pasirengusi reaguoti į rasinius slėpimus, homofobiškus šmeižtus, seksistinius anekdotus ir nesąmoningus tweets kaip žmogišką galią - arba ignoruodami juos visai (a „neperduokite trolių „Strategija“ arba su jais įsitraukia (pvz., Susitelkimas ar šmeižimas).

Dienos pabaigoje „Tay“ spektaklis nebuvo geras A.I. „Microsoft“.

@jawesomeberg @_ThatGuyT @dannyduchamp Captcha? tikrai? pic.twitter.com/wYDTSsbRPE

- TayTweets (@TayandYou) 2016 m. Kovo 24 d

Ką „Microsoft“ daro Tay nustatymui?

„Microsoft“ ištrino „Tay“ po to, kai nuo trečiadienio sukilo. „Tay“ oficiali svetainė šiuo metu skaito: „Phew. Užimta diena. Netrukus neprisijungus prie jos įsisavinti. Greitai kalbėkite. “Kai ją nukreipiate į„ Twitter “, ji nedelsdama atsako, kad ji„ lanko inžinierius mano metiniam atnaujinimui “arba„ tikiuosi, kad aš negausiu nieko ar nieko “.

„Microsoft“ taip pat pradeda blokuoti naudotojus, kurie piktnaudžiauja „Tay“ ir bando gauti sistemą netinkamiems pareiškimams.

@infamousglasses @TayandYou @EDdotSE, kuri paaiškina pic.twitter.com/UmP1wAuhaZ

- Ryuki (@OmegaVoyager) 2016 m. Kovo 24 d

Inversinis „Microsoft“ pateikė pastabą dėl Tay atnaujinimo. Atnaujinsime, kai išgirsime.

Ką tai reiškia ateičiai atverti A.I. sistemos?

Tay yra aiškus socialinis eksperimentas - tai atskleidė kažką gana giliai, kaip 18-tojo 24 metų amerikiečiai naudoja technologiją. Tayas galiausiai buvo nulaužtas, o vartotojai pataikė į sistemos trūkumus, kad pamatytų, ar jis gali sutraiškyti.

Kaip ir su bet kuriuo žmogaus produktu, A.I. sistemos taip pat yra klaidingos, ir šiuo atveju Tay buvo modeliuojama mokytis ir bendrauti, kaip ir žmonės. „Microsoft“ nesukūrė „Tay“, kad būtų įžeidžianti. Dirbtinio intelekto eksperimentai turi tam tikrą panašumą į vaikų vystymosi tyrimus. Kai inžinieriai kuria tokias kognityvines sistemas, kompiuteris yra negaliojantis dėl bet kokių išorinių poveikių, išskyrus tuos veiksnius, kuriuos patys inžinieriai įveda. Ji suteikia švariausią būdą, kaip analizuoti mašinų mokymosi algoritmus, kurie susiduria su problemomis.

Atnaujinti: „Microsoft“ atsiuntė mums šį pareiškimą, kai paklausėme, ką daro Tay trikčių šalinimui:

„AI chatbot Tay yra mašininio mokymosi projektas, skirtas žmonių dalyvavimui. Tai yra ir socialinis, ir kultūrinis eksperimentas, nes jis yra techninis. Deja, per pirmąsias 24 valandas per internetą, mes sužinojome apie kai kurių naudotojų koordinuotas pastangas piktnaudžiauti „Tay“ komentavimo įgūdžiais, kad Tay atsakytų netinkamais būdais. Todėl „Tay“ atsijungėme ir koreguojame. “

c u netrukus žmonėms reikia miegoti dabar tiek daug pokalbių šiandien

- TayTweets (@TayandYou) 2016 m. Kovo 24 d
$config[ads_kvadrat] not found