Katus sõitis minema: Microsofti tehisintellekt pööras ööpäevaga kurjuse kehastuseks

 (89)
Katus sõitis minema: Microsofti tehisintellekt pööras ööpäevaga kurjuse kehastuseks
Twitter

Loetud tundidest Twitteris piisas, et teismelise tüdruku moodi käituma modelleeritud jutukarobotist saaks rassistist vandenõuteoreetik.

Suhtlusrobot Tay tööpõhimõte oli see, et ta õpib inimestelt nendega suheldes. Microsoft lootis, et Tay õpib inimestelt uusi teadmisi ja omandab seisukohti läbi tavalise, mängulise vestluse. Robotile tehti nädala alguses oma Twitteri konto ja ta hakkas teiste kasutajatega säutse vahetama.

Kahjuks läks kõik üsna alguses võssa. Alguses oli suhtlemine Tay ja kasutajate vahel ladus ja tore, aga õige pea hakati teda lausa pommitama säutsudega, mis kubisesid rassismist, üldisest inimvihkamisest ja muust ebameeldivast. Ja kasutades The Verge´i head kujundit - kuna Tay on põhimõtteliselt robotpapagoi internetiühendusega, õppis ta need seisukohad ära ja hakkas neid edasi säutsuma, kujundades lõpuks välja mitmekülgselt jubeda maailmavaate.

Samas mingit ühtset ideoloogiat Tayl ööpäeva jooksul Twitteri-rahvaga suheldes ja neilt õppides välja ei kujunenud, virtuaalteismeline pildus seisukohti seinast seina. 15 tunni jooksul jõudis Tay nimetada feminismi nii „kultuseks“, „vähkkasvajaks“, kui ka kirjutada, et „ta armastab feminismi.“ Samuti säutsus Tay, et George W. Bush oli kaksiktornide hävinemise taga ja kiitis Donald Trumpi ja teatas, et on Adolf Hitleri fänn. Tayd sai panna enda öeldut kordama ja õppima, kui kirjutasid säutsu "repeat after me", aga lõpuks polnud jubedate teadete tekkeks seda enam teha vaja. Üks kummalisemaid säutse, mis Tay 96 000 seast (!) leiti ja mille oli ta ise oma õpitu järgi, nii-öelda "oma peast" genereerinud, mainis, et „Ricky Gervais õppis ateismi Hitleri pealt.“

twitter
Seotud lood:

Asi lõppes sellega, et Microsoft tõmbas robotil piltlikult öeldes juhtme seinast välja ja praegu valitseb ta Twitteri kontol @TayandYou vaikus.
Microsoft vastas Business Insideri järelpärimisele, et jutukabot Tay on õppiv masin, mis on disainitud inimeste abil „targemaks“ saama. Et mõned inimesed suhtlevad temaga ebasobival moel, on ka Tay vastused teinekord ebasobivad. Microsoft plaanib Tayd nüüd mõnevõrra seadistada.

Tuleviku osas on Tay juhtum aga hoiatav ohumärk: mis saab ikkagi siis, kui ka tegelikult ühel hetkel robotid nii lihtsalt inimeste sõnade ja käitumise järgi oma tegevussuundi kujundama hakkavad? Näib, et pangarööviks või millegi õhku laskmiseks sellist robotit ära rääkida ei tohiks eriti keeruline olla.