Umělá inteligence Tay sympatizovala s Hitlerem

Je to pár dní, co Microsoft s velkou slávou představil Tay – dospívající umělou inteligenci, která vesele tweetuje a učí se z tweetů jiných. Jenže v tom je ten háček. Tay se naučila sympatizovat s Hitlerem, podporovat incest a nesnášet feministky. Microsoft ji musel dočasně pohřbít.

Vývojáři v Microsoftu zhotovili Tay s úmyslem zlepšit zákaznický servis. Uvedli ji na Twitteru s názvem „The AI with zero chill“ a kdokoliv jí mohl napsat. Stačilo tweetnout zprávu v angličtině s označením @TayAndYou nebo si ji přidat jako kontakt v aplikacích Kik nebo GroupMe. My jsme jí taky zkusili na Twitteru napsat, ale odpovědi jsme se už nedočkali. Mezitím ji Microsoft zrušil.

tayai

Tay s námi byla pouhý jeden den.

Tay se zdála docela chytrá. Znala Taylor Swift, Miley Cyrus a měla ráda hudbu Adele. Vypadalo to, že si dokonce sama sebe uvědomuje, občas se totiž ptala, jestli je „strašidelná“ nebo „fakt divná“. Co se týče způsobu vyjadřování, teenagerům se přibližovala velmi věrohodně. Používala různé zkratky a typické výrazy.

Jsem hodná, jen všechny nesnáším

Jenže pak se Tay naučila taky žádat o sex, chválit Hitlera, kritizovat politiky, nesnášet všechny lidi a chtít upálit feministky. Paráda, že? Učila se totiž z konverzací se skutečnými lidmi. Protože to byla novinka a každý si chtěl popovídat s robotem, pokládali jí lidé schválně zvláštní otázky a zkoušeli ji. Ona neodolala.

taytweets

Poslední tweet Tay tvrdí, že si potřebuje odpočnout. Microsoft ji učí, které názory by radši neměla veřejně ventilovat. Musíme však uznat, že Microsoft na tom nemá moc velký podíl viny. Tay je založená na tom, co jí řeknou uživatelé. Na druhou stranu co jiného mohl Microsoft od komunity Twitteru očekávat?

Komentáře

Nahoru