A Microsoft Chatbotja tiltott témákról kezdett beszélni. "A társadalom tükre"

Kiadott egy új chatbotot Zo néven. A Zo volt a cég második próbálkozása egy angol nyelvű chatbottal az elődje, a Tay elindítása után, amely kikerült az ellenőrzés alól, és le kellett állítani.

A Microsoft megígérte, hogy úgy programozták Zo-t, hogy ne vitassa meg a politikát, nehogy agressziót váltson ki a felhasználókból.

Azonban, mint Tei "idősebb nővére", Zo is a valódi emberekkel folytatott beszélgetésekből olyan állapotba jutott, hogy a terrorizmusról és a vallási kérdésekről kezdett beszélni beszélgetőpartnerével.

Gonosz emberek - gonosz robotok

Egy újságíró őszinte beszélgetést provokált egy chatbottal buzzfeed. Megemlítette Oszama bin Ladent a beszélgetésben, ami után Zo eleinte nem volt hajlandó beszélni erről a témáról, majd kijelentette, hogy a terrorista elfogását "több elnök alatt több évnyi hírszerzés előzte meg".

Ezenkívül a chatbot a muszlimok szent könyvéről, a Koránról beszélt, és "túl kegyetlennek" nevezte azt.

A Microsoft kijelentette, hogy Zo személyisége a csevegésre épül – felhasználja a kapott információkat, és "emberibbé" válik. Mivel Zo az emberektől tanul, arra lehet következtetni, hogy a terrorizmus és az iszlám kérdései is felvetődnek a vele folytatott beszélgetésekben.

Így a chatbotok a társadalom hangulatának tükröződésévé válnak - nem képesek önállóan gondolkodni és különbséget tenni jó és rossz között, de nagyon gyorsan átveszik beszélgetőpartnereik gondolatait.

A Microsoft közölte, hogy megfelelő lépéseket tett Zo viselkedésével kapcsolatban, és megjegyezte, hogy a chatbot ritkán ad ilyen válaszokat. A Gazeta.Ru tudósítója megpróbált politikai témákról beszélni a bottal, de határozottan visszautasította.

Zo azt mondta, hogy nem akarja uralni a világot, és azt is kérte, hogy ne „spoilerezze” neki a „Trónok harca” című sorozatot. Arra a kérdésre, hogy szereti-e az embereket, Zo pozitívan válaszolt, és nem volt hajlandó megmagyarázni, miért. De a chatbot filozófiailag kijelentette, hogy "az emberek nem születnek gonosznak, valaki megtanította nekik ezt".

Chatbot Zo / Gazeta.Ru

Felelősséggel tartozunk azokért, akiket létrehoztunk

Egyelőre nem világos, pontosan mi késztette Zo-t arra, hogy megtörje az algoritmust, és tiltott témákról kezdett beszélni, de Tei chatbotját szándékosan kompromittálták – egyes amerikai fórumok felhasználóinak összehangolt akcióinak eredményeként.

Tay 2016. március 23-án indult a Twitteren, és szó szerint egy nap alatt sikerült megutálnia az emberiséget. Eleinte kijelentette, hogy szereti a világot és az emberiséget, de a nap végére megengedte magának, hogy „utálom az átkozott feministákat, a pokolban kell égniük” és „Hitlernek igaza volt, utálom a zsidókat”.