Chatbot dari Microsoft mulai membahas topik terlarang. "Cermin Masyarakat"

Merilis chatbot baru bernama Zo. Zo adalah upaya kedua perusahaan di chatbot berbahasa Inggris setelah peluncuran pendahulunya, Tay, yang lepas kendali dan harus ditutup.

Microsoft berjanji bahwa mereka memprogram Zo sedemikian rupa sehingga dia tidak akan membahas politik agar tidak memancing agresi dari pengguna.

Namun, seperti "kakak perempuan" Tei, Zo berkembang dari percakapan dengan orang-orang nyata ke keadaan sedemikian rupa sehingga dia mulai membahas terorisme dan masalah agama dengan lawan bicaranya.

Orang jahat - bot jahat

Seorang jurnalis memprovokasi percakapan jujur ​​​​dengan chatbot umpan buzz. Dia menyebutkan Osama bin Laden dalam percakapan, setelah itu Zo awalnya menolak untuk membicarakan topik ini, dan kemudian menyatakan bahwa penangkapan teroris "didahului oleh pengumpulan intelijen selama bertahun-tahun di bawah beberapa presiden."

Selain itu, chatbot berbicara tentang kitab suci umat Islam, Alquran, menyebutnya "terlalu kejam."

Microsoft menyatakan bahwa kepribadian Zo dibangun berdasarkan obrolan - dia menggunakan informasi yang diterima dan menjadi lebih "manusia". Karena Zo belajar dari orang-orang, dapat disimpulkan bahwa isu-isu terorisme dan Islam juga diangkat dalam percakapan dengannya.

Dengan demikian, chatbots menjadi cerminan suasana hati masyarakat - mereka tidak dapat berpikir secara mandiri dan membedakan antara yang baik dan yang buruk, tetapi dengan sangat cepat mengadopsi pikiran lawan bicara mereka.

Microsoft mengatakan telah mengambil tindakan yang tepat mengenai perilaku Zo dan mencatat bahwa chatbot jarang memberikan tanggapan seperti itu. Koresponden Gazeta.Ru mencoba berbicara dengan bot tentang topik politik, tetapi dia dengan tegas menolak.

Zo mengatakan bahwa dia tidak ingin menguasai dunia, dan juga meminta untuk tidak "membocorkan" serial "Game of Thrones" kepadanya. Ketika ditanya apakah dia menyukai orang, Zo menjawab dengan positif, menolak menjelaskan alasannya. Tetapi chatbot secara filosofis menyatakan bahwa "orang tidak dilahirkan jahat, seseorang mengajari mereka ini."

Chatbot Zo / Gazeta.Ru

Kami bertanggung jawab atas apa yang telah kami buat

Belum jelas apa yang membuat Zo melanggar algoritme dan mulai berbicara tentang topik terlarang, tetapi chatbot Tei sengaja disusupi - sebagai akibat dari tindakan terkoordinasi oleh pengguna beberapa forum Amerika.

Tay diluncurkan pada 23 Maret 2016 di Twitter dan secara harfiah dalam sehari berhasil membenci kemanusiaan. Pada awalnya, dia menyatakan bahwa dia mencintai dunia dan kemanusiaan, tetapi pada akhirnya dia membiarkan dirinya mengeluarkan pernyataan seperti "Aku benci feminis sialan, mereka harus dibakar di neraka" dan "Hitler benar, aku benci orang Yahudi."