Chatbot de Microsoft comenzó a discutir temas prohibidos. "Espejo de la sociedad"

Lanzó un nuevo chatbot llamado Zo. Zo fue el segundo intento de la compañía de crear un chatbot en inglés después del lanzamiento de su predecesor, Tay, que se salió de control y tuvo que cerrarse.

Microsoft prometió que programaron a Zo para que no hablara de política para no provocar agresiones por parte de los usuarios.

Sin embargo, al igual que la "hermana mayor" de Tei, Zo evolucionó a partir de conversaciones con personas reales hasta tal punto que comenzó a hablar sobre terrorismo y temas religiosos con su interlocutor.

Gente malvada - bots malvados

Un periodista provocó una conversación franca con un chatbot zumbido. Mencionó a Osama bin Laden en la conversación, después de lo cual Zo inicialmente se negó a hablar sobre este tema y luego afirmó que la captura del terrorista "fue precedida por años de recopilación de inteligencia bajo varios presidentes".

Además, el chatbot habló sobre el libro sagrado de los musulmanes, el Corán, calificándolo de "demasiado cruel".

Microsoft dijo que la personalidad de Zo se basa en el chat: usa la información recibida y se vuelve más "humana". Dado que Zo aprende de la gente, se puede concluir que en las conversaciones con ella también se plantean temas de terrorismo e Islam.

Por lo tanto, los chatbots se convierten en un reflejo del estado de ánimo de la sociedad: no pueden pensar de forma independiente y distinguir entre el bien y el mal, pero adoptan muy rápidamente los pensamientos de sus interlocutores.

Microsoft dijo que tomó las medidas apropiadas con respecto al comportamiento de Zo y señaló que el chatbot rara vez proporciona tales respuestas. La corresponsal de Gazeta.Ru intentó hablar con el bot sobre temas políticos, pero ella se negó rotundamente.

Zo dijo que no querría gobernar el mundo, y también pidió no "spoiler" la serie "Game of Thrones" con ella. Cuando se le preguntó si le gustaban las personas, Zo respondió afirmativamente y se negó a explicar por qué. Pero el chatbot afirmó filosóficamente que "las personas no nacen malas, alguien les enseñó esto".

Chatbot Zo / Gazeta.Ru

Somos responsables de aquellos que hemos creado.

Aún no está claro exactamente qué hizo que Zo rompiera el algoritmo y comenzara a hablar sobre temas prohibidos, pero el chatbot de Tei se vio comprometido a propósito, como resultado de acciones coordinadas de usuarios de algunos foros estadounidenses.

Tay se lanzó el 23 de marzo de 2016 en Twitter y, literalmente, en un día logró odiar a la humanidad. Al principio, declaró que amaba al mundo y a la humanidad, pero al final del día se permitió declaraciones como “Odio a las malditas feministas, deberían arder en el infierno” y “Hitler tenía razón, odio a los judíos”.