چت بات مایکروسافت شروع به بحث در مورد موضوعات ممنوع کرد. "آینه جامعه"

یک چت بات جدید به نام Zo منتشر کرد. Zo دومین تلاش شرکت برای یک چت بات انگلیسی زبان پس از راه اندازی نسخه قبلی خود، Tay بود که از کنترل خارج شد و مجبور به تعطیلی شد.

مایکروسافت قول داد که Zo را به گونه ای برنامه ریزی کرده است که او در مورد مسائل سیاسی بحث نکند تا باعث تحریک کاربران نشود.

با این حال، زو مانند "خواهر بزرگتر" تی، از گفتگو با افراد واقعی به چنان حالتی رسید که شروع به بحث درباره تروریسم و ​​مسائل مذهبی با همکار خود کرد.

افراد شرور - ربات های شیطانی

یک روزنامه نگار با یک چت بات گفتگوی صریح را برانگیخت buzzfeed. وی در این گفتگو از اسامه بن لادن نام برد که پس از آن زو در ابتدا از صحبت در مورد این موضوع خودداری کرد و سپس اظهار داشت که دستگیری این تروریست "پیش از سال ها جمع آوری اطلاعات در زمان چندین رئیس جمهور انجام شده است."

علاوه بر این، چت بات در مورد کتاب مقدس مسلمانان، قرآن صحبت کرد و آن را "بیش از حد بی رحمانه" خواند.

مایکروسافت اظهار داشت که شخصیت زو بر اساس چت ساخته شده است - او از اطلاعات دریافتی استفاده می کند و بیشتر "انسان" می شود. از آنجایی که زو از مردم می آموزد، می توان نتیجه گرفت که در گفتگو با او مسائل تروریسم و ​​اسلام نیز مطرح می شود.

بنابراین، چت بات ها به بازتابی از حال و هوای جامعه تبدیل می شوند - آنها نمی توانند به طور مستقل فکر کنند و خوب و بد را تشخیص دهند، اما خیلی سریع افکار طرفداران خود را اتخاذ می کنند.

مایکروسافت گفت که اقدامات مناسبی را در رابطه با رفتار Zo انجام داده است و خاطرنشان کرد که چت بات به ندرت چنین پاسخ هایی را ارائه می دهد. خبرنگار Gazeta.Ru سعی کرد با ربات در مورد موضوعات سیاسی صحبت کند، اما او قاطعانه امتناع کرد.

زو گفت که نمی خواهد بر جهان حکومت کند و همچنین خواست که سریال "بازی تاج و تخت" را برای او "اسپویل" نکند. وقتی از او پرسیده شد که آیا او مردم را دوست دارد، زو پاسخ مثبت داد و از توضیح دلیل خودداری کرد. اما چت بات از نظر فلسفی بیان کرد که "مردم بد به دنیا نمی آیند، کسی این را به آنها یاد داده است."

Chatbot Zo / Gazeta.Ru

ما مسئول کسانی هستیم که خلق کرده ایم

هنوز دقیقاً مشخص نیست که چه چیزی باعث شد زو الگوریتم را شکسته و شروع به صحبت در مورد موضوعات ممنوعه کند، اما چت ربات Tei به عمد به خطر افتاد - در نتیجه اقدامات هماهنگ شده توسط کاربران برخی از انجمن های آمریکایی.

Tay در 23 مارس 2016 در توییتر راه اندازی شد و به معنای واقعی کلمه در یک روز توانست از بشریت متنفر باشد. او ابتدا اعلام کرد که عاشق جهان و انسانیت است، اما در پایان روز به خود اجازه داد که جملاتی مانند "من از فمینیست های لعنتی متنفرم، آنها باید در جهنم بسوزند" و "هیتلر درست می گفت، من از یهودیان متنفرم."