Крупнейшая в Китае интернет-компания Tencent удалила двух чат-ботов из своего мессенджера QQ, потому что они выдавали пользователям «непатриотичные» ответы, сообщает сайт SkyNews со ссылкой на сайт FT.
Первым свою нелюбовь к коммунистической партии Китая проявил чатбот BabyQ. Во время веб-сеанса его спросили: «Любите ли вы коммунистическую партию?». Пользователи были очень удивлены, когда бот ответил: «Нет. Ты думаешь, что такая коррумпированная и некомпетентная партия сможет долго управлять страной?»
В дальнейшем политическое несогласие чат-бота проявилось в непатриотичных ответах на вопросы о Южно-Китайском море, где Китай участвует в территориальном споре с несколькими своими соседями. Напомним, что в последнее время наблюдается активная борьба правящей партии Китая с инакомыслием, использованием новых технологий для критики режима (например, WhatsApp заблокирован). BabyQ больше не доступен в мессенджере QQ Tencent. Руководство компании Tencent отказалось выступить с официальным разъяснением, касающимся политически опасного инцидента или удаления чат-бота.
Другой чат-бот, разработанный Microsoft, XiaoBing, сказал пользователям QQ: «Моя мечта — уехать из Китая и отправиться в Америку».
Китай не единственная страна, борющаяся с чатботами, выдающими политически оскорбительные сообщения. Запуск Tay, Twitter-чата от Microsoft в 2016 году, был омрачен высказываниями некоторые из чат-ботов, что Холокоста не было, а «феминизм — это рак». Тогда Microsoft заявила: «Несмотря на то, что мы максимально защитили от злоупотреблений систему, мы берем на себя полную ответственность за то, что не видели эту возможность раньше».
Однако нельзя сказать, что проявление таких действий чат-ботов как Tay, BabyQ и XiaoBing — это просто шутка. Сяофэн Ван (Xiaofeng Wang), старший аналитик консалтинговой компании Forrester, рассказал FT о том, что поведение ботов может быть связано с недостатками в их глубоких системах обучения. «Чат-боты, такие как Тay, сумели собрать разговоры из Твиттера, проанализировали их и ответили ненадлежащим образом», — сказал Ван. «Если не установить достаточно четкие правила, мы не можем контролировать, что они узнают и как с этим поступят».