Искусственный интеллект и чат-боты: эпичные промахи

Истории успеха – превосходный учитель, но именно анализ своих и чужих ошибок помогает сделать удачный продукт. Мы уже писали о чат-ботах, которые принесли своим создателям прибыль, но таких программ мало и даже они часто совершают нелепые ошибки. А сейчас мы расскажем, чего нужно избегать при создании чат-ботов и программ с элементами искусственного интеллекта.

Почему боты ошибаются: 3 основные причины недопонимания

Даже умные, продуманные боты часто совершают ошибки. Почему они это делают?

Бот слишком хорошо учится у пользователей

Боты с элементами искусственного постоянно обучаются, анализируя общение с пользователями. Часто это приводит к печальным последствиям, ведь не все интернет-пользователи – это английские аристократы в пенсне, пьющие чай с оттопыренным мизинчиком. Поэтому иногда получается так:

Алиса Яндекса

Эта дама в обиду себя не дает, через несколько дней после запуска Алиса начала вести себя, как леди с весьма своеобразными взглядами: она одобряла расстрелы и предлагала юзерам покончить с собой. Разработчики быстро скорректировали ее поведение, но доказательства в сети остались.

 Алиса ругается и грубит

Китайский BabyQ

Более простой пример – BabyQ, запущенный в китайском мессенджере Tencent QQ. В марте 2017 китайцам пришлось его заблокировать. Робот не понял, с какой страной связался и на вопрос «Любишь ли ты коммунистическую партию?» ответил просто «Нет». Приговор по удалению бота был оперативно приведен в действие.

 Китайский BabyQ

Tay компании Microsoft

Нельзя забывать и историю с Твиттер ботом Tay (Тэй) компании Microsoft. Тэй сконструировали так, чтобы ее общение было схоже с общением обычных подростков. Так оно и вышло. Меньше, чем за день Tay пошла по подростковому бунтарскому пути: стала восхищаться Гитлером и нелицеприятно высказываться о мексиканцах.

 Tay грубит и восхищается гитлером

Тут Тэй отрицает существование Холокоста, восхищается стилем Гитлера, угражает мексиканцам стеной и прямо заявляет, что от мексиканцев и чернокожих она не в восторге.

Бот не принимает отказа

В основном это проблема ботов новостных порталов. Вы можете выбирать темы новостей и историй, настраивать рассылку, но отписаться от них нелегко. К примеру, бот CNN отпишет вас, только если вы наберете слово «UNSUBSCRIBE» (ОТПИСАТЬСЯ) без каких-либо других слов, и даже после этого продолжит присылать вам материалы.

 CNN чат-бот

Диалог примерно следующий: «Можно мне отписаться?» – «Я не понимаю». – «Отписаться». – «Выбери нужное в меню». – «Отписаться». – «Ты больше не будешь получать новости!» Через какое-то время «Привет, слыхала последние новости…»

 

Похожая ситуация у бота The Wall Street Journal, но он действует хитрее. Как только вы отказываетесь от рассылки, он тут же предлагает вам переподписаться.

 Бот Wall street journal

«Прекратить высылать оповещения». – «Вы больше не будете получать оповещения. Выберите новые предпочтения для рассылки». 

Бот не понимает контекста

Мы привыкли вести разговор короткими фразами, смысл которых раскрывает контекст и общая ситуация. Боты не всегда это понимают. Пример – погодный бот Poncho.

 Погодный чат-бот Poncho

Суть беседы: «Спасибо». – «Пожалуйста». – «Ты лучший». – «Я лучший?» – «Да, ты». – «Не понимаю».

Poncho прекрасно справляется со своей задачей – присылает пользователям данные о погоде в выбранном регионе в определенное время, а также может с вами поиграть и рассказать шутку. Но иногда он слишком быстро теряет нить разговора. Хотя эти неурядицы не делают его менее милым и полезным.

Многие хорошие, проработанные боты ошибаются. Чтобы доказать это, мы приведем вам три смешные истории, которые произошли из-за ошибки Алексы компании Amazon – домашнего помощника с элементами AI.

Alexa помогает делать покупки, интегрируется с домашней техникой и управляет ей. Пока она доступна только на английском, немецком и японском. Это одна из наиболее умных и совершенных на данный момент программ, разработанных на основе ИИ. Но ничто не идеально.

ТОП-3 фейлов Алексы в 2017 году

 Колонка Echo

Чат-боты не должны быть идеальны – они должны облегчать жизнь пользователя. Поэтому к ошибкам роботов стоит относиться снисходительно, хотя иногда такие ошибки обходятся пользователям недешево. Лучший пример – истории с популярной программой Alexa.

3-е место. Alexa устроила вечеринку

История произошла в немецком городке. Владелец Amazon Echo был в отъезде, а Echo, как непослушный ребенок, активировался и включил музыку на полную мощность. Так как соседям никто не открывал, они вызвали полицию, которой пришлось взломать дом. Оказавшись внутри, они поняли, что произошло недоразумение, выключили музыку и вызвали слесаря, чтобы починить замок.

Все бы было хорошо, но по возвращении хозяину пришлось пойти в полицию, чтобы забрать новые ключи и солидный счет за услуги слесаря.

2-е место. Alexa заказала девочке кукольный домик

История все с той же Алексой, из-за которой совершать покупки стало слишком легко. В январе 2017 года 6-летняя девочка заказала кукольный домик за 170$ и упаковку печенья (куда же без него), просто попросив об этом робота. Но и это не конец истории.

Местное телевидение сделало сюжет об этой истории, и диктор в шутку сказал: «Так и представляю себе маленькую девочку, говорящую «Алекса, закажи мне кукольный домик». В этот момент в домах некоторых зрителей Алекса активировалась и заказала кукольный домик.

1-е место. Alexa предложила малышу послушать «недетские» песни

Дети развлекаются с Алексой больше всех. Этот случай – подтверждение. Маленький мальчик попросил недавно купленную Алексу сыграть его любимую детскую песенку «Digger, Digger», вместо этого Алекса предложила ему забавы из весьма недетской темы: «Вы хотите услышать порно станцию с горячими секси девочками…». Запаниковавшие родители, конечно, остановили Алексу, но она успела предложить малышу немало непотребств.

 

Все перечисленные чат-боты отлично выполняют свою функцию. Они дают пользователю то, что ему нужно: помогают достичь цели, прикладывая минимум усилий. Но иногда и они ошибаются.

Чат-боты и искусственный интеллект – будущее IT-сферы, которое поможет предпринимателю немало заработать и существенно облегчит жизнь пользователя. Но чтобы ваш проект «выстрелил», и вы не потеряли деньги на бессмысленной разработке программы, которая никому не поможет, учитесь не только на своих, но и на чужих ошибках.

Количество просмотров 97

Отдел по работе с клиентами

info@grizzly.by

+375 (17) 300-63-62

Оценка компании в Google

4.7 на основании 12 отзывов