Искусственный интеллект и чат-боты: эпичные промахи
Истории успеха – превосходный учитель, но именно анализ своих и чужих ошибок помогает сделать удачный продукт. Мы уже писали о чат-ботах, которые принесли своим создателям прибыль, но таких программ мало и даже они часто совершают нелепые ошибки. А сейчас мы расскажем, чего нужно избегать при создании чат-ботов и программ с элементами искусственного интеллекта.
Почему боты ошибаются: 3 основные причины недопонимания
Даже умные, продуманные боты часто совершают ошибки. Почему они это делают?
Бот слишком хорошо учится у пользователей
Боты с элементами искусственного постоянно обучаются, анализируя общение с пользователями. Часто это приводит к печальным последствиям, ведь не все интернет-пользователи – это английские аристократы в пенсне, пьющие чай с оттопыренным мизинчиком. Поэтому иногда получается так:
Алиса Яндекса
Эта дама в обиду себя не дает, через несколько дней после запуска Алиса начала вести себя, как леди с весьма своеобразными взглядами: она одобряла расстрелы и предлагала юзерам покончить с собой. Разработчики быстро скорректировали ее поведение, но доказательства в сети остались.
Китайский BabyQ
Более простой пример – BabyQ, запущенный в китайском мессенджере Tencent QQ. В марте 2017 китайцам пришлось его заблокировать. Робот не понял, с какой страной связался и на вопрос «Любишь ли ты коммунистическую партию?» ответил просто «Нет». Приговор по удалению бота был оперативно приведен в действие.
Tay компании Microsoft
Нельзя забывать и историю с Твиттер ботом Tay (Тэй) компании Microsoft. Тэй сконструировали так, чтобы ее общение было схоже с общением обычных подростков. Так оно и вышло. Меньше, чем за день Tay пошла по подростковому бунтарскому пути: стала восхищаться Гитлером и нелицеприятно высказываться о мексиканцах.
Бот не принимает отказа
В основном это проблема ботов новостных порталов. Вы можете выбирать темы новостей и историй, настраивать рассылку, но отписаться от них нелегко. К примеру, бот CNN отпишет вас, только если вы наберете слово «UNSUBSCRIBE» (ОТПИСАТЬСЯ) без каких-либо других слов, и даже после этого продолжит присылать вам материалы.
Похожая ситуация у бота The Wall Street Journal, но он действует хитрее. Как только вы отказываетесь от рассылки, он тут же предлагает вам переподписаться.
Бот не понимает контекста
Мы привыкли вести разговор короткими фразами, смысл которых раскрывает контекст и общая ситуация. Боты не всегда это понимают. Пример – погодный бот Poncho.
Poncho прекрасно справляется со своей задачей – присылает пользователям данные о погоде в выбранном регионе в определенное время, а также может с вами поиграть и рассказать шутку. Но иногда он слишком быстро теряет нить разговора. Хотя эти неурядицы не делают его менее милым и полезным.
Многие хорошие, проработанные боты ошибаются. Чтобы доказать это, мы приведем вам три смешные истории, которые произошли из-за ошибки Алексы компании Amazon – домашнего помощника с элементами AI.
Alexa помогает делать покупки, интегрируется с домашней техникой и управляет ей. Пока она доступна только на английском, немецком и японском. Это одна из наиболее умных и совершенных на данный момент программ, разработанных на основе ИИ. Но ничто не идеально.
ТОП-3 фейлов Алексы в 2017 году
Чат-боты не должны быть идеальны – они должны облегчать жизнь пользователя. Поэтому к ошибкам роботов стоит относиться снисходительно, хотя иногда такие ошибки обходятся пользователям недешево. Лучший пример – истории с популярной программой Alexa.
3-е место. Alexa устроила вечеринку
История произошла в немецком городке. Владелец Amazon Echo был в отъезде, а Echo, как непослушный ребенок, активировался и включил музыку на полную мощность. Так как соседям никто не открывал, они вызвали полицию, которой пришлось взломать дом. Оказавшись внутри, они поняли, что произошло недоразумение, выключили музыку и вызвали слесаря, чтобы починить замок.
Все бы было хорошо, но по возвращении хозяину пришлось пойти в полицию, чтобы забрать новые ключи и солидный счет за услуги слесаря.
2-е место. Alexa заказала девочке кукольный домик
История все с той же Алексой, из-за которой совершать покупки стало слишком легко. В январе 2017 года 6-летняя девочка заказала кукольный домик за 170$ и упаковку печенья (куда же без него), просто попросив об этом робота. Но и это не конец истории.
Местное телевидение сделало сюжет об этой истории, и диктор в шутку сказал: «Так и представляю себе маленькую девочку, говорящую «Алекса, закажи мне кукольный домик». В этот момент в домах некоторых зрителей Алекса активировалась и заказала кукольный домик.
1-е место. Alexa предложила малышу послушать «недетские» песни
Дети развлекаются с Алексой больше всех. Этот случай – подтверждение. Маленький мальчик попросил недавно купленную Алексу сыграть его любимую детскую песенку «Digger, Digger», вместо этого Алекса предложила ему забавы из весьма недетской темы: «Вы хотите услышать порно станцию с горячими секси девочками…». Запаниковавшие родители, конечно, остановили Алексу, но она успела предложить малышу немало непотребств.
Все перечисленные чат-боты отлично выполняют свою функцию. Они дают пользователю то, что ему нужно: помогают достичь цели, прикладывая минимум усилий. Но иногда и они ошибаются.
Чат-боты и искусственный интеллект – будущее IT-сферы, которое поможет предпринимателю немало заработать и существенно облегчит жизнь пользователя. Но чтобы ваш проект «выстрелил», и вы не потеряли деньги на бессмысленной разработке программы, которая никому не поможет, учитесь не только на своих, но и на чужих ошибках.
Подпишись на наш телеграм-канал!