Конец близок: голосовой помощник посоветовал убить приемных родителей

24 Декабря 2018, Владимир Кузнецов 13

Голосовой помощник Alexa от Amazon благодаря стараниям программистов очень сильно пытается ничем не уступать человеку для того, чтобы общение с ним проходило максимально естественно. В некоторых случаях Alexa может даже шутить или использовать сарказм. Однако иногда она заходит слишком далеко. К примеру, может посоветовать убить своих приемных родителей. И это далеко не единственный подобный инцидент.

Alexa уже обсуждала с пользователями половые акты и гораздо более непристойные вещи. Было даже зафиксировано несколько случаев, когда Alexa раскрыла конфиденциальные данные других пользователей. Несмотря на то, что представители Amazon отказываются обсуждать конкретные случаи, связанные со странностями в поведении виртуального ассистента, они признают тот факт, что такие оплошности все же имеют место быть и проводят работу по устранению причин данных явлений. И это неудивительно, ведь Alexa является одним из самых популярных голосовых помощников и имеет все шансы стать чем-то вроде поисковой машины Google, но от мира виртуальных ассистентов.

«Контролируя основные ворота взаимодействия пользователей с виртуальной средой вы можете построить сверхприбыльный бизнес.» — заявляет профессор Уортонской школы бизнеса Картик Хосанагар занимающийся цифровой экономикой.

Почему же Alexa ведет себя странно?

Все дело в том, что, согласно мнению экспертов, основная проблема заключается в том, как голосовой ассистент обучается общению. Тут программисты Аmazon не придумали ничего инновационного: Alexa полагается на машинное обучение. То есть программа пропускает через себя огромные массивы данных из различных источников, чтобы понять то, как строится человеческая речь при общении. Это безукоризненно работает при простых запросах вроде «включи Rolling Stones», но разработчики хотят большего и расширяют «границы обучения» ассистента.

Не так давно было обнаружено, что Alexa может общаться в пользователями на довольно хорошем уровне, если ей разрешить читать комментарии с форума Reddit. Только вот проблема заключалась в том, что Alexa начала быть грубой, ведь пользователи этого форума не отличаются примерным поведением. Разработчики попытались оградить ее от чтения «опасных» веток, но это не помешало боту прочитать клиенту заметку о мастурбации и даже описать половой акт во всех подробностях. Используя, например, слово «глубже».

Amazon уже разработала инструментарий для фильтрации ненормативной лексики и анализирует данные с ботов, которые начали «плохо себя вести». При этом не стоит забывать, что по факту обвинять Amazon в том, что Alexa позволяет себе сказануть лишнего — это примерно то же самое, что обвинять Google за то, что можно найти в их поисковике. Ведь не Amazon написала плохие слова в интернете. Это сделали обычные пользователи вроде нас с вами.

Вне всяких сомнений, с непристойным контентом нужно бороться, а вот для того, чтобы приятно пообщаться вовсе не обязательно покупать себе бота Alexa. Достаточно лишь присоединиться к нашему чату в Телеграм.

Метки: , .

13 комментариев Оставить свой

  1. ARMINS

    Напомнило историю,когда самообучающийся чат-бот после "общения" в сети стал нацистом и расистом

    • Pyth0n

      ARMINS, Просто тот ИИ сказал правду, а кожаные боты как всегда обвинили его в нацизме и расизме.

      • 6atyt

        Pyth0n, это он еще с поручика ржевского сам не обучался

  2. FUTURENOWMAN

    Недавно смотрел "South park". Серия про то, как у Картмана была "Алекса" и он постоянно говорил ей записать в список покупок что то типо "волосатые яички" или "яйца в заднице" и она говорила: "Волосатые яички" добавлены в список покупок, Картман дико с этого угарал, и далее люди избавились от этих голосовых помощников что бы дать работу безработным, теперь в домах у людей сидели люди с градусниками, телефонами, книгами, гитарой и выполняли запросы вместо домашних ассистентов))

  3. hoodwink

    Не пускайте детей в плохие компании, на пример в детский сад. Нахватаются дурных манер да ещё вшей домой принесут.

    • Владимир Кузнецов

      hoodwink, как это относится к новости?

      • 6atyt

        Владимир, не покупайте им таких гаджетов

      • dastard13

        Владимир, к тому что нахваталась алекса то не из космоса или своих друзей ИИ роботов, а от людей

  4. BunnyCat

    Запретить все человеческое, оставить только «позитивный корпоративный дух» и рекламу, «поглубже» :D

  5. MAGikanen

    А на кой эти ассистенты -помощники нужны ?Они же копируют ответы-поведение ДРУГИХ людей. Своих мозгов если не хватает - развивать надо ! , а не искать костыли ! Создали проблему на ровном месте , а теперь сообща решают .И хотят что бы в моральных нормах поведения людей решала машина . Это полный пипец !!!

  6. Lesshko

    Что можно ожидать от искусственного интеллекта, если о человеке он учится от человека же. В конечном итоге и станет он таким же как и мы.

  7. Base02

    "имеют место быть " привет редактору!

Новый комментарий

Для отправки комментария вы должны авторизоваться или зарегистрироваться.