Почему люди доверительнее относятся к роботам, совершающим ошибки?

Вы, возможно, уже видели «гифку», где робот тщетно пытается поставить переносимый им объект на стол и в конечном итоге падает, будто бы от бессилия. Если нет, она ждет вас ниже. Изображение было создано на базе видео, которое недавно компания Boston Dynamics показала на очередном мероприятии TED talk, где она рассказала и продемонстрировала свои последние достижения в области робототехники. Там были и уже известный нам робот-собака Спот, и бипедальный робот Atlas, как раз и ставший героем видео.

Несмотря на то, что компанию уже не раз называли «предвестником робоапокалипсиса» (она действительно разрабатывает одни из самых продвинутых роботов в мире), реакция на последнее видео и в частности GIF-изображение у людей оказалась гораздо более мягкой. А некоторые так и вовсе посочувствовали железному бедолаге.

«Мне стало очень жаль этого робота. Нас ожидает очень странное будущее», — поделился своими мыслями комментатор на портале Reddit, где впервые появилось это GIF-изображение.

«Это было самое забавное поведение робота, среди всех видео, что я видел. Бедняга. Он так старался», — отметил другой человек в ветке обсуждения.

Но почему люди становятся «более дружелюбными» не только к роботам Boston Dynamics, но вообще ко всем роботам, когда последние совершают ошибки, порой даже очень грубые, как та, что можно видеть на изображении выше? Согласно группе ученых из Центра человеко-компьютерного взаимодействия Зальцбурга (Австрия), это можно объяснить тем же, почему нам нравится, когда другие люди совершают ошибки. Все дело в том, что, независимо от возможных различий в социальном положении, это ставит их ближе к нам, делает их доступнее. Другими словами, ошибки заставляют роботов выглядеть «человечнее», ведь никто из нас не застрахован от ошибок.

Группа исследователей из Зальцбурга под руководством Николь Мирниг недавно проверила эту гипотезу в рамках эксперимента с привлечением 45 волонтеров. Перед ними была поставлена задача что-нибудь собрать из конструктора LEGO при помощи небольшого гуманоидного робота. Мирниг и ее коллеги, проводя некоторые тесты, специально запрограммировали бота для того, чтобы он совершал простые мелкие ошибки, например, повторял слова или не мог схватить части конструктора. После каждой сессии по сбору конструктора ученые просили волонтеров оценить робота по ряду критериев, включая привлекательность, антропоморфизм (человекоподобие) и интеллект. Результаты показали, что когда робот совершал ошибки, людям он нравился больше.

Сложно сказать определенно, почему совершающие ошибки роботы становятся для людей более «своими», однако, как предполагает Мирниг, все связано с так называемым «эффектом полного провала», который, согласно социальной психологии, наступает, когда для нас человек вызывает больше доверия или становится более привлекательным при совершении ошибок. Правда здесь же отмечается, что эффект очень контекстуально зависим. То есть нам не нравятся люди, которые постоянно совершают ошибки, но нам нравится, когда кто-то делает мелкие ошибки время от времени. И роботы как раз подпадают под эту последнюю категорию.

В эксперименте в Зальцбурге волонтеров попросили что-нибудь собрать из конструктора LEGO с помощью робота. Весь процесс записывался, а затем ученые провели анализ реакции

«Исследование показало, что люди со своими точками зрения и ожиданиями в отношении роботов в основном полагаются на то, что они узнали об этих самых роботах из медиа», — рассказала Мирниг в интервью Digital Trends.

«В эти медиаисточники можно записать и фильмы, в которых роботы нередко представлены в виде идеально функционирующих сущностей, будь то злыми или добрыми. До своего личного взаимодействия с роботом люди стараются вернуться к этому опыту наблюдений и к этим воспоминаниям и ожиданиям. Исходя из этого, я предполагаю, что взаимодействие с роботом, совершающим ошибки, заставляет чувствовать нас, что мы в меньшей степени уступаем современным технологиям и скорее становимся более близкими с ними, с теми же роботами».

Скорее всего, работа в этом психологическом аспекте продолжится. И если в конечном итоге такие выводы подтвердятся, то в будущем компании, занимающиеся производством роботов, могут запрограммировать их на совершение незначительных ошибок при взаимодействии с нами. Разумеется, это все будет очень тщательно просчитано, чтобы ошибки были не настолько серьезными, чтобы повлиять на опыт в рамках этого взаимодействия. В общем, машины рано или поздно действительно могут стать человечнее, хоть эта человечность и будет искусственной. Но, как оказывается, наше подсознание можно обмануть. И этим обязательно кто-то сможет воспользоваться.