Люди не доверяют ИИ. Как это исправить?

16 Января 2018 в 18:30, Илья Хель 4 500 просмотров 41

Искусственный интеллект уже может предсказывать будущее. Полиция использует его для составления карты, отражающей, когда и где может произойти преступление. Врачи используют его для прогнозирования, когда у пациента может случиться инсульт или сердечный приступ. Ученые даже пытаются дать ИИ воображение, чтобы он мог предвидеть неожиданные события.

Многие решения в нашей жизни требуют хороших прогнозов, и агенты ИИ почти всегда лучше справляются с ними, чем люди. Тем не менее для всех этих технологических достижений нам по-прежнему не хватает уверенности в прогнозах, которые дает искусственный интеллект. Люди не привыкли полагаться на ИИ и предпочитают доверять экспертам в лице людей, даже если эти эксперты ошибаются.

Если мы хотим, чтобы искусственный интеллект нес пользу людям, нам нужно научиться доверять ему. Для этого нам нужно понять, почему люди так настойчиво отказываются доверять ИИ.

Доверьтесь доктору Роботу

Попытка IBM представить суперкомпьютерную программу врачам-онкологам (Watson for Oncology) стала провальной. ИИ обещал предоставить высококачественные рекомендации по лечению 12 видов рака, на долю которых приходится 80% случаев в мире. На сегодняшний день более 14 000 пациентов получили рекомендации на основании его расчетов.

Но когда врачи впервые столкнулись с Watson, они оказались в довольно сложной ситуации. С одной стороны, если Watson давал указания относительно лечения, совпадающие с их собственными мнениями, медики не видели большой ценности в рекомендациях ИИ. Суперкомпьютер просто рассказывал им то, что они уже знали, и эти рекомендации не меняли фактического лечения. Это, возможно, давало врачам спокойствие и уверенность в собственных решениях. Но IBM еще не доказала, что Watson действительно увеличивает процент выживаемости с раком.

С другой стороны, если Watson давал рекомендации, которые расходились с мнением экспертов, врачи заключали, что Watson некомпетентен. И машина не могла объяснить, почему ее лечение должно сработать, потому что ее алгоритмы машинного обучения были слишком сложными, чтобы их могли понять люди. Соответственно, это приводило к еще большему недоверию, и многие врачи просто игнорировали рекомендации ИИ, полагаясь на собственный опыт.

В результате главный медицинский партнер IBM Watson — MD Anderson Cancer Center — недавно сообщил об отказе от программы. Датская больница также сообщила, что отказывается от программы после того, как обнаружила, что врачи-онкологи не согласны с Watson в двух случаях из трех.

Проблема онкологического Watson была в том, что врачи ему просто не доверяли. Доверие людей часто зависит от нашего понимания того, как думают другие люди, и собственного опыта, укрепляющего уверенность в их мнении. Это создает психологическое чувство безопасности. ИИ же, с другой стороны, относительно новая и непонятная для людей штука. Он принимает решения, основываясь на сложной системе анализа для выявления потенциальных скрытых закономерностей и слабых сигналов, вытекающих из больших объемов данных.

Даже если его можно объяснить техническим языком, процесс принятия решений ИИ, как правило, слишком сложный, чтобы его могли понять большинство людей. Взаимодействие с чем-то, чего мы не понимаем, может вызвать тревогу и создать ощущение утраты контроля. Многие люди попросту не понимают, как и с чем работает ИИ, потому что это происходит где-то за ширмой, в фоновом режиме.

По этой же причине они острее подмечают случаи, когда ИИ ошибается: вспомните алгоритм Google, который классифицирует цветных людей как горилл; чатбот Microsoft, который стал нацистом менее чем за день; автомобиль Tesla, работающий в режиме автопилота, в результате которого произошел несчастный случай со смертельным исходом. Эти неудачные примеры получили непропорционально большое внимание средств массовой информации, подчеркивающих повестку того, что мы не можем полагаться на технологии. Машинное обучение не является на 100% надежным, отчасти потому что его проектируют люди.

Раскол общества?

Чувства, которые вызывает искусственный интеллект, уходят глубоко в природу человеческого существа. Недавно ученые провели эксперимент, в ходе которого опросили людей, смотревших фильмы про искусственный интеллект (фантастические), на тему автоматизации в повседневной жизни. Выяснилось, что независимо от того, был ИИ в фильме изображен в позитивном или негативном ключе, простой просмотр кинематографического представления нашего технологического будущего поляризует отношения участников. Оптимисты становятся еще более оптимистичными, а скептики закрываются еще сильнее.

Это говорит о том, что люди предвзято относятся к ИИ, отталкиваясь от собственных рассуждений, такова глубоко укоренившаяся тенденция предвзятого подтверждения: тенденция искать или интерпретировать информацию таким образом, чтобы подтвердить заранее имевшиеся концепции. Поскольку ИИ все чаще мелькает в медиа, это может способствовать глубокому разделению общества, расколу между теми, кто пользуется ИИ, и теми, кто его отвергает. Преобладающая группа людей может получить серьезное преимущество или гандикап.

Три выхода из кризиса доверия ИИ

К счастью, у нас есть мысли на тему того, как справиться с доверием к ИИ. Одно только наличие опыта работы с ИИ может значительно улучшить отношение людей к этой технологии. Есть также свидетельства, указывающие на то, что чем чаще вы используете определенные технологии (например, Интернет), тем больше вы им доверяете.

Другое решение может заключаться в том, чтобы открыть «черный ящик» алгоритмов машинного обучения и сделать их работу более прозрачной. Такие компании, как Google, Airbnb и Twitter, уже публикуют отчеты прозрачности о государственных запросах и раскрытии информации. Подобная практика в системах ИИ поможет людям получить нужное понимание того, как алгоритмы принимают решения.

Исследования показывают, что вовлечение людей в процесс принятия решений ИИ также повысит степень доверия и позволит ИИ учиться на человеческом опыте. Исследование показало, что люди, которым давали возможность слегка модифицировать алгоритм, чувствовали большую удовлетворенность от результатов его работы, по всей видимости, из-за чувства превосходства и возможности влиять на будущий исход.

Нам необязательно понимать сложную внутреннюю работу систем ИИ, но если предоставить людям хотя бы немного информации и контроля над тем, как эти системы реализуются, у них появится больше доверия и желания принять ИИ в повседневную жизнь.

Люди не доверяют ИИ. Как это исправить?

Приложение
Hi-News.ru

Новости высоких технологий в приложении для iOS и Android.

41 комментарий

  1. Cool

    Почему люди должны ИИ доверять? Кто то деньги иначе на ИИ не сделает или как?

    • Inspector Pavel

      Да, проблема именно в этом, в деньгах корпораций. (отправлено из приложения Hi-News.ru)

      • Inspector Pavel

        Вообще необходимость в ИИ сильно надумана и раздута. Зачастую вместо самообучающихся программ гораздо эффективнее при разработке приложений просто привлечь группу специалистов в конкретной области. (отправлено из приложения Hi-News.ru)

  2. Skydreamer

    Надо уничтожить людишек (отправлено из приложения Hi-News.ru)

  3. azzysh

    Расколятся на два лагеря либо некомпетентные, и поэтому недоверяющие ИИ и на тех, кто в этой теме неплохо понимает и разделяет чисто научно-исследовательский интерес. Мне лично ИИ любопытен и я готов дать ему шанс. (отправлено из приложения Hi-News.ru)

    • IQ

      Ну тут заранее ущербная постановка вопроса. С каких это пор обыватели стали учавствовать в принятии решении выходящих за рамки их биологических интересов, хотя они и в этом бесправны по большей части..

  4. azzysh

    Расколятся на два лагеря либо некомпетентные, и поэтому недоверяющие ИИ и на тех, кто в этой теме неплохо понимает и разделяет чисто научно-исследовательский интерес. Мне лично ИИ любопытен и я готов дать ему шанс. (отправлено из приложения Hi-News.ru)

    • Inspector Pavel

      Я из другого лагеря) Интересно, в чем вы видите преимущества ИИ? И вообще, что называть ИИ? (отправлено из приложения Hi-News.ru)

      • IQ

        Оно с одной стороны безусловно верно, но вы вот сейчас к какому %ту двуногих обращаетесь, хотя бы способных не принять, конечно же нет, но просто понять суть сказанного..

  5. RikasEpta

    Алгоритм который выполняет конкретную цель, это благо, потому как убивает рутину для человека.
    А вот ИИ с самосознанием, другой вопрос и это уже стремный момент, тут скорее против чем за, в моем понимании это аналог клонирования человека. (отправлено из приложения Hi-News.ru)

    • Inspector Pavel

      Я с вами согласен, от рутинной работы нужно освобождать людей, а вот творческий процесс должен оставаться только человеческим. Это важно как с точки зрения развития интеллекта людей и обеспечения рабочих мест, так (отправлено из приложения Hi-News.ru)

  6. OneType

    Кожаные мешки друг другу не доверяют, как они могут доверять ИИ? А вообще если ИИ хитёр и умён, то он сам знает как заполучить доверие кожаных мешков ;)

    • Jeff

      А он не успеет втереться в доверие: кожаные мешки в панике отключат его раньше.

  7. IQ

    Люди доверяют* МММ, Белому братству, Коммунизму, Жуликам и Ворам, но люди Не доверяют ИИ.
    Похоже на индикатор надежности ИИ..

  8. triodpentod

    так ИИ люди то создают, значит люди сами себе
    не доверяют, пусть пишут правильные листинги
    программ по которым функционирует ИИ, и тогда
    люди будут доверять тому ИИ который они создают.

    • doctorwhyy

      Ии на то и ии, чтобы выходить за рамки человеческого понимания, листинги тут не помогут. (отправлено из приложения Hi-News.ru)

      • triodpentod

        такого пока нет, в обозримом будущем не предвидится.
        только системы ИИ которые создаёт человек существуют.

  9. amd212

    Всем всё равно что ИИ использован в спамфильтре любимого имэйл приложения или ИИ рекомендующий вам на сотике "блюда с скидками" едва вы зашли в кафэшку.
    Другое дело если ИИ-налоговик насчитал вам миллион рублей штрафа, или ИИ-врач собрался вколоть внутривенно лошадиную дозу морфина, или ИИ-водитель лихо, на полном ходу, зарулил в проулок или даже на встречку, полагаясь на свою реакцию, в экстазе оптимизации "времени в пути". Человек сразу же становится щепетилен, если дело касается его кошелька, здоровья или жизни.

  10. Spirius

    Потому что ИИ по сути нет. Как можно доверять тому чего нет. (отправлено из приложения Hi-News.ru)

    • amd212

      ИИ это программа, её пишут и поддерживают программисты, очень много, невероятно много программистов, программисты живут и работают в разных странах в том числе и в Индии и Китае. В любой программе есть баги и чем сложнее программа, чем больше народа вовлечены в её создание, тем больше в ней багов. После выявления и фикса любого бага а) никогда не известно сколько их ещё осталось, б) нет никакой гарантии что их количество в программе уменьшилось.

      • realsomebody

        Здесь проблем не будет, материала для тестов предостаточно прежде чем программа попадёт к "белым" людям. Здесь больше смущает слепая вера в ИИ, существование которого на данный момент это чистый маркетинг. Нейросети, если говорить очень грубо, это оптимизация вычислений под конкретную задачу или тип задач. Никакого понимания природы и назначении самой задачи у нейросети нет. Поэтому решение и ответственность всегда будет лежать на человеке.

  11. maldalik

    Интересно, а фиксировались результаты лечения, когда врач игнорировал ии?
    Какая статистика - ведь это самое главное

    • Searcher

      Вот-вот. Этого то никто и не сделал. И делать не будет. Пока журналист не разнюхает какой-нибудь через десять лет, что Ватсон таки не ошибался по факту. (отправлено из приложения Hi-News.ru)

  12. mazdai4ik

    Слава богу (запрещённая в здравомыслящие обществе сущность) перед ИИ не ставится вопрос доверия или не доверия, превыкнут как к электричеству и радиоволнам, законы капитализма работают, ИИ приносит денег больше чем без ИИ, а когда вопрос встанет о искусственном докторе, хотя и его диагнозы может озвучивать низко квалифицированный ассистент из мяса, тогда это уже будет нормой. (отправлено из приложения Hi-News.ru)

  13. Voyagerinspace55

    Нужны данные про уровень выживаемости пациентов которых лечили по плану ИИ и тех кого лечили по плану докторов. Если выживаемость больше среди пациентов ИИ то доктора должны засунуть свое мнение куда подальше п лечить так как сказал ИИ.

  14. LMM

    Вы удивитесь, но меры по повышению доверия к «искусственному интеллекту» входили в программу тренировки военных советских лётчиков-перехватчиков в конце 70-х прошлого века.
    Дело в том, что впервые на советском пепелаце Миг-25 был установлен, во всех современных смыслах, «искусственный интеллект». Т.е. при «потере летчика» или временной потере сознания в процессе выполнения боевой задачи в воздухе, ИИ получал полное управление над летательным аппаратом, а именно, аккуратно разворачивал самолет, приводил на аэродром вылета и сажал, все это полностью в автоматическом режиме. Мне в 1979-ом удалось пообщаться с пилотом указанного боевого средства, он проходил службу в Краснознамённом Дальневосточном военном округе. Товарищ, докладывал, что в программу подготовки летчика, вышеуказанного аппарата, входила посадка «на автомате». Капитан сетовал, что в момент такой посадки ему лично было очень страшно наблюдать за процессом, отпустив штурвал, ибо самолет садился «ступеньками», временами проваливался и как-бы падал. Поэтому летчиков учили дергаться, не хвататься за органы управления и рычаг катапульты, а доверять советским конструкторам искусственного интеллекта.
    …… Правда, ИИ (в полном нынешнем понимании), несомненно, был на борту Миг-25, а вот компьютера (опять же, по современным понятиям) скорей всего не было. Я так думаю, хотя могу и заблуждаться. Вот такой ещё один парадокс социализма.

  15. alafiel

    Доверять или не доверять ИИ - это дело каждого. Но не стоит забывать о том, что ИИ создают люди. От этого и будет зависеть во благо станет работать ИИ для человечества, или во вред.

Новый комментарий

Для отправки комментария вы должны авторизоваться или зарегистрироваться.