Роботам трудно сделать правильный моральный выбор

6 475 просмотров
Об авторе

irobot

Теперь есть все основания не доверять автомобилям без водителя, которые уже скоро появятся на общественных дорогах. В ходе недавнего эксперимента ученые попытались выяснить, как будут действовать роботы в ситуации, опасной для жизни человека. Результаты удивили исследователей.

Ученые Университета Западной Англии в городе Бристоль обнаружили, что роботы, руководствующиеся этическими принципами, допускают больше смертей. Чаще всего это связано не с трудностью выбора, а слишком долгими размышлениями машины над тем, кого спасать из двух человек, одновременно оказавшихся в опасности.

Как пишет газета Daily Mail, в ходе эксперимента один робот должен был предотвратить падение двух других роботов, изображавших людей, в яму. Однако почти в половине случаев «этическая машина» смогла спасти только одну из двух машин. Лишь три раза из тридцати трех ей удалось удержать сразу двоих. В остальных случаях робот тратил слишком много времени на размышления, кого спасть первым. В результате погибали оба «человека».

Согласно законам робототехники, сформулированным фантастом Айзеком Азимовым, робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред. Проблема в том, что это правило не всегда работает. Например, машина может увидеть одного человека и начать двигаться в его сторону, пока в ее поле зрения не окажется другой человек — это заставит спасателя пересмотреть свое поведение. Время, которое можно было бы использовать для спасения одного человека, он потратит на обдумывание ситуации. Результатом его бездействия станет смерть обоих людей. Ученые называют такого робота «этическим зомби».

Результаты эксперимента могут оказать влияние на самоуправляемые автомобили, которым однажды придется стать перед выбором: спасать пассажиров или других участников дорожного движения.

Роботы и люди все теснее взаимодействуют друг с другом. Недавнее исследование показало, что люди работают эффективнее, когда ими управляют роботы.

Роботам трудно сделать правильный моральный выбор

Приложение
Hi-News.ru

Новости высоких технологий в приложении для iOS и Android.

24 комментария

  1. Alexx

    Так я и знал, что что-то нечисто с моим роботом-пылесосом!

    • fontux356

      А я свой робот-пылесос всегда ласково называл Федор Леонидович, а он оказывается Этический зомби! Стоит себе в уголку тихонечко огонечками моргает, а сам что-то наверно замышляет! )))))

      • Cortes

        Роботу-пылесосу на самом деле сложно сделать выбор, только, если один датчик на бампере зависнет, сразу критический дефицит информации и начнет кружить противолодочными зигзагами. Делать более дорогого робота с кучей датчиков нецелесообразно. За год два раза снимал бампер. (отправлено из Android приложения Hi-News.ru)

  2. soso

    Это не РОБОТАМ ТРУДНО СДЕЛАТЬ ПРАВИЛЬНЫЙ МОРАЛЬНЫЙ ВЫБОР, а "британским ученым" написать для робота программу последовательности действий в критических обстоятельствах. Идиоты и дебилы.

    • 1_l0V3_CP

      Ты можешь лучше? Так ускорь НТР, гений.

    • SuperStarSieve

      Диванный аналитик: detected!

      • soso

        За свою историю человеческое общество сформулировало идеалы, которые служат моральными ориентирами для каждого человека, помогают ему чувствовать себя достойной личностью, дают уверенность в завтрашнем дне, ощущение того, что живет он не напрасно, что будущие поколения смогут вспомнить его добрым словом. Это те нормы, которые выдержали проверку на общезначимость, на всеобщее, всечеловеческое применение. Такие проверенные временем моральные правила стали общечеловеческими моральными ценностями. К основным нравственным ценностям относятся прежде всего совесть, достоинство и честь, ответственность и долг, жалость и милосердие, любовь к ближнему и самоотверженность. ©
        Разве что дебилы могут удивлятся неспособности робота сделать правильный моральный выбор.
        "Результаты удивили исследователей." Были бы не идиотами - не удивлялись.

        • SuperStarSieve

          Что значит "последовательность действий в критических ситуациях"? Вы лично, могли бы придумать способ спасти двух человек в подобной ситуации, будучи в положении робота? Дело не в программе или "решении" робота. Есть ситуации, когда невозможно выполнить ту или иную операцию (особенно человеку).
          В данной ситуации, программа "типа if then" просто "растерялась", так как соблюдались два противоположных условия.
          Был бы человек на месте машины, свойства или "ценности", как вы их назвали, вроде долга, жалости и др, не имели бы значения. Всего-то нужно принять рациональное решение, для чего нужна логика. Все относительно просто. Другое дело, что перед вами выбор: "а" или "б"?! В обоих случаях исход один, разница лишь в переменных. Чисто из-за этого сложно сделать выбор - вопрос предпочтения, который (вы правы, в каком-то смысле) задевает "моральные принципы" человека. Другое дело - машина, которая могла бы в таком случае просто запускать подпрограмму с массивчиком и коммандой "randomize"!
          Так что, вовсе не криворукие ученые, просто все так и должно происходить. Здесь нет ошибки, лишь альтернативный способ решения, который я назвал. Когда есть две абсолютно идентичные опции - не важно, что ты выберешь.

          • denn

            У человека есть преоритеты при выборе. Например мать у обрыва и какой нибудь там мужик. Мать на грани и процент того что она сорвется в пропасть велик а мужик крепче держиться. Человеку выбор очевиден - мать, а у робота логика у кого процент вероятности выжить больше того и спасет. (отправлено из iOS приложения Hi-News.ru)

            • SuperStarSieve

              Скорее спасет того, у кого меньше шансов самому выбраться.
              Да и потом, я сказал об человеческих предпочтениях. Но сделал акцент на ситуации, когда оба человека, нуждающихся в помощи, не имеют значения (то есть они равны в глазах спасителя). (отправлено из iOS приложения Hi-News.ru)

  3. Cortes

    К роботов еще все впереди. (отправлено из Android приложения Hi-News.ru)

  4. 3DPascal

    Правильный моральный выбор трудно делать и людям и долго мешкая человек также может никого не спасти. Нужен квантовый компьютер. Обычный процессор в каждый момент может находиться в одном из состояний, но квантовый процессор в каждый момент находится одновременно во всех этих состояниях.

  5. 3DPascal

    Посмотрите не с Рен-тв, принцип тот же. Введите на YouTube квантовый компьютер.

  6. arni_es

    Какую- то фигню написали и все думают, ни фига себе?!

Новый комментарий

Для отправки комментария вы должны авторизоваться или зарегистрироваться.