Ученые пытаются обучить роботов морали

5 871 просмотр
Об авторе

machine-ethics

Группа исследователей из Университета Тафтса, Брауновского университета и Политехнического института Ренсселера, при сотрудничестве с Военно-морскими силами США, вот уже несколько лет работает над решением вопроса о том, как создать роботов, наделенных своим собственным чувством морали. Если затея ученых окажется успешной, то они смогут создать искусственный интеллект, способный самостоятельно оценивать сложность той или иной ситуации, и самостоятельно делать сложный этический выбор, согласно предварительно интегрированным в них инструкциям.

Семьдесят два года назад выдающийся писатель-фантаст Айзек Азимов сформулировал «три закона робототехники», которые могли бы послужить в качестве своего рода кодекса морального поведения для высокоразвитого искусственного интеллекта. К сожалению (или, наоборот, к счастью), современный ИИ до сих пор очень хрупок и слаб. Он не осознает мир вокруг себя. Люди еще не научились строить роботов, которые могли бы не то что следовать этим трем законам, а хотя бы просто их понимать.

Группа ученых под руководством профессора Маттиаса Шутца из Университета Тафтса пытается решить очень важную проблему, которая пока не позволяет нам построить таких роботов: разбить человеческое представление на базовые компоненты и постараться интегрировать их на понятном роботу языке в разрабатываемый фреймворк. Позже ученые постараются смоделировать этот фреймворк в виде алгоритма и интегрировать его в искусственный интеллект. Информационная инфраструктура позволит роботу пересмотреть свои инструкции перед лицом новых доказательств и обосновывать свое поведение в отношении людей, которые им управляют.

«Представление морали можно грубо воспринимать как способность к обучению и осознанию причины и следствия, а также возможность обсуждения законов и социальных конвенций, принятых в том или ином обществе», — говорит Шутц.

«Вопрос заключается в следующем: могут ли машины, или любые другие искусственные системы в этих рамках эмулировать и обладать этими способностями?», — продолжает ученый.

Например, роботу-медику может быть поручена задача по срочной доставке жизненно важных лекарств в определенное место. На пути он встречает человека в критическом состоянии. Моральный кодекс робота поможет ему самостоятельно оценить ситуацию и принять решение: остановиться и помочь человеку, или продолжить выполнение своей первостепенной задачи.

Если рассказы Азимова нас чему-то и научили, так это тому, что набор строгих и запрограммированных правил не может принимать во внимание каждый из возможных сценариев событий, так как всегда имеется вероятность возникновения непредвиденной ситуации, которая рано или поздно случается. Шутц и его коллеги с этим согласны и предлагают решение этой проблемы в два этапа.

По их мнению, все решения роботов будут приниматься во-первых с учетом первостепенной этической проверки за счет специальной программы, которая тем или иным образом похожа на одну из самых продвинутых систем вопросно-ответных ИИ, таких как, например, Watson от компании IBM. Если для решения задачи потребуется больше информации, то робот будет полагаться на систему эмуляции моральных ценностей, которую Шутц пытается разработать со своими коллегами.

Так как проект развивается при поддержке ВМС США, технология, вероятнее всего, сможет сперва найти свое применение при производстве медицинских роботов, которые будут помогать солдатам на полях сражений.

Ученые пытаются обучить роботов морали

Приложение
Hi-News.ru

Новости высоких технологий в приложении для iOS и Android.

11 комментариев

  1. Slem

    А мораль сказки такова ...
    Да они пусть хотя бы живому человеку некоторые вещи донесут.

  2. shaft

    Робот не может чувствовать как человек, может лишь вычислять комбинации заложенные программистами. Прописали что делать в различных ситуациях и вся тебе мораль.

  3. astana2017

    Ну и зря) пусть робот останется роботом! Зачем его такому учить, не вижу смысла. Ведь он все равно не будет так как мы, он будет всегда роботом)

  4. Archer

    Формализовать моральные ценности это вполне решаемая задача. Она по силам современным программистам.
    В каждом социальном обществе свои моральные ценности, по этому, для начала, их можно предельно сократить и упростить, в таком виде описать и запрограммировать робота. После этого можно моделировать и усложнять ...
    В природе Мораль присуща только социальным группам (не только людям). Одиночным особям она не требуется.

  5. darkgothiclady

    Обучения морали надо бы начинать с себя, а потом уже прививать ее роботу. А то глядишь некоторые люди вообще не знают что такое мораль.

    • Archer

      Эта работа поможет и людям разобраться с моральными принципами, выделить приоритеты, отбросить неактуальные моральные нормы.
      Мораль не стоит на месте, она развивается вместе с обществом, к которому эта мораль принадлежит.

  6. Anikulkin

    И всё таки фильм "терминатор" был документальным, вот только показали его слишком рано, лет так эдак через 30 - 40. Будет всем хана

  7. vitas

    Ну если создали робота который научиться понимать и потом люди будут ему в далбливать что ты раб ты создан для того чтобы служить людям и все такое!
    Это же рабство. (отправлено из Android приложения Hi-News.ru)

    • Archer

      А ты, что предлагаешь наделить роботов всеми правами и полномочиями как и человека? =))) будем выбирать из в депутаты и в президенты, будем судиться с ними и просить прощения за грубые слова или за случайный толчек в толпе? Что это за чушь?
      За свои права людям приходится сражаться и постоянно их отстаивать, за них пролиты реки крови, те, кто их не отстаивал так и умерли рабами. А ты предлагаешь подарить наши права железякам...

  8. storm X

    Робот, ты туды не ходи -ты суда ходи)) (отправлено из iOS приложения Hi-News.ru)

Новый комментарий

Для отправки комментария вы должны авторизоваться или зарегистрироваться.