Алан Тьюринг и философские проблемы искусственного интеллекта

18 Декабря 2013 в 13:00, Илья Хель 10 800 просмотров 25

Алан Тьюринг

Могут ли машины думать? Именно такой вопрос задал известный британский ученый Алан Тьюринг (в честь которого назван небезызвестный тест) в своей работе «Вычислительная техника и интеллект» в 1950 году. Еще точнее, он задал вопрос «могут ли машины делать, что мы (как мыслящие существа) можем делать?». Еще в 40-х годах Тьюринг в числе первых начал исследовать первые проблемы «умных машин», или как их называют сейчас — искусственного интеллекта. Будем использовать оба термина как синонимы.

В своей работе Тьюринг вывел несколько философских возражений по поводу существования искусственного интеллекта. Ученый вывел их в оппозицию к собственному мнению: он полагал, что к концу 20-го века машина сможет пройти «тест Тьюринга», обманув собеседника в не менее чем 30 % случаев и убедив его, что является человеком, а не машиной.

Видение ученого пока не стало правдой, но сегодня мы как никогда близки к появлению искусственного интеллекта.

Много лет авторы научной фантастики пытались найти ответы на эти философские вопросы, каждый раз по-разному представляя историю искусственного интеллекта. В этой статье мы рассмотрим несколько проблем искусственного интеллекта, которые предполагал Тьюринг, но которые смогла частично разрешить научная фантастика.

Первым из философских возражений является теологический аргумент. Допустим, «мышление является функцией бессмертной души человека. Бог дал бессмертную душу каждому мужчине и каждой женщине, но не животным и машинам. Потому ни одно животное или машина не может мыслить».

Если это так, то даже если машина воспроизведет все внутренние устройства разумного существа, она не сможет достичь истинного интеллекта без души. Однако Тьюринг утверждает, что ошибка такого аргумента заключается в том, что даже если «всемогущая сущность» существует (божество или нечто иное), нет ничего сложного в том, чтобы заключить душу в иную емкость, например, в сложный человекоподобный мозг или эквивалентную машину. Ученый также говорил, что создание достаточно сложной машины для размещения души ничем не отличалось бы от рождения ребенка, то есть создания очередного индивидуума для того, чтобы «всемогущий» имплантировал в него душу.

В аниме Ghost in the Shell рассматриваются отношения между человечеством, технологиями и тем, что это может означать для человека разумного или обладающего душой. Сознание или душа человека — это то, что отделяет людей от роботов. Поскольку люди обладают «призраком» (ghost), даже если их тела заменяются кибернетическими компонентами, в том числе и кибермозгом, они сохраняют свою человечность. В то же время, полностью построенному с нуля роботу будет не хватать такого призрака, который предоставит ему душу и подлинный интеллект.

Аргумент «головы в песке», представленный Тьюрингом, заключается в том, что «создание мыслящих машин было бы ужасно. Будем верить и надеяться, что этого не произойдет». Такое возражение связано с тем, что «мы хотели бы верить, что человек определенным тонким образом превосходит все остальные творения». То есть остается уникальным. Но мы уже писали о том, что создать искусственный интеллект — очень заманчивая и выгодная цель.

Тьюринг считает этот аргумент крайне слабым, поскольку он основан на наших опасениях уступить другим мыслящим существам. Этот страх реализуется в фильмах о «Терминаторе» с системой искусственного интеллекта SkyNet, которая решает уничтожить людей после активации. Поскольку SkyNet представляет собой «бестелесный» ум в суперкомпьютере, он использует терминаторов, чтобы добиться своей цели. Роботы из этого фильма воплощают страх, который порожден вышеупомянутым философским возражением, и показывают, что только потому, что мы чего-то боимся, это не лишено почвы.

Согласно Тьюрингу, математические пределы логики и вычислений могут существенно ограничить интеллект вычислительных машин. Он утверждает, что «есть ряд результатов математической логики, которые можно использовать, чтобы показать, что полномочия дискретных машин существенно ограничены», в частности, ссылаясь на теорему Геделя.

Математический предел связан с другим ограничением разумных машин, «аргументом в пользу сознания». Тьюринг развивает идею машины, подражающей участнику партийной игры, то есть выдающей себя за человека. Именно здесь появляется идея теста Тьюринга: следователь пытается определить, разговаривает он с искусственным существом или машиной. Если машина «пройдет» тест и убедит следователя в том, что она — человек, то перед ним будет искусственный интеллект.

Применение теста Тьюринга показано в фильме «Бегущий по лезвию», где машину «Войт-Кампф» используют для наблюдения за физиологическими реакциями и определения, является ли субъект «репликантом» (андроид с искусственным интеллектом) или же человеком. Отметим, что на сегодняшний день тест Тьюринга не прошла ни одна машина.

В «аргументе в пользу различных отклонений» Тьюринг предоставляет список человеческих черт, которыми искусственный интеллект, возможно, никогда не будет обладать. В списке: доброта, любовь, чувство юмора или способность делать что-то действительно новое. Сам же Тьюринг возражает: люди формируют свое представление о том, что такое машина и что она вообще может, основываясь на собственных наблюдениях. Поскольку у наблюдаемых сегодня машин (а в 1950 году тем более) нет таких человеческих черт, можно предположить, что никогда и не будет. Но научная фантастика нашла много способов очеловечить ИИ.

Юный хакер Дэвид Лайтмен почти случайно начинает третью мировую войну, играя в «мировую термоядерную войну» с военным суперкомпьютером WOPR в War Games. Когда WOPR продолжает играть и пытается получить доступ к кодам запуска ракет, озорной тинейджер и ученый от правительства дают инструкцию WOPR играть в крестики-нолики с самим собой. Найдя в себе идеального партнера и зная результат каждой игры, WOPR понимает, что ему хотят сказать: что в ядерной войне не будет победителей, поэтому заканчивает игру. Математические и вычислительные ограничения ИИ используются против него самого, чтобы научить его человеческому пониманию гарантированного взаимного уничтожения.

Тип суперкомпьютера HOLMES, которого создатель Мануэль О’Келли просто называет Майк в книге Хайнлайна «Луна — суровая хозяйка», спонтанно становится разумным и дружит с Мануэлем. Имея доступ ко всей написанной людьми информации, Майк узнает о чувстве юмора своего друга, о его шутках, загадках и песнях. Чувство юмора компьютера и поиск путей развития недавно приобретенного разума приводят его к тому, что он присоединяется к лунной революции в борьбе за независимость от Земли. Компьютер видит это как игру со своим другом.

Это всего лишь небольшая выборка из многих произведений научной фантастики, которые представляют альтернативные ответы на эти и другие вопросы об искусственном интеллекте. Да, в реальном мире машина еще не прошла тест Тьюринга, но творческие умы фантастов продолжают искать возможные пути развития ИИ.

Внимание, вопрос. Представьте себе идеально настроенный для себя искусственный интеллект. Нет, отбросьте все трагичные варианты развития ИИ и пусть он будет бестелесным, и попробуйте найти для себя ответ: каким качеством должен обладать ваш ИИ, что должен уметь, чтобы стать для вас незаменимым?

Алан Тьюринг и философские проблемы искусственного интеллекта

Приложение
Hi-News.ru

Новости высоких технологий в приложении для iOS и Android.

25 комментариев

  1. evgenche

    Не думаю что человека постигнет судьба как в Терминаторе. Скорей всего всю тяжелую работу взвалит на умных машин а сам рухнет от безделья на любимый диван и превратится в ожиревшее и обленившееся существо под названием Нехочуха. (отправлено из Android приложения Hi-News.ru)

  2. Schicklgruber

    таки, - ии не должен меня беспокоить и бесить... (отправлено из iOS приложения Hi-News.ru)

  3. avl

    ну бестелесный ИИ это менее интересно чем ИИ с телом роскошной женщины)))

  4. qqqqqq qqqqqqqq

    тупее меня, навыки социального общения, обучаться и знать что он или ано не человек )))

  5. stepan

    Размышления на эту тему-ни о чём.
    Живое это живое(я не о душе) ,а не живое,если даже созданно и напичканно человеком 1 и 0 -ями всего лишь механизм,или кибермашина(как угодно...)
    И ещё для начала надо бы определить ,что есть сознание,разум,размножение,эволюция сменяющих друг дркга размножающихся существ,насколько осозннанно и верно отображение объективного мира ,что есть подсознание,накопление генетического опыта итп итд
    Я написал очень тезисно-читатель домыслит... (отправлено из iOS приложения Hi-News.ru)

  6. Valverin

    В первую очередь, ИИ должен быть в наручниках. Он должен выполнять узкие задачи и учиться понимать своего хозяина. У каждого человека или группы людей должен быть свой личный ИИ и находиться он должен в облаке, чтобы, во-первых, не быть скованным в объеме места, где он будет располагаться, а значит, в потенциальном развитии. Во-вторых, чтобы быть по настоящему мобильным. Чтобы пользователь, то есть человек, мог вести свой пароль или пройти любой другой вид идентификации и поучить доступ к ИИ на любом устройстве: от смартфона и наручных часов до умного дома, что способен был бы помогать в бытовых делах.
    Да, здесь уместны большие риски. Если, например, взломали, то из такого ИИ можно вытянуть любое количество информации. С другой же стороны, зачем нужен ИИ, если не будет способен на такую особенность разума, как молчание и сохранение тайн? Самоликвидация, наконец (отправлено из Android приложения Hi-News.ru)

  7. nik kak

    придёт время и на основе какой-нибудь квантовой запутанности у ии появится возможность вмешиваться в жизнь людей, как говорится "по факту" т. е. зная чем всё кончится вносить поправки в настоящее, чтобы не кончилось совсем плохо

  8. elena9791

    Айзек Азимов и законы робототехники !!! Их всего три ! тогда терминатор нам не грозит

    • neverwinter1983

      Эти законы обычная программа, а её можно взломать или переписать

    • neverwinter1983

      Вы фильм "я робот" смотрели ? Так вот там затронута эта тема с тремя законами робототехники.
      Чтобы обеспечить сохранность человека, надо ограничить его свободу и действия. При этом ни один из законов не нарушается.

  9. vlad3241998

    Неужели нельзя создать робота который бы еволюционировал методом проб и ошибок,как живой организм. Ведь если существо руководится случаем, предсказать его следующие действия становится невозможным. Скорость еволюции у ии в тысячи раз выше чем у организма, ведь в отличие от организма, который изменяется под действием факторов,находящихся рядом, ии подключенный к интернету, сможет оперировать терабайтами информации и действовать быстро и ефективно.
    Хотя если поразмыслить, разработать такой компьютер и дать ему возможность обрабатывать человеческую информацию под машиную- занятие очень долгое. ведь надо все существующее перевести в цифры. К тому же работа и возможности человеческого мозга достатчно не изучены, так что неизвестно ,,кто кого'' (отправлено из Android приложения Hi-News.ru)

  10. filgood

    Если рассмотреть теорию из библии,что нас создали по образу и подобию бога, то не сложно предположить , что мы пытаемся последовать по такому же пути, и что в следствии может привести к не желательным последствиям. На ошибкам учатся.

  11. romeoalberti

    Человек все никак не может успокоиться и все играет в бога. Ошибется еще много раз и столкнется с фатальными проблемами. Еще точно не известно к чему приведет плавильный переход на ГМО, например. (отправлено из iOS приложения Hi-News.ru)

  12. denn

    Пересмотрите фильм - я робот. Мораль ясна до безобразия. Ведь действительно в идеально отдаленной программе появляются не запланированые сбои. А сбой это тоже некий сегмент кода который выполняется программой. (отправлено из iOS приложения Hi-News.ru)

Новый комментарий

Для отправки комментария вы должны авторизоваться или зарегистрироваться.