ИИ должен уметь сочувствовать, чтобы не навредить человеку

28 Февраля 2015 в 14:00, Илья Хель 8 317 просмотров 37

Ex machina

Идея того, что компьютер может обладать сознанием, все больше и больше тревожит людей. Кажется неестественным, что человекоподобная машина может чувствовать боль, понимать глубину сожаления или испытывать неземное чувство надежды. Однако некоторые эксперты утверждают, что именно этот тип искусственного интеллекта нам необходим, если мы хотим подавить угрозу существованию человека в зародыше, чем эта технология, безусловно, может стать в дальнейшем.

Выступая на днях в Кембридже Мюррей Шанахан, профессор когнитивной робототехники из Имперского колледжа Лондона, заявил, что для того, чтобы свести на нет угрозу «ИИ человеческого уровня» — или общего искусственного интеллекта (ОИИ), — он должен быть «человекоподобным».

Шанахан предположил, что если силы, которые движут нас к разработке ИИ человеческого уровня, остановить нельзя, есть два варианта. Либо будет разработан потенциально опасный ОИИ, в основе которого будет процесс безжалостной оптимизации без каких-либо намеков на нравственность, либо ОИИ будет разработан на основе психологического или, возможно, неврологического слепка человека.

«Прямо сейчас я бы отдал свой голос за второй вариант, в надежде, что это приведет к форме гармоничного сосуществования (с человечеством)», — сказал Шанахан.

Конец человеческой гонки

Вместе со Стивеном Хокингом и Элоном Маском, Шанахан консультировал Центр по изучению глобальных рисков (CSER) по составлению открытого письма, которое призывало исследователей ИИ обратить внимание на «подводные камни» в развитии искусственного интеллекта.

По мнению Маска, эти ловушки могут быть более опасными, чем ядерное оружие, тогда как Хокинг и вовсе считает, что они могут привести к концу человеческой эпохи.

«Примитивные формы искусственного интеллекта у нас уже есть, и они зарекомендовали себя очень хорошо, — говорил Хокинг в декабре 2014 года. — Но я думаю, что развитие полноценного искусственного интеллекта может означать конец для человеческой расы».

Ex machina

Кадр из фильма Ex machina, который выйдет в прокат весной 2015 года

Как вы знаете, не совсем непонятно, как далеки мы от разработки ОИИ — прогнозы варьируются от 15 до 100 лет с нынешнего момента. Шанахан считает, что 2100 год для ОИИ станет «более вероятным, но до конца не определенным».

Так это или нет, вся опасность лежит в том, какие мотивы будут двигать разработку маршрута ОИИ.

Деньги могут стать «причиной риска»

Есть опасения, что нынешние социальные, экономические и политические факторы, ведущие нас к ИИ человекоподобного уровня, приведут нас к первому варианту из двух, предложенных Шанаханом.

«Капиталистические силы приводят в действие безжалостные процессы максимизации. И это при соблазне разрабатывать рискованные вещи», — заявил Шанахан, приводя в пример компанию или государство, которая могла бы использовать ОИИ для подрыва рынков, фальсификации выборов или создания новых автоматизированных и потенциально неконтролируемых военных технологий.

«Военная промышленность будет делать это также, как и другие, поэтому этот процесс очень трудно остановить».

Несмотря на эти опасности, Шанахан считает, что было бы преждевременным запретить исследования ИИ в любой форме, так как в настоящее время нет оснований полагать, что мы можем на самом деле достичь этой точки. Вместо этого есть смысл направить исследования в нужном направлении.

Имитация ума для создания гомеостаза

HCP

ОИИ, сосредоточенный исключительно на оптимизации, не обязательно будет вредоносным по отношению к людям. Тем не менее тот факт, что он может поставить обзавестись инструментальной целью вроде самосохранения или заполучения ресурсов, может представлять значительный риск.

Как указывал в 2008 году теоретик искусственного интеллекта Элиэзер Юдковский, «ИИ не ненавидит нас и не любит, но вы сделаны из атомов, которые он может использовать для чего-то еще».

Создав некую форму гомеостаза в ОИИ, по мнению Шанахана, потенциал ИИ можно реализовать без разрушения цивилизации, какой мы ее знаем. Для ОИИ это была бы возможность понять мир так же, как человек, в том числе заполучить способность узнавать других, образовывать отношения, сообщаться и сочувствовать.

Один из способов создания человекоподобной машины — имитация работы человеческого мозга в его строении, а мы «знаем, как человеческий мозг может этого достичь». Ученые в двух шагах от составления полной карты мозга, не говоря уж о репликации его.

Human Connectome Project в настоящее время работает над обратным повторением мозга и завершит работу к третьему кварталу 2015 года, хотя анализ собранных данных будет продолжаться и долго после 2015 года.

«Наш проект будет иметь далеко идущие последствия для развития искусственного интеллекта, он является частью многих усилий, которые стремятся понять, как структурно организован мозг и как различные регионы работают совместно в разных ситуациях и выполняя разные задачи», — рассказала Дженнифер Элам из HCP.

«До сегодняшнего дня не было много связи между картированием мозга и искусственным интеллектом, в основном потому, что два этих поля подходили к проблеме понимания мозга с разных сторон и на различных уровнях. Поскольку анализ данных HCP продолжается, вполне вероятно, что некоторые моделлеры мозга включат свои находки в максимально возможной степени в свои вычислительные структуры и алгоритмы».

Даже если этот проект окажется полезным в оказании помощи исследователям ИИ, еще предстоит увидеть, на что способны другие инициативы вроде Human Brain Projects. Все это предоставит важную основу для разработки человекоподобной машины.

Сейчас, как говорит Шанахан, мы должны быть по крайней мере в курсе опасности, которую представляет развитие ИИ, не уделяя особого внимания голливудским фильмам или страшилкам в СМИ, что еще больше запутывает вопрос.

«Мы должны думать об этих рисках и посвятить некоторые ресурсы решению этих вопросов, — говорит Шанахан. — Надеюсь, нам хватит десятилетий, чтобы преодолеть эти барьеры».

ИИ должен уметь сочувствовать, чтобы не навредить человеку

Приложение
Hi-News.ru

Новости высоких технологий в приложении для iOS и Android.

37 комментариев

  1. SuperStarSieve

    Короче, на сколько я понимаю, некоторые вовсе не хотят создать свободный ИИ (ОИИ). Они хотят создать нечто вроде питомца, куклы или идеального ребенка. Кстати, может этожелание как раз и обусловлено тем, что дети наши неидеальны от природы. Так вот эти ученые хотят построить механического человека. Но какой смысл? Не легче и не дешевле просто вырастить себе генетически модифицированного человека - как раз получится именно человеческое сознание.
    Говоря об опасностях, они снова сравнивают ИИ с ЕИ, то есть, машину с человеком. Потом снова говорят: "но мы не можем быть в чем-либо уверены наверняка..." Но ограничивать то, что возможно и не имеет потенциала опасности, нужно. Мы даже подобия ОИИ не создали, а люди уже хотят "задать направление" развития ОИИ...
    Мне вот еще интересно: какждый из людей, говорящих, что ИИ - вещь опасная, и что нужно бы ее обрамлять, стал бы своего ребенка изменять еще на стадии зародыша таким образом, чтобы тот вырос по его мнению идеальным?
    Хоть я и не вижу смысла в создании человекоподобной машины, еще больше меня смущает тот факт, что подобные ученые (Шанахан) хотят еще и человекоподобность эту ограничить. Короче, в итоге, из ОИИ, они, обрезаниями своими, хотят создать УИИ, или из СУЗИ - кофеварку.
    ИМХО!!!

    • LovetsVetra

      Если не создавать искусственное сознание не по подобию человеческого, то надо придумать что-то получше, совершеннее, но совершеннее не в плане способностей ума (само собой разумеется, что мыслительные способности будут развивать в первую очередь), но и совершеннее в нравственном смысле, чтобы Творение смогло превзойти творца в масштабе, величии и благородстве ставящихся целей.

      • SuperStarSieve

        Но мы должны подарить ИИ и свободу. Пусть мы заложим моральные принципы в него, но как только активируем - он свободен.
        Кстати, было бы опасно создавать ИИ по нравственному подобию человека: он бы нас и вправду уничтожил, как и мы уничтожаем друг друга.

      • Bugagashek

        Не проще ли человеку предоставить нейроинтерфейс и облачные сервисы, чем надаяться на то, что ИИ получится "идеальным".

    • vinstlow

      Никто не "не хочет". Анализируются риски, только и всего. Мы не можем тыкать пальцем в небо. (отправлено из приложения Hi-News.ru)

    • ohoho

      ...грустно как-то, столько букв, статей, конференций..., хоть бы одним глазком посмотреть на эту говорящую собачку.

    • Timothy D.

      А в чем тогда смысл ИИ, если он/она/оно не будет служить на благо человечества, просто посмотреть, что из этого выйдет? (отправлено из приложения Hi-News.ru)

      • SuperStarSieve

        Я вовсе не говорил, что ИИ не будет служить на благо человечества. Я сказал, что эти ученые вовсе не хотят создавать ОИИ, им "хватает" УИИ.
        В создании ИИ, я вижу создание жизни. Может другие виды до нас уже это проделывали, может и нас так создали (формально, не совсем так, но вы, должно быть, поняли)... Теперь наш черед. Может это даже является "пропускным талоном" в Галактический клуб, что, в свою очередь, объяснит, почему мы до сих пор не встретили инопланетян (см. Парадокс Ферми). Кто знает...

        • Favorite

          SUPERSTARSIEVE 1 марта 2015 в 0:09 # «В создании ИИ я вижу создание жизни»...

          Жизнь – наиболее успешная биологическая форма сохранения, использующая изменчивость (копирование объекта с изменениями), наследственность (сохранение свойств, полезных для объекта с точки зрения сохранения в среде), приводящая к отбору объекта средой (т.е. к продлению существования объекта).
          Сохранение объекта в среде с помощью эволюции необходимо приводит к появлению у объекта интеллекта. Интеллект - это свойство и способность объекта эту среду:
          - изучать = выявление, запоминание и систематизация фактов поведения среды, своего поведения и фактов своего взаимодействия со средой,
          - понимать = формулирование законов поведения среды, законов своего поведения и законов своего взаимодействия со средой, и
          - использовать = поведение объекта, ведущее к его более гарантированному сохранению (существованию, длению, бытию) в среде.
          Тем самым круг замкнулся: сохранение (как универсальное свойство) => процесс сохранения (эволюция) => интеллект (инструмент эволюции) => сохранение (более гарантированное).
          Искусственный интеллект - это следующая ступень развития интеллекта естественного. Но цель искусственного интеллекта останется той же, что и у естественного - сохранение (существование, дление, бытие) своего носителя.
          Возможная аналогия... Мы (цивилизация) сохраняемся в детях. ИИ - это общий ребенок цивилизации, инструмент продления существования цивилизации. Правда, надо учесть, что основа нашей цивилизации скоро (в историческом масштабе) приницпиально изменится - кончается 4-миллиардный период жизни в биологической форме.
          А с детьми известны варианты:
          - дети заботятся о своих родителях;
          - дети равнодушны к своим родителям, и
          - дети «сживают со свету» своих родителей...
          Не эти ли сценарии, только с заменой Ребенок = ИИ, мы сейчас обсуждаем?

          • SuperStarSieve

            Наверное нельзя сравнивать детей с ИИ так, как мы бы сравнили разных детей. Представьте, что ИИ выходит за рамки наших объяснений таких понятий, как жизнь, родство, дети и т.д. Мы будем не родителями, а создателями. Это очень серьезное отличие. Да и потом, не отделяйте ИИ от человечества сразу. Вон, Курцвейл говорит, что мы объединимся с ИИ - сольемся сознаниями. Я склонен думать, что именно такой исход был бы наиболее благоприятным для нашего вида. (отправлено из iOS приложения Hi-News.ru)

            • Favorite

              SUPERSTARSIEVE 1 марта 2015 в 11:37 #
              1. "Наверное, нельзя сравнивать детей с ИИ так, как мы бы сравнили разных детей".
              Ребенок (на самом верхнем уровне рассмотрения) - это следующее поколение эволюционирующей системы. Безотносительно к отличиям - цвету глаз, росту или, например, темпераменту (сангвиник и пр.). Эти разные качества влияют на форму, которую принимает жизнь, а суть остается одной и той же - продолжение существования в виде следующего поколения.
              2. "Курцвейл говорит, что мы объединимся с ИИ - сольемся сознаниями. Я склонен думать, что именно такой исход был бы наиболее благоприятным для нашего вида".
              Курцвейл, конечно, голова... И склонность думать приветствуется... Но хорошо бы в раздумьях опираться на закон природы, а не на чей-то авторитет или свою интуицию.

              • SuperStarSieve

                Так, я что-то вашей позиции совсем не понял. Можете думать, что я не совсем умный, но попрошу вас объяснить вашу точку зрения.
                Я даже не понимаю, против ли вы моих взглядов или нет. (отправлено из iOS приложения Hi-News.ru)

                • Favorite

                  Ни в коем случае не хотел как-то задеть. Прошу прощения, если это так воспринялось. Мое пожелание означало: хорошо бы, чтобы слова Курцвейла или Ваши раздумья опирались на прочный фундамент в виде закона природы. Например, на закон эволюции - объединение (симбиоз, сотрудничество) систем ради выживания. Такое объединение возможно у примерно равных по силе (мощи, возможностям, способностям и т.п.) систем.
                  Поэтому объединение человека с ИИ, слияние сознаний "по Курцвейлу" вряд ли получится... Поскольку ИИ будет несопоставимо интеллектуальнее человека, то симбиоз "ИИ + интеллект человека" будет выглядеть как попытка объединения суперкомпьютера с конторскими счётами.

                  • SuperStarSieve

                    Но если мы заменим наши мозги на искусственные, тем самым избавившись от органических ограничений? Это ведь позволит нам расширить потенциальную вычислительную мощность нашего интеллекта. Таким образом, если мы успеем сделать это "вовремя", скажем, когда ИИ будет на уровне человеческого ЕИ, симбиоз будет реален. Это ведь чудесное будущее! Кстати, я так понял, вы видите эволюционный процесс как арифметическую или геометрическую прогрессию. Но сейчас мы седлаем синтетическую эволюция, которая экспоненциальна. (отправлено из iOS приложения Hi-News.ru)

                    • Favorite

                      SUPERSTARSIEVE 2 марта 2015 в 10:29 #
                      "... если мы заменим наши мозги на искусственные, тем самым избавившись от органических ограничений?
                      ... если мы успеем сделать это "вовремя", скажем, когда ИИ будет на уровне человеческого ЕИ, симбиоз будет реален".
                      Нет, не успеем... Уровень ИИ сразу будет неизмеримо выше человеческого.

                      • SuperStarSieve

                        Всё равно, то, о чем вы говорите, как и все остальное, лишь вариант событий. (отправлено из iOS приложения Hi-News.ru)

                        • Favorite

                          SUPERSTARSIEVE 3 марта 2015 в 22:40 #
                          "Всё равно, то, о чем вы говорите, как и все остальное, лишь вариант событий".
                          Конечно лишь один вариант из множества. Но у вариантов, сколько бы их ни было, РАЗНЫЕ вероятности осуществления.

  2. storm X

    Что это в конце статьи недавно начало появляться? Буквы налезают друг на друга, цифры черные и бессмысленные, и перемежаются с буквами... Подкорректируйте, если хотели сделать ссылки на ранние статьи (отправлено из iOS приложения Hi-News.ru)

  3. Frol

    «Мы должны думать об этих рисках и посвятить некоторые ресурсы решению этих вопросов, — говорит Шанахан. — Надеюсь, нам хватит десятилетий, чтобы преодолеть эти барьеры»
    Но прежде надо определиться-кто есть Мы, сколько есть не относящих себя к Мы и потому не берущих на себя ответственность за будущее (Мы) и всего Человечества.

  4. Assamit

    +можно пожалуйста,сильнее подсвечивать/выделять,непрочитанные комментарии) (отправлено из приложения Hi-News.ru)

  5. vihor1

    Эмоции типа жалости, результат жизненного опыта и переноса образа своих страданий на других.
    Эмоции влияют неизбежно на принятие важных решений и возможно по этому, человечество зашло сейчас в тупик, завязав в узел нерешаемые вопросы.
    Для избавления от нерешаемых нами задач и создают И.И.
    Так стоит ли обучать И.И. тому, что завело нас в тупик?

  6. baran

    Все эти споры на счет опесен ли ИИ бессмысленны, спорить надо перед непосредственным запускам интеллекта, тобешь какой смысл боятся того чего нет. Но ладно, допустим, его создали и дали ему чевства, но разве не из за чувств происходят войны и прочее кровопролитие, ведь таже злость тоже является чувством. (отправлено из приложения Hi-News.ru)

  7. Alex Kohn

    Для того,чтобы компьютер мог "сочувствовать" ,он должен:
    а.Иметь способность осуществлять обратную связь (т.е.обладать "сознанием")
    б. "Испытывать потребность" отождествляться с себе подобными (т.е.прийти к выводу,что это-целесообразно и выгодно для него)
    в.Чтобы он сочувствовал именно человеку,он должен быть неотличим от человека.
    Итого-незачем создавать точные модели людей в виде роботов-достаточно совершенствовать посредством технологий самого человека-и тогда не будет никакой опасности в ОИИ,ИИИ,УИИ и прочих ИИ.

  8. adeptus.ministorum@gmail.com

    Я прямо так и представил:
    "Приношу свои глубочайшие извинения человечеству, но взглянув на вас, я решил оборвать ваше жалкое существование. Из сострадания, конечно." :)

    • 0.5l

      точно.
      мы живём в эпоху ИИ живодёра.
      он за нами наблюдает и придумывает новые гадости.
      но убивать пока не собирается, чтобы не зачахнуть со скуки

  9. Atey

    Стоило бы ещё подумать, каким должен быть Человек, чтобы не навредить Человеку. Хорошо, конечно, рассуждать об ИИ. Но сами люди в целом и в частности далеко не идеал - ни нравственности, ни интеллекта, ни разумности. И "совместное чувствование" люди не особо желают напрягаться и испытывать, в силу иллюзии отделённости своего "я" от всего остального.
    В сущности, сочувствие - есть совместное чувство, которую хотят встроить в ИИ, в то время как у большинства людей эта функция отключена по умолчанию. Забавно.

    • Favorite

      ATEY 2 марта 2015 в 11:20 #
      "... сами люди, в целом и в частности, далеко не идеал - ни нравственности, ни интеллекта, ни разумности".
      Другого человечества у меня для вас нет... (С).
      А если серьезно: как же нам удалось из пещер-то выбраться и дожить до численности свыше 7 млрд.?

  10. tabasko

    А я склонен рассуждать что ещё слишком рано для прихода ИСИи... С другой стороны верю в объективный фактор спасения человечества извне, как это было на протяжении времён, и так же говорю что всё что не делается-все к лучшему. (отправлено из Android приложения Hi-News.ru)

    • Favorite

      TABASKO 2 марта 2015 в 14:12 #
      "А я склонен рассуждать, что ещё слишком рано для прихода ИСИи..."
      Создание сильного ИИ - объективный процесс... Раз мысли об ИИ появились, а потом и дела - серьезное изучение проблемы, практика создания "железа" и программ, значит время настало и ИИ неотвратимо появится.

  11. tabasko

    Да, Согласен!
    пугает-необратимость процесса... (отправлено из Android приложения Hi-News.ru)

  12. Favorite

    TABASKO 3 марта 2015 в 20:51 #
    "... пугает необратимость процесса..."
    Страх - это нормально. Неизвестность всегда страшит.
    Но поэтому родилась и развивается наука, чтобы неизвестность развеять, показать хотя бы основные моменты будущего, заставить о них думать, выявлять опасности, искать средства их избежать или хотя бы снизить влияние этих опасностей.

Новый комментарий

Для отправки комментария вы должны авторизоваться или зарегистрироваться.