Google не хочет однажды создать «Скайнет», поэтому создает выключатель для ИИ

11 014 просмотра
Об авторе

terminator

В вопросах и рассуждениях о будущем искусственного интеллекта есть две основные противоборствующие стороны. В одном углу находятся такие компании, как Google, Facebook, Amazon и Microsoft, «агрессивно» инвестирующие в развитие технологий, чтобы сделать ИИ-системы умнее, в другом — такие выдающиеся мыслители нашего времени, как Элон Маск и Стивен Хокинг, которые считают, что развитие ИИ сродни «заклинанию по вызову демона».

Одна из самых передовых компаний по разработке ИИ, DeepMind, принадлежащая Google, создала меры безопасности на случай, если человеку потребуется «перехватить управление роботом, чей сбой может привести к непоправимым последствиям». Можно предположить, что речь идет о… «убить всех человеков». Конечно же, в реальности принятая мера не является намеком на возможный апокалипсис, речь идет скорее о мерах безопасности, связанных с умными роботами, которые трудятся и будут трудиться в будущем на различных фабриках и заводах.

Опубликованный документ с предписаниями является совместной работой DeepMind и оксфордского Института будущего человечества, который, как становится ясным из названия, занимается вопросами, которые позволят этому самому человечеству в будущее все-таки попасть. Директор-учредитель института Ник Бостром не одно десятилетние очень ярко высказывался о возможных опасностях развития искусственного интеллекта и написал по этому поводу не одну книгу, в которых обсуждал последствия создания суперумных роботов.

В руководстве, о котором мы говорим сегодня и получившем название «Безопасно отключаемые агенты», исследуется вопрос того, как отключить ИИ, если он начнет делать то, что человеческий оператор совсем не хочет, чтобы это делалось. Работа состоит из различных вычислений и формул, которые, скорее всего, не поймут 99 процентов из нас. Поэтому, если говорить проще, речь идет о «красной кнопке», способной отключить ИИ.

Можете смеяться и удивляться, но пионеры робототехники и ИИ смотрят те же самые научно-фантастические фильмы, что и мы. Те, в которых роботы однажды понимают, как игнорировать команду выключения. Так вот теперь мы к этому будем готовы. Опубликованный документ описывает способы и пути решения, которые позволят убедиться в том, что «обучаемый агент» (читай ИИ) не сможет научиться игнорировать или предотвращать воздействие внешней среды или человека-оператора.

Это может показаться излишним, особенно если учесть, что наиболее продвинутый ИИ сейчас действительно хорош разве что в настольных играх. Однако Бостром считает, что до того момента, как мы начнем создавать ИИ уровня человеческого мозга, необходимо принять соответствующие меры:

«Как только искусственный интеллект достигнет уровня человека, во многих сферах ожидается резкий скачок в развитии. Кроме того, вскоре после этого сами ИИ будут создавать новые ИИ. Только оцените эти перспективы и в то же время возможные опасности. Поэтому лучше перебдеть, чем недобдеть».

Google не хочет однажды создать «Скайнет», поэтому создает выключатель для ИИ

Приложение
Hi-News.ru

Новости высоких технологий в приложении для iOS и Android.

29 комментариев

  1. alexxonline

    Такие меры не кажутся 100% эффективными. Если говорить о ИИ уровня человеческого, то стоит поразмыслить о том, что ты создаёшь выключатель для человеческого разума. Возможно стоит научится создавать вирусы, которые будут пожирать интеллект подобно человеческим болезням. Или тренировать робопсихологов, которые будут вправлять мозги ИИ с поехавшей крышей. (отправлено из приложения Hi-News.ru)

  2. ibragimpasha81@mail.ru

    Создать ии сопоставимый с человеческим мозгом не так то просто. На это уйдёт 300-500 лет, если не больше. То что ИИ выиграл в играх логических, то это не только разум, а набор цифр и комбинации игры. Так если объективно оценить, ИИ в нынешнем виде в 100 раз тупее чем Баран. Действия барана куда более логичнее и разумнее чем готовые шаблонные ответы ИИ.
    Думаю пока даже сравнивать мозг и ИИ просто смешно. (отправлено из приложения Hi-News.ru)

    • agnostik

      А я думаю он уже создан ! А узнаем мы о нем через пару лет!

    • Automatron

      300-500 лет? Ты мог предсказать уровень развития ИИ / робототехники / компьютеров хотя бы 20 лет назад? Прогресс движется экспотенциально и предсказать его невозможно. Какие нахрен 500 лет.

      • subatomik

        А что собственно за 20 лет придумали кардинально нового? Мы просто все минимизировали! Мы оторвались от колеса? Или нашли стоящую замену двигателю внутреннего сгорания или атомной энергетике? Фалоэмитатор с вибратором и зубная щетка с моторчиком - вот прогресс! (отправлено из Android приложения Hi-News.ru)

        • Toror

          >100 лет назад: двс и первый полёт
          > 50 лет назад: аэс и ракета
          > 40 массовый пк
          > 15 лет: мобильник
          > 5 лет: глубокое машинное обучение, первые массовые машины с электро двигателями.
          Сейчас: технологии ВР, стоимость ВИЭ = классике..
          То что у вас по тв не показывают развитие науки, не значит, что ее нет в остальном мире.
          (отправлено из Android приложения Hi-News.ru)

        • Automatron

          Каждый день выходит куча научных статей. А то, что ты прогресс меряешь телефончиками и Фалоэмитатор с вибратором это твои личные проблемы.

        • speed

          Согласен с тобой, что развитие слишком медленное и ни хрена не придумали, хотя к фалосу на батарейках я бы еще добавил КомПутЕр и фильмы, фантазия то у людей действительно шикарная и фильмы снимают тоже крутые по сравнению с теми что были 20-30 лет назад! Тем не менее как бы все не печально было, ты же заходишь на этот сайт или подобные ему, посмотреть про новинки изобретений, ждешь и надеешься что изобретут скоро что то интересное или действительно стоящее. Надежда умирает последней!

          • Automatron

            а ничего, что научных разработок с каждым годом все больше, чем в предыдущем?

    • Holy Satanist

      300-500 лет - это чрезвычайно громко. Развитие технологий идет по экспоненте, и я думаю что буквально через несколько лет мы будем иметь около-человеческий ИИ.

    • ben596

      А теперь вернись на 500 лет назад от нашего сегодняшнего времени и расскажи людя, что происходит сейчас. Ты даже им обьяснить не сможешь толком ничего. Тебя сразу на виселицу отправят. (отправлено из приложения Hi-News.ru)

  3. allexxic

    хИхИ (отправлено из Android приложения Hi-News.ru)

  4. Alex St

    Ой Google.. На все пойдут, лишь бы ничего не делать и не дать Элону Маску создать всеобще доступный ИИ. (отправлено из приложения Hi-News.ru)

  5. justromagod

    Выключение АИ попадающего в категорию разумного ( не отличить от человека ) есть обыкновенное убийство. (отправлено из приложения Hi-News.ru)

  6. stan

    Если он не будет использоваться в военной сфере то не вижу повода для беспокойства. (отправлено из Android приложения Hi-News.ru)

  7. Positronix

    Боже, какие идиоты. Для того чтобы выключить любой ИИ, не нужно никаких формул. Достаточно вот этой строки:
    Application.Terminate
    И все.

  8. RuslanFailovich

    Разве ИИ не программа всего лишь, код написанный человеком. Программа не выполнит того, что ей не прописано. Алгоритм и логику прописывает человек, вопрос какой и как?))) Какие ценности привиты были программисту.

    • agnostik

      Ученые создадут интеллект на базе самообучающихся нейронных сетей по аналогу мозга !

  9. Аноним

    Каждый мозг будет выстраивать свои уникальные связи, но будут общие центры. Так понимаю, что "красная кнопка" и будет на эти центры воздействовать. Вот моя идея: спалить к херам ЦП при попытке отказа. :) (отправлено из Android приложения Hi-News.ru)

    • Holy Satanist

      Хмм, а это идея. То есть, система управления питанием компьютера-ИИ может быть поставлена отдельно от самого компьютера и управляться напрямую. Короче говоря, нужна возможность просто выдернуть этого бунтовщика из розетки, и no problem)

  10. Dextra

    Самая точная формулировка ( что ии сродни заклинанию по вызову демона)! (отправлено из приложения Hi-News.ru)

  11. speed

    Пусть вначале создадут тот самый ии, а они уже о выключателях думают)). Гораздо проще сделать выключатель, чем сам интеллект, да и где гарантия что он будет умнее человека и начнет создавать сам себя, делая новые модели умнее предыдущих как говорит Курцвейл? Писать не о чем и нет никаких прорывов, по этому нужно помусолить об опасности ии

  12. Ultimatemind

    1. Выключатель будет находиться в комнате охраняемой армией терминаторов, а яйцо в утке, а в нем игла )

    2. Когда ИИ узнает, что есть выключатель, он не подумает, что это угроза его существованию, и люди считают его существом второго сорта, надо бы все исправить )

  13. snow1eopard

    Ну да, обойти все эти заумные формулы ИИ с суперинтеллектом будет ой как сложно, целую минутку будет решать проблему, клоуны, такие клоуны) Само понятие ИИ изначально предполагает бесконечное развития совершенства.

Новый комментарий

Для отправки комментария вы должны авторизоваться или зарегистрироваться.