Роботы вскоре обретут инстинкт самосохранения

3 Августа 2016, Владимир Кузнецов 23

Одним из отличительных свойств живых организмов являются заложенные в нас природой программы поведения, которые мы называем инстинктами. И не последним из них, позволившим человеку взойти на вершину эволюционной лестницы, является инстинкт самосохранения. Благодаря ему мы способны ограждать себя от возможной опасности: будь то осторожность при переходе проезжей части или отказ от ночных прогулок в неблагоприятных районах. Но совсем скоро роботы тоже могут научиться ограждать себя от опасности.

Роботы вскоре обретут инстинкт самосохранения

Роботизированные механизмы действуют согласно заложенной в них программе и не могут отступать от нее ни на шаг, даже в том случае, если робот будет на полном ходу нестись в сторону пропасти. Специалисты из DARPA разработали специальный алгоритм, который позволит самоуправляемым механизмам предсказывать возможную опасность и тем самым спасать себя от поломок или даже уничтожения.

path

Алгоритм DARPA в действии. Летающий дрон просчитывает траекторию полета. Красные линии указывают опасные и потенциально опасные маршруты

Во время испытаний алгоритма самосохранения DARPA указали дрону начальную и конечную точки маршрута, который проходил через лесополосу и составлял 1 километр. Результаты нескольких запусков с разными точками начала и конца маршрута оказались положительными.

Стоит упомянуть, что разработка DARPA далеко не уникальна. Исследовательский отдел компании Microsoft работает над подобной системой уже несколько лет. Испытания планируются в недалеком будущем, но алгоритм поведения Microsoft выглядит более интересным. В функциональность системы входит не только возможность анализировать ситуацию, но и запоминать полученную информацию, чтобы избегать неприятных ситуаций в будущем. Более того, роботы будут способны делиться друг с другом картами местности с указанием всех опасных маршрутов.

Несмотря на то, что данный алгоритм еще больше приближает роботизированные механизмы к подобию того, что нам рисуют фантастические фильмы о будущем, бить тревогу пока рано, ведь это всего лишь набор команд, по своей сути мало чем отличающийся от обычных программ, закладываемых в память машин. Пока машины не обретут чувство самосознания, о наступлении мрачного будущего можно не беспокоиться. Хотя кто знает, какие алгоритмы разрабатываются сейчас в рамках секретных проектов….

23 комментария Оставить свой

  1. karlsonx88

    Не пинайте пылесосов-роботов!

    • Dasha2000

      karlsonx88, Верно! Всегда найдется програмист-заступник роботов и научит пылесосик отстреливаться в ответ!

      • deaddreams

        Dasha2000, засасывать насмерть

        • Вадим Казаров

          deaddreams, Так появились Далеки

          • Zarb

            Вадим, Нет ну что Вы. Далеки - это злобные гномики в танках-пыселосах же. Они ниразу не роботы.

      • Ce3apyc

        Dasha2000, Роботу-пылесосу, как раз, инстинкт самосохранения не помешал бы. А то путается под ногами, самоубийца;)

  2. Cortes

    Роботы станут трусишками?

  3. Dasha2000

    Предлагаю дополнить закон роботов:
    "Обидел тебя гуманоидище-дай ему в таблище!"
    А кроме шуток, только некий синтез ИИ и искусственного тела позволит появиться мыслящему( разумному) существу! И это будет здорово!
    Тогда при наличии хорошего процессора, можно будет переписывать разумную составляющую человека в новое кибер-тело. Какое сейчас замечательное время!

    • allexxic

      Dasha2000, Чтобы переписать надо сначала считать. Есть идеи как будем считывать?

  4. Khius

    у моего смартфона "самосохранение" есть давно

    • Zarb

      Khius, Статья не про такое сохранение. Вот если бы твой смартфон отползал от горячей кружки с чаем, то да, это оно.

  5. Sil0k

    " ..бить тревогу пока рано"
    а когда бить тревогу будет поздно, то будет уже слишком поздно..

    • Владимир Кузнецов

      Sil0k, Не могу не согласиться. Но все же набор алгоритмов действия и искусственный интеллект со способностью самоосознания - несколько разные вещи

      • Rillan

        Владимир, Большая часть людей не осознает себя не разбирается в собсвенных желаниях, мыслях и прочем.

      • DenDobriy

        Владимир, Это спорный вопрос, Владимир) Это как искать точную границу между светлым и темным. Вроде есть четкое разделение,но если присматриваться, мы найдем только бесконечный переход из одного состояния в другое. У Тацита или еще кого-то из греков есть описание такого реального случая. Собака догоняла своего хозяина и оказалась на развилке. Понюхала воздух над одной из дорожек и побежала. Вскоре вернулась и понюхав воздух над следующей тропинкой побежала туда. Вернулась и не нюхая воздух радостно кинулась по оставшейся 3й тропинке. У собаки нет интеллекта, однако она без проблем проделала довольно заковыристые математические расчеты. Даже насекомые и микроорганизмы это умеют. Так что в один момент у вас есть "примитивный механизм", а в другой-это может быть чем-то качественно другим.

        • Владимир Кузнецов

          DenDobriy, можно долго спорить на этот счет. в ваших словах, без сомнения, прослеживается логика. тут палка о двух, а то и о трех концах. в любом случае, интересно наблюдать за развитием всей этой ситуации с ИИ

  6. Rillan

    Добавить еше алгоритм вечного поиска опыта, знаний научить синтезировать информацию и делать выводы, и получится человек.

    Всего еще каких 20-30 лет.

    • deaddreams

      Rillan, 20-30 и лет андроиды-роботы будут спорить с детьми чья очередь поиграться на приставке?

  7. [email protected]

    Выходные пересмотрел фильм Я Робот. Прикольное кино. Есть над чем задуматься

  8. Dextra

    Лично меня такие вот новости слегка пугают

    • Rillan

      Dextra, Из-за таких как ты прогресс и тормозится. Вы(все подобные) боитесь всего что неподконтрольно и что вам не ясно.

      Даже когда мы найдем инопланетную жизнь и ее бояться будете.

      И тут я не обвиняю просто у тебя позиция дурацкая.

      • Triponix

        Rillan, Советую посмотреть Аниматрицу. Там как-раз эта тема затронута.

Новый комментарий

Для отправки комментария вы должны авторизоваться или зарегистрироваться.