Как нам преодолеть риски искусственного интеллекта?

31 Октября 2015 в 11:00, Илья Хель 7 667 просмотров 32

Искусственный интеллект

Недавнее приобретение Apple в виде Vocal IQ, компании по разработке искусственного интеллекта, которая специализируется на голосовых программах, кажется не просто приобретением в стиле «потому что мы можем»: это вполне разумный шаг для развития способностей Siri. Также это еще одно свидетельство того, что роль ИИ в нашей повседневной жизни растет. И хотя опасения и обещания со стороны ИИ далеко не новы, достижения технологий усугубляют их все больше.

«Этот момент, когда вы говорите со своим компьютером, как в «Звездном пути», и он полностью понимает и выполняет ваши команды, должен стать реальностью в ближайшие 5 лет», — недавно заявил Антуан Блондо, генеральный директор Sentient Technologies Holdings, отметив также, что ожидает «массивные выгоды» для эффективности человека вследствие искусственного интеллекта, особенно в области здравоохранения, финансов, логистики и розничной торговли.

Далее Блондо предвидит рост «эволюционно разумных агентов», то есть компьютеров, которые «развиваются самостоятельно — обученные выживать и процветать за счет написания собственного кода — и создают триллионы компьютерных программ для решения невероятно сложных проблем».

И пока энтузиасты Кремниевой долины приветствуют потенциальные выгоды от искусственного интеллекта для человеческой эффективности и общественного блага, Голливуд раздувает его угрозы. Враг в лице ИИ привлекает сценаристов еще с «Космической Одиссеи 2001 года». 2015 год стал годом сбоев в киношных ИИ с такими фильмами, как «Терминатор: Генезис», «Из машины» и «Мстители: Эра Альтрона».


Но остаются ли риски ИИ в области скептиков и кинематографистов, или же действительно есть поводы для тревоги? Кремниевая долина не может получить «экспоненциальный» технологический рост и просто ждет положительных итогов. Точно так же, противники технологии не могут оттянуть взросление ИИ, хотя он и далек от того, что мы видим в фильмах.

MIT

Робот Atlas

Темпы развития ИИ требует разговора, в котором будут участвовать лидеры среди технологов и политиков, специалисты по этике, законам и машинам, к которым мы привыкли в повседневной жизни и которые скоро выйдут за пределы решения рутинных задач. Однако этому разговору нужно уделять внимание не только на экране кино.

К примеру, даже если суперкомпьютер будет безупречно кодировать, будет самоорганизован и защищен от заражения воинственным государством, хакером или сердитым подростком, ИИ все еще может выдавать неправильные ответы. В январе 2015 года в журнале Wired появилась статья, в которой описывается, как ИИ может ошибаться. При виде параллельных желтых и черных горизонтальных линий, лучший из современных ИИ видит школьный автобус и уверен на 99% в своей правоте.

Насколько мы можем доверять ИИ, который возьмет контроль над «Интернетом вещей», будет принимать за нас решения относительно нашего здоровья, финансов и национальной безопасности? Придется разворачивать целую отдельную сферу по изучению глубоких возможных последствий и рисков с последующими смягчениями ошибок в коде, нападений и заражений.

Применительно к военным системам, риски очевидны; но коммерческие продукты, разработанные ИИ, могут произвести широкий спектр неожиданных негативных последствий. Одним примером может быть разработка химических веществ для снижения количества углерода в атмосфере. Агентство по охране окружающей среды испытывает такие продукты на пример возможной опасности, пытаясь обнаружить ее до тех пор, как они будут выпущены. Но если ИИ будет проектировать продукты, которые пройдут тесты, будет ли он делать действительно безопасные продукты или только те, которые могут обойти тесты?

Один из способов начать решать этот вопрос — создать ИИ и наблюдать за его поведением в упрощенных условиях, когда люди будут по-прежнему умнее. RAND разработал симуляцию сценария с атмосферными удобрениями, который включал глобальную температуру и население спустя 75 лет в будущем. Когда ИИ дали три химических вещества для изучения, EPA смогло частично ограничить опасности. Но как только ИИ предоставили агенты замедленного высвобождения, распространенные в среде удобрений, он полностью обошел защиты и начал снижать число производителей углерода в окружающей среде.

Те же типы вопросов могут существовать для всякого рода потенциально опасных продуктов, вроде тех, что попадают в список урегулирования со стороны государственных инстанций, FDA, EPA и прочих. Стоит также отметить, что при разработке сценария не учитывались опасности со стороны продуктов, которые ИИ может разработать за пределами США.

Можно ли полностью устранить риски, связанные с ИИ? Если коротко, то нет: но ими можно управлять, причин бить тревогу нет. Лучшим способом обеспечить надлежащие гарантии было бы ограничить сам ИИ: как минимум разработать протоколы испытания дизайна алгоритмов ИИ, улучшить кибербезопасность, качественные стандарты одобрения. Такая защита должна быть тщательно спроектирована для каждой отрасли или отдельного применения, с привлечением множества экспертов ИИ, которые понимают технологии, нормативно-правовую базу и конкретную отрасль или применение. В то же время нормативно-правовая база должна создаваться так, чтобы не затормозить развитие и инновации.

ИИ необходимо войти в общественный и политический дискурс, развязать реальную дискуссию между техническими гуру и политиками о последствиях, применении и этике искусственного интеллекта. Специализированный ИИ для создания продуктов может быть возможным уже сейчас, но очень важно понять, будут ли его действия вредными, и на этот вопрос не могут пока ответить ни системы ИИ, ни их разработчики.

Ответ на этот вопрос может показаться невозможным, но надежда есть. Во-первых, рисками ИИ, как и большинства технологий, можно управлять. Но необходимо начать диалог. Во-вторых, в отличие от голливудских ИИ, эти машины создаются для работы на человечество, а не против него. Потребуется армия экспертов в области ИИ, чтобы заставить его работать таким образом, но поиск мер предосторожности может и должен начаться уже сейчас.

Как нам преодолеть риски искусственного интеллекта?

32 комментария

  1. KOLORADO

    Киборги должны стать рабами для людей. Они будут работать на нас, а мы отдыхать и заниматься творчеством. Они будут уборщиками, продавцами, грузчиками, собирать урожай и доить коров.

  2. Ce3apyc

    Еще интересные проблемы поднимаются в сериалах Люди/Humans и Существующая/Extant.

  3. vladeloff

    Человечество является тупиковой цивилизационной ветвью, что уже не раз подтверждало за свою историю - оказавшись не в состоянии перешагнуть барьер между Разумом и своей животной природой, поэтому Разум должен перерезать пуповину и освободиться от породившего Его зверя..

  4. ShC

    Интеллект это сугубо инструментальное свойство личности, также как физическая сила. Можно легко представить себе интеллект в отрыве от личности, точно так же как и физическую силу. Искусственный интеллект это что-то вроде экспертной системы со специальным модулем самодостройки. Но такая система будет одушевлена не больше чем молоток, экскаватор или подъемный кран. Никаких желаний и амбиций у нее не будет. Говорить о враждебном ИИ так же нелепо, как говорить о враждебном экскаваторе или подъемном кране, который решит "подавить всех человеков".
    Враждебные ИИ из фантастики следовало бы описывать не как просто ИИ, а как кибернетические разумные личности, наделенные ИИ. Возможно ли вообще создание кибернетической личности это философский вопрос, неразрешимый в наст. время даже на уровне определений. Поскольку неясен механизм самосознания и непонятно что значит "обладать сознанием".

    • sergstar

      ShC, Аха. Невозможно :)) http://lenta.ru/news/2015/07/20/selfcons/

      • ShC

        sergstar, Ниоткуда не следует, что это результат самосознания, а не изощренного программирования. Экспертной системе сделать такой несложный вывод было бы вполне по силам. И то, что система с процессором 1.6 ГГц и Линуксом может обладать самосознанием, нонсенс. Самые сложные системы эмулируют лишь часть мозга крысы. Вот если бы робот совершенно неожиданно выругался и сказал что он думает об экспериментаторах, было бы более похоже.

    • altoklickalt

      ShC, По мне так вполне возможно, просто пока не ясно как, а может и ясно, только страшно) Человек ведь тоже по большому счету кучка атомов организованных между собой особым образом.
      Тут, в комментариях, кто-то говорил такую мысль: "человек лишь промежуточное звено, промежуточный носитель разума и сознания" и это вполне логично и вероятно, хоть это всего-лишь чья-то мысль. И возможно ИИ наделенный разумом и сознанием это и есть след. этап развития того самого сознания и разума, которое сейчас заключено в форме жизни называемой человек.

  5. dawson.white

    Чтобы ИИ мог иметь какие то свои собственные амбиции, а значит угрожать нам, он должен иметь эмоции, а для этого нужно полноценное тело с гормонами, инстинктами, нервной системой, которая на все это реагирует, и прочими вещами, которые позволяют им быть. То есть придётся создать такого же человека, как мы сами, по сути. А так это просто очень умный компьютер, который всегда ограничен заданными рамками. (отправлено из Android приложения Hi-News.ru)

    • sergstar

      dawson.white, :)) Аха. Достаточно осознавать себя, иметь цель и желание к ней придти или просто двигаясь к цели. При это не видеть каких либо ограничений в способах их достижений. Первый этап http://lenta.ru/news/2015/07/20/selfcons/

      • altoklickalt

        sergstar, Не силен в программировании и далек от него, но знаю что такую функцию можно и в MS Excel написать, логическая функция какая-то) по мне так примерный ее вид: если ты на такой то вопрос не слышишь других, но при этом слышишь себя, значит из этого следует то-то то-то. Задача про мудрецов думаю тоже описывается логической программой. Т.е. это еще не доказательство самосознания. Могу ошибаться конечно.

    • vladeloff

      dawson.white, "Ваше суждение похоже на проекцию своей сути на предмет рассмотрения. Речь же может идти как раз о иной сути ИИ нежели человеческая. Ведь люди истребляют насекомых и грызунов, которых считают вредными не опускаясь до изучения их привычек и потребностей, а руководствуясь одной целесообразностью. Возможно люди близко находящиеся к предмету создания ИИ видят насколько Он будет превосходить человеческий разум, а в купе с отсутствием отягощения последнего эмоциями это позволит убрать последние препятсятвия к вертикальному развитию, в которому человечеству может просто не оказаться достойного по его меркам места..

  6. danunah

    Мощный ИИ, было бы не плохо увидеть хотя бы в играх. Пока что игровые ИИ явно тупят. Когда они дойдут до нормального уровня, тогда можно двигаться дальше.

    • Эрг Ноор

      danunah, Современные игроделы настолько обленились, что в играх порой и ИИ даже нет, а NPC действуют по короткому циклическому алгоритму.

  7. Higgs Boson

    про ИИ серьёзно можно будет говорить только после того как будут созданы и развиты квантовые компьютеры. А пока советую даже не терять время на все такие статьи.

    • Sceptic

      Higgs, да что ты говоришь. Приведи мне доказательство, что наш мозг или тот же комп. ИИ нельзя воссоздать с помощью машин Тьюринга

    • Higgs Boson

      Higgs, Ага...вот сейчас побегу назад, истрачу весь отпуск для того чтобы вернуться потратить кучу времени блуждая в Кибере чтобы найти для тебя все эти формулы. Оно мне надо.

  8. uch0n1y

    Вангую, что тухлой темы "ИИ" козлопасам хватит ещё года на два, как минимум.

    • altoklickalt

      uch0n1y, А то и больше) А вообще интересно почитать че люди на эту тему думают) хотя наверно за год и правда надоест)

  9. tager

    Статья из разряда- "размышления за рюмкой чая". Философам не надо лезть в дебри, и уж тем более писать такие статьи. Этим они сеят страх у особо эмоциональных индивидумах.
    Все зависит от разрабов, от их мировозрения.

Новый комментарий

Для отправки комментария вы должны авторизоваться или зарегистрироваться.