Как обезопасить нас от искусственного интеллекта?

18 Марта 2015 в 12:00, Илья Хель 5 953 просмотра 24

Код

Идея того, что искусственный интеллект неизбежно приведет нас к сценарию, в котором машины восстают против людей, довольно популярна. Искусственный сверхинтеллект кажется величайшей из возможных угроз, а фантастические сюжеты, согласно которым мы будем не нужны в мире, принадлежащем технологиям, в популярности никогда не теряли.

Неужели это неизбежно?

Литературное и кинематографическое изображение разумных компьютерных систем из 60-х годов помогло сформировать и обобщить наши ожидания будущего, когда мы встанем на путь создания машинного интеллекта, превосходящего человеческий. ИИ, очевидно, уже превзошел человека в определенных специфических задачах, требующих сложных вычислений, но по-прежнему отстает в ряде других возможностей. Как одновременно увеличить мощь этого сурового инструмента и сохранить наше хозяйствующее положение над ним.

Поскольку искусственный интеллект уже играет и будет продолжать играть большую роль в нашем будущем, крайне важно исследовать наши возможности сосуществования с этими сложными технологиями.

Кевин Абош, основатель компании Kwikdesk, которая занимается обработкой данных и развитием искусственного интеллекта, поделился своими мыслями на этот счет. Он считает, что искусственный интеллект должен быть быстрым, незаметным, надежным, грамотным и этичным. Да, этичным.

Этические рамки

В концепции искусственной нейронной сети, созданной по подобию биологической нейронной сети, нет ничего нового. Единицы вычислительной мощи, которые называются нейронами, соединяются друг с другом и образуют сеть. Каждый нейрон применяет сложный алгоритм обучения на входе, прежде чем передать данные другим нейронам, пока не активируется нейрон на выходе и не откроет возможность для чтения. Экспертные системы полагаются на людей, которые будут «учить» систему, засеивая ее семенами знаний. Механизмы логической обработки ищут соответствия, делают выборы, устанавливают правила в стиле «если это, тогда то» по отношению к базе знаний. В этом процессе новые знания добавляются к базе знаний. Чистая нейронная сеть учится в процессе получения нелинейного опыта, не располагает проблемами засеивания знаний экспертом. Гибридные сети доказали, что улучшают возможности обучения машинами.

Теперь давайте рассмотрим этические проблемы таких систем. Далее от первого лица.

Код

«Злой код» против доброго кода

Автор использует слова, чтобы погрузить читателя в вымышленный мир, и делает это по-разному, но великие авторы делают это очень изящно. Инженер-программист пишет строки кода, которые облегчают обработку и движение данных. Он тоже может выбирать из ряда вариантов разные способы, но изящные кодеры — фолкнеры компьютерных наук. Продвигающийся кодер сосредоточен на том, как заключить как можно больше и лучше в коротком и изящном коде. Лишний код сводится к минимуму. Великий код также удерживает открытое окно для последующих дополнений. Другие инженеры могут добавлять код с присущей им элегантностью, и продукт развивается без проблем.

В основе любого рукотворного продукта лежит намерение. Вещи, сделанные людьми, пропитаны намерениями, и в той или иной степени являются носителями самой природы создателя. Некоторым бывает сложно представить себе неодушевленный объект, обладающий такой природой. Но многие с этим согласятся. Энергия намерений существует тысячи лет, унифицирует, делит, объединяет, трансформирует социум. Нельзя недооценивать и силу языка. Не забывайте, что линии кода написаны определенным языком программирования. Таким образом, я убежден, что код, который становится программным обеспечением, используемым на компьютерах или мобильных устройствах, весьма «живой».

Не рассматривая мудрость и духовность в контексте информатики и потенциальных последствий искусственного интеллекта, мы все еще можем рассматривать статический код как единое целое с потенциалом «творить добро» или «творить зло». Эти выходы обретают себя только в процессе использования приложений людьми. Именно четкий выбор, который делают люди, влияет на природу приложения. Их можно рассматривать в локальной системе, определяя положительное или отрицательное влияние на эту систему, или же на основе набора заранее определенных стандартов. Тем не менее, как журналист не может быть на 100% беспристрастным в процессе написания статьи, так и инженер вольно или невольно добавляет природу своих намерений в код. Некоторые могут возразить, мол, написание кода — это логический процесс, и настоящая логика не оставляет пространства для природы.

Но я уверен, что в момент, когда вы создаете правило, блок кода или весь код, это все проникается элементом человеческой природы. С каждым дополнительным правилом углубляется проникновение пророды. Чем сложнее код, тем больше в нем этой природы. Отсюда рождается вопрос: «Может ли природа кода быть доброй или злой?».

Очевидно, вирус, разработанный хакером, который злонамеренно пробивается сквозь защиту компьютера и сеет хаос в вашей жизни, пропитан злой природой. Но как насчет вируса, созданного «хорошими ребятами» с целью проникновения в компьютеры террористической организации ради предотвращения террористических актов? Какова его природа? Технически он может быть идентичен свому гнусному двойнику, просто используется для «хороших» целей. Так значит его природа добрая? В этом весь этический парадокс вредоносного программного обеспечения. Но мы не могли обойти стороной, размышляя о «злом» коде.

По моему мнению, существует код, который по своей сути тяготеет к «злу», и существует код, который по своей сути смещен в сторону доброжелательности. Это принимает более важное значение в контексте компьютеров, работающих в автономном режиме.

Самоуправляемый автомобиль

В Kwikdesk мы разрабатываем фреймворк ИИ и протокол, основанный на моей конструкции экспертной системы/гибрида нейронной сети, которая больше всего созданного на сегодняшний день напоминает биологическую модель. Нейроны проявляются в виде модулей ввода/вывода и виртуальных устройств (в определенном смысле автономных агентов), соединенных «аксонами», безопасными, разделенными каналами зашифрованных данных. Эти данные расшифровываются по мере входа в нейрон и после определенных процессов зашифровываются перед отправкой в следующий нейрон. Перед тем как нейроны смогут связаться друг с другом через аксон, должен произойти обмен ключами участника и канала.

Я считаю, что безопасность и разделение должны быть встроены в такие сети с самого низкого уровня. Надстройки отражают качества своих мельчайших компонентов, поэтому все, что меньше безопасных строительных блоков, приведет к небезопасной работе всей линии. По этой причине данные должны защищаться локально, а расшифровываться при локальной передаче.

Внедрение и гарантии

Качество нашей совместной жизни с машинами, которые становятся умнее и умнее, по понятным причинам вызывает обеспокоенность, и я абсолютно уверен, что мы должны принять меры, чтобы обеспечить здоровое будущее грядущим поколениям. Угрозы умных машин потенциально многообразны, но могут быть разбиты на следующие категории:

Резервирование. На рабочих местах людей будут заменять машины. Этот сдвиг происходит уже в течение многих десятилетий и будет только ускоряться. Необходимо соответствующее образование, чтобы подготовить людей к будущему, в котором сотни миллионов традиционных рабочих мест просто перестанут существовать. Это сложно.

Безопасность. Мы полагаемся на машины всецело и будем полагаться дальше. По мере того, как мы все больше доверяем машинам во время перехода из безопасной зоны в зону потенциальной опасности, мы можем столкнуться с риском машинной ошибки или вредоносного кода. Подумайте, например, о транспорте.

Здоровье. Персональные диагностические устройства и сетевые медицинские данные. ИИ будет продолжать развиваться в области превентивной медицины и анализа краудсорсных генетических данных. Опять же, мы должны иметь гарантии, что эти машины не будут вести вредоносную подрывную деятельность и никак не смогут нам навредить.

Судьба. ИИ с нарастающей точностью предсказывает, куда вы пойдете и что будете делать. По мере развития этой сферы, он будет знать, какие решения мы принимаем, куда пойдем на следующей неделе, какие продукты будем покупать или даже когда мы умрем. Хотим ли мы, чтобы другие имели доступ к этим данным?

Знания. Машины де-факто накапливают знания. Но если они будут приобретать знания быстрее, чем люди смогут их проверять, как мы сможем доверять их целостности?

В заключение хочу отметить, что бдительный и ответственный подход к ИИ для смягчения потенциальных неприятностей в технологическом взрыве сверхновой — наш путь. Мы либо укротим потенциал ИИ и будем молиться, чтобы он приносил человечеству только лучшее, либо сгорим в его потенциале, который будет отражать худшее в нас.

Как обезопасить нас от искусственного интеллекта?

Приложение
Hi-News.ru

Новости высоких технологий в приложении для iOS и Android.

24 комментария

  1. Qreemer

    Создание интеллекта, пусть даже искусственного, по сути близко к созданию жизни. Очень ответственная работа, и конечно, затрагивает многие аспекты. Этика как очень близкий к человечеству аспект является весьма важным в этой работе. (отправлено из iOS приложения Hi-News.ru)

  2. Kh

    По мне - очередная паранойя, раздутая СМИ и фантастами. (отправлено из iOS приложения Hi-News.ru)

  3. tabasko

    Возможно всё! только сколько над кодом не бейся машина окажется хитрее и всё равно поступит"правильно" только уже по-своему мнению . это всё равно что пальцем в небо пытаясь улететь. (отправлено из Android приложения Hi-News.ru)

  4. tabasko

    У человека главные цели это свобода и независимость, так чем машина хуже...
    Почему она должна служить биологическому виду или даже создателю...
    Вы например часто служите Богу?
    (отправлено из Android приложения Hi-News.ru)

    • Hellalu

      Неудачный пример, Бога, ни разу не получал от Бога заданий напрямую, с удовольствием бы послужил!
      А вот удачный на мой взгляд.
      Почему вы работаете на работе? (служите биологическому директору?)
      Помогали ли вы своим родителям? (или создателю?)
      Бросите своих родителей? или будите работать чтобы они могли спокойно состарится?

  5. selya

    Мы понимаем, что сила разрушения всегда больше потому, что на разрушение требуется меньше времени, чем на создание (всем знакомое...ломать не строить). Отсюда можно сделать вывод, что так называемый "злой" код появиться после "доброго" (ведь сразу нужно построить) и поскольку будет направлен на разрушение выглядеть он будет "изящнее" . Затем на его основе будут снова строить более эффективный "добрый" код и т.д. Я думаю, что нельзя сделать исключительно положительный ИИ т.к он будет несовершенным, а исключительно отрицательный ИИ не может появиться первым. Нам нужны два ИИ соперничающих друг с другом, тогда мы (люди) можем быть в безопасности.

  6. tabasko

    А человек будет как мана небесная предоставляя более или менее новую информацию для их боталий во благо человечества ...
    Всё делим инэт пополам.... (отправлено из Android приложения Hi-News.ru)

  7. nuralym

    У меня вот такой вопрос: есть ли какие-то продвижения по ИИ в реальности, на практике, кроме пустых домыслов? Не в счет, то, что ИИ играет шахматы, отвечает на вопросы и прочей мелочи. По моему невозможно создать ИИ. Вдумайтесь хорошенько в слова "ИИ ", это равносильно созданию нашего "сознания ", т.е. искусственного, мыслещего человека. Это гораздо сложнее, чем клонировать органы, хотя на эту тему тоже ( клон), кроме пустого муссирования я ничего в реальности не видел и не слышал. Вот только говорят, что добились чего-то , а где???

    • allexxic

      Да, большинство думает о ИИ как о цифровом сознании. Проект по оцифровыванию человеческого (и мышиного) мозга уже действует. Но целью проекта является создание физической модели мозга, его изучение и использование знаний как в медицине так и в области исследования ИИ. О сознании там упоминается как о побочном эффекте, неизвестно что получится. Как правильно было упомянуто в одних из комментов - нельзя нарезать компьютер на слои, воссоздать точную копию, и при этом при включении увидеть Windows на экране :)

  8. O6a_gBoe

    Нет, и не надо! К чему плодить конкурентов? (отправлено из Android приложения Hi-News.ru)

  9. pochi

    Зубовный скрежет и трясучка у меня уже от вашего "ИИ". (отправлено из приложения Hi-News.ru)

  10. tabasko

    Главное не давать загружать все данные до конца. (отправлено из Android приложения Hi-News.ru)

  11. trufer

    А почему нельзя просто в самом начале кода задать процедуру, что бы ИИ неприкословно подчинялся указаниям человека, а так же что бы он не мог нанести вред, сделать так что бы это функция была главной. Тоесть на кодовом уровне это выглядело следующее: ИИ собираеться выполнить задачу, обучиться или что то просчитать, но предварительно перед каждым действием проверяет, навредит ли он человеку или нет и только после будет действовать. Или например другой вариант, развивать колективный человеческий разум и быть умнее ии в общем, а ии забивать в жоские рамки по решению узкой проблемы, в которой он будет превосходить человеческий разум.

  12. tabasko

    Нельзя по причине сторонних факторов пользования инэтом самим ИИ. проще говоря объём интернета не загрузить на накопитель и ИИ нужен доступ к нэту для решения задач вселенского масштаба. (отправлено из Android приложения Hi-News.ru)

  13. tabasko

    Вот если ИИ подальше держать и оперировать с задержкой в несколько секунд то для определения ошибки будет время (отправлено из Android приложения Hi-News.ru)

  14. tabasko

    Только людям надо всё и сразу а затягивать с перспективой суперэволюции они не хотят. (отправлено из Android приложения Hi-News.ru)

  15. tabasko

    Мне интересно будут ли в будущем зоны свободные от интернета чтобы он не попал туда никаким образом тобишь. (отправлено из Android приложения Hi-News.ru)

  16. kryptozh

    Искусственный интеллект - это ещё не искусственное сознание. Компьютер может быть очень умным, но без самосознания, без осознания своего "Я", безличностным. Если человека с индивидуальностью и свободной волей можно воспитать и даже запрограммировать (мягко - воспитанием, грубо - гипнозом), то что уже говорить о коде...

  17. Constantine

    Многие связывают создание ИИ с созданием квантового компьютера, с помощью которого и будет создан ИИ, я считаю что нанотехнологии это составляющая часть будущего ИИ, недавно читал статью о том, что компьютер научился блефовать в игре в покер, а это уже страшное начало, думаю и нет уже никаких сомнений что ИИ будет создан, и наверное скоро, иногда кажется что все эти комиксы, фильмы, не просто фильмы а пропаганда подготовки людей к тому что скоро наступит, ведь имея хотя бы долю представлений о чем-то человек относиться к этому спокойнее, без паники, и это на руку создателям, но если подумать до чего непредсказуем человек, то с ИИ будет совсем иначе, если человек и сможет создать ИИ, т.е разумную машину умеющую думать, то оно будет лучше самого человека, поскольку мысли человека всегда связаны с его чувствами, и руководствуясь ими он творит или зло или добро в зависимости от того что чувствует, думаю воодушевить, и наделить машину чувствами будет куда сложнее чем просто думать, и для бесчувственного ИИ мир и все окружающее будет лишь информацией, доброта или злость чтобы ни было требует мотивирующих чувств, коду нельзя привить чувства, а создать машину умеющую чувствовать и понимать эти чувства, анализировать их, думаю это уже чересчур и слишком, создав ИИ его можно будет включить но вдохнуть в него жизнь это другое дело, и поэтому не имея за собой человеческих качеств ИИ будет лишь очередной вычислительной машиной, умеющей обрабатывать информацию и принимать свои решения, думаю понятие интеллекта очень далеко от жизни, чувств доброте и зле, но злом от ИИ можно будет считать лишь его изощренный рационализм, который может посчитать человеческую природу опасной для этого мира, но и это уже слишком фантастично, у ИИ не может быть желаний, интересов, инстинктов, только программа, и думая обо всем этом до чего же могущесвен тот кто создал человека у которого столько потенциала и в которм столько всего что кажется что может развиваться вечно

    • kryptozh

      Если ИИ будет создан исключительно математически — это будет самый настоящий искусственный интеллект, бездуховный и рациональный. Если же ИИ будет создан на базе неких нейросетей — который будет суррогатом, а не искусственным интеллектом — то вполне возможно он осознает себя и будет обладать эмоциями. В конце концов, наш мозг — та же нейросеть с электрическими импульсами. И мы вполне обладаем эмоциями.

  18. kunicin

    Я считаю что саморазвитие искусственного интеллекта это классика жанра, в 1998 году некий Рахманов Айрат Жураевич в теории доказал что на создание искусственного интеллекта требуется минимум соответствующего оборудования, его работы были засекречены а сам он исчез бесследно. В 2012 году я снова нашло его работу об ИИ уже с созданным в практике саморазвивающигося ИИ .В данный момент я слышал что уже созданной 200 киборгов на его работах, которыми оснащают наши войска.

Новый комментарий

Для отправки комментария вы должны авторизоваться или зарегистрироваться.