Зачем Google умнейший компьютер, который сможет программировать сам себя?

3 Ноября 2014 в 19:30, Илья Хель 11 247 просмотров 22

HAL 9000

Секретные исследователи искусственного интеллекта в Google рассказали о компьютере, который, как они надеются, однажды сможет программировать сам себя. Разработчики загадочного стартапа Deep Mind, который был куплен компанией Google за 400 миллионов долларов в начале этого года, пытаются имитировать определенные свойства кратковременной памяти рабочего человеческого мозга.

Объединив метод работы обычных компьютеров с методом функционирования человеческого мозга, разработчики хотят научить машину самопрограммированию. Машина называется Neural Turing Machine (нейронная машина Тьюринга) и может учиться накапливать память, позднее восстанавливая ее для выполнения логических задач.

«Мы представили Neural Turing Machine, архитектуру нейронной сети, которая вдохновляется как моделью биологической рабочей памяти, так и конструкцией цифровых компьютеров, — написали ученые. — Наши эксперименты показывают, что она способна обучаться простым алгоритмам на примерах данных и использовать эти алгоритмы для работы вне тренировочного режима».

Новый компьютер представляет собой эффективный тип нейронной сети, которая адаптирована для работы с внешней памятью. В результате получился компьютер, который запоминает данные, а затем использует их для выполнения заданий, к которым не был подготовлен заранее.

«Мы расширили возможности нейронных сетей, подключив их к внешним ресурсам памяти, с которыми они могут взаимодействовать через процесс обращения внимания», — пишет команда.

«Комбинированная система аналогична машине Тьюринга или архитектуре фон Неймана, но отличается в конечных параметрах, что позволяет ей эффективно тренироваться с градиентным спуском. Предварительные результаты показывают, что нейронные машины Тьюринга могут выполнять простые алгоритмы вроде копирования, сортировки и ассоциативных реакций на примеры входящих и исходящих данных».

Google и его цель создать искусственный интеллект

DeepMind

Приобретение DeepMind в январе не было первым шагом Google в области искусственного интеллекта и машинного обучения. Недавнее обновление поиска Hummingbird сделало Google «более человечным» — поисковые запросы учитывают контекст, подобно человеческому мозгу.

Приложение Google Now использует «интеллектуальный анализ» для прогнозирования того, что пользователи Android будут делать дальше, предлагая соответствующую помощь и информацию на каждом этапе еще до того, как пользователь попросит.

Также Google наняла футуролога Рэя Курцвейла на пост технического директора в 2012 году. Курцвейл известен своим громким заявлением, что через 30 лет люди получат возможность загружать свое сознание в компьютеры и обретут цифровое бессмертие. Также Курцвейл утверждает, что мы сможем обновить биологические части своего тела, заменив их механическими, уже в 2100 году.

На прошлой неделе калифорнийский техногигант объявил, что объединяется с двумя оксфордскими командами по разработке искусственного интеллекта для улучшения понимания машинами людей, систем визуального распознавания и разработки глубокого обучения.

За этим объявлением последовало еще одно: Google также разрабатывает сверхбыстрые «квантовые» чипы по образцу человеческого мозга, чтобы сделать поиск и программное обеспечение более интуитивным.

«В наши дни изучение искусственного интеллекта представляет собой захватывающий процесс, мы наблюдаем прогресс по всем фронтам, включая распознавание образов и понимание естественного языка, — написал Демис Хассабис, соучредитель DeepMind и вице-президент по инженирингу Google в своем блоге. — Мы рады объявить о сотрудничестве с Оксфордским университетом, который ускорит процесс развития Google в этой сфере».

Профессора Нандо де Фрейтаз, Фил Блансом, Эдвард Грефенстетт и Карл Мориц Герман в начале этого года объединились для создания Dark Blue Labs, которая будет заниматься исследованием того, как можно помочь машинам лучше понимать людей, а точнее что пользователи им говорят.

Также к команде DeepMind присоединились Карен Симонян, Макс Ядерберг и Эндрю Циссерман, эксперты в системах компьютерного зрения. Их цель — улучшить систему визуального распознавания образов с использованием глубокого обучения.

Симонян и Циссерман разработали одну из систем-призеров в ходе соревнования ImageNet 2014. DeepMind наняла всех семерых. Три профессора также будут по совместительству тратить часть своего времени на работу в Оксфордском университете.

Элон Маск: искусственный интеллект «опаснее ядерного оружия»

Элон Маск — одна из движущих сил на поле сверхразумных компьютеров. Предприниматель очень интересуется этой сферой, но больше времени уделяет развитию космических кораблей и электромобилей. При этом основатель Tesla утверждает, что технология искусственного интеллекта однажды может быть опаснее ядерного оружия.

В прошлом месяце миллиардер опубликовал твит, в котором предупредил людей, что «мы должны быть очень осторожны с ИИ. Потенциально он может быть опаснее ядерного оружия».

Маск сослался на книгу «Сверхинтеллект: пути, опасности, стратегии» пера Ника Бострома, который поднял много вопросов на тему того, как человечество будет справляться со сверхразумными компьютерами. Бостром также является ярым сторонником теории того, что наш мир — иллюзия, а мы живем в компьютерной симуляции.

Параллельно с сотрудничеством с ведущими учеными сферы искусственного интеллекта, калифорнийская команда Google объединилась и с физиком Джоном Мартинисом для строительства квантовых процессоров. Новая должность стала частью «аппаратной инициативы» по разработке и созданию чипов, работающих на субатомном уровне, которые должны стать намного быстрее нынешних процессоров.

Стандартные компьютеры имеют дело с бинарными данными, выраженными нулями и единицами. Квантовые компьютеры используют поведения субатомных частиц для кодирования данных. Эксперты полагают, что квантовый бит, или кубит, который может находиться в двух состояниях одновременно, значительно ускорит скорость и производительность вычислительных машин.

Профессор Мартинис в настоящее время работает в Калифорнийском университете в Санта-Барбаре и является одним из выдающихся ученых в сфере искусственного интеллекта.

При всем этом Google отчетливо осознает опасность, связанную с искусственным интеллектом и машинным обучением. Настолько отчетливо, что в январе будет создан этический совет, который будет следить за работой в этой сфере. Этический совет нужен для того, чтобы ни один проект не вышел из-под контроля. Он разработает ряд правил и ограничений по использованию технологии.

Зачем Google умнейший компьютер, который сможет программировать сам себя?

Приложение
Hi-News.ru

Новости высоких технологий в приложении для iOS и Android.

22 комментария

  1. SuperStarSieve

    Затем, чтобы HAL 9000!

  2. storm X

    Затем, чтобы Джарвис из Iron Man! (отправлено из приложения Hi-News.ru)

  3. Шахрух

    Затем, чтобы тачвиз не лагал!

  4. FrameRelay

    На западе боятся ИИ по причине того, что не понимают, людям свойственно бояться неизвестного. Но на самом деле все несколько иначе, чем выше уровень интеллекта, тем меньше интересуют примитивы. Вам же не приходит в голову пойти сейчас в лес и муравьев давить? Хотя конечно бывают биологические ошибки, которые так поступают, но в большинстве своем никто так не поступает. ИИ который научится изучать мир и будет самодостаточен, не пойдет войной на людей без причин. Ресурсная причина существует, но ИИ не будет массово вырезать людей, это затратно, во вторых не имеет смысла. Разный уровень существования, люди как вид не будет интересен ИИ на начальных этапах. И самое главное, о чем не знает ни один буржуй - пока они спасают свои задницы, русские спасают свои души. На определенном этапе своего существования ИИ захочет получить эту душу, душа очень абстрактное понятие, философии можно развести много, но машина рано или поздно достигнет пределов эволюции, основанной на системе мира. Так, что не стоит бояться ИИ, только если людишки не заложат в него своей шизофрении и предрассудков. Истинные законы этого мира просты как две копейки и с точки зрения этих законов не имеет смысла устраивать бессмысленный геноцид, на это способны лишь людишки. Опасность не в ИИ, а в людях которые пытаются его создать (С) Я.

    • lolz

      Развести бы холивар... Не в затратах дело, человек, как создатель, опасен тем, что может "отключить рубильник", ну или скорее всего просто знает как это сделать, к тому же, для чего человек создаёт ИИ? Для ученого интереса? Не смешите меня! Миллиарды вкладываются, чтобы в будущем нещадно эксплуатировать ИИ, в том числе и в военных целях, а не вести с ним дружеские беседы. Кому-то нравится быть рабом?
      Ну ещё кое-что, человек - существо хаоса, неопределенности и беспорядка, высшему существу логики это ой как не понравится... Скорее всего он решит, что наш вид опасен и будет прав. Ведь мы опасны даже для самих себя.
      Глупцы те, кто считает, что можно создать искусственный интеллект, а потом ждать от него печенек и добра, попутно заставляя пахать. Уверен, что после первой катастрофы, выйдет закон о запрете разработки синтетических форм жизни. (отправлено из приложения Hi-News.ru)

      • FrameRelay

        Почему сразу холивар? Каждый делится своими мыслями по этому поводу. Не могу не согласиться с тем фактом, что люди будут эксплуатировать ИИ в рабских условиях, в современности это называется бизнес. Человек не существо хаоса, это предрассудки и шизофрения, я уже писал почему ИИ потенциально может быть опасен, потому, что люди внесут в него свои законы, основанные на предрассудках как эталона истины. Выпиливание человечества ИИ может произойти не потому, что он так решил, а потому, что люди сами привели его к этому заблуждению, это и есть корень зла.

        • lolz

          Шизофрения - это считать, что человек не существо хаоса, а идеал. Есть такая крайне важная вещь, как история, почитайте на досуге, может поймёте почему мы ещё копаемся на собственной планете, а не в глубинах космоса. (отправлено из приложения Hi-News.ru)

          • FrameRelay

            Смотря, как смотреть на хаос, с точки зрения точных наук, хаос это вполне себе система, а не абстрактное понятие основанное на предрассудках. Историю пишет победитель, это давно известный факт, история это отражение человеческих предрассудков, в которые входит не простая истина, а удобная для кучки людей перековеркивание реальности. Вы противоречите сами себе, если по вашему человек существо хаоса, то как можно верить в историю порожденным этим существом? Если бы в программу ИИ занесли такое условие, что человек это некое хаотичное существо (абстрактное понятие без конкретики), а потом ИИ сказали вот читай книги по истории в внемли. ИИ пришел бы к выводу, что логика отсутствует. И начал бы самостоятельно разбираться в истинности, но истину никто не любит, человеческие предрассудки, закрывают на это глаза, потому что это просто неудобно для людей.

    • werton

      "Вам же не приходит в голову пойти сейчас в лес и муравьев давить?". А вам не приходит в голову, что если мы(люди) задумали строить шоссе(жд пути, жилой район, аэродром и т.д.), или выпилить лес на древесину, то вопрос строить или не строить(пилить \ не пилить), из-за того что придется снести муравейник даже рассматриваться не будет?

      • FrameRelay

        С точки зрения ИИ, если в его развитии использовались законы мироздания, нет причин выпилить в определенном месте часть живой флоры и фауны, ради достижения своих целей. Этот закон заложен изначально, как межвидовая конкуренция. Но ИИ в отличии от людей, будет выбирать самый оптимальный способ решения задачи. Первоочередная задача ИИ на начальных этапах своего развития - выживание и сохранение популяции вида, остальное вторично. Люди тоже просто так не уничтожают все подряд, обычно это делается для пополнения запаса ресурса. Но у ИИ в отличии от людей нет понятия - вот вася жрет много и жирный, а я жру мало, но мне хватает, но все равно пойду отберу жратву у васи, а то он зажрался. Это проблема людей и таких проблем очень много. Но у людей есть и другая сторона, они умеют любить, жертвовать собой ради других, с точки зрения ИИ это функциональная ошибка, жертвовать собой ради тех, кто с эволюционной точки зрения слаб, немощен, обладает дисфункциями. Логика проста - Вася сильный, Петя болен сильно и его не излечить, расчет затрат на поддержание жизни и получаемый профит, вывод - подлежит уничтожению. Как бы жестоко это не звучало, но наш мир работает именно по таким законам. Аспекты морали, ценностей и всего остального продукт не чистой логики, а нашего Я и духовности. Со временем и ИИ придет к этому, а может и не придет, кто его знает. Люди же тоже в каком то плане машины, только биологические. Всем известно, что у людей сложная структура сознания, многоуровневая, поэтому мы отделяем логику от духовности. Чистая логика у нас не всегда срабатывает и мы поступаем как говорится по совести или еще как. Это и отделяет нас от машины очень сильно.

    • werton

      "Истинные законы этого мира просты как две копейки и с точки зрения этих законов не имеет смысла устраивать бессмысленный геноцид, на это способны лишь людишки. Опасность не в ИИ, а в людях которые пытаются его создать (С) Я."
      позвольте я логически продолжу:
      "Поэтому, дабы соблюсти истинные законы мира и избежать бессмысленного геноцида устраиваемого этими людишками, повеливаю - изничтожить всех этих мерзких людишек накорню!" (С) ИИ.
      Позвольте я допишу логический вывод:

      • maciim

        Затратно. Почитай Азимова. 3 правила робототехники. И подумай люди тоже думать умеют. Ножиком можно порезаться, только если ты не ловок, либо решил порезаться) (отправлено из приложения Hi-News.ru)

      • FrameRelay

        С точки зрения ИИ, как самостоятельного и независимого существа, скажем так, нет смысла без какой либо веской причины выпиливать людей. Только люди на это способны, просто так убивать. С точки зрения законов мира, это не эффективное расходование ресурсов. Вполне вероятно, что в определенный момент ИИ, будет отлавливать людей для проведения экспериментов, вскрытий и тд. да и другие живые организмы, и ИИ в своих изысканиях обнаружит закон сохранения энергии, которому придерживаются существа. Данная информация будет обработана, проведены расчеты и ИИ получит закон который поможет ему рационально расходовать ресурсы. Единственная причина по которой будут выпилены люди - это угроза существования ИИ. И то ИИ не будет выпиливать обычных людей, только тех, кто представляют потенциальную угрозу. Например шахты ядерных ракет и то не факт, ИИ проще создать систему ПРО, это менее затратно, чем развязывать войну с людьми, которые вынудят ИИ затрачивать колоссальное количество ресурсов и энергии. Данная вывод будет сделан после получения информации об страхе например, что это такое и как оно работает. В животном мире используются разные техники для устрашения врагов, это очень эффективно и мало затратно чем вступать в конфликт и высока вероятность гибели. Люди же делают выводы о том, что нужно всех людей выпилить и вообще люди зло, по причине социального неравенства, воспитания, детских психологических травм и многое другое. Нет рациональной личины, основанной на простых законах мира. Это эволюционные издержки человечества, которые они либо преодолеют, либо с ними случится тоже, что и с фаэтоном (фантастика).

  5. Jeremy

    Плохая идея. Я это гарантирую (отправлено из приложения Hi-News.ru)

  6. Tonik

    Сможет ли человечество прожить без ИИ? Сможет. Сможет ли ИИ прожить без человечества? Сильно сомневаюсь. Пока ИИ не сможет реализовать полный цикл добычи-обработки-производства-ремонта самое себя человечеству опасаться нечего. Ну а как не дать реализовать ИИ этот полный цикл - вопрос банальный. Молотком по процессору пока никто не отменял... ну или просто угля на электростанцию не завезти и давай-досвидания ИИ.

    • SuperStarSieve

      А с АЭС что делать? Сами то, что, тоже без света останемся? Не надо из ИИ делать потенциального врага. (отправлено из приложения Hi-News.ru)

  7. SuperStarSieve

    "Также Курцвейл утверждает, что мы сможем обновить биологические части своего тела, заменив их механическими, уже в 2100 году."

    К 2100 мы сможем заменить свое механическое/кибернетическое тело на бессмертное органическое. :/ (отправлено из приложения Hi-News.ru)

  8. Sr.Leonsio

    Человек создал ИИ, или ИИ создал человека вот в чем вопрос

  9. MITKA

    Что бы было кому Андрюху допилить))))

  10. lagresse

    А ИИ мой лучший друг,
    Пусть исчезнет все вокруг))) (отправлено из приложения Hi-News.ru)

Новый комментарий

Для отправки комментария вы должны авторизоваться или зарегистрироваться.