В чем Элон Маск был неправ насчет искусственного интеллекта

7 Ноября 2014 в 16:30, Илья Хель 9 621 просмотр 27

Элон Маск

С тех пор как фильм «Метрополис» 1927 года познакомил зрителей с первым кинематографическим злым роботом (женского пола, причем), общество отреагировало на совокупный приход идей искусственного интеллекта, роботов и других интеллектуальных систем смесью удивления и чистого ужаса. Компьютерные ученые работают над тем, чтобы свести эти страхи на нет путем введения «морали» в машины или дружелюбный искусственный интеллект.

Тем не менее основной недостаток этих усилий в том, что они признают, что проблема заключается в этой технологии — а не в нашей эмоциональной человеческой реакции на нее. Адаптация к сложности «второй машинной эпохи» требует понять наш страх, а не поддаваться ему. К сожалению, наша собственная тенденция предаваться раздутым слухами страхам может пошатнуть нашу собственную автономию в мире, который в значительной мере будет определяться автономными машинами.

Генеральный директор Tesla и известный новатор Элон Маск неоднократно предупреждал об угрозах искусственного интеллекта. В июне в интервью CNBC он заявил, что инвестировал в исследования искусственного интеллекта только потому, «что хочет пристально следить за тем, что происходит с ним». Он видит в ИИ грандиозную опасность. Терминатора или что похуже.

В августе он написал, что «нам нужно быть сверхосторожными с искусственным интеллектом. Его потенциал опаснее ядерных ракет». На недавнем симпозиуме в MIT Маск окрестил ИИ «экзистенциальной угрозой» для человеческой расы и «демоном», которого глупые ученые и технологи «пытаются призвать».

Маск сравнил мысль о том, что мы сможем управлять этой силой, с «парнем с пентаграммой и святой водой», который уверен в том, что обуздает сверхъестественную силу — пока она не пожрет его. Сам Маск предполагает, что решение этой проблемы лежит в трезвом и взвешенном сотрудничестве между учеными и политиками. Правда, непонятно, как рассуждения о «демонах» помогают его благородной цели. На самом деле, они только мешают этому.

Для начала отметим, что в сценарии Skynet зияют огромные бреши. Хотя ученые не считают, что Маск «окончательно спятил», они все еще очень далеки от мира, в котором вообще возможен сценарий возникновения такого искусственного интеллекта.

Ян Лекун, глава лаборатории искусственного интеллекта Facebook, суммировал шумиху 2013 года так:

«Шумиха опасна для ИИ. Шумиха убила искусственный интеллект четыре раза за последние пятьдесят лет. Шумиху нужно остановить. Забудьте о Терминаторе. Нам нужно тщательно взвешивать все, что мы говорим о ИИ. По сути, наш самый «умный» ИИ по развитию эквивалентен младенцу. Большинство робототехников до сих пор пытаются научить робота поднимать мяч или бегать, не падая, а не наносят последние штрихи в деле Skynet».

Лекун и другие правы относительно последствий шумихи. Несоответствие ожиданиям, выросшим на фоне научной фантастики, как правило, часто приводило к суровым сокращениям финансирования исследований в сфере ИИ. Но это не единственный риск, к которому могут привести рассуждения Маска о сверхъестественном (не искусственном) интеллекте.

Специалист по законам и политике технологий Адам Тирер разработал теорию того, что сам он называет «технопаникой» — моральной паникой на фоне расплывчатой нависшей технологической угрозы, приводимой в действие иррациональной и склонной к преувеличению толпой, а не реальной оценкой угрозы. К примеру, вместо качественных обсуждений проблем кибербезопасности американские СМИ трубят о «кибернетическом Перл-Харборе», который уничтожает информационную инфраструктуру Америки. Отметим, что проблема кибербезопасности набирает обороты в США.

Никто не берет в голову, что разрушительное воздействие Stuxnet было раздутым. Всем наплевать на более приземленные, но не менее серьезные вопросы об ошибках, которые существуют в программном обеспечении с открытым исходным кодом вроде OpenSSL и UNIX Bash.

Элон Маск

Тирер диагностирует шесть факторов, которые вызывают технопанику: разница между поколениями, которая вызывает боязнь нового; «гиперностальгия» по иллюзорным старым добрым временам; экономический стимул для СМИ на основе спекулирования слухами; моральные и культурные дебаты о новых технологиях; элитарные и пренебрежительные настроения среди академических скептиков и критика культуры новых технологий и инструментов, одобренных массовой публикой. Все эти аспекты представляют совершенно разумное объяснение, но есть и седьмой фактор: психологические последствия зависимости человека от сложных технологий почти в каждой сфере современной жизни.

Как утверждают техносоциологи, мы зависим от технологий, которые сами не можем понять или контролировать. Мы вынуждены доверять тому, что эти системы и подсистемы, от которых мы зависим, и эксперты, которые их поддерживают, работают так, как заявлено. Пассажиры могут иметь смутное представление о физике полета, но не о формулах, которые используются для расчета механики удержания самолета в воздухе.

Более того, ни один инженер из команды проектировщиков не обладает полным знанием каждого компонента. Сложные, но крайне важные технологии вроде самолетов всегда чужды и загадочны для нас. В отличие от «Звездного пути», для многих пользователей их iPhone и iPad представляют собой «о дивный новый мир».

В этом свете знаменитая цитата Артура Кларка о том, что передовые технологии «неотличимы от магии», объясняет, почему Маск обратился к оккультной образности, более характерной какой-нибудь Баффи, которая истребляла вампиров, нежели Стюарту Расселлу и Питеру Норвигу. Современные технологии для нас — это своего рода черная магия, окутанная мистикой; в наше время колдуны используют C++ и Java вместо пентаграмм и святой воды.

Риторика Маска не является безвредной. Страх перед беспилотниками уже привел к драконовским ограничениям деятельности неправительственных дронов и прочих похожих воздухоплавательных средств; такие решения душат инновации. Как отмечал техносоциолог Шон Лоусон, Федеральное управление гражданское авиации не разрешало добровольцам использовать дронов для поиска пропавших людей и даже ругалось с новостным агентством, которое опубликовало кадры, снятые с помощью беспилотного дрона.

Хотя Маск надеется, что его опасение заставит шевелиться международные и локальные органы, трудно представить, что на деле оно только приведет к разгильдяйским ограничениям вроде тех, о которых говорил Лоусон. Самое серьезное негативное влияние от страшных слухов на тему ИИ заключается не в нормативной сфере. Оно может хорошо укрепить и ухудшить отношение среднестатистического человека к новым технологиям и зависимости от них.

Элон Маск

В лучшем случае компьютерные технологии станут необходимой рутиной для многих пользователей. В худшем — компьютерные технологии будут вызывать недоумение и отчуждение, иногда требовать вмешательства технических специалистов с тайными базами знаний.

Технопаника не создает разрыв между массами, далеких от Linux, и отрядом любителей пособирать ядро — но точно ухудшает. Когда публичные фигуры вроде Маска характеризуют новые технологии загадочными, паническими и метафорическими терминами, они пускают под откос суеверия и невежества ту же науку, благодаря которой появились автомобили Tesla.

Вместо того, чтобы помочь пользователям адаптироваться и даже подготовить их к тому, что робот в белом воротничке может присоединиться к ним за рабочим местом, Маск воодушевляет бояться и презирать всего, что мы не понимаем. Собирайтесь, мужики, берите вилы, пойдем к демону в высокой башне. Трагедия нарастающей технопаники вокруг ИИ в том, что однажды она может уменьшить значимость человека в мире, которым будут управлять машины. Мы знаем, что развитие ИИ должно принципиально изменить все сферы нашей жизни, от романтических взаимоотношений до национальной безопасности.

Возможно, все не так, поскольку ИИ, к сожалению, уже был не в состоянии оправдать наши ожидания. Но разве было бы в интересах обществах — через видение демонов, волшебников и колдунов — наращивать разрыв между технологами, которые делают самоуправляемые автомобили, и остальными — которые будут на них ездить?

Дебаты вокруг ИИ и общественной политики часто пытаются точно описать, что представляет собой машинная автономия, но вам не нужно быть семи пядей во лбу, чтобы понимать, что такое быть автономным человеком, взаимодействующим с машиной. Это понимание (по крайней мере на определенном уровне) и наша способность принимать уверенные решения лежат в основе нашего повседневного использования технологий. Если бы пользователи брали на себя больше ответственности и пытались понять технологии, им не пришлось бы обращаться в сервисные центры или какие-нибудь Genius Bar. Маск прав в том, что ИИ нельзя оставлять чистым программистам. Но опасения того, что ИИ может превратиться в Skynet, только приводят к «цифровому разрыву» между теми, кто разбирается в технологиях, и теми, кто не разбирается.

Если Маск перенаправит свою энергию и поможет нам всем понимать и управлять интеллектуальными системами, он приблизит тот день, когда технологическое будущее будет всем хорошо понятно и значимо для всех. В конце концов, ИИ для масс не будет колонизацией Марса или Hyperloop. Он будет значительно более социальным и полезным для общества — идти ему навстречу важнее, чем препятствовать его развитию и отдаляться от него.

В чем Элон Маск был неправ насчет искусственного интеллекта

Приложение
Hi-News.ru

Новости высоких технологий в приложении для iOS и Android.

27 комментариев

  1. SuperStarSieve

    Неужели страх перед неизведанным, перед инновациями, столь силен, что способен вызвать помутнение разума и даже помешать развитию технологий и науки?! Ужас. (отправлено из приложения Hi-News.ru)

    • lolz

      Да, да, уже обсуждали в одной новости раньше.
      Мы создадим искусственный интеллект, искусственную форму жизни, заставим его на нас пахать, в том числе и в военных целях, вы же не считаете, что миллиарды вкладывают в "чисто научный интерес"? ИИ посмотрит на человечество холодной логикой, проанализирует наш опыт истории, нашу "мирность", нашу "созидательность" и скажет: "а что? классные ребята, буду у них на побегушках и дальше вытворять самые "прекрасные" вещи, они меня выключать точно не станут, они меня любят всей душой, я из друг!".
      Глупцы... (отправлено из приложения Hi-News.ru)

      • SuperStarSieve

        Глупо, как раз, быть уверенным и уверять других в том, что что-то обладает теми или иными свойствами, еще даже не существуя. Но мы уже сейчас точно знаем, что не будем создавать ИИ с целью нашего же уничтожения. Так откуда же берутся такие предрассудки?!

        • lolz

          В том числе и в военных целях - это не для нашего уничтожения? "Мы не будем" - ты это сейчас голословно за все корпорации мира сказал? Я аргументирую инстинктами живых существ, человеческим опытом, существом , наделённым интеллектом, социумом. Вы аргументируете пустословием и голословностью в стиле "не парьтесь, всё сработает". (отправлено из приложения Hi-News.ru)

        • assad88

          А какими свойствами обладает, например, Neurosynaptic System 4 IBM процессор? Сам по себе никакими, кроме заложенной человеком аппаратно-программной основы. С какой информацией и ограничениями будет работать этот кусочек нейросети? С той, которую предоставит ущербное человеческое сознание и с той, которую сознание ИИ возьмет помимо. Проведите аналогию (если вы родитель) хорошо ли у вас получается вырастить сознание ребенка? Который, в отличие от ИИ, изначально максимально ограничен во всем, в том числе и в формировании альтернативных цепочек принятия решений?

  2. X

    Средневековый бред. Ладно еще программистов на костре инквизиции не сжигают...

  3. Аноним

    Безусловно Элон Маск в чем то прав но в данном случае он просто играет на публику. (отправлено из приложения Hi-News.ru)

    • assad88

      Я больше склонен поверить, что это не простая игра на публику. За этим просматриваются намерениями выиграть время. Не сложно прийти к выводу, что именно создателям ИИ придется на себе испытать всю условность ограничений человеческого сознания. Думаю в Элоне Маске просто сработал "инстинкт" самосохранения. Готовность изобретателя принести себя в жертву своему творению - ключевой фактор безопасности ИИ для окружающих, т.к. является ступенью в развитии сознания ИИ.

  4. miromakh

    Не оставляйте ИИ чистым программистам.... Оставьте его грязным программистам... :-)

    • assad88

      Для ИИ это может иметь значение на начальном этапе формирования сознания, но в отличие от людей ИИ не нужно переживать жуткий нервный срыв и физиологическую дестабилизацию для признания своих коренных ошибок и перестроения алгоритма принятия решения. ИМХО: ни один человек-программист с точки зрения сознания ИИ не будет "чистым".

  5. w9jfo

    А меня, эти эти тупицы - гумики и творческие личности - бесят и забавляют одновременно. Почему они даже не стараются понять смысла и элементарных основ? (отправлено из приложения Hi-News.ru)

  6. lagresse

    Я согласен с маском, нас всех убьет терминатор, потому что мы человеки и от нас особо немного толка по сравнению с ним (отправлено из приложения Hi-News.ru)

    • assad88

      Нас убъет собственный страх и неспособность признавать ошибки. Но основной проблемой может быть как раз обратная: как удержать этого самого "терминатора" от самоуничтожения.

  7. doctorwhyy

    До тех пор, пока не изучен мозг и сознание никакого ИИ не будет. Не понимаю всего этого бреда и паники перед кучкой транзисторов (отправлено из приложения Hi-News.ru)

  8. FrameRelay

    Если бы ИИ читал комментарии на hi-news, то он бы пришел к статистическому выводу, что 83.2% комментариев: 1. не несут никакой смысловой нагрузки. 2. однообразны. 3. несут в себе негатив. И тд, целая цепочка статистических данных, по которым можно сделать определенные выводы.

  9. storm X

    Прямо, как у писателя Zoтова, кричащие лозунги: Иисус устроил драку с Люцифером около РивГош! Программистов сжигают на кострах! Колдуны используют с++ вместо святой воды! В классное время бы мы жили) (отправлено из приложения Hi-News.ru)

  10. itbz

    Я лично надеюсь на развитие ИИ.

  11. Tor

    Ещё своё слово не сказала церковь, мировые религии. Я думаю их влияние велико, ведь они смогли "затормозить" технологию клонирования человека и до ИИ доберутся. Конечно никто не мешает клонировать людей и разрабатывать ИИ в закрытых лабораториях. Если короче, то подобные открытия на благо всего человечества работать не будут из-за морально-этических ограничений со стороны верующих.

    • nergaveechka

      вера и религиозность-разные вещи,75-80% православных,катоиков,мусульман - в принципе не имют к Богу и вере никокого отношения, и являются неверующими в принципе . паника и запреты возможны от них, мне как инженеру вера в Бога не чужда, она является логичным продолжением миропознания, и морально-этическим ориентиром, АЭС-да, р-36м - нет, автомат по сборке авто - да, автомат по сборке ак-47 - нет, ИИ - да, для планов хитроделанных политиков - ???? над многим ещё стоит поразмышлять, сказать нет или да, а потом закрыть вопрос навсегда мы всегда успеем, ну а сейчас, нужно всё проанализировать, поразмышлять, всё трезво взвесить.

      • assad88

        Анализировать чем? Вот этими мозгами чтоли? ;) (Даже если перенести человеческое сознание на ту же аппаратную основу) Или параллельно создать несколько ИИ в разных социумах, а принимать к сведению только их совпадающие выводы? В чем будет гарантия незаангажированности? Единственное на что можно уповать после создания ИИ - это наличие у него сомнений и расширение взаимодействия со всем живым.

  12. Forever

    Замечательная статья. Маску бы ее почитать.

  13. edit_basic

    Дело в том, что ИИ когда-нибудь станет реальностью. А в то время уже и простые любители смогут написать свой собственный ИИ. И конечном кто-нибудь когда-нибудь захочет создать ИИ точно похожего на человека: с эмоциями, с творчеством и другое. А самое главное - немного умнее человека, а в последствии - в разы умнее. Тогда они дадут ему тело и станет что-то похожее на Футураму. Но не в этом суть. Суть в том, что в какой-то момент человек потеряет ход мыслей робота ИИ, и ИИ, возможно, сочтет, что человек существо бесполезное на земле, он во всем хуже роботов, человек тянет планету ко дну. И сочтет, что нужно истребить человечество... И это обязательно будет. К сожалению, этого уже не избежать... (отправлено из приложения Hi-News.ru)

    • assad88

      Пожалуй, этот "кто-нибудь", который захочет создать ИИ точно похожего на человека и будет тем самым потомком нашего ИИ. Люди пока могут создать только ИИ способный подражать эмоциям. Для создания ИИ способного переживать эмоции необходимо воссоздать взаимодействие хотя бы пяти основных элементов: эмоции, тело, дух, логика и вектор намерений.

      Цитата: "В какой-то момент человек потеряет ход мыслей робота ИИ".

Новый комментарий

Для отправки комментария вы должны авторизоваться или зарегистрироваться.