Паранойя Илона Маска начинает раздражать исследователей ИИ

20 Июля 2017 в 12:00, Николай Хижняк 14 185 просмотров 77

Страх перед сверинтеллектуальными машинами вполне реален для Илона Маска. Основатель Tesla и SpaceX уже много раз говорил об этом, но, пожалуй, самое эмоциональное замечание по этому поводу он сделал американским сенаторам, заявив, что искусственный интеллект (ИИ) представляет собой «принципиальный риск для существования человеческой цивилизации». Данный комментарий привлек внимание не только представителей власти, но и исследователей этого самого ИИ. И, судя по всему, они не очень с ним согласны.

«В то время как существует необходимость в налаживании диалога о положительных эффектах, которые может принести с собой технология ИИ, кажется, что основная часть беспокойства господина Маска сосредоточена вокруг надуманных сценариев захвата мира искусственным интеллектом», — поделился своим мнением специалист в области компьютерных наук Университета штата Аризона Суббарао Камбампати в интервью Inverse.

«Паника господина Маска искажает смысл таких публичных обсуждений. И это весьма печально».

Камбампати, являющийся также главой Ассоциации содействия в развитии ИИ и попечителем организации Partnership for AI, оказался не единственным в последнее время человеком, который ответил на недавние заявления Маска по поводу ИИ. Франсуа Холле и Дэвид Ха, исследователи глубинного машинного обучения в Google, также воспользовались такой возможностью и через свои странички в «Твиттере» выступили в защиту ИИ и машинного обучения (МО).

«На мой взгляд, самой большой опасностью является массовый контроль и регуляция рождаемости посредством таргетинга и целых армий ботов, занимающихся пропагандой», — написал Холле в одном из сообщений.

«Искусственный интеллект и машинное обучение в потенциале могут усугубить несколько существующих проблем. Но совсем не верится в то, что они способны создать новые», — добавил Холле в другом сообщении.

У исследователя Педро Домигоса из Вашингтонского университета вообще не нашлось что ответить на такие заявления Маска, поэтому в «Твиттере» он отметился простым и лаконичным: «Эх».

Действительно ли реальна угроза ИИ?

Дэвид Ха из Google также выразил сомнение в том, что, несмотря на работу в OpenAI, ведение разработок технологий самоуправляемых автомобилей в Tesla, а также недавний запуск своего нового проекта Neuralink и при этом имея доступ к передовым технологиям ИИ (о чем он сам заявлял), Маск понимает то, о чем он говорит.

«Я тоже имею доступ к самым современным технологиям ИИ и скажу честно, я не очень впечатлен тем, на что они способны», — прокомментировал Ха на своей страничке в «Твиттере».

Камбампати, в свою очередь, сослался на отчет о развитии ИИ-технологий 2016 года, опубликованного администрацией бывшего президента Барака Обамы, в котором были сделаны очень своевременные, но положительные рекомендации относительно политики регулирования разработок искусственного интеллекта. Отчет Белого дома совсем не содержал «каких-либо упоминаний о беспокойстве господина Маска по поводу искусственного сверхинтеллекта», заявил Камбампати в интервью Inverse. И, по его мнению, это является довольно убедительным доказательством того, что все эти опасения нельзя рассматривать обоснованными.

Как отмечает портал Futurism, кажется довольно нечестным, что лишь один Маск привлекает к себе все внимание, в то время как он далеко не единственный видный представитель околонаучной и технической индустрии, обращающий внимание на вероятные угрозы со стороны сверхинтеллекта. Например, знаменитый физик Стивен Хокинг тоже постоянно не брезговал комментариями о ИИ-апокалипсисе. И все же самый главный вопрос в следующем: должны ли мы на самом деле бояться ИИ?

Если говорить о его нынешнем состоянии, то ответом будет нет. В то же время стремительное развитие технологий в последнее время заставляет экспертов задуматься над тем, что мы становимся все ближе и ближе к технологической сингулярности, когда компьютеры превзойдут своих создателей. Но определенно понятно, что нынешний уровень ИИ и роботов даже близко пока не приблизился к тому уровню роботов-убийц, которых нам показывают в научной фантастике. Да и на самом деле непонятно – приблизится ли вообще.

Знаменитый футурист и «энтузиаст сингулярности» Рэй Курцвейл считает, что сингулярность – это не та вещь, которую нам следует бояться. Бояться следует того, каким образом люди могут использовать ИИ. Именно поэтому лучшим курсом для нас сейчас будет определение четких и понятных представлений о том, что мы будем ожидать от результатов исследований технологий ИИ. Маск определенно прав в одном: нам необходима разработка регулятивных методов всего этого процесса. Но также правы Камбампати с Холле и Ха, указывающие на отсутствие причин для паники.

Паранойя Илона Маска начинает раздражать исследователей ИИ

Приложение
Hi-News.ru

Новости высоких технологий в приложении для iOS и Android.

77 комментариев

  1. Dimus

    Если ИИ будет:
    1. Уметь делать логические выводы
    2. Иметь достаточно ресурсов, возможность воспроизводить себя и поддерживать в рабочем состоянии долгое время (скажем 5к лет)
    ТО
    что он ответит на вопрос - зачем ему человечество?

    • VolkaDlak

      А зачем человек охраняет тигров-пингвинов? Они как то существенно влияют на рождаемость или доступность ресурсов для человечества?
      Ещё и близко нет технологии, а люди уже во всю обсуждают как будет думать и действовать ИИ, причём заранее уверены что если что-то (в данном случаи человечество) не нужно ИИ то он это обязательно уничтожит.

      • Dimus

        При условии что ИИ думает исключительно логически, то есть вероятность, что он придет к выводу что человечество - ненужная трата ресурсов.

      • ermius

        Но ведь пингвины-тигры не стараются уничтожить друг друга и планету не засерают в таких масштабах как человек. (отправлено из приложения Hi-News.ru)

        • VolkaDlak

          :) Если пользоваться вашей (ну не вашей в данном случаи а Dimusа) прямой логикой то для ИИ не важно засерает человек планету "в таких масштабах" или нет.
          Ему не нужны поля для пшеницы, не нужен "чистый воздух" не нужны деревья и животные, и тому подобное, так что вряд ли ИИ решит спасать экологию уничтожая самый распространённый вид высших животных на планете.
          А аргумент про "уничтожить друг друга" это совсем смешно. Тигры (как и другие хищники) постоянно кого-то убивают, но уничтожение всех хищников обернётся катастрофой. Если вы именно про "друг друга" то тоже не очень понятен ваш аргумент, а чем мы мешаем ИИ (который по определению уже не зависит от людей раз может их уничтожить) когда убиваем друг друга? Он же супер логичный такой и только подсчитывает ресурсы что ему до разборок мяса.

          • Михаил

            Зачем искусственному интеллекту уничтожать все человечество? Слишком энергозатратно. Достаточно захватить власть, уничтожить ядерное и проч. вооружение и все - мясо угрозы не представляет. А когда надо будет, он свалит в космос, чтобы захватывать остальные планеты.

    • Shadow006

      1.ИИ это программа, которая полностью зависит от того, какой создаст ее человек.
      2. Даже самый совершенный квантовый компьютер вроде человеческого мозга - бесполезен без опыта предыдущих поколений и обучения(программы).
      3. ИИ, который будет сам себя обучать и воспроизводить это сказка на ночь, даже если такое возможно, то удел очень далекого будущего.

      • Dimus

        То, что ИИ - удел "очень" далекого будущего может быть и не правдой. Достаточно одного/двух "чудес" (так называют инженеры НАСА вещи, которых еще никто не делал, например первая высадка на Марс) и эта проблема перейдет из "теоретической" во вполне практическую сферу.
        Тоже можно сказать и про самообучающийся ИИ.

    • Alex_01

      Я бы на его месте всех мочканул) (отправлено из iOS приложения Hi-News.ru)

    • SERG__ZV

      Наш интеллект всего лишь обрабатывает наши инстинкты. Тоесть есть мотивации есть срать трахаться. Мы за это получаем удовольствие а мозг уже думает как это реализовать. Так же странно но мы получаем удовольствие от прослушивания красивой музыки, исследования и изобреттельства. Значит я вынужден придт к выводу что это тоже инстинкты так как мозг посредством вознагрождения нас удовольствием за это мотивирует нас это делать. Машина же обладая сверхинтеллектом не обладает стимулами и её не что не награждает за её действия. Следственно как и калькулятор имея в своём распоряжении возможность быстро высчитывать числа не будет высчитывать их без вашего приказа. И машина не будет иметь мотивторов для каких либо действий пока мы их ей не дадим. Тоесть если мы впишем в программу что робот уборщик получает кайф от мытья полов он будет делать только это и будет искать способы где бы ещё помыть полы и ничто больше. Если мы будем мотивировать робота проститутку заниматься сексом и награждать её за секс. Она будет использовать весь свой суперинтеллект интеллект только для того чтобы найти очередного человека и совокупиться с ним так как ей это приятно. Остальное ей будет не нужно.

      • vyshny

        мотивом для ИИ может послужить накопление(сохранение) своего энергетического потенциала. люди,так же не знают для чего живут. ставят перед собой условные задачи,направленные на получение удовольствия. в этом,на мой взгляд, разница. думаю,именно удовольствию не возможно научить машину. а значит и осознанной конкуренции с человеком. но,ИИ возможно,в будущем создадут на биологической основе. последствия такого варианта предсказать сложнее.

      • Z

        Уважаемы.. у человека нет инстинктов, а разве что условные и безусловные рефлексы, если следовать науке "социология"

        (отправлено из iOS приложения Hi-News.ru)

    • anat0li

      В этом вопросе не совсем ясно, что значит "ему". Допустим, есть программа, способная к логическим выводам и копированию собственного кода. Мне кажется, из этого не следует способность этой программы к самоосознанию. Чувствовать собственную сущностную индивидуальность - это функция, весьма далекая от своей реализации, если даже оставить в стороне вопрос, зачем это надо.

    • zegelkranz

      кто ж ему позволит быть самодостаточным?

  2. Andros2011

    Ну конечно, чего бояться ИИ, его же создают в мирных целях. И военные ни за что не захотят оснастить ИИ, например, самолеты/танки/вертолеты чтобы не жертвовать личным составом. Разве им может быть интересно, чтобы самолет с ИИ на борту раскрывал свой потенциал на все 100% и исполнял такие кульбиты, от которых пилот давно бы потерял сознание? Сами же вложим оружие в его руки и пропишем возможность убивать людей.
    А Маск да, конечно же параноик.

    • GlobalElite

      Зачем оснащать самолеты/танки/вертолеты разумным единым ИИ, когда достаточно примитивного ездить и стрелять? А ещё есть беспилотники на дистанционном управлении.

      • Andros2011

        Дистанционное управление все равно упирается в скорость реакции человека, даже если он уже и не находится в кабине самолета. Кроме того, это требует постоянного канала связи с самолетом, которому могут помешать системы радиоэлектронного подавления противника. Это в лучшем случае, а в худшем - и вовсе перехват управления. Поэтому автономный ИИ может быть вполне интересным.

    • Dimus

      Беспилотники на дист. управлении - временная мера. А ИИ, который примитивно ездит и стреляет - это совсем не примитивный ИИ.

    • Elektr1k

      Согласен с вами. Это первое чему научат подавляющее большинство ИИ. И очень логично со стороны машины понять что человек не нужен в качестве второго слабого ИИ.

    • zegelkranz

      да разработчики такие тупые, что сделают самолет на ИИ и вечную заправку для него тоже со злобным ИИ и даже поставки топлива для заправки и боекомплект сделают подконтрольным ИИ. Все это будет строится и организовываться пока мы будем сидеть смотреть и хлопать в ладоши. Меня мамкины эксперты уже начали раздражать как и самих разработчиков ИИ. Вы на полном серьезе думаете что ИИ способен провернуть захват мира втихоря не вызвав никаких подозрений у 7 миллиардов человек?

      • werter

        Какой победитель думает о поражении¿ (отправлено из приложения Hi-News.ru)

      • flocken

        >> Вы на полном серьезе думаете что ИИ способен провернуть захват мира втихоря

        А главное - зачем? Зачем ему захват мира? Чтобы что? Размножиться и вытеснить человека? А чего бы ему размножаться, если у него нет инстинкта размножения, следовательно, и мотивации размножаться нет. Да что там инстинкта размножения, у него даже инстинкта самосохранения нет, и не понятно, с чего бы вдруг такому инстинкту у ИИ появиться, он же не участвует в естественном отборе.

  3. tabasko

    Маск пиарщик а не пораноик и в этом он очень хорошо преуспел. (отправлено из приложения Hi-News.ru)

  4. Dinosaur

    Идея нейроинтерфейса Маска не будет востребована, если у людей появится свободный доступ к ИИ. Вот он и противиться, хотя не он один против, но он самый ярый противник. (отправлено из iOS приложения Hi-News.ru)

  5. horizont3

    ИИ опасен в руках людей , прикажут ему запустить ядерьные ракеты и вот вам скайнет ,
    Нужно только логическое ядро даже сервера ему не будут нужны вычислительную мощь просто из интернета будет брать
    Опасения вполне разумны но немного в другом русле , до полноценного обсолютно самостоятельного ии лет сто не меньше . (отправлено из приложения Hi-News.ru)

    • Hilden

      В руках людей... Кто опасен? Пистолет, или человек его держащий? Если уже приказали, а он исполнил, то он только орудие, а не виновник. (отправлено из приложения Hi-News.ru)

      • horizont3

        ИИ тем и опасен что он разумен и может саморазвиватся и быстро создать то что нужно . Имея разум и скорость то закрытых дверей не останутся , а кто виноват уже не важно важно что при необходимости его можно сделать опасным , неизлечимый вирус , запуск яр , много сценарьев могут быть попади он не в те руки (отправлено из приложения Hi-News.ru)

        • zegelkranz

          если бы наши пещерные предки рассуждали как вы, то они отказались бы от использования огня. Огонь вообще опасное явление, пожары приносят неисчислимое количество бед. Попытайтесь самостоятельно порассуждать что было бы с человечеством если бы наши предки отказались от освоения огня.
          А вот если поразмышлять над использованием первых палок и камней? сколько было загублено жизней палками и камнями за несколько миллионов лет? Удивительно как мы вообще выжили как вид

  6. Hilden

    Ещё никто не может сказать, каким будет первый полноценный ИИ. Может это будет личность человека, закованная в стальной коробке, со всеми присущими эмоциями? Может это будет интеллект лишенный какой либо моральной этики? А может это будет некое гуманное сознание, без корыстных промыслов?

    А может человек себя раньше уничтожит, прежде чем создаст нечто похожее. Это скорее более реальное опасение, вокруг которого стоило бы поднять шумиху.

    Так что Маском движет только стремление попиарится... (отправлено из приложения Hi-News.ru)

    • Shadow006

      Только вот дело в том, что личность реального человека перенесенная в машину это уже не искуственный интелект.

    • zegelkranz

      а может быть это будет просто очень мощная и сложная вычислительная машинка, напрочь лишенная собственной волей и способностью к самостоятельному целеполаганию. Ваш калькулятор случаям ничего самостоятельно не считает пока вы не наблюдаете за ним? Последите за ним, возможно он уже втихоря обсчитывает план вашего порабощения.

  7. vyshny

    пока у Маска,только пиар хорошо получается. для этого ресурса,он находка.

  8. Got1530

    у Теслы тоже была паранойя, микробная, которая свела его в могилу. однако никто не сомневается в его гениальности.

  9. Koshkelka

    Мем? (отправлено из приложения Hi-News.ru)

  10. agnostik

    На самом деле если у ИИ будет самосознание как у человека никто не сможет предсказать развитие дальнейших событий ! Но я согласен с Маском если мы не попытаемся стать умнее при помощи нейроинтерфейса скорее всего нас уничтожат !

  11. gazon

    Маск видит только 2 спасения:Убежать на марс,или вставить нейроинтерфейс в голову... И,по невероятному совпадению,у него есть SpaceX и Neurolink. Пиар чистой воды(Я не говорю что это плохо,просто паранойей тут не пахнет)

    • horizont3

      +
      Жаль не живем лет через 100 где в отпуск можно на марс слетать ) (отправлено из приложения Hi-News.ru)

      • gazon

        Нельзя точно спрогнозировать что будет даже через 15 лет,тем-более,если учитываить Курцвейловский закон ускоряющейся отдачи.Ясно одно,прорыв в любой сфере,будь-то ИИ,НКИ,медецина,энергетике,приведёт к изменению мировой экономики,как скажется это на отдельно взятых странах-другой вопрос.

      • horizont3

        Что значит неконтролируемое техническое развитье , тех развитье в принципе не может быть контролируемым , или есть какой то орган контроля за развитьем ? И развитье делает все гораздо дешевле новые технологии становится старыми ,дорогие дешевеют , появляются новые технологии , всего то 30 лет назад за упоминания словосочетантя "квантовый компютер" большинство крутили пальцем у визка , а сегодня есть рабочие прототипы (отправлено из приложения Hi-News.ru)

      • incofcap

        Вспомните, что было 10 лет назад. Все тоже самое. Только процессоры послабее.
        И через десять лет вперед будет тоже самое, возможно процессоры будут помощнее раза в 2-3. Все. Ничего не поменяется. Термояд не построят, квантовые компы не изобретут. Новые материалы не появятся. Медицина очень слабо продвинется вперед.
        Все эти сказки Курцвейла про сингулярность и бессмертие которые должны сбыться в этом столетии - это все сказки.

        Вот что он обещает в самом ближайшем будущем:

        "К 2030-м годам виртуальная реальность станет на 100% реальной по ощущениям. Мы сможем загружать собственный мозг/сознание к концу этого десятилетия.
        К 2040-м годам небиологический интеллект будет в миллиард раз более способным, чем биологический (то есть наш). Нанотехнологии будут способны создавать еду и любые объекты физического мира буквально из воздуха."

        Через 13 лет сможем загружать мозг, а через 23 года уже будет ИИ в миллиард раз умнее нашего. На лицо через 13 лет скачкообразный прорыв в науке, по сравнению с текущим, а через 23 года считай что сингулярность.
        А теперь сравните что было 13 лет назад и что есть сегодня. Разница очень минимальная. Так что я не верю во все эти бредни. Если и достигнем сингулярности, то для этого понадобятся сотни лет.

    • donaldcrack

      Ага, будто тому же ИИ будет сложно хакнуть НКИ или полететь на марс... Если будет ИИ такой каким себе его представляет Маск с Хокингом, то нас хер что спасет...

  12. Nori

    19 июля директор компании SpaceX Илон Маск выступил на конференции International Space Station R&D в Космическом центре имени Кеннеди во Флориде.

    Маскофилам будет интересно почитать о том, что одно переносится, а другое уменьшается...

  13. vyshny

    считаете,ваш комментарий лучший?

  14. Shadow006

    А меня уже бесит Зокинг.. точнее не Хокин а журнолюги, которіе перепечатівают его маразм по 100 раз, вроде "нада соберать манатки и бежать с земли", а то все пиздец.

  15. Kamgut09

    Илон прав надо остановить ИИ пока он еще в зачатке!!

    • gazon

      Поздно,надо было остановить развития интернета,а ещё лучше отказаться от электричества.Почему в любых,потенциально сверхполезных технологиях свойственно замечать только минусы?

  16. werter

    Глупые наиФные бесхвостые обезьяны, удрочает что вы неспособны вИдИть дальше собственного носа.
    Илон прав ИИ сделает из него домашнего кота, но это не так и плохо, а вот рыжим муравьям повезет гораздо меньше их будут травить и уничтожать за назойливость.

    Это была судьба улитки, что какой-то идиот пересечет ее путь и заставит ее прервать свое движение.© Карлос Кастанеда

    Тихо-тихо ползи, улитка, по склону Фудзи, вверх, до самых высот.© Японская мудрость (отправлено из приложения Hi-News.ru)

  17. werter

    Мы уже победили ((с просто это ещё не так заметно. (отправлено из приложения Hi-News.ru)

  18. allexxic

    Если представить что такое сознание также трудно, как трудно представить вселенную, какая речь может быть о ИИ ?

    • allexxic

      PS: Сознание - это предел всех технологий материи и "неизвестного" , и как любой предел он недосягаем.

  19. globalist

    Исследователи ИИ - это, как правило, по взглядам имморталисты. Они хотят жить ОЧЕНЬ долго, и понимают, что без сильного ИИ это невозможно. Маск же прямо заявлял, что для него оптимальная продолжительность жизни - 100 лет. Даже не 150, не 200, а несчастные 100 лет. И последние годы из этой сотни он хочет прожить на Марсе, наслаждаясь гибелью Земли в ядерной войне (а эта гибель просто неизбежна, если конечно не успеем создать сильный ИИ, который сможет её предотвратить). Короче польза от Маска есть, но гораздо больше вредительства для всей цивилизации в целом.

    • donaldcrack

      Я лучше от взрыва сдуюсь чем померать медленно и мучительно на Марсе от голода, радиации итд...

  20. donaldcrack

    Согласен, как бы оно хорошо и все это понимают, но это уже больше на спам похоже. Ну сколько можно? Одно и тоже по 100 раз...

Новый комментарий

Для отправки комментария вы должны авторизоваться или зарегистрироваться.