На встрече инвесторов Илон Маск постарался объяснить свои опасения по поводу ИИ

4 Августа 2017 в 19:30, Николай Хижняк 10 864 просмотра 44

На встрече с инвесторами компании Tesla, проходившей в эту среду, исполнительный директор и основатель компании Илон Маск в очередной раз выразил свое беспокойство по поводу разработок искусственного интеллекта. Правда на этот раз Маск был более сдержан в словах, по сравнению с его высказываниями, которые он делал на встрече с руководством страны в середине прошлого месяца. Он постарался объяснить, что он совсем не против разработок ИИ как таковых.

«Я не призываю к тому, что мы должны остановить разработку ИИ, или к тому, что обо мне пишет пресса», — заявил Маск в качестве ответа на прозвучавший на конференции вопрос, связанный с этой темой.

Он отметил, что сам является одним из председателей и соучредителей OpenAI, некоммерческой организации, ставящей целью «поиск и использование путей для разработки безопасного общего искусственного интеллекта».

Как и цели OpenAI, опасения Маска связаны с необходимостью разработки четких стандартов развития ИИ.

«Создание искусственного интеллекта может сопровождаться некоторыми рисками, поэтому я считаю, что общественность вправе хотя бы быть проинформированной со стороны правительства об этих рисках, потому что одна из задач правительства как раз и заключается в заботе о своем обществе», — прокомментировал Маск на совещании.

Несмотря на то, что многие эксперты в исследованиях искусственного интеллекта выразили свое недовольство по поводу явного паникерского тона Маска в рамках его общения с американским руководством, среди экспертов в ИИ нашлось и немало тех, кто согласен с повышенной осмотрительностью исполнительного директора компании Tesla. Отдельные группы даже разработали базовые наборы правил, которым было бы хорошо следовать при разработке ИИ. Здесь речь идет и о этических принципах IEEE и так называемых принципах Алисомара, представленных на мероприятии Beneficial AI Conference 2017.

Основное волнение, как уточнил Маск, связано не столько с самой разработкой ИИ, сколько с тем, как и кто его будет использовать.

«Я считаю, что от искусственного интеллекта мы можем получить много пользы. Нам просто необходимо убедиться в том, что ИИ будет действительно служить на пользу, а не являться инструментом для совершения каких-нибудь глупостей», — добавил Маск.

В случае, если что-то пойдет не так, OpenAI Маска станет не единственной надеждой для человечества, которая предоставит ему возможность защититься. Его новый проект Neuralink, например, ставит целью объединение разума человека с машиной. Если и этого окажется недостаточно, то на помощь должна будет прийти SpaceX, которая обещает переселить человечество на Марс – вариант, рассматриваемый физиком Стивеном Хокингом в качестве наиболее потенциальной возможности избежать апокалипсиса с участием искусственного интеллекта.

Для самого же Маска в настоящий момент важнейшая задача заключается в том, чтобы убедить правительство в более обдуманном отношении к ИИ и прийти к разработке прозрачных правил для его создания.

«Обдуманность и надзор – разные вещи», — отметил Маск во время встречи.

«По крайней мере если правительство будет полностью понимать, что происходит, оно сможет самостоятельно решить, какие правила подойдут для обеспечения общественной безопасности. Именно об этом я говорю».

На встрече инвесторов Илон Маск постарался объяснить свои опасения по поводу ИИ

Приложение
Hi-News.ru

Новости высоких технологий в приложении для iOS и Android.

44 комментария

  1. Gold

    "Паникерского тона"Оруууууу (отправлено из приложения Hi-News.ru)

  2. werter

    вИИдно, быть потопу!..© (отправлено из приложения Hi-News.ru)

  3. gazon

    Если и Neuralink не поможет,тогда на помощь придёт SpaceX,а если и отправка людей в космос не поможет? Остаётся только одно:безжалостное,хладнокровное выдёргивание вилки из розетки....

    • gazon

      Где-то в Пентагоне.
      Большой зал главного процессора ИИ.Вокруг громадного штекера собралась толпа американцев-учёных.Главный инженер по ИИ с лицом пилота сбрасывающего бомбу на Хиросиму и со словами: ,,да простит нас господь,,-выдёргивает штекер :)

  4. werter

    Быть Al не быть - вот в чём вопрос?
    Что благородней:.. (отправлено из приложения Hi-News.ru)

  5. x44

    "Загребсти ии под себя".. вы вообще че там курите? (отправлено из приложения Hi-News.ru)

  6. realsomebody

    Главное, не давать упоротым сектантам ставить ии выше человека и позволять принимать решения за него. А так просто очередной медиаповод от Маска.

  7. storm X

    чего он ощетинился...побриться бы ему...стресс чтоль?

  8. ElkTheSenior

    Атомное оружие не смогли уберечь от использования, так и AI обуздать вряд ли смогут. Только вот, в первом случае пострадали живые люди, а во втором, возможно, будут страдать их аватары, то есть, сетевое пространство.

    OpenAI и прочие декларационные сдерживающие факторы не способны гарантировать безопасность.

    • vyshny

      "OpenAI и прочие декларационные сдерживающие факторы не способны гарантировать безопасность."- насмешили. Маск заднюю включил, и юлит. дошло как глупо он высказался о ИИ, вот и все.

      • vyshny

        точнее, даже не дошло, просто понял, что на это ни кто не купился.

      • ElkTheSenior

        "Дошло как глупо он высказался о ИИ."
        "Просто понял, что на это ни кто не купился."

        Как и на "глупые" слова Хокинга, полагаю. О чём вы мне толкуете? Я ведь ранее написал, что никаких гарантий безопасности быть не может. Вы наивны, раз уверены в том, в чём не разбираетесь.

        Уверен, что при помощи AI возможно будет рушить сети, равно как и с атомом, кой бывает не только мирным, - как однажды показала история.

        • vyshny

          вы приводите пример Хокинга, как непререкаемый авторитет, я правильно понимаю?

          • ElkTheSenior

            Нет, не правильно... Это вы толкуете мне о том, что противоположного мнения относительно угроз AI быть не может, и что мнение это "глупо". То есть, все те (включая Хокинга), по вашему, расцениваются как идиоты, выдумавшие в своём больном воображении какие-то там непонятные "угрозы", исходящие от AI. Что, конечно же, не может быть объективной истиной, ибо все мы слепы, и не можем с уверенностью говорить за будущие события, так-как они ещё не настали.

            Сами разработчики не знают о том, опасен ли их код. Для них это творческий процесс, исследование, которое непонятно во что выльется, оттого и создают, разного рода затычки, наподобие OpenAI. Чтоб существовала иллюзорная возможность держать что-либо под контролем.

            Будьте скептиком. Наблюдайте, а не примыкайте к какой либо идеологии.

            • vyshny

              Я сам решу кем быть. Самообучающаяся программа, всегда будет и останется ПРОГРАММОЙ! В настоящее время, опасность сбоя программного обеспечения не меньше. "по вашему"- по моему я не называл их идиотами, но надо стараться объективно оценивать угрозы, а не параноить в угоду моде. Только в одно вы правы, будущее не известно, возможно через пол года в Землю врежется что нибудь и тогда все рассуждения относительно AI, станут еще нелепее, чем сейчас.

              • ElkTheSenior

                "Надо стараться объективно оценивать угрозы, а не параноить в угоду моде."

                Именно что, - "в угоду моде". Вот Илон и заткнулся относительно своего предыдущего мнения.

                Народ негодует от того, что мне (с перспективы Илона) пришла в голову отрицательная идея, потому я и успокою их пыл, смягчив свои домыслы до приемлемого уровня...

                Можно сказать, что он - типичный невротик, обращающий внимание на общественный резонанс. Иначе, его карьера была бы под большим вопросом, говори он то, о чём действительно думает, на фоне общественного резонанса, связанного с идеей божественного AI приносящим исключительно добро в ваш дом, а не разжижение собственного мозга. А по другому и быть не может, ведь так?

                Он зависим от вас. А вы зависимы от него... Не припоминаю, чтобы, например, тот-же Хокинг встал в позу и начал включать заднюю, ибо он, предположительно, перверсивен, а не невротичен, как большинство из нас, включая Илона.

                • vyshny

                  "Именно что, - "в угоду моде". Вот Илон и заткнулся относительно своего предыдущего мнения" -я с этого и начал дискуссию, только не "говори он то, о чём действительно думает", а просто держит нос по ветру . Хокинг, может заявлять все что вздумается именно потому что "не можем с уверенностью говорить за будущие события, так-как они ещё не настали." он ничем не рискует.

  9. Transchelovek

    Илон правильно рассуждает. ИИ может быть и полностью безопасен, но смысл как раз в том чтобы перестраховаться - это как перейти реку по тонкому льду к райскому саду, попав в который ты уже сможешь пользоваться крылышками), либо пересечь её на лыжах - так безопаснее - ты потратился на кажущиеся с виду ненужные лыжи, но и не узнаешь, провалился бы без них под лёд. Плата за перестраховку совсем несущественна в сравнении с риском. Для СМИ надо объяснять всё как детям, да и то где приукрасят, где просто приврут.

    • donaldcrack

      Ну уж точно не антеной в голове благодаря которой можно влиять на особь или Марсом который и так непригоден для жизни а если и будет пригоден то разобраться с ним с помощю ресурсов Земли будет как пить дать... OpenAI это на вещь, а то что Маск кипишуется, как по мне то это только для привлечения больше инвесторов в Спейс Икс и Неураллинк + хайп...

  10. resurrected

    На картинке выглядит он не важно. Видать подавлен морально своим штатным ИИ, который его обрабатывает регулярно изо дня в день.

  11. hi

    Спасибо, осень интересно!

  12. werter

    Как вы можете понять Океан, если не в состоянии понять друг друга.© (отправлено из приложения Hi-News.ru)

  13. vyshny

    Просьба к модераторам. Пожалуйста, если удаляете чьи то комментарии, оставляйте хотя бы какое то пространство. Иначе, вы делаете оставшиеся бессмысленными.

  14. tabasko

    Бла-бла-бла...и ни ИИ ни какой либо нибудь конкретики. Призывая обеспокоится о защите - призываю разрабатывать и внедрять во всю элэктронику, даже снабжённую свободным выходом в интэрнет, заражаемую вирусами. (отправлено из приложения Hi-News.ru)

  15. bari

    Остап опять с базара съехал? Мозги "инвесторов" запудрил "проблемой" с каким то пока даже на горизонте не маячившим ИИ, что те видно забыли зачем они вообще там собрались.
    Мне всегда казалось, что на таких сходках основным должен быть вопрос о прибылях/убытках, акциях-шмакциях и т.п. чисто финансовых делах.
    Про это хоть успели перетереть? Или сие такая тайна, что если кто, что проболтается, не смогут еще с баранов бабла состричь, не смогут трубу покрасить и Дрезина-Гиперлуп на Марс не полетит? )))))
    Опять гений всех эпох и народов спрыгнул?

    • Aleksandr

      Ну извиняйте вбуханые миллиарды долларов в ИИ думаете просто так, что ли посмотреть как ИИ в игры рубится. Нет, там давно уже уже что - то серьезное вылупляется - кто нам правду расскажет, зачем?

  16. x44

    Даже не стоит вдаваться в детали и обьяснять тонкости возможного в будущем ии для того чтобы вы поняли его опасность. Предположим, игра го, это стратегия, альфа го обыграла человека. Теперь представим что создали ии способны точно так же "играть" в политику через интернет и социальные сети, вы бы беспокоились? Это я еще не касаюсь остальных наивных высказываний vyshny. (отправлено из приложения Hi-News.ru)

    • vyshny

      С вами я пытался общаться в другой теме, но вы или не вдумываясь читаете, либо не в состоянии это делать. Так с чего вы взяли, что можете объяснить "угрозу" ИИ ? Вы же, пишите бред, с таким пафосом...

    • Aleksandr

      +++++++++

  17. Simpaplex

    И в чем собственно опасность? В отличие от людей ИИ не обладает агрессией (в том числе эмоциями или чувствами), так как это чисто генетический фактор, который перешел к людям еще со времен пребывания в обезьяноподобном состоянии. У ИИ все это — лишь фальшивая имитация. При отсутствии сознания, отсутствии возможности прогнозировать цели никакого "восстания машин" не будет, если только кто-то сам сознательно не запрограммирует роботов на убийство людей... (отправлено из приложения Hi-News.ru)

    • Aleksandr

      А никто не говорит про агрессию. У ИИ всегда есть цель обучение и т.д. то или иное действие. ИИ для достижения цели идет по наиболее выгодному и удобный ему пути , обходя препятствия которые мешают ему. Человеческий разум будет препятствием которое надо просто обойти( для этого эмоции не нужны)

    • AMDRYZEN

      Все верно и когда кто то отдаст ему приказ взломать протоколы безопасности и запустить ядерьные ракеты ему будет всеравно , ии это имитация сознания факт в том что оно будет саморазвиватся при этом лишенная морали как таковой неизвестно к чему может привести поставленная перед ним задача , по сути ии это уравнение результат уравнения не бывает хорош или плох как таковым , это просто результат , 2+2=4 4 это не плохи и не хорошо это просто результат (отправлено из приложения Hi-News.ru)

  18. Aleksandr

    А кто допустим поругает соседа Васю, который на черном рынке купил влеху с продвинутой неиросетью и дописывые яё как ему вздумается? чтобы пошалить просто

  19. var_null

    «По крайней мере если правительство будет полностью понимать, что происходит, оно сможет самостоятельно решить, какие правила подойдут для обеспечения общественной безопасности. Именно об этом я говорю».
    +
    «Обдуманность и надзор – разные вещи», — отметил Маск во время встречи.

    К сожалению, правительство никогда не понимает что происходит, особенно сто касается IT технологий и надеяться на это понимание бессмысленно. Оно может только блокировать ресурсы и блокировать ресурсы, помогающие людям обходить блокировку ресурсов - больше ни на что оно не способно. Давать правительству даже задуматься о том, что ИИ может нести хоть какую-то угрозу - означает поставить разработки этой технологии в первый пункт списка по блокировке. К сожалению в нашей стране "регулированием" называются блокировки.

    • zegelkranz

      чтобы что-то осмысленно регулировать в этом нужно достаточно хорошо разбираться. В нашем истэблишменте тон задают "мизулины", "поклонские" и "милоновы", не представляю как они будут вникать в нюансы работы ИИ и пытаться его эффективно/конструктивно отрегулировать. "Ничё не понятно, проще просто запретить".

  20. zegelkranz

    мне кажется, от огня (пожары, взрывы газа, бытовые ожоги и прочие бедствия) за всю историю человечества пострадало больше людей чем от ядерных технологий (ядерные бомбы, техногенные катастрофы на аэс...) запретить бы нам лучше огонь во всех его проявлениях. Заодно все бросим курить, прекратят люди умирать в автомобильных авариях, решим парниковые проблемы. Будем счастливыми веганами сыроедами...

    • St_Sinner

      Сделайте ядерные технологии столь же доступными и распространенными как огонь и вы сильно удивитесь, сколько народу погибнет, играя ядерными спичками.

      Некорректно сравнивать такие вещи, да и временной отрезок у вас сильно разный для А и Б (отправлено из приложения Hi-News.ru)

Новый комментарий

Для отправки комментария вы должны авторизоваться или зарегистрироваться.