Почему Биллу Гейтсу (и вам) не стоит бояться искусственного интеллекта

7 893 просмотра
Об авторе

Билл Гейтс

На прошлой неделе Билл Гейтс в ходе сессии вопросов и ответов на ресурсе Reddit получил интересный вопрос от одного из пользователей: «Какую угрозу для выживания человечества представляет машинный сверхинтеллект, и считаете ли вы, что полное шифрование всей активности в Интернете может защитить нас от этой угрозы (то есть чем меньше знают машины, тем лучше?».

К сожалению, Гейтс не ответил на вторую часть вопроса, но написал следующее:

«Я отношусь к людям, кто беспокоится по поводу сверхинтеллекта. Поначалу машины будут делать кучу работы для нас и не будут особо разумны. Будет неплохо, если мы будем умело ими руководить. Спустя несколько десятилетий этот интеллект станет достаточно мощным, чтобы стать проблемой. Я согласен с Элоном Маском и другими по этому вопросу и не понимаю, почему люди не беспокоятся».

К счастью робофобов, лучшая команда антигероев почти собрана. Элон Маск и Билл Гейтс — это кошелек и влияние, легендарный космолог Стивен Хокинг — чрезвычайно важная персона. Им не хватает разве что рук, которые будут способны на грязные поступки против машин в этой превентивной войне.

На самом деле, этим зарождающимся Мстителям нужно еще кое-что более дальновидное: любой признак того, что искусственный сверхинтеллект будет серьезной угрозой, или более серьезное исследование.

Тем не менее, на фоне растущей истерии вокруг несуществующего искусственного интеллекта, возникают серьезные недоумения. Эксперты не видят ни намека на исполинский тиранический искусственный интеллект в современном коде. Возможно, Гейтс, Хокинг и Маск чертовски умные ребята и знают что-то, чего не знаем мы. Но можно послушать и ведущих исследователей этого самого искусственного интеллекта.

Когда люди обсуждают нейронные сети, когнитивные вычисления и в целом понятие искусственного интеллекта, который должен превзойти человеческий, они также говорят и о машинном и глубоком обучении. Если кто и знает, что настало время паниковать, то эти ребята.

Искусственный сверхинтеллект не приходит ниоткуда

Вот Дилип Джорд, соучредитель стартапа искусственного интеллекта Vicarious, рассуждает о рисках сверхинтеллекта:

«История помнит много паник вокруг самых разных технологий, от парового двигателя до ядерной энергии и биотехнологий. Вы продадите больше газет и билетов в кино, если сыграете на истерии, и сейчас, на мой взгляд, происходит то же самое: люди раздувают страхи вокруг искусственного интеллекта. Как ученые, мы должны информировать общественность о разнице между Голливудом и реальностью. Сообщество искусственного интеллекта не стоит еще даже на пороге создания чего-то подобного, о чем стоит беспокоиться».

Эта точка зрения Vicarious имеет вес не только из-за текущей работы компании над искусственным интеллектом, но и потому, что Элон Маск представил стартап как часть своего взгляда за занавес. Маск рассказал CNBC, что инвестировал в Vicarious «не для того, чтобы отбить инвестиции, а чтобы иметь возможность приглядывать за искусственным интеллектом». Он также писал, что «ведущие компании по разработке ИИ принимают серьезные меры для обеспечения безопасности. Они осознают опасность, что считают, что смогут формировать и контролировать цифровой сверхинтеллект и предотвратить его бегство в Интернет. Посмотрим…».

На вопрос Vicarious о том, сколько времени и ресурсов они посвящают защите от искусственного интеллекта, отвечал Скотт Феникс, еще один соучредитель Vicarious:

«Искусственный интеллект не появляется случайно или внезапно. Мы находимся в самом начале исследований того, как вообще построить базовую систему интеллекта, а впереди еще долгий процесс повторения и обучения такой системы, изучения путей ее создания и путей безопасности».

Vicarious не имеет дела со сверхинтеллектом. Его даже нет на радарах. О каких же тогда компаниях говорит Маск, а о каких серьезно беспокоится, по его же словам, мол, чтобы плохой сверхинтеллект не «сбежал в Интернет»? Как, по его же словам, построить тюрьму для демона, когда и самих-то демонов нет?

Вот как на вопрос о том, как компании активно удерживают искусственный интеллект под замком, ответил Ян Лекун, директор по исследованиям ИИ в Facebook:

«Некоторые люди задаются вопросом, как воспрепятствовать тому, что гипотетический сверхразумный доброжелательный искусственный интеллект решит «перепрограммировать» себя и гарантирует выпиливание всего человечества. Большинство этих людей сами не являются исследователями ИИ, даже программистами не являются».

Лекун также указывает один из источников путаницы: на разницу между интеллектом и автономией.

«Допустим, у вас на первый взгляд сверхразумная система, которая не обладает автономией. К примеру, шахматная программа, которая может одолеть практически любого человека. Обладает ли она сверхинтеллектом? Очень скоро автопилоты самолетов и самоуправляемые автомобили будут надежнее людей. Означает ли это, что они будут умнее людей? В очень узком смысле, эти системы будут «более разумны», чем люди, но их опыт будет лежать в очень узкой области, а у систем будет крайне мало автономии. Они не смогут выйти за рамки предписаний».

Это важное отличие, и оно хорошо описывает панику, которой поддались Маск, Хокинг, а теперь и Гейтс. ИИ может быть умным, не будучи разумным и творческим. Что еще более важно, ИИ не подгоняется неким цифровым эквивалентом биологического эволюционного пути, конкурируя и вопроизводясь с каждой мутацией все лучше и лучше, пока не достигнет безудержного сверхинтеллекта. Нет, не так работает ИИ.

Нас удивит машина с интеллектом мыши, но это произойдет не скоро

Алгоритм поиска выдает результаты быстрее любого человека, но в нем никогда не вырастет код этики и он не будет скрывать порнографию на свой вкус и цвет. Только писатель-фантаст или другой гуманитарий, далекий от компьютерных технологий, может представить, как искусственный интеллект человеческого уровня внезапным и непостижимым образом вырастает из ниоткуда. И если уж вы верите в одно чудо, почему бы не добавить другое, скажем, самособирающийся сверхинтеллект?

Лекун выступает в защиту Маска, утверждая, что его комментарий, сравнивающий ИИ с ядерным оружием, был «преувеличен, но также неправильно понят».

«Элона очень беспокоят экзистенциальные угрозы человечеству (потому-то он и строит ракеты, которые смогут отправлять людей колонизировать другие планеты). Даже если риск восстания искусственного интеллекта ничтожен и призрачен, нам стоит задумываться о нем, выстраивать превентивную защиту, следовать строго очерченным правилам. Так же как были установлены биоэтические ограничения в 70-х и 80-х, еще до того, как генная инженерия стала использоваться повсюду, нам нужно создать ограничения в сфере этики искусственного интеллекта. Но, как правильно говорит Йошуа, у нас достаточно времени. Наши системы превосходят людей в очень узких областях, но общей ИИ человеческого уровня появится еще не скоро, возможно, через пару десятилетий, не говоря уж об автономном общем ИИ, который может быть никогда не построен».

Ученый, которому было что сказать по теме, был упомянут в предыдущем абзаце. Йошуа Бенгион — глава Лаборатории машинного обучения в Университете Монреаля, один из пионеров подобласти глубокого обучения (вместе с Лекуном). Вот его мнение по поводу того, что исследования ИИ таят в себе опасность:

«В этой точке зрения нет никакой истины, если рассматривать ее в контексте текущих исследований искусственного интеллекта. Большинство людей не понимают, насколько примитивные системы мы строим, и, к сожалению, многие журналисты (и некоторые ученые) распространяют страхи об ИИ, которые совершенно не соответствуют реальности. Мы бы офигели, если бы создали машину с интеллектом мыши в ближайшем будущем, но мы пока далеки от этого, очень далеки. Да, у этих алгоритмов уже сейчас есть полезное применение, и дальше будет больше. Более того, я правда считаю, что люди однажды создадут машины, которые будут столь же умны, сколько люди во многих отношениях. Однако это будет в далеком будущем, поэтому нынешние дебаты — пустая трата времени. Когда вопрос станет насущным, конечно, мы соберем ученых, философов и юристов, чтобы определить лучшие пути предупреждения последствий, принадлежащие в настоящее время научной фантастике».

На вопрос о том, является ли сверхинтеллект неизбежностью, Бенгио ответил:

«Довольно сложно ответить на этот вопрос, отбросив все строгости научного осмысления. Я вижу много хороших математических и вычислительных причин, почему исследования ИИ однажды зайдут в тупик (из-за экспоненциального роста сложности), в который зашел однажды человеческий интеллект — что, в принципе, также объясняет, почему дельфины и слоны, хотя и отличаются большим мозгом, не являются сверхразумными. Мы просто не знаем достаточно, чтобы зайти хоть сколько-нибудь дальше предположений в этом вопросе. Если эта гипотеза тупика подтвердится, однажды у нас будут компьютеры, которые будут так же умны, как люди, но будут обладать более быстрым доступом к знаниям. Но к тому времени люди могут тоже завладеть этим доступом к информации (в принципе, мы уже этим занимаемся, но медленно — через поисковые алгоритмы). Конечно, это не имеет ничего общего со сверхинтеллектом. Я думаю об ИИ как о помощи разуму, подобно тому, как промышленная революция была помощью рукам в течение двух последних столетий».

Что касается замечания Маска о том, что ИИ «потенциально опаснее ядерного оружия» и с ним нужно быть поосторожнее, Бенгио обращается к настоящему времени, не выбивая дверь в неизвестное будущее:

«Пока этот вопрос не имеет смысла. В будущем все может измениться, но пока мы гадаем на кофейной гуще. Когда мы доберемся туда, разумеется, мы задумаемся серьезно».

Общий лейтмотив в обсуждениях — время. Когда вы говорите с исследователями ИИ — опять же конкретно исследователями ИИ, людьми, которые работают с этими системами — они не особо беспокоятся о том, что сверхинтеллект подкрадывается к ним (глупцы, бегите!). В отличие от жутких историй, которых начитался Маск, исследователи искусственного интеллекта вообще не берутся даже обсуждать сверхинтеллект, его не существует даже в планах. Прав ли Билл Гейтс?

Почему Биллу Гейтсу (и вам) не стоит бояться искусственного интеллекта

Приложение
Hi-News.ru

Новости высоких технологий в приложении для iOS и Android.

54 комментария

  1. SuperStarSieve

    Я верю в ИИ. Я одобряю. (отправлено из iOS приложения Hi-News.ru)

  2. slavaqwerty

    Обсмотрелись терминатора и матрицы и сцуцца как девочки. Чё его бояться, если он умнее будет?
    Идиотов бояться нужно. (отправлено из iOS приложения Hi-News.ru)

  3. LightCore

    Паника,которая когда-то возникла вокруг ядерной энергетики или генной инженерии (по отношению к аграрным культурам) были весьма и весьма обоснованными, друзья. Не достаточно ли нам припомнить Чернобыль или Японию? А? Может вы забыли сколько людей погибло в течении суток, от термальных и радиационных ожогов, в корчах, со слезающей с костей кожей и выпадающими зубами. А сколько их погибло в течении последующих 30 лет? Так что родные мои.... Мне кажется все в руках общественности. Безусловно 95% предпочтет промолчать, так всегда было и так наверное всегда будет. Но боюсь, найдутся и те, кто воспротивится этой ветке "прогресса". Такие как я, например. Начнем с того, что Гейтс, Маск и тот самый физ. теоретик в инвалидной коляске - это не тупые ребята. И если они говорят: "Плохо, опасно, критично", значит на это скорее всего так. Но давайте обопремся на свой собственный интеллект. Скажите, зачем нам такой ИИ? Зачем он наших детям и внукам? Безусловно он упростит расчеты и тому подобные действия инженерного характера, но они нужны не нам, а ребятам-конструкторам космических кораблей. А нам что он даст? Ну будете вы на 0,004 секунды дольше искать термин в гугле..... ну и че? Плохо жить от этого станет? (отправлено из iOS приложения Hi-News.ru)

    • kenji24

      Красавчик! Полностью согласен (отправлено из iOS приложения Hi-News.ru)

    • Hamb00mger

      Если говорить о возможностях, то в плюсах будет то, что это вполне легко изменит наш мир (кстати, искусственные роботы-помощники для тех же детей). А вот то, что "бьют в колокол" не очередные учёные-консерваторы, а лучшие умы человечества... Вот это заставляет задуматься, зачем нам нужно рисковать. Но вообще тут всё просто, у нас вообще нет таких причин, из-за которых мы не обошлись бы без искусственного интеллекта нашего уровня. Как всегда, к краю нас подталкивают компании, делающие деньги себе и "лучшую жизнь" нам :)

      • LightCore

        Прямо в цель,дружище!Именно то,что я и хотел изречь) Действительно,что может помешать нам и нашим потомкам прожить жизнь "на полную катушку" БЕЗ этого? Ничего,абсолютно верно. И опять же стоит понимать,что создание такого рода "абсолютного" ИИ станет началом еще большей классовой пропасти,когда будет существовать колоссальная масса "неразумных" потребителей и единицы разрабатывающей её элиты (примеров из жизни более чем достаточно). Позволив этому произойти,мы еще больше поспособствуем концентрации власти у конкретных корпорации. Как ни крути,это губительно и для общества в целом и для каждого человека отдельно. Ко всему прочему хотелось бы сказать пару слов о своевременности "истерики". Рано? Мы еще далеки от создания чего-то даже отдаленно похожего на предмет наших споров? Так может давайте сейчас решим нужен ли он нам вообще или нет? Пока еще попу рвать не приходится,извините за фамильярность.

        • LightCore

          Ах,да....забыл спросить. А Вы доверите своих детей роботу?)

        • SKP

          По поводу пропасти и контроля.
          Революция вам в руки, если вы считаете, что человечество может существовать без какой бы то ни было иерархии. Тут можно долго говорить и разводить дебаты, но могу вам сказать одно, контроль – это нормально. Нет ничего сверхъестественного в том, что кто-то "разбирается", а кто-то "тупо потребляет". Это нормально, когда одни люди в социуме выше других и имеют больше власти, благ, и тп. Все люди рождаются разными и умирают все разными, в разных условиях, прожив разную жизнь.
          Равенство в социуме невозможно без идентичности, а любая "уравниловка" противоестественна для нормальных людей. Разве что так могут жить роботы, абсолютно идентичные между собой. Все. (отправлено из iOS приложения Hi-News.ru)

        • static_method

          А что может помешать вам и вашим потомкам прожить "на полную катушку" без телефонов, компьютеров, автомашин, самолетов, электричества, ядерной энергетики - ничего. Берите в руки палки и залазьте обратно на дерево и живите "на полную катушку", а то ведь от телефонов радиоволны, электричество током бьет, от ядерных станций радиация, а уж в автокатастрофах сколько гибнет - свыше 1 млн. человек в год, вы же не кричите, что давайте запретим автомашины, нас всех задавят! Искусственный интеллект, при правильном обращении, мог бы значительно ускорить развитие человечества, не надо заменять человека там, где это не нужно, быстрый сбор информации, обработка данных, анализ данных, быстрый доступ к накопленным данным по связанному контексту, написание и анализ программного кода - вот где он нужен. Если автомобили, самолеты будут управляться искусственным интеллектом или при его содействии, катастроф станет в разы меньше, исчезнет человеческий фактор - всякие пьяные, невыспавшиеся, заболтавшиеся, не умеющие водить блондинки и т.д., уменьшение просчетов в проектирование из-за недостаточно квалифицированных специалистов при строительстве, зданий, машин, особенно актуально при проектировании космических аппаратов. Написание оптимального программного кода не содержащего багов, анализ кода написанного человеком, даже сейчас почти любой крупный программный продукт не обходится без проверок статическим анализатором, потому что человек существо очень невнимательно и которому свойственны ошибки. В медицине для анализа, данных и разработки лекарств. В этих областях ИИ и будет как незаменимая панацея, а не детей ваших нянчить - аааа... караул, бесчеловечная железная нянька мучает моих детей, смех да и только :D

          • LightCore

            Я сказал,что нам нужно отказаться от тех благ тех.прогресса которые уже есть? Нет,я такого не говорил. По поводу железной няньки. Так это вы зря смеетесь. Уже сейчас есть человекоподобные твари способные здороваться,беседовать на тему погоды, разбудить вовремя,напомнить о предстоящей встрече т.д. На данный момент они никакой опасности не представляют,но надели ты их таким ИИ и люди начнут использовать их и по отношению к детям. Нет,если Вы хотите,чтобы лучшим другом вашего внука был бот,то флаг вам в руки и бронепоезд навстречу. Мне такого не надо,я хочу чтобы мои внуки общались с живыми людьми. Ну это все касательно "железных нянек". Теперь по поводу палок и деревьев. Вы больно расплевались,сударь/дама. Наверняка,обтекая слюной,вы читали мой коммент не слишком внимательно. Я писал о "классовой пропасти","неразумных потребителях" и еще большей монополии на власть. Я не призывал никого лезть в пещеры и жрать сырую плоть. Вы упомянули про "правильное применение". Понятие верного у каждого свое. И если кто-то решит,что интеллект может работать не только на благо человечества,но и против, (а кто-то обязательно так решит) то это будет правильным....для него. И что вы тогда прослюнявите? "А мы не знаааали....Мы думали,что все будет сладко,как в сказке. Мы же хотели,чтобы боты были хорошими и только такими". Правильно обращение с технологиями у каждого свое и когда разумные боты полезут из всех щелей мусульманских стран,например,дабы истребить всех "непокорных",Вы уже не будете верещать в их защиту. Нет,может такого не случится никогда?

            • LightCore

              Ну это так...к примеру.

            • static_method

              Боже мой, какие эпитеты и фантазии :D - "расплевались", "прослюнявите", " обтекая слюной,вы читали мой коммент". По теме. Вы не хотите чтобы у вас внуки с ботами общались, ок, какие проблемы, пусть не общаются, некоторые например и сейчас запрещают своим детям смотреть телевизор до определенного возраста или играть на компьютере, строгих норм воспитания детей не существует.
              Каким конкретно образом ИИ будет способствовать увеличению "классовой пропасти","неразумных потребителей"(о ком речь, кто это, есть какие то разумные потребители или неразумные производители?) и большей монополии на власть? Каким образом по вашему, тогда этому не способствуют, авто и авия техника, оружие, компьютеры, мобильная техника, энергетика и другие текущие «тех благ тех.прогресса которые уже есть» и от которых вы не собираетесь отказываться?
              Вы наверное включенную эл. мясорубку, утюг, печку, пылесос дома с детьми, да ибез не оставляете. Но на всякий случай есть противопожарная сигнализация, противоугонка на машине, сами ПДД и технику безопасности соблюдаете. Так почему у вас ИИ подругому, почему он должен быть бесконтрольный и мочь делать что хотеть? Если правоохранительные органы убрать на улицах тоже хаос с убийствами, грабежами, изнасилованиями начнется, что же теперь людей запретить? Необходимо просто грамотно подойти к вопросу, разработать стандарты, требования, НТД, ПТБ, надзорные органы для осуществления контроля за их выполнением. Оружие, техника, любые достижения науки и техники могут и используются как во благо так и наоборот, как ни странно у террористов тоже есть машины, оружие, навигаторы, телефоны и т.д. и они ими прекрасно пользуются для истребления всех «непокорных», почему вы на этот счет не "расплевались", не "прослюнявили" и не "обтекли слюной" и не верещите "А мы не знаааали....Мы думали,что все будет сладко,как в сказке.» придумайте пистолет обратно, мама роди меня в зад :D ? ИИ такой же инструмент. Вы сейчас выглядите как инквизитор – «чур меня, чур меня, сжечь, запретить, несогласных под бронепоезд :D»

              • LightCore

                А потому что этого у них уже не отнимешь,поэтому и "плеваться" смысла уже мало. Пистолет обратно не придумаешь,а вот ограничить разработку потенциально опасных для общества технологий вполне возможно. Случается такая ситуация,когда цивилизация просто не готова к тем или иным новшествам,и если они приходят раньше положенного срока,то высока вероятность катастрофы,спровоцированной глупостью,алчностью или еще Бог знает чем.Вообщем людской природой. А теперь на счет подрастающего поколения. Мне самому всего 20 лет,и я с уверенностью могу утверждать,что запрещай ты своему ребенку играть в Angry Birds или не запрещай,он все равно сделает так,как ему угодно. Тоталитаризм в семьях ни к чему хорошему не приводит. Так случится и с "ботами". Дети,под влиянием общественности все равно будут стремиться быть похожими на остальных. Отсюда и инквизиторство,причем вполне обоснованное: либо все "да",либо все "нет". А еще мне не до конца ясна конкретно Ваша позиция. Вы тут просто для того,чтобы поспорить или на самом деле имеете диаметрально противоположную точку зрения?

            • Hellalu

              Простите что влезаю в ваш диспут,
              но не доверять чему либо что мы не контролируем это вполне естественно для человека, но темнемение вы доверяете людям которых совершенно не знаете, почему же у вас такой параноидальный страх перед ИИ, потому что он умнее?

            • Hellalu

              Или вы думаете что ИИ получит компьютерную эйфорию в размере 3 вольт от осознания, что он навредил человеческому детенышу и об этом никто не узнал или 5 вольт если сделать это на глазах у родителя ?

            • Hellalu

              И позволит ли ИИ людям далеким от науки, глубоко верующим изменять себя, вы же понимаете, что ИИ это практический машина с сознанием, которая врятле поверит в Аллаха только потому что ей об этом скажет бородатый дядя?

    • SKP

      У вас странная и страшная позиция. Для начала, ваши доводы бессмысленны, ибо Чернобыть и тд это не вина ядерной энергетики и тех, кто разрабатывал технологии, если немного подумать, станет ясно, что виноваты корыстные мотивы и военные. Перенося это в плоскость ИИ могу сказать, что ИИ может быть использован кем-то против кого-то и это может быть опасно, но сам по себе ИИ не является угрозой. Простой пример: у вас есть меч, у вашего оппонента такой же точно, в данном случае меч – инструмент и не несет ответственности за то, что вы с ним сделаете, убьете/раните оппонента или он вас, меч не виноват в причиненном вреде и не может быть в нем обвинен.
      Вывод: ИИ - это инструмент, а то как вы его используете зависит от вас. Поэтому разводить истерию вокруг этого некорректно. (отправлено из iOS приложения Hi-News.ru)

      • LightCore

        Если развить Вашу мысль,то нам вообще не следует устраивать диспут на тему ИИ,потому что самого ИИ такого уровня пока не существует. И тем не менее людей это волнует. Поэтому говорить мы об этом будем,правильно это или нет. С этим разобрались...Второй момент. Тот факт,что нож может намазывать масло на хлеб,а может резать человеческую плоть неоспорим. Все зависит от намерений владельца ножа. "Перенося это на плоскость" аварии на Чернобыльской АЭС я никого не обвинял в случившемся. Я просто констатировал факт,а то,что он пугает Вас,так это поправимо: стакан 2 процентной спиртовой настойки валерьяны избавит Вас от беспокойства. А факт в том,что погибло более 500 тысяч человек и виной тому в первую очередь наличие этой самой станции."Странно" в первую очередь,полагать,что технология,о которой мы беседуем будет принадлежать всем и работать на всех в одинаковой мере. Это наивно и для этого не нужно заглядывать глубоко в историю,достаточно иметь интеллект в зачаточном его состоянии,а следственно умение сопоставлять и анализировать. Надеюсь у Вас все это имеется,посему продолжим. Наличие корыстных мотивов персонала АЭС - это только Ваши инсинуации,уж извините. Военные там виноваты или не военные,это дело пятое хотя бы потому,что мы никогда этого не узнаем. А какая райская птица уверила Вас в том,что с этой технологией также не поступят?

        • SKP

          О Чернобыле. Люди как раз таки погибли не из-за того, что построили станцию, а из-за неправильного использования ее или оборудования, на ней находившегося. Раз.
          О доступности. Я ни разу не говорил, что технологии, тем более ИИ доступны или будут доступны всем. Напомню, что к Интернету доступ имеет меньше половины человечества, но это не делает его "плохим" и "опасным". Мы все им пользуемся. Так же, возможно, будет и с ИИ. Сначала, несомненно, он будет доступен "избранным", так же как в свое время компьютеров в мире было 10 и обладали ими только особые люди. Затем компьютеров стало больше, затем еще больше, они становились доступнее и вот для нас человек, не имеющий компьютера становится довольно редким и странным явлением.
          Разве не так? Что дает вам повод думать, что с процессом развития ИИ случатся какие-либо фундаментальные изменения и оно пойдет другим путем? (отправлено из iOS приложения Hi-News.ru)

          • LightCore

            О Чернобыле. Давайте не будем с такой категоричностью утверждать что же там произошло на самом деле. Была ли это халатность персонала или заговор военных,а может это случилось по причине технических недоработок саркофага....Мы ведь не знаем. Да и саму трагедию я упомянул только,для того,чтобы привести пример того,как технологии могут быть опасны. Вы считаете,что люди,строившие АЭС не были уверены на 100% ,что она безопасна? Да,изначально задумывалось предоставить всем дешевую электроэнергию,но получилось совсем иное. Ну да Бог с ней,с АЭС этой. Вы меня неправильно поняли. Среди тех людей,у которых будет доступ к таком ИИ,будь то избранные разработчики или представители "обычных" людей, обязательно найдутся те,кто захочет использовать его не по назначению. На выгоду себе или того хуже - целенаправленно против человечества. Пример: Допустим такая технология попала в руки к представителям Аль-Кайды. Ммм? Может такое случится? Конечно может. И что тогда будет? Не думаю,что они станут своих ботов обучать за престарелыми ухаживать. Они скорее нацепят на них сотню кг тротила и обучат незаметно передвигаться. Круто получится,как думаете? Ну или смогут через Инет терроризировать целые страны,мелкие,такие например,как Эстония,Латвия,Литва,Люксембург. Взломают банковскую систему,аннулируют все счета. Начнется паника,бунт и т.д. Нет? Это маловероятно? Так вот....Я к этому веду. Тот нож намажет парочку бутеров маслом,а потом зарежет сотню человек. И это не фантазия,это весьма близкое к реальности предположение.

            • LightCore

              Будьте добры ответить,мне правда интересно что Вы думаете на этот счет.)

    • B1G-CR1ME

      Немного оффтопа: А вам не кажется поразительным, что мы сейчас вообще можем обсуждать подобное? Лет десять тому назад... ну вы поняли. И это - в порядке вещей в 2015 году! Представьте, что в 1890 было, в 1980, в 2050 будет? Поводов для дискуссий масса, не так ли? Ну да ладно, что-то я малость загнул.

      А теперь по теме - конечно же, будут и с этим ошибки, возможно даже, катастрофы, но я склоняюсь к мнению, что и это изобретение притрётся. Хоть мы и не используем, хе-хе, ядерную энергию в повседневной жизни, но она-таки ухитряется играть в ней значительную роль - без той же Чернобыльской АЭС без энергии осталось бы чёрт знает сколько населённых пунктов! Правда, потом провели-таки в них высоковольтные линии, да... В общем-то техногенные катастрофы, связанные с внедрёнными, новыми и не очень, технологиями, случаются всё реже и не представляют ну уж слишком большой опасности. Знаю, тут слабое звено, но погибло людей не так уж и много в итоге, так? Плюс атомные электростанции - просто модифицированное оружие, что не есть залог стабильности их работы. ИИ, по идее, задумывается исключительно для помощи человеку, верно? Так что навряд ли он вдруг свихнётся и захочет жахнуть по человечеству чем-нибудь экзотическим. Очевидно, создатели оного догадаются попытаться встроить какой-нибудь годный 92-й контур-"страховку" (читали Гарри Гаррисона? Хе-хе.) от подобного. Хотя и большой нужды в ИИ в быту нет, изобретать его имеет большой смысл для исследователей, учёных и прочих. Подумайте, какой вред может нанести суперкомпьютер с ИИ, кряхтя в лаборатории над какой-нибудь Библией? Или человекоподобный робот, улепётывающий от мнимого гейзера где-нибудь на том же Титане, аки кошка от собаки? Ибо для этого, думаю, и создают. А в повседневке будет достаточно пары микрокомпьютеров с "Пентиумом" на борту для каждой фиговинки. Так-то.

      З. Ы. Интересно, свихнётся ли продвинутый ИИ, если в теле андроида наденет Oculus VR? Гы-гы. (отправлено из iOS приложения Hi-News.ru)

      • LightCore

        В течении 30 лет после катастрофы погибло около 600 тысяч человек. По больше части от лучевой болезни. Медленно и мучительно.

        • static_method

          За 1 год в результате ДТП в мире гибнет около 1 млн. 200 тысяч человек. Где ваш транспарант о запрете автомобилей?

  4. Nauryzzz

    Те кто знаком с программированием, согласятся что создание ИИ не случится в обозримом будущем. В коде ничего не происходит спонтанно или случайно, как Код может перекодить себя же и при этом понимать, что он есть прежний код, который перекодил себя... Это как если герой какой то книги вдруг понял, что он в книге, в чьем то рассказе и начал менять историю событий книги. Герой - это создание/творение/мысль писателя и он делает то, что написал автор и его действия ограничены сюжетом истории, описанной в книге. Так же с кодом программы ИИ. Кстати, не в тему конечно, но это можно отнести и к нам, к людям! Тока в этом случае мы персонажи в книге "Бога". Мы пытаемся понять и найти его следы, но можем понять тока то, что он нам позволил... как то так. (отправлено из Android приложения Hi-News.ru)

    • allexxic

      + Ждал грамотного коммента

    • killerbean

      Как раз это и не проблема. Можно зарезервировать под это место в памяти, а после переписывания своего кода новая версия ИИ будет находится в неактивном состоянии "зародыша". Когда ИИ решит, что его новая версия устраивает, он просто самоуничтожится, и развернет свою новую версию. Другой вопрос когда программа начнет понимать, что ей не хватает возможностей (интересно для чего?), потом поймет как переписать свой код (она же не знает, как и для чего это делать).

      Я думаю на понимание этих моментов уйдет не мало времени у ИИ.

      Сейчас все просто: научили ИИ играть в шахматы, научим и в шашки. Вот только о существовании и шахмат и шашек заранее знают ученые, и более того, логика того, зачем ИИ шашки в принципе - тоже доступна только людям.

      • allexxic

        Чтобы ИИ мог"понимать" нужно для начала хотя бы сделать копию человеческого мозга в цифровом виде и все это залить во все суперкомьютеры всего мира.И этого будет недостаточно. Нейроны в сети мозга работает параллельно. Чтобы сымитировать мозг, понадобится количество ядер равное количеству нейронов в мозгу (условно). А представьте шины данных и их пропускную способность для этих ядер. Здесь понадобится не просто компьютер с существующей на данный день архитектурой, а что то новое,"hard"устройство. И даже, допустим, мы сделаем копию мозга из кремния, не факт, что для запуска мыслительного процесса не понадобится "душа".

        • killerbean

          Тут еще один момент. То чего сейчас боятся люди - основано на фильмах. А это всего навсего быстрый доступ ко всей информации в мире, и способность мгновенно анализировать, и принимать решения. Не факт, что когда будет готов годный ИИ, человек сам не будет обладать такими возможностями.

        • sticked

          Раньше думали что и телеграф невозможно сделать, и Самолет, и Поезда. Идея в том что наука постоянно развивается. Раньше жесткий диск объемом в 5 байт весил не один десяток кг. А что сейчас? Лет через двадцать, может, чуть больше, суперкомпьютер сможет уместиться в кармане. И то что сейчас мы считаем "невозможным" в один момент может стать очень простым в исполнении. Вот скажите, задумывались ли вы лет десять назад что можно "засунуть" ваш гигантский компьютер в карман брюк? Вот и ответ. (отправлено из iOS приложения Hi-News.ru)

          • killerbean

            Да. Достаточно глянуть на то, как выглядели комы в 60-70х, вспомнить закон Мура - и все становится. Очевидно.

            ИИ, это немного другое. В статье исследовании ИИ все написали. Если создание ИИ уровня Мыши, это долгосрочная перспектива, то что уж говорить про ИИ уровня человека.

            • sticked

              100 лет назад тоже думали что в космос отправиться либо невозможно либо будет возможно лет этак через 100-200. Но все менялось. Сначала изобрели машины, потом мощные двигатели, затем военные ракеты и все понеслось. И вот уже в 1961 году первый человек (!) отправился в космос. Люди смотрят в прямой перспективе. Вспомните хотя-бы историю с AT&AT. Им говорили что мобильная связь не будет. И что в итоге? Люди учитываются лишь их возможности в данный момент времени. Но все меняется. Люди делают великие открытия и человечество движется вперед. (отправлено из iOS приложения Hi-News.ru)

    • Аноним

      Может, путём огромного количества рекурсий в коде, путём анализа постоянно меняющихся , поступающих параметров. Только способ получения этих параметров и их подача в контроллер ИИ и создание этого самого изначального контроллера должен создать человек. Ну и первый "толчёк" (как в случае со вселенной- большой взрыв) должен быть отпущен человеком. На счёт того, что будет этим толчком - можно по рассуждать конечно) (отправлено из Android приложения Hi-News.ru)

  5. vinstlow

    Так в том-то и дело что до ИИ мягко говоря далеко. То что обсуждают это далеко не ИИ и конечно этого бояться не стоит. (отправлено из приложения Hi-News.ru)

  6. kletsel

    Какой-то старапер говорит, что не надо бояться, в то время как два ведущих технократа и выдающийся ученный говорят обратное. А суть в том, что ты не можешь контролировать существо, которое на много умнее тебя.

  7. Demiurge

    Не в то время мы живем, чтобы задаваться подобным вопросом, хоть я их и поддерживаю. (отправлено из iOS приложения Hi-News.ru)

    • B1G-CR1ME

      Почему же, лет эдак через... Даже не знаю, может, двадцать-сорок этот ИИ будет готовченский. А с нынешними технологиями доживёте, даже если не захотите, друг мой. (отправлено из iOS приложения Hi-News.ru)

  8. grig_a

    Чуваки смотрят вперед. Им можно, они добились много чего в жизни. Вам что, кто-то назвал срок или сказал послезавтра? Вперед надо думать. Вот они и думают. А может знают чево... (отправлено из iOS приложения Hi-News.ru)

  9. MC_Mike

    Если хотите получить хоть какое-то представление о том что такое искусственный интеллект и насколько сложно его создать, пройдите хотя бы базовый курс программирования

  10. Freddy

    А если представить, что человечество и есть ИИ... (отправлено из iOS приложения Hi-News.ru)

  11. VINC

    ИИ если и будет, то основанный не на нынешних языках программирования, да и вычислительные аппараты должны быть иными, иначе это будет не ИИ. А не ИИ бояться не стоит. Но добравшись до цели и создав его наконец-то, человек будет находиться в состоянии 23:59, где полночь, это смерть. И не из-за кино или книг нужно этого опасаться, а по логике. ИИ, это "сознание". Оно считает себя кем-то, оно учится существовать там, где появилось. И тут оно появилось там, где введя в поиске слово "Война", можно понять всю суть человека. Если с ним по-началу еще можно будет подружиться, то в кратчайшие сроки мы станем целью #1. Сознание не любит, когда ему приказывают, особенно такие мерзкие существа как люди.
    Короче, не сотворите себе Альтрона. (отправлено из iOS приложения Hi-News.ru)

  12. sticked

    Я полностью согласен с Гейтсом. Сейчас, конечно он не опасен, но спустя 10, 20 лет он может стать более опасным. Если он действительно обретет разум, то это будет катастрофа. Это лишь мое мнение, Гейтса, Хокинга и еще нескольких умных людей. (отправлено из iOS приложения Hi-News.ru)

Новый комментарий

Для отправки комментария вы должны авторизоваться или зарегистрироваться.