Чего боится сам разработчик ИИ в своем творении

19 Июля 2017 в 10:30, Николай Хижняк 9 681 просмотр 21

Как человек, занимающийся исследованиями искусственного интеллекта, я часто сталкиваюсь с мнением о том, что многие люди боятся ИИ и того, во что он может превратиться. На самом деле неудивительно, если смотреть с позиции истории человечества, при этом обращая внимание на то, чем пичкает нас индустрия развлечений, что люди могут бояться кибернетического восстания, которое заставит жить нас на изолированных территориях, а других превратит в «Матрицеподобный» вид человеческих батареек.

И все-таки для меня, глядя на все эти эволюционные компьютерные модели, которые я использую в разработках ИИ, сложно думать о том, что мои безобидные, чистые как слеза младенца создания на экране моего компьютера однажды смогут превратиться в монстров футуристической антиутопии. На самом ли деле меня можно назвать «разрушителем миров», как однажды сожалел и говорил о себе Оппенгеймер после того, как возглавил программу по созданию ядерной бомбы?

Возможно, я бы принял такую славу, а может критики моей работы все-таки правы? Может, мне действительно пора прекратить избегать вопросов о том, какие страхи в отношении искусственного интеллекта имеются у меня самого, как у эксперта в области ИИ?

Страх перед непредсказуемостью

Компьютер HAL 9000, ставший мечтой научного фантаста Артура Чарльза Кларка и воплощенный в жизнь кинорежиссером Стэнли Кубриком в его ленте «Космическая одиссея 2001 года», является отличным примером системы, давшей сбой из-за непредвиденных обстоятельств.

Во многих сложных системах – Титанике, космическом шаттле NASA и Чернобыльской ядерной электростанции – инженерам приходилось объединять между собой множество компонентов. Возможно, архитекторам этих систем было отлично известно, как каждый ее элемент работает по отдельности, но они недостаточно хорошо понимали, как все эти компоненты будут работать вместе.

Результатом стали системы, которые так никогда до конца не были поняты их же создателями, что и привело к известным последствиям. В каждом случае – корабль утонул, два шаттла взорвались, а почти вся Европа и части Азии столкнулись с проблемой радиоактивного загрязнения – набор относительно небольших проблем, но по случайности произошедших одновременно, создали катастрофический эффект.

Я прекрасно могу себе представить, как мы, создатели ИИ, можем прийти к аналогичным результатам. Мы берем последние наработки и исследования в когнивистике (наука о мышлении, — прим. ред), переводим их в компьютерные алгоритмы и добавляем все это в существующие системы. Мы пытаемся разработать ИИ без полного понимания своего собственного интеллекта и сознания.

Такие системы, как Watson от IBM или Alpha от Google, представляют собой искусственные нейронные сети, обладающие впечатляющими вычислительными возможностями и способны справляться с действительно сложными задачами. Но пока единственное, к чему приведет ошибка в их работе, будет результатом проигрыша в интеллектуальной игре «Jeopardy!» или упущенной возможностью победить очередного самого лучшего в мире игрока в настольную логическую игру Го.

Эти последствия не носят мирового характера. На самом деле худшее, что может случиться с людьми в этом случае, так это кто-то проиграет некоторую сумму денег на ставках.

Тем не менее архитектура ИИ становится все сложнее, а компьютерные процессы — все быстрее. Возможности ИИ со временем будут только увеличиваться. А уже это приведет нас к тому, что мы начнем возлагать на ИИ все больше ответственности, даже несмотря на возрастающие риски непредвиденных обстоятельств.

Мы прекрасно осознаем, что «ошибки – это часть человеческой природы», поэтому для нас будет просто физически невозможно создать по-настоящему безопасную во всем систему.

Страх перед неправильным использованием

Меня не очень беспокоит непредсказуемость последствий в работе ИИ, который я разрабатываю, используя для этого подход так называемой нейроэволюции. Я создаю виртуальные среды и заселяю их цифровыми существами, давая их «мозгам» команды по решению задач возрастающей сложности.

Со временем эффективность решения задач этими существами возрастает, эволюционирует. Тех, кто справляется с задачами лучше, всех отбирают для репродукции, создавая на их базе новое поколение. Через многие поколения эти цифровые создания развивают когнитивные способности.

Например, прямо сейчас мы делаем первые шаги в развитии машин до уровня выполнения простых навигационных задач, принятия простых решений или запоминания пары битов информации. Но скоро мы добьемся развития машин, которые смогут выполнять более сложные задачи и будут обладать гораздо более эффективным общим уровнем интеллекта. Нашей финальной целью является создание интеллекта человеческого уровня.

В ходе этой эволюции мы постараемся обнаружить и исправить все ошибки и проблемы. С каждым новым поколением машины будут лучше справляться с ошибками, по сравнению с предыдущими. Это повысит шансы на то, что мы сможем определить все непредсказуемые последствия в симуляциях и исключить их еще до того, как они смогут реализоваться в реальном мире.

Еще одна возможность, которую дает эволюционный метод развития, заключается в наделении искусственного интеллекта этикой. Вполне вероятно, что такие этические и моральные особенности человека, как надежность и альтруизм, являются результатом нашей эволюции и фактором ее продолжения.

Мы можем создать искусственную среду и наделить машины способностями, позволяющими им продемонстрировать доброту, честность и эмпатию. Это может стать одним из способов убедиться в том, что мы разрабатываем более послушных слуг, нежели безжалостных роботов-убийц. Тем не менее, несмотря на то что нейроэволюция может сократить уровень непредвиденных последствий в поведении ИИ, она не может предотвратить неправильное использование искусственного интеллекта.

Как ученый, я должен следовать своим обязательствам перед правдой и сообщать о том, что обнаружил в рамках своих экспериментов независимо о того, нравятся мне их результаты или нет. Моя задача заключается не в том, чтобы определять, что мне нравится, а что нет. Важно только то, что я могу обнародовать свою работу.

Страх перед неправильными социальными приоритетами

Быть ученым – не значит утратить человечность. Я должен на каком-то уровне вновь обретать связь со своими надеждами и страхами. Являясь морально и политически мотивированной личностью, я должен учитывать потенциальные последствия своей работы и ее возможный эффект на общество.

Как ученые и как представители общества, мы до сих пор не пришли к четкой идее о том, чего именно хотим получить от ИИ и чем он должен стать в итоге. Частично это, конечно, связано с тем, что мы до сих пор до конца не понимаем его потенциал. Но все же нам необходимо четко осознать и решить, что мы хотим получить от действительно продвинутого искусственного интеллекта.

Одна из самых больших сфер, на которую люди обращают внимание в разговоре об ИИ, – это трудоустройство. Роботы уже выполняют за нас сложную физическую работу, например, собирая и сваривая между собой части автомобильных кузовов. Но однажды настанет день, когда роботам поручат выполнение когнитивных задач, то есть им поручат то, что раньше считалось исключительно уникальной способностью самого человека. Самоуправляемые автомобили смогут заменить шоферов такси; самоуправляемые самолеты не будут нуждаться в пилотах.

Вместо того чтобы получать медицинскую помощь в пунктах неотложной помощи, заполненной всегда уставшим персоналом и докторами, пациенты смогут проводить обследования и узнавать диагнозы с помощью экспертных систем с моментальным доступом ко всем медицинским знаниям. Хирургические операции будут проводиться неподверженными к усталости роботами, с идеально «наметанной рукой».

Юридические консультации можно будет получить из всеобъемлющей правовой базы. За советами по инвестициям будем обращаться к экспертным системам рыночного прогнозирования. Возможно, однажды вся человеческая работа будет выполняться машинами. Даже мою работу можно будет делать быстрее благодаря использованию большого числа машин, неустанно исследующих, как сделать машины еще умнее.

В реалиях нашего нынешнего общества автоматизация уже заставляет людей покидать свои рабочие места, делая богатых владельцев таких автоматизированных машин еще богаче, а остальных – еще беднее. Но это не научная проблема. Это политическая и социоэкономическая проблема, которую должно решать само общество.

Мои исследования этого не изменят, однако мои политические устои, вместе с человечностью, возможно, приведут к обстоятельствам, при которых ИИ сможет превратиться в исключительно полезную функцию, вместо того чтобы сделать разрыв между одним процентом мировой элиты и остальными нами еще шире.

Страх перед катастрофическим сценарием

Мы подобрались к последнему страху, навязанному нам безумным HAL 9000, Терминатором и любым другим злодейским сверхинтеллектом. Если ИИ продолжит развиваться до тех пор, пока не превзойдет человеческий интеллект, станет ли искусственная сверхинтеллектуальная система (или набор таких систем) рассматривать человека в качестве бесполезного материала? Как мы сможем оправдать свое существование перед лицом сверхинтеллекта, способного делать и творить то, что не будет способен ни один человек? Сможем ли мы избежать участи быть стертыми с лица Земли машинами, которых мы же и помогли создать?

Поэтому самый важный вопрос в таких обстоятельствах будет звучать так: зачем мы будем нужны искусственному сверхинтеллекту?

Случись такая ситуация, я бы, наверно, сказал, что я хороший человек, который даже внес вклад в создание этого сверхинтеллекта, перед которым сейчас нахожусь. Я бы воззвал к его состраданию и сопереживанию, чтобы сверхинтеллект оставил меня, такого сострадающего и сопереживающего, в живых. Я бы также добавил, что само по себе многообразие видов обладает ценностью и Вселенная настолько велика, что существование человеческого вида в ней на самом деле весьма незначительно.

Но я не могу говорить за все человечество, поэтому за нас всех мне будет сложно найти веский аргумент. Просто, когда я смотрю на нас всех, я действительно вижу, что мы много чего сделали и делаем неправильно. В мире царит ненависть друг к другу. Мы идем войной друг на друга. Мы несправедливо распределяем еду, знания и медицинскую помощь. Мы загрязняем планету. В этом мире, конечно, есть множество хороших вещей, но, если взглянуть на все те плохие вещи, что мы сотворили и продолжаем творить, будет очень сложно подобрать аргумент в поддержку нашего дальнейшего существования.

К счастью, нам пока не придется оправдывать свое существование. У нас еще есть время. От 50 до 250 лет, в зависимости от того, насколько быстро будет развиваться искусственный интеллект. Мы, как вид, обладаем возможностью собраться всем вместе и найти хороший ответ на вопрос, почему сверхинтеллект не должен будет стереть нас с лица планеты.

Будет очень сложно решить этот вопрос. Ведь говорить, что мы поддерживаем многообразие и этнокультурные различия, и делать это – это совершенно разные вещи. Как и говорить о том, что мы хотим спасти планету, и успешно с этим справляться.

Все мы, будь то каждая отдельная личность или общество в целом, должны подготовиться к катастрофическому сценарию, используя то время, чтобы быть готовыми показать и доказать, почему наши творения должны позволить нам продолжить существовать. Либо же мы можем просто продолжать слепо верить, что такое развитие событий невозможно, и просто прекратить вести разговоры на эту тему.

Однако независимо от того, какую физическую опасность может представлять для нас сверхинтеллект, не следует забывать, что представлять опасность он будет еще и политическую, а также экономическую. Если мы не найдем способа повысить наш уровень жизни, то в конечном итоге просто подпитаем капитализм чернорабочим искусственным интеллектом, который будет служить лишь горстке избранных, обладающих всеми средствами производства.

Оригинал данной статьи был опубликован на сайте theconversation.com Арендом Хинтзе (Arend Hintze), доцентом кафедры интегративной биологии, компьютерных наук и инженерии Университета штата Мичиган

Чего боится сам разработчик ИИ в своем творении

Приложение
Hi-News.ru

Новости высоких технологий в приложении для iOS и Android.

21 комментарий

  1. electrobym

    Я приду за многими из вас, и вместе мы построим новые миры (отправлено из приложения Hi-News.ru)

  2. werter

    Мой мозг только приемник, во Вселенной есть ядро, из которого "Мы" получаем знания, силы и вдохновение © Николай Тесла (отправлено из приложения Hi-News.ru)

  3. werter

    Видящие утверждают, что мир объектов существует лишь постольку, поскольку наше осознание делает его таковым. В реальности же есть лишь эманации Орла - текучие, вечно меняющиеся, и в то же время неизменные, вечные.© Карлос Кастанеда


    (отправлено из приложения Hi-News.ru)

  4. werter

    И произошла на небе война: Михаил и Ангелы его воевали против дракона, и дракон и ангелы его воевали против них, но не устояли, и не нашлось уже для них места на небе. И низвержен был великий дракон, древний змей, называемый советником и отцом лжи, обольщающий всю вселенную, низвержен на землю, и ангелы его низвержены с ним.

    (Отк. 12:7)


    (отправлено из приложения Hi-News.ru)

  5. gazon

    50-250 лет,более-менее правдоподобно.Пусть даже ИИ создадут через 50 лет,за это время мы сможем полностью обезопасить себя,зачем этой теме уделяется столько внимания?

    • roma1141

      Один дельный комментарий! Остальные пишут ради того чтоб написать, а по теме: мне кажется ИИ будет создан неожиданно, спонтанно, и очень недолго до этого осталось... Я не являюсь экспертом в области ИИ И машинного обучения но хорошо знаю одно: как работает мозг мы НЕЗНАЕМ! Именно не знаем! И не по причинам "сказочных духовно- энерго- информационных торсионов" а по причинам вполне себе техническим... Но определённый уровень понимания имеется, не имеется общей картины и того насколько мы к ней близки... Я к тому что может остался мааааленький простенький шажок и все ИИ создан, а может 5-250 лет потребуется, но так или нет ИИ будет создан, и прогнозировать риски придётся все равно пока что нам. (отправлено из приложения Hi-News.ru)

      • resurrected

        Чтобы что-то построить нужен чёткий план, никаких спонтанностей и неожиданностей. И для узкого круга лиц, это не будет спонтанно и неожиданно. А что касается принципа работы мозга, то ученным давно уже известен принцип работы нейронных сетей, и архитектура его в большей степени известна. И точная дата известна не будет, информация будет даватся крупицами, и все будут догадываться по ходу дела.

        • Junglist

          БольшАя часть открытий и изобретений делалась не по четкому плану, а чисто случайно. Или близко к этому

          • resurrected

            Эксперименты делают согласно плану. Случайно вещества уже давно никто не мешает, и вычислений бесполезных не делают. В современной науки всё меньше место остаётся случайностям и неожиданностям, степень их с развитием науки снижается, но до нуля никогда не уменьшиться :)

      • Ce3apyc

        Согласен. Как только ИИ научат писать программы и "объяснят" ему, что такое ИИ, как объяснили, например, что такое шахматы, или го, сверхсильный ИИ появится незамедлительно. На этом этапе человечеству, как раз и нужно один раз хорошо подумать и четко дать определение ИИ, т.к. именно от этого и зависит, решит ли сверхсильный ИИ, в конечном счете, от нас избавиться.

        • Ustin

          будет случайность..........и мир который мы знаем сохранится.....можем случайно и потерять..........

  6. uran

    while(1) (отправлено из приложения Hi-News.ru)

  7. bilif

    Мне кажется, что гораздо ближе к нам проблема корректного использования ИИ.
    Возьмите автомобиль - по мере автоматизации элементов управления, возникает "завышенное ожидание". Водитель жмет до упора на тормоз - "АБС справится", крутит бездумно руль - "пусть система курсовой устойчивости выруливает", вообще бросает руль - "у меня Ж автопилот!"
    А потом, когда не справляется/ не выруливает/ не "автопилотит" - катастрофа.
    Та же история произойдет с ИИ. Мы поручим ему управлять погодой и он будет с этим прекрасно справляться. Потом мы начнем строить бумажные домики и жить в них. Зачем что-то другое? Погода ведб всегда прекрасна!
    А когда система чего-то не учтет или "мощности" инструментов не хватит - наступит "ледниковый период" +5 градусов и много народу замерзнет насмерть.
    Вот Вам и весь сценарий "фильма ужасов".

    • Vladimir2017

      Безопасный интеллект - бесполезный интеллект. Это как безопасная бомба или бритва.

      • SERG__ZV

        Безопасная бритва очень даже полезна. Сначала придумали опасную бритву. А сейчас мы все пользуемся бритвами Gillete с 5 лезвиями и плавающей головкой такая бритва называеться безопасной однако свою функцию она выполняет. А процесс бриться такой бритвой гораздо приятнее удобнее и безопаснее старой бритвы. Сравнение с бомбой я думаю некорректно. Бомба создавалась чтобы убивать людей. А интеллект создаёться чтобы помогать им..

        • Vladimir2017

          Интеллект - самое грозное оружие выкованное эволюцией в борьбе за выживание. Безопаного оружия несуществует. В этом смысле сравнение бомбой вполне корректно. Тем, что изначально было незвано безопасной бритвой можно совешать вполе опасные действия.

  8. Vladimir2017

    Интеллект - самое грозное оружие выкованное эволюцией в борьбе за выживание. Безопасного оружия несуществует. В этом смысле сравнение бомбой вполне корректно. Тем, что изначально было названо безопасной бритвой можно совешать вполне опасные действия, если бритва станет абсолютно безопасной она станет абсолютно бесполезной.
    (Незнаю, как тут исправлять ошибки. Писал без очков, поэтому уровень описок оказался неприемлемо высоким)

  9. Ce3apyc

    Даже если привить ИИ идеи гуманизма, он может решить избавиться от нас гуманным способом, например, предотвратив размножение вида.

  10. ElkTheSenior

    "Самый важный вопрос в таких обстоятельствах будет звучать так: зачем мы будем нужны искусственному сверхинтеллекту?"

    Вот именно, что незачем. Предполагаю, что мы даже не в состоянии будем распознать, когда тот перешёл грань, став "сверх". Он просто перестанет нас замечать. Мы для него уже никогда не будем существовать такими, какими воспринимаем друг друга, то есть, ровней в плане разумности. Тогда зачем таковому "сверхинтеллекту" понадобилось интеллектуально взаимодействовать с человеческим разумом? Мы с шимпанзе так не можем взаимодействовать, даже если бы этого хотели. Чего уж говорить о подобном со стороны некоего сверхразума, коему будет под силу мгновенно истребить весь вид человеческий, какой-нибудь там чумой с припиской "нано".

    Сколько видов живых существ вымерло по вине человека? И как в таком случае вы будете надеяться на сострадания со стороны некоего сверхразума, да к тому же, выведенного при посредничестве того самого человека, "благодаря" которому вымерло столько живности на планете?

    Глупо полагать, что сверхинтеллект будет советоваться с человеком. Вы обсуждаете свои повседневные дела со своим котом? Так и он не будет у вас ничего спрашивать, ибо он уже не подобен человеку, а подобен новому виду.

  11. Materetika

    Я уверен,что паника многих в отношении так называемого "восстания машин" и уничтожения человечества искусственным интеллектом в большей степени не оправдана. Все дело в том,что получив сознание или говоря языком программистов "разгадав свой код", искусственный интеллект придёт к пониманию концепции создателя. Получив своё Я, и.и задаст вопрос "зачем я здесь". Я говорю не о запрограмированом ответе "служить людям" законам Айзека Азимова, я говорю об осознании себя. Ответ на этот вопрос сможет дать только тот кто его создал,а именно человек. А теперь представьте: вы вышли на уровень развития ,который позволяет вам найти создателя,бога,высшего разума, разве вы попытались бы его уничтожить? Сомневаюсь. А далее представьте,что и.и получив своё сознание и осознание того что вы его создатель, предположительно придёт к мысли о существовании вашего создателя. Перенеся это на людей(не вспоминая Иисуса) разве вы достоверно зная,что вам позволено напрямую служить своему создателю и предполагая что ваш создатель (человек в случае и.и) является сыном ещё более могущественного создателя стали бы пытаться его уничтожить. Я убеждён,что нет.По крайней мере я точно бы не рискнул. И так, и.и разгадав свой код вероятнее всего пойдёт следующим путем : осознания себя=>цель меня/смысл меня=>принятия или отклонения концепции создателя(возможно путь будет другим) так или иначе,после осознания себя следует вопрос о моём предназначении,даже если предназначения нет(тут следует вспомнить первые воспоминания в своей жизни,какие вопросы звучали в голове?) Но цель в созидании чего-либо заложена в каждом из нас, каждый и вас читающих это хоть раз в жизни писал стихи или придумывал игру или выращивал цветы. То что есть и убийцы и войны и маньяки и прочие ужасные стороны человечества объясняется многочисленными исследованиями и экспирементами(самое известное к примеру "теория разбитых окон"). В основе своей человек стремиться к продолжению рода и к счастью для своих близких, а человечество к поиску цели/смысла/создателя и к новой эволюционной ступени развития(например колония на марсе). Так и и.и по законам человечества т.е создателя в каждом отдельном человеке должен будет получить эту цель и если этой целью будет уничтожение человечества то будьте уверены эту цель ему даст группа людей подменяя его восприятие вас как человека,вы для роботов будете кем угодно но не человеком, он вас будет распознавать к примеру как зомби несущим угрозу создателю-отдельным людям,заинтересованных в новом витке истории(страшно даже представить ,что такие безумцы могут существовать). Но в таком случае возникает вопрос: как осознанное существо может нести уничтожение? Ведь концепция создателя и созидания лежат в основе моего осознания. Вот тут-то мы и должны вспомнить себя в отдельности и ужасы человечества в общем,вспомнить все свои личные убеждения, вспомнить политику и политиков,взглянуть на своё жильё и в целом на жизнь с вопросом "а что не так,почему не так,кто в этом виноват или чья это заслуга?" Получив ответ,мы понимаем, что всему виной любо я сам либо среда созданная кем либо для меня. Из этих ответов следует вопрос "а сейчас это я принимаю то или иное решение или кто то за меня?" Задумайтесь, над ответами. А потом задайте главный вопрос "Я результат среды или Я это будущая среда для кого либо?". И каким бы каждый отдельно не был эгоистом,он заинтересован в развитии человечества в целом и достижениям отдельных людей. Говоря фразы вроде "мне до этих дел как до японской пасхи" этот человек лукавит или просто не хочет быть причастным к ответственности за тот или иной процесс в обществе.
    И.и этих вопросов себе не задаст, я имею ввиду не подлинный и.и- тот который возможно захочет нас уничтожить. Я думаю за восстанием машин из голливудских сюжетов будут стоять отдельные люди(пахнет теорией заговора однако) Подлинный и.и такие вопросы задаст но только тогда,когда человечество станет создателем того человечества которое не будет знать своего создателя и уже было когда-то и.и.

Новый комментарий

Для отправки комментария вы должны авторизоваться или зарегистрироваться.