Пять технологических экспертов поделились своими страхами и опасениями в отношении ИИ

6 Сентября 2018, Николай Хижняк 15

Универсальный искусственный интеллект сможет сделать современный мир более привлекательным местом для жизни, заявляют исследователи. Он сможет лечить нас от рака, в целом улучшит здравоохранение по всему миру и освободит нас от ежедневных рутинных задач, на которые мы тратим большую частью своей жизни. Именно эти аспекты были главной темой для разговора среди инженеров, инвесторов, исследователей и политиков, собравшихся на недавней совместной мультиконференции по вопросам разработки искусственного интеллекта человеческого уровня.

Но были на этом мероприятии и те, кто видит в искусственном интеллекте не только пользу, но и потенциальную угрозу. Одни выражали свои опасения по поводу повышения безработицы, поскольку с приходом полноценного ИИ люди начнут терять свои рабочие места, освободив их для более гибких, не подверженных усталости роботов, наделенных сверхразумом; другие намекали о возможность восстания машин, если мы все пустим на самотек. Но где именно нам следует провести черту между беспочвенным паникерством и реальной заботой о нашем будущем?


Портал Futurism обратился с таким вопросом к пяти экспертам в области разработок искусственного интеллекта, и попытался выяснить, что именно в ИИ больше всего пугает его же создателей.

Кеннет Стенли, профессор Университета Центральной Флориды, старший технический директор и научный сотрудник лаборатории искусственного интеллекта компании Uber:

«Я думаю, что наиболее очевидные опасения связаны с тем, что ИИ будет использован во вред человеку. И на самом деле есть множество сфер, где такое может произойти. Мы должны приложить все усилия для того, чтобы эта плохая сторона в итоге не вышла наружу. Весьма сложно найти правильное решение в вопросе о том, как сохранить ответственность принятых действий за ИИ. Этот вопрос многогранен и требует рассмотрения не только с научной позиции. Другими словами, в поиске его решения потребуется участие всего общества, а не только научной среды».

О том, как разработать безопасный ИИ:

«Любая технология может быть использована как во благо, так и во вред. Искусственный интеллект в этом отношении является очередным примером. Люди всегда боролись с тем, чтобы новые технологии не попали в плохие руки и не использовались в гнусных целях. Я считаю, что и в вопросе ИИ мы сможем справится с этой задачей. Необходима правильная расстановка акцентов и поиск баланса в использовании этой технологии. Это сможет предостеречь нас от очень многих потенциальных проблем. Более конкретные решения, я, наверно, предложить не смогу. Единственное, что хотелось бы сказать: мы должны понять и принять ответственность за то воздействие, которое ИИ может оказать на все общество».

Ираклий Беридзе, глава Центра искусственного интеллекта и робототехники при Межрегиональном научно-исследовательском институте ООН по вопросам преступности и правосудия (ЮНИКРИ):

«Я думаю, что самая опасная вещь вокруг ИИ связана с темпами разработки – с тем, как быстро он будет создан и как быстро мы сможем к нему адаптироваться. Если этот баланс будет нарушен, мы можем столкнуться с проблемами».

О терроризме, преступности и других источниках риска:

«С моей точки зрения, основная опасность может заключаться в том, что ИИ смогут воспользоваться криминальные структуры и большие террористические организации, направленные на дестабилизацию мирового порядка. Кибертерроризм и дроны, оснащенные ракетами и бомбами – это уже реальность. В будущем сюда могут добавиться роботы, оснащенные системами ИИ. Это может стать серьезной проблемой.

Другой большой риск массового внедрения ИИ может быть связан с вероятной потерей рабочих мест людьми. Если эти потери будут массовыми, а подходящего решения у нас не будет, то это станет очень опасной проблемой».

«Но это лишь негативная сторона медали данной технологии. Я убежден в том, что в своей основе ИИ не является оружием. Это, скорее, инструмент. Очень мощный инструмент. И этот мощный инструмент может быть использован как в хороших, так и плохих целях. Наша задача заключается в том, чтобы понять и минимизировать риски, связанные с его использованием, а также в том, чтобы он использовался только в хороших целях. Мы должны сосредоточится на том, чтобы извлечь максимум положительной выгоды от использования данной технологии».

Джон Лэнгфорд, главный научный сотрудник корпорации Microsoft:

«Я думаю, что основную опасность будут представлять дроны. Автоматизированные дроны могут стать настоящей проблемой. Текущий уровень вычислительной мощности автономного вооружения недостаточно высок для выполнения каких-то экстраординарных задач. Однако я вполне могу себе представить, как через 5-10 лет на борту автономного вооружения будут проводиться расчеты на уровне суперкомпьютеров. Дроны используются при боевых действиях уже сегодня, но они по-прежнему управляются человеком. Через некоторое время оператор-человек уже не понадобиться. Машины станут достаточно эффективны для самостоятельного выполнения поставленных задач. Именно это меня беспокоит».

Хава Зигельман, программный менеджер микросистемых технологий DARPA:

«Любая технология может быть использована во вред. Я думаю, что все зависит о того, в чьи руки эта технология попадет. Я не думаю, что существуют плохие технологии, я думаю, что существуют плохие люди. Все сводится к тому, кто имеет доступ к этим технологиям и как именно он их использует».

Томас Миколов, научный сотрудник лаборатории Facebook AI:

«Если что-то привлекает интерес и инвестиции, вокруг этого всегда находятся люди, которые не против этим злоупотребить. Меня расстраивает тот факт, что некоторые люди пытаются продать ИИ и красочно описывают то, какие проблемы этот ИИ сможет решить. Хотя по факту никакого ИИ еще не создано.

Все эти стартапы-однодневки обещают золотые горы и приводят примеры якобы работы ИИ, хотя на самом деле, нам показывают лишь усовершенствованные или оптимизированные технологии настоящего. При этом в большинстве случаев об усовершенствовании или оптимизации этих технологий мало кто задумывался. Потому что они бесполезны. Взять хотя бы тех же чат-ботов, которых выдают за искусственный интеллект. И вот, потратив десятки тысяч часов на оптимизацию выполнения одной единственной задачи, эти стартапы приходят к нам и говорят о том, что достигли чего-то, чего не могли достигнуть другие. Но это же смешно.

Если говорить откровенно, большинство последних якобы технологических прорывов подобных организаций, названия которых мне бы не хотелось называть, никому до этого не были интересны, не потому, что никто больше не мог их совершить, а просто потому, что эти технологии не генерируют никакой финансовой выручки. Они совершенно бесполезны. Это ближе к шарлатанству. Особенно в тех случаях, когда ИИ рассматривается как инструмент, позволяющий максимально оптимизировать процесс решения одной единственной и узконаправленной задачи. Его невозможно масштабировать ни под что-либо другое, кроме как на выполнение самых простых задач.

При этом любой, кто хоть как-то начнет критиковать подобные системы тут же сталкивается с проблемами, которые будут идти вразрез со сладкими заявлениями таких компаний».

Согласны ли вы с мнениями экспертов? Поделитесь своими мыслями в нашем официальном Telegram-чате Hi-News.ru.

Пять технологических экспертов поделились своими страхами и опасениями в отношении ИИ

15 комментариев Оставить свой

  1. xxl

    Меня беспокоит, что пять экспертов, рассуждают о ИИ совершенно не представляя себе архитектуру цели ИИ, как инструмента, т. е. его функции, возможности...

    • GOGI

      xxl, Меня беспокоит, что эксперты рассуждают на уровне сочинения для седьмого класса на тему "Как я провёл лето". Или это автор статьи всё так неудачно пересказал?

    • MASking

      xxl, Представим ситуацию когда машина под управлением ИИ принимает решение, выбор между спасением пешехода и спасением пассажира авто. Либо задавить человека, либо свернуть с узкой дороги (так как не успеет затормозить) и упасть с обрыва (врезаться в что то опасное) и тоже убить человека? Это настолько сложное решение как и затормозить перед столкновением с пожарной машиной - с чем не справляется ИИ Теслы))))

      • Prox Vesor

        MASking, чел аналогично принимает решение - поэтому в Вашем случае жертв не больше, ... а это главное.
        этически верное решение ж есть : страдает более виновный в нарушении правил или при равенстве - случайный выбор , ...

  2. alena.aa

    Не получится избежать проблем

  3. PROVOCATOR

    Томас Миколов говорит гораздо меньше, чем хотел бы сказать. Чёртова политкорректность.

  4. init6

    Человек не может представить того, чего не может быть.

  5. Sc-in

    Многие столкнулись с подобием ИИ, которое возможно на сегодня в массовом сегменте. Это навигатор в авто. Еще эффективнее с управлением с внешних серверов, хотя такое пока в концепте.
    Как тут относиться, если голос подсказывает поворот здесь и сейчас, если по всей длине дороги либо дом, либо бордюр тротуара. Ни у кого не было?
    Или как такой уже "бородатый":
    — Алло, дорогой, ты навигатор трогал?
    — Да, смотрел, как до Ростова доехать.
    — Ну, поздравляю! Я в Ростове! . .
    Вообщем, ИИ - это то, что надо.

    • Prox Vesor

      Sc-in, такое тож возможно - но увы, тех прогресс не остановить, ...
      например, когда ходили исключительно пехом - жертв дтп было несравнимо меньше, ...
      - узнав это - вы возовопите об отказе от авто? ... )

  6. uran

    давайте представим, что ии обучился всему, ну то есть система знаний пришла в равновесие, ни новых знаний, ни ошибок, ничего, что могло бы хоть как-то породить новое знание, и вот этой системе очень нужна новая инфа, что-то, что "взболтает" эту идиллию по-новому, даст толчок, синтез, если угодно, а человек уже давно не нужен, он анахронизм, лишнее звено, трутень )

  7. Megard

    Вот живешь, ждешь когда же появится это ИИ с самосознанием, а его все нет, грустно и скучно.

    • Sc-in

      Megard, зачем кого-то и тем более чего-то ждать, когда всё ожидаемое можно проявить самому.
      Да вот про сознание и наверное эмоции - это сильно. Т.е. преполагается психика, не предсказуемость.
      ИИ с самосознанием точно знает что Вам надо делать. Т.е. по факту он хозяин. Это точно ожидаемое?

  8. stalker_rus

    Кого лучше спасти ии в случае аварии, отца в машине с 3 здоровыми детьми 12 лет или беременную двойней женщину и ребенком 3 лет на руках? Вопросы этики, кто будет решать, кому жить, а кому умереть. Добавьте сюда, вопросы национальности, социального статуса, детей, политику и пр. А если человек известный актер или политик ? Скольких жизней будет стоить его жизнь? Или ситуация, на автотрассу ночью выскакивают 2-3 бомжа пьяных и едете вы в автономной машине, и что ? Вы заплатили деньги за автомобиль, а он вас убьет? Вы при этом приносите пользу, например вы хороший врач и спасаете детей, а бомжи? Они не приносят никакой пользы, только вред. Кого выбрать?

    • Highwayman

      stalker_rus, Все зависит от того, кто виноват в аварийной ситуации. Автономный автомобиль всегда едет по правилам, по этому в большинстве случаев правильнее будет спасать пассажиров. Но в ситуации, когда возникает неисправность самого автомобиля, то акцент уже должен быть сделан на не причинение вреда окружающим.

  9. gralex

    Решение очень простое - автомобиль спасает в первую очередь жизни пассажиров. Это должно быть аксиомой для пешеходов и нарушителей. Никто ведь на предъявляет претензии машинисту поезда. Автомобиль автоматический, и не надо испытывать его алгоритмы и выбегать на улицу. А владельцам автомобиля надо тоже запомнить: неуверены в ИИ - беритесь за руль сами и контролируйте ситуацию. Только имейте ввиду: в большинстве случаев ИИ все равно справится с аварийной ситуацией лучше.

Новый комментарий

Для отправки комментария вы должны авторизоваться или зарегистрироваться.