Южнокорейскому институту объявили бойкот за разработку вооружений на базе ИИ

5 Апреля 2018, Николай Хижняк 36

Более 50 ведущих экспертов в области разработки искусственного интеллекта сообщили о намерении бойкотировать Корейский институт передовых технологий (KAIST) – престижный и ведущий учебно-исследовательский университет Южной Кореи — за создание лаборатории по разработке вооружений с использованием искусственного интеллекта. Об этом они сообщили в открытом письме.

Возмущение экспертов области ИИ вызывало также и подписанное KAIST соглашение с оружейной компанией Hanwha Systems, которая, как сообщают различные источники, уже занимается разработками мощных видов вооружения, в числе которых, помимо прочего, имеются кассетные авиабомбы, запрещенные в соответствии с Конвенцией ООН по кассетным боеприпасам (Южная Корея эту конвенцию не подписала).


«В то время как Организация Объединённых Наций ведет обсуждение вопроса о том, как сдержать угрозу для международной безопасности со стороны автономных видов вооружения, вызывает сожаление тот факт, что такой престижный университет, как KAIST, ищет способы ускорить гонку вооружений через новые разработки подобных типов вооружения», — пишут эксперты ИИ в своем открытом письме.

«Поэтому мы публично заявляем, что будем бойкотировать все виды сотрудничества с любыми подразделениями KAIST до тех пор, пока президент KAIST не предоставит заверения в том, что центр не будет заниматься разработками автономных видов вооружения, чье функционирование возможно без значительного участия человека».

KAIST имеет в своем распоряжении одни из лучших в мире робототехнические и научные лаборатории: здесь проводятся исследования и разработки самых различных продвинутых технологий, начиная от жидких батарей и заканчивая медицинским оборудованием.

Глава KAIST Син Сон Чоль сказал, что он опечален решением о бойкоте, добавив, что институт не собирается создавать роботов-убийц.

«Как академическое учреждение, мы очень ценим человеческие права и этические стандарты. KAIST не собирается проводить исследовательскую деятельность, противоречащую принципам человеческого достоинства, в том числе и вести разработку автономного вооружения, не требующего человеческого контроля», — прокомментировал Син Сон Чоль в своем официальном заявлении по поводу бойкота.

Учитывая столь быстрые темпы развития аппаратных и программных средств, многие эксперты обеспокоены тем, что рано или поздно мы создадим нечто, что будем не в состоянии контролировать. Илон Маск, Стив Возняк, почивший недавно Стивен Хокинг и многие другие весьма видные фигуры в сфере IT-технологий в свое время призывали правительства стран и ООН наложить ограничения на разработки систем вооружения, управляемых ИИ.

По мнению многих, если мы придем к ракетам и бомбам, чье функционирование станет возможно независимо от человеческого контроля, то последствия этого могут оказаться ужасающими, особенно если такие технологии попадут не в те руки.

«Создание автономного вооружения приведет к третьей революции в военном деле. Подобные технологии позволят вести более стремительные, разрушительные и масштабные военные конфликты», — отмечают авторы открытого письма.

«Эти технологии имеют потенциал превращения в оружие террора. Диктаторы и террористы смогут использовать их против невинных групп населения, игнорируя любые этические аспекты. Это настоящий ящик Пандоры, закрыть который, в случае его открытия, будет практически невозможно».

Члены ООН собираются провести на следующей неделе встречу, на которой планируется обсудить вопросы, связанные с запретом летального автономного вооружения, способного убивать без участия человека. К слову, это будет уже далеко не первая подобная встреча, однако участники обсуждения пока так и не пришли к какому-либо соглашению. Одна из проблем, стоящая на пути принятия каких-то конкретных решений, заключается в том, что некоторые страны как раз совсем не против ведения разработок подобных технологий, поскольку те смогут повысить их военный потенциал. Камнем преткновения становятся и частные компании, которые активно противятся контролю со стороны правительств за разработками их собственных моделей систем искусственного интеллекта.

Казалось бы, многие согласны с тем, что роботы-убийцы – это плохо. Однако принять каких-то конкретных решений в отношении того, что же делать с их разработкой, пока не получается. Вполне возможно, что разработка новых систем вооружения, которой планирует заняться KAIST, заставит больше сторон принять участие в необходимом обсуждении проблемы.

Многие ученые призывают к созданию рекомендательных инструкций, регулирующих вопросы разработки и развертывания ИИ-систем. Тем не менее высока вероятность, что даже при наличии оных будет весьма сложно следить за тем, чтобы каждая сторона их придерживалась.

«Мы зациклены на гонке вооружений, которой никому не хочется. Действия KAIST только ускорят эту гонку вооружений. Мы не можем терпеть это. Я надеюсь, что этот бойкот повысит актуальность в необходимости обсуждения данного вопроса в ООН в понедельник», — прокомментировал профессор по искусственному интеллекту австралийского Университета Нового Южного Уэльса Тоби Уолш, также подписавший письмо.

«Это ясное обращение к сообществу, занимающемуся развитием технологий искусственного интеллекта и робототехники — не поддерживать разработки автономных видов вооружения. Любые другие институты, планирующие открыть подобные лаборатории, должны подумать дважды».

Южнокорейскому институту объявили бойкот за разработку вооружений на базе ИИ

36 комментариев Оставить свой

  1. alvidov

    Во дебилы!тут человеку верить нельзя ,а они электронике доверяют оружие. Скайнет в студию

    • SeraphM

      alvidov, Посмотрите в зеркало и вы его увидите... Вся проблема в том, что один единственный человек обретёт возможность контролировать целый мир, так как в человеческих ресурсах больше не будет нужды.
      З.Ы. А всякие скайнеты для необразованных людей, не умеющих думать своей головой...

      • alvidov

        SeraphM, В зеркале ты увидишь обезьяну. Которая решила ,что она умна и все ей позволено.

        • SeraphM

          alvidov, Спс, посмеялся:))

        • prinzip

          alvidov, Человек и есть бесхвостая обезьяна. Семейство гоминид.

          • alvidov

            prinzip, Ну удачи тебе. )))

            • prinzip

              alvidov, Тип: Хордовые
              Класс: Млекопитающие
              Отряд: Приматы
              Семейство: Гоминиды
              Род: Люди
              Вид: Человек разумный

      • Elk

        SeraphM, На самом деле с электроникой бороться даже легче чем с людьми, мощный электромагнитный импульс - и кабздец всей электронике на десяток-другой километров. + пока-что достижения в этой области не впечатляют, в полевых условиях эту автономную хрень крестьяне с вилами затыкают.

        • SeraphM

          Elk, В этом то и заключается вся проблема:)

        • SeraphM

          Elk, Если не поняли, то дело в самом радиусе, так как мы живём не в каменном веке. Так же военной технике с ИИ никто не мешает пользоваться тем же самым. Представьте на что способен такой диверсант на ИИ? Это просто машина, пожертвует собой без колебаний.

    • rodgeras

      alvidov, Насмотрелись терминаторов...

  2. triodpentod

    скоро беспилотные пассажирские самолёты будут,
    а они всё никак не ликвидируют свою безграмотность
    по поводу т.н. "искусственного интеллекта".

    • MASking

      triodpentod, Проблема любой техники управляемой компьютером (будь то машина, самолет или робот) в том что программу автопилота можно заменить на другую - которая сможет управлять этой техникой, а значит в случае хакерской атаки самолет сам изменит свой маршрут и врежется в многоэтажку либо внезапно упадет. Что уже говорить о роботах, мирные компаньоны зараженные вирусным ПО смогут взять кухонный нож и зарезать вас.
      Опасения - это не пессимизм, а предвидение возможной нехорошей ситуации!
      Того-же робота Асимо - могут перепрограммировать сами военные и использовать против врага

      • MASking

        MASking, защита кода это установка ПЗУ с зашитым неизменяемым кодом, жесткая привязка процессора к ПЗУ и самое уязвимое, встроенный жесткий диск. в добавок вся система не должна иметь способов приема-передачи данных кроме сигналов взаимодействия с оборудованием.
        ну и все помещено защитный корпус от всякого рода помех
        И даже в таком случае можно заменить плату - на свою... Так что гарантии что техника будет служить во благо, только до момента распространения пиратских подделок и принудительной замены плат в случае войны для получения преимуществ.

        Пример - робот Федор, может как и помогать человеку в сложных ситуациях, в вакууме, в газовых камерах, так и стрелять с пистолета
        Применение зависит от выбора человека - Мир или Война

        • Frog 7489

          MASking, Война, конечно. Всегда война

  3. AnarX

    Главное почте РФ ничего не давайте плиз!!! а то начнется френдлифайер)

    • Elk

      AnarX, Ага, и Уберу кстати тоже :)

  4. uran

    писец - это такой зверек, который подкрадывается незаметно

  5. Z1GA

    Робот-убийца уже знает свои первые 50 целей.

  6. tabasko

    Млях, это не про нас? Надеюсь.

  7. Dinosaur

    Обожаю когда начинают читать нравоучения те, кто сами поступают именно так как обучаемый. В Америке, армия имеет собственный комплекс. Более того, любой американский институт будет счастлив работать на армию и они берут эти контракты не читая. Никто их не осуждает и не смеет бойкотировать. А Корея, ай-яй-яй, бесстыдно за нута гонкой вооружений.

    • botan

      Dinosaur, Точно подмечено а предъявляют что знают наверняка! От куда у них такие догатки? :-)

      • MASking

        botan, Сравнили свою технику с ИИ с тем что в Корее собирались сделать

  8. amd212

    ИИ точнее и пунктуальнее человека. Никогда не промажет, не потратит лишнего патрона, не откроет огонь без приказа. ИИ чужды психические расстройства и связанные с ним акты жестокости, насилия, вандализма, мародерства. ИИ не нужны пытки, убийства детей, ювелирные украшения. Он равнодушен к женщинам в сексуальном плане. ИИ не получает никакого наслаждения от войны.

    • ktotogdeto

      amd212, Нет мук совести...
      ИИ просто убивает и больше ничего. Не спит, не ест, только убийство за убийством. Быстро, качественно, не оставляя никому шансов выжить. И так до тех пор, пока не будет достигнута цель– уничтожить людей на определённой территории за кратчайшее время. Абсолютно без получения удовольствия.
      Дети, старики? Они же люди: в расход!

      • amd212

        ktotogdeto, ? а ему это надо ?
        Убивает да, но только террористов и одной пулей точно в лоб, а не калечит, не выворачивает кишки и не оставляет подыхать под палящем солнцем, как это делают люди. Гражданских, детей, женщин, даже бандитов, бросивших оружие и поднявших руки вверх он не трогает, максимум подавляет акустической пушкой или электрошокером.

        • MASking

          amd212, Главное чтобы ИИ понял кто террорист, а кто нет
          Любая бабушка получив коммуналку и пенсию - будет кричать что правительство террористы которые устраивают геноцид старым людям.
          Да и два вооруженных человека будут считать друг друга террористами, особенно если кто-то к кому-то вторгся на территорию - те кто напали в рамках антитеррора и коренное население которое считает что террор творят нападающие.
          Террором в отношении вас - можно считать все чего вас лишают: газ отключили - враги, цены подняли - враги, на ногу наступили - враги... если всем сразу то это террор

          • MASking

            MASking, Да и в случае СИСТЕМЫ ты не восстанешь и не устроишь революцию против Диктатуры - ИИ посчитает тебя террористом и убьет

            • Elk

              MASking, А еще ИИ может застрять в столбе или начнет толкать стену или будет заниматься еще какой-нибудь непонятной фигней.

  9. VVindblade

    А то, что сша разрабатывало как минимум совершенно автономный бпла, способный самостоятельно определять и атаковать цели предполагаемого противника, ни кого не беспокоит? Тогда "пили компот", а как Корея решила поступить подобным образом, то объявили бойкот?)

    • Elk

      VVindblade, Есть страны, которым можно указывать что можно делать, а что нельзя, а есть страны, в адрес которых делать какие-либо заявления категорически нельзя. Точно так-же и с подконтрольными им организациями.
      Попробовал бы кто-нибудь заикнуться в адрес Darpa к примеру :)

  10. Ce3apyc

    Поздно. Робо-собак убийц уже показали в Черном зеркале. Теперь люди будут думать в этом направлении.

  11. Zamza

    Ну да, сотрудники Гугл - против, теперь "ведущие учёные мира".... А Китай всё разработает и даст "по мозгам" всем этим "европам". Потом, эти же "работники Гугл" и "ведущие учёные мира" будут обвинять правительства Европы и США, что "они ничего не делают для защиты народа Европы и США от китайских агрессоров".....

  12. romale

    СШа с Южной Кореей проводят совместные учения...на почве ИИ?

    • botan

      romale, + может кто-то преуспел)))) человеческой зависти нет границ

      • botan

        botan, И кстати эта "зависть" - оружие! Это то что нужно применять как двигатель прогресса 65% решают силой..... Очень хорошо показывает развитие))))

Новый комментарий

Для отправки комментария вы должны авторизоваться или зарегистрироваться.