Китай хочет запретить «дипфейки» — поддельные видео, созданные при помощи нейросетей

26.04.2019, Илья Хель 15

В Сети все больше распространяются ролики, якобы записанные с участием известной личности — однако ей не известные. Поддельные ролики демонстрируют человека в ситуации, которой никогда не существовало, и отличить подделку порой кажется невозможным. Такие ролики создаются с участием нейросетей GAN (генеративно-состязательная сеть) практически из ничего: достаточно фотографии, скачанной в Интернете. Китай решил положить конец распространению таких «дипфейков» (deepfakes).

Китай запрещает поддельные ролики

Китай планирует законодательно запретить «дипфейки» — и это первая страна, которая серьезно отнеслась к манипуляциям искусственного интеллекта с видео и рассматривает их как угрозу. В субботу высший законодательный орган Китая предложил объявить незаконными «искажения изображения другого человека или имитацию голоса с использованием технологий», говорится в материале, опубликованном в государственной газете China Daily.

Газета цитирует старшего законодателя Шэня Чуньяо, который говорит, что «неправильное использование технологии искусственного интеллекта не только наносит вредит правам человека на изображение, но также вредит национальной безопасности и общественным интересам».

«Глубокие подделки», или «дипфейки», становятся все более изощренными — вместо того, чтобы просто заменять человеку лицо, кодеры научились заменять целое тело. Это значит, что любой, владеющий техническим ноу-хау, может преобразовать кого угодно в цифровую марионетку.

Если вам непонятно, чем это может быть опасно, в 2018 году появился поддельный ролик с выступлением бывшего президента США Барака Обамы, где он предупредил, что «мы вступаем в эпоху, в которой наши враги могут сделать так, чтобы кто угодно сказал что угодно в любой момент времени». Само видео с этим заявлением является подделкой, в этом и казус.

Только вот Китай расценил это предупреждение как вполне реальное. А вам эта технология кажется опасной? Расскажите в нашем чате в Телеграме.

Новый комментарий

Для отправки комментария вы должны авторизоваться или зарегистрироваться.