NVIDIA научила искусственный интеллект создавать фейковые видео

6 Декабря 2017 в 15:30, Сергей Грэй 9 832 просмотра 8

С каждым днём новостей об искусственном интеллекте и его достижениях становится всё больше. На днях мы рассказывали вам, что ИИ, созданный в стенах компании Google, впервые в истории породил на свет новый ИИ, превосходящий любые аналоги, разработанные человеком. Сегодня же расскажем вам об искусственном интеллекте, который представила миру знаменитая компания NVIDIA. Чем же он интересен? Да тем, что создаёт пугающе убедительные фейковые видео, которые не каждый специалист сможет отличить на глаз от настоящих.

Программа NVIDIA на основе искусственного интеллекта поразила даже видавших виды специалистов в данной области. Всё дело в том, что разработчики научили её на лету преобразовывать видеоролики, в корне меняя их содержимое. А получается это у ИИ настолько хорошо, что отличить «фейк» от реальности очень и очень сложно. К примеру, системе скармливают видео, снятое на автомобильный регистратор в зимнее время года. ИИ тщательно изучает его и меняет ледяной ландшафт на летний. Ниже вы можете увидеть исходник и получившийся результат своими собственными глазами.

Работа алгоритма основывается на использовании генеративной состязательной сети (GAN). Следующее видео выглядит несколько менее убедительно, тем не менее всё равно очень впечатляет. На этот раз перед ИИ поставили задачу сделать из дневного времени суток – ночное. Подделку выдаёт разве что криво нанесённая на дорожное полотно разметка и некоторые артефакты по краям изображения.

По словам разработчиков NVIDIA, они занимались исследованиями в области автоматической раскраски фотографий. Но в итоге получившаяся система вполне научилась справляться с обработкой видеофайлов. Причём делать это она может на весьма высококачественном уровне. Только представьте себе, на что будет способен ИИ лет эдак через 10. Уже нельзя будет с уверенностью сказать: настоящее перед нами видео или же поддельное. Ведь искусственный интеллект уже сегодня способен, например, подделывать записи людей, адаптируя их мимику под совершенно другие слова. А что будет дальше? Лишь время покажет. А напоследок, чтобы приподнять вам настроение, вот ещё один небольшой видеоролик, в котором демонстрируется способность данного ИИ преобразовывать, например, обычных домашних кошек в леопардов, а леопардов в кошек. Ну чем не милота?

NVIDIA научила искусственный интеллект создавать фейковые видео

Приложение
Hi-News.ru

Новости высоких технологий в приложении для iOS и Android.

8 комментариев

  1. bonz

    Интересные возможности по одурачиванию открываются (или уже есть?) у продвинутых пользователей из спецслужб и пропагандистов имеющих доступ к таким технологиям… держись народ… (отправлено из iOS приложения Hi-News.ru)

    • Joe

      Забавно, как нейронка распознала лужи посередине первого видео и заменила их на летящую птицу.
      А вообще очень сильная работа. Так же можно восстанавливать видео с плохим качеством, улучшая его, дорисовывая детали. Восстанавливать старые фильмы. (отправлено из приложения Hi-News.ru)

  2. sabretoothedhamster

    Нас спасёт храмовый целлулоид!

  3. v0viliamus

    "Да тем, что создаёт пугающе убедительные фейковые видео, которые не каждый специалист сможет отличить на глаз от настоящих."
    Ничего, что на обеих сгенерированных видеозаписях присутствует куча артефактов, которые не увидит только слепой? Автор новости видеозаписи включал? Сомневаюсь.
    Когда-нибудь ИИ будет делать такое видео без артефактов, пока авторы сайта (вроде не ИИ) не могут без артефактов в логике и смысле накатать текст новости.

  4. a-ft0r

    Cкоро плюнуть некуда будет, попадешь в ии. Заболтают само понятие такими обычными прогами.

  5. win89

    Наконец то определенным людям проще будет состряпать фейк авиакатастрофу или теорор. акт) (отправлено из приложения Hi-News.ru)

  6. RiotMakeR

    в первом видео то что правое фейковое выдает то, что верхушки и крона деревьев в целом деревьев произвольно меняют свои очертания

Новый комментарий

Для отправки комментария вы должны авторизоваться или зарегистрироваться.