Deepfake: как жить в мире, где подделку не отличить от реальности. Часть I

154
gopbriefingroom.com
Жертвами «фейкоделов» стали Скарлетт Йоханссон, Мэйси Уильямс, Тейлор Свифт и Обри Плаза

В декабре 2017 года в сети появилось порновидео с участием актрисы Галь Гадот, главной героини в фильме «Чудо-женщина». Все бы ничего, но Гадот никогда не снималась в порно. Ролик, на котором женщина занимается сексом со своим «сводным братом», оказался фейком. На самом деле на видео снялась порноактриса Грейс Эванджелин, лицо Гадот ей наложил один из юзеров соцсети Reddit под ником Deepfakes.

Deepfake (от deeplearning – «глубокое обучение» и fake – «подделка») – метод синтеза человеческого изображения на основе искусственного интеллекта. Он используется для объединения и наложения существующих изображений на видео.

Подмена лиц в видео быстро набрало обороты и получило название Deep Fakes. Жертвами «фейкоделов» уже стали актрисы Скарлетт Йоханссон, Мэйси Уильямс, Тейлор Свифт, Милой Кунис и многие другие знаменитости, в том числе и политики.

Что же такое эти «глубокие фейки» на самом деле, чем они опасны и можно ли их побороть, выяснял K.Fund Media.

Как создается

Первый deepfake создан при помощи открытых алгоритмов машинного обучения и библиотек TensorFlow и Keras.

TensorFlow была разработана компанией Google и создана для обучения нейронной сети, чтобы та достигла человеческого качества восприятия. Основное API для работы с библиотекой создано для языка программирования Python.

ИИ сопоставляет фрагменты исходных портретов с видеозаписью
ИИ сопоставляет фрагменты исходных портретов с видеозаписью. CV-Tricks.com

Работает достаточно просто. Система «учится» при помощи роликов на YouTube и изображений в Google. В процессе обучения искусственный интеллект (Al) пытается сопоставить фрагменты исходных портретов с видеозаписью максимально правдоподобным образом.

Грубо говоря, Deepfakes скормил нейросети множество обычных порнофильмов и фотографий голливудских звезд, а затем поставил ей задачу — менять лица в роликах.

Опасность «глубоких фейков»

Часто видео-deepfake может обмануть не только обычного зрителя, но и беспристрастный компьютер. Теперь легко можно дискредитировать любого человека. Под ударом оказываются все: от мировых политиков и знаменитостей до школьницы, которая любит «селфиться» с подругами.

Недостатка в материале для deepfake нет

Только за первый год работы фотосервиса Google Photo (2015-2016) у сервиса появилось 200 млн пользователей. Среди снимков было 24 млрд селфи.

Людям, которые не смогли доказать, что на видео не они, может грозить даже тюремный срок
Людям, которые не смогли доказать, что на видео не они, может грозить даже тюремный срок. selfhelpguide.in

Опасность даже не в издевательстве над людьми с помощью порнороликов. Людям, которые не смогли доказать, что на видео не они, может грозить даже тюремный срок. Представьте подставное видео, которое будет использоваться в качестве доказательства в деле об ограблении. Ведь человеку, у которого есть инструмент, ничего не мешает изменить лицо одного из соучастников на изображение невиновного.

О том, какие методы применяются для борьбы с Deepfake, читайте во второй части статьи.

Поделиться: