Deepfake: як жити у світі, де підробку не відрізнити від реальності. Частина I

246
gopbriefingroom.com
Жертвами «фейкоробів» стали Скарлетт Йоханссон, Мейсі Вільямс, Тейлор Свіфт і Обрі Плаза

У грудні 2017 року в мережі з’явилося порновідео за участі актриси Галь Гадот, головної героїні у фільмі «Чудо-жінка». Все би нічого, але Гадот ніколи не знімалася в порно. Ролик, на якому жінка займається сексом зі своїм «зведеним братом», виявився фейком. Насправді на відео знялася порноактриса Грейс Еванджелін, обличчя Гадот їй наклав один з користувачів соцмережі Reddit під ніком Deepfakes.

Deepfake (від deeplearning – «глибоке навчання» і fake – «підробка») – метод синтезу людського зображення на основі штучного інтелекту. Він використовується для об’єднання і накладення наявних зображень на відео.

Підміна облич на відео швидко набрала обертів і отримала назву Deep Fakes. Жертвами «фейкоробів» вже стали актриси Скарлетт Йоханссон, Мейсі Вільямс, Тейлор Свіфт, Міла Куніс і багато інших знаменитостей, серед яких і політики.

Що ж таке ці «глибокі фейки» насправді, чим вони небезпечні і чи можна їх подолати, з’ясовував K.Fund Media.

Як створюється

Перший deepfake створений за допомогою відкритих алгоритмів машинного навчання і бібліотек TensorFlow і Keras.

TensorFlow була розроблена компанією Google і створена для навчання нейронної мережі, щоб та досягла людської якості сприйняття. Основний API для роботи з бібліотекою створено для мови програмування Python.

Штучний інтелект зіставляє фрагменти вихідних портретів з відеозаписом
Штучний інтелект зіставляє фрагменти вихідних портретів з відеозаписом. CV-Tricks.com

Працює доволі просто. Система «вчиться» за допомогою роликів на YouTube і зображень у Google. В процесі навчання штучний інтелект (АІ) намагається зіставити фрагменти вихідних портретів з відеозаписом максимально правдоподібним чином.

Грубо кажучи, Deepfakes згодував нейромережі безліч звичайних порнофільмів і фотографій голлівудських зірок, а потім поставив їй завдання – змінювати обличчя в роликах.

Небезпека «глибоких фейків»

Часто відео-deepfake може обдурити не тільки звичайного глядача, а й безпристрасний комп’ютер. Тепер легко можна дискредитувати будь-яку людину. Під ударом опиняються всі: від світових політиків і знаменитостей до школярки, яка любить «селфі» з подругами.

Нестачі матеріалу у deepfake немає

Тільки за перший рік роботи фотосервісу Google Photo (2015-2016) у сервісу з’явилося 200 млн користувачів. Серед знімків було 24 млрд селфі.

Людям, які не змогли довести, що на відео не вони, може загрожувати навіть ув’язнення
Людям, які не змогли довести, що на відео не вони, може загрожувати навіть ув’язнення. selfhelpguide.in

Небезпека полягає навіть не в знущанні над людьми за допомогою порнороликів. Людям, які не змогли довести, що на відео не вони, може загрожувати навіть ув’язнення. Уявіть підставне відео, яке буде використовуватися як доказ пограбування. Адже людині, у якої є інструмент, ніщо не заважає змінити обличчя одного зі співучасників на зображення невинного.

Про те, які методи використовують для боротьби з Deepfake читайте в другій частині статті.

Поділитися: