09 March 2022, 12:00

What is a deepfake?

Що таке діпфейк? Як навчитися відрізняти підробку від реального відео?

У мережі поширилися чутки про так звану «капітуляцію України» у війні з російським агресором. На підробленому відео виступає Президент Володимир Зеленський та оголошує про перемогу Росії. Це діпфейк, який виник завдяки можливостям сучасних цифрових технологій. Картинка відео виглядає дуже реалістично, тому більшість може повірити в його правдивість. Що таке діпфейк? У чому головна загроза та як відрізнити реальний ролик від фейку?

Що таке діпфейк? Як працює технологія?

Поняття діпфейк означає глибинне навчання та підробку (Deep Learning + Fakes є Deepfakes). Відео-діпфейк повністю відтворює людину за допомогою алгоритмів машинного навчання. Розвиток комп'ютерних технологій на базі глибинного навчання дозволяє програмам «вчитися» завдяки штучним нейронним мережам. Методика синтезу зображення працює на основі штучного інтелекту. Це поєднує зображення людини, накладає одне відео на інше.

Комп'ютерна програма аналізує фото однієї людини, збирає дані та відтворює зображення. Далі таке створене фото або цифрову «маску» спеціалісти накладають на відео. Крім цього, програма може синхронізувати голос, жести й рухи. У результаті гладачі спостерігають персонаж, який повістю нагадує реальну людину. Але це фейк! 

Загалом технологію використовують у сфері кіноіндустрії для постановки кадру або заміни актора, для виправлення помилок у зйомках. На жаль, часто технологію застосовують з метою шахрайства та обману. Найчастіше «жертвами» діпфейків стають популярні відомі люди, впливові політики, лідери країн.

Приклади діпфейків

У сучасній мережі інтернету існує велика кількість таких підроблених відео, зокрема на відеостримінговій платформі YouTube. Одним із найвідоміших діпфейків сучасної історії став ролик із виступом Барака Обами, випущений у 2018 році. 

Виглядає справді досить реально, щоб повірити. Автором цього діпфейку став американский режисер Джордан Піл. У кінці ролику він демонструє, як сам записує це відео, а далі за допомогою програми накладає зображення президента. Глядач баче кінцевий результат, де начебто Барака Обама невтішно відгукується про Дональда Трампа.

Популярним персонажем для створення діпфейків став Том Круз. Цей невимушений жарт досяг неймовірних масштабів. У соціальній мережі TikTok був створений обліковий запис @deeptomcruise, присвячений відеофейкам за участю відомого актора.

Ще один реалістичний ролик за участю Моргана Фрімена. На відео автор Бет Шувінк (Boet Schouwink) розповідає про глибоку фейкову сенгулярність голосом американсього актора. Справді можна повірити.

У чому загроза діпфейків?

Технологія діпфейків має дві сторони. Якщо говорити про кіноіндустрію, то завдяки алгоритмам штучного інтелекту, світове кіно досягло небувалих висот. Помилки героїв легко замінити на «правду» за новим сценарієм. Тепер не потрібно витрачати зайві ресурси, достатньо лише налаштувати програму та встановити параметри. Усе «виправляє» технологія глибинного навчання.

Але синонім діпфейку це дезінформація. З іншого боку діпфейки активно використовуються з метою обману та шахрайства. Відео не є реальним, а створеним комп’ютером. За допомогою такого реалістичного відео можна переконати необізнаних людей, які ніколи не чули й не стикалися з сучасною технологією. У цьому полягає велика загроза, адже виникає можливість маніпулювати цілим народом. Основна мета діпфейку це дезорієнтація та дезінформація народу. Таким чином шахраї намагаються вселити «уявну» правду.

Як відрізнити діпфейк від справжнього відео?

На щастя, є можливість відрізнити справжнє від фейкового.

Для цього слід бути уважним та звернути увагу на такі деталі:

  • колір шкіри може бути не схожим на справжній;
  • краї маски навколо обличчя. Іноді відео недосконалі, тому можна помітити очевидні недоліки відтворення реальної людини;
  • оклюзія обличчя спотворює предмети або закриває їх;
  • розмите обличчя. Якщо добре придивитися, то обличчя персонажа може бути розмитим, і це не пов'язано з якістю відео;
  • легке мерехтіння. Інколи алгоритми не можуть до кінця «зчитати» та відтворити зображення людини. Це секундні мерехтіння мають бути помітними на екрані;
  • різна фокусна відстань; 
  • невідповідність зображення. 

Для України наразі загрозою є підготовка діпфейку про капітуляцію нашої країни у війні з російським агресором. Тож ми хочемо попередити українське населення про створення діпфейків та їх поширення. Особливо це стосується людей, які не обізнані з можливостями сучасних технологій. Будьте обережні! Не вірте фейковим роликам та перевіряйте джерела надходження інформації.     




Ольга Сомова