Сьогодні, штучний інтелект може приносити не лише користь, але й вводити людей в оману й бути використаним під час інформаційної війни. Зокрема, йдеться й про діпфейк – технологію, яка здатна розмивати лінію між реальністю та чимось фантастичним.
Що таке діпфейк, як його розпізнати та чому цією технологією може скористатися окупант – в матеріалі РБК-Україна.
Що ж таке діпфейк?
Це технологія, яка застосовує штучний інтелект для створення фальшивих зображень, або ж відеороликів з "реальними" людьми, завдяки накладанню й поєднання окремих фрагментів на інші ж зображення та відеоролики.
Вперше технологія стала популярною ще у 2017 році, коли її застосовували для помсти іншим людям, або ж для відтворення порнографічних роликів.
Зрештою, її почали використовувати й в підроблених новинах, або ж в зловмисних оманах.
Наприклад: колишнього президента Аргентити Маурісіо Макрі свого часу "підмінили" Гітлером; актор Джордан Піл створив фейкове відео з колишнім президентом США Бараком Обамою з метою попередження про небезпеку технології.
Наведені приклади були створені ще у 2018-му році. За останні роки технологія встигла розвинутись ще далі, у зв'язку з чим інколи виявити якісно відтворену фальсифікацію стає дедалі важче.
Водночас більшість платформ, таких як Twitter, Reddit, Discord вже давно розпочали боротися з технологією, видаляючи будь-який контент, що містить в собі діпфейк та блокуючи користувачів, які його опублікували.
Експерти вважають, що подібні сфабриковані відео можуть стати справжньою зброєю під час інформаційної війни.
Як відрізнити діпфейк?
Сьогодні ж чимало вчених працюють над унікальними алгоритмами, які повинні виявляти сфабриковані відеоролики. Однак, майже жоден з них не володіє 100% точністю роботи.
На жаль, надійних способів відрізнити діпфейк немає. В більшості випадків доводиться покладатися на свої ж очі. Однак не усе так й погано.
Наприклад, під час покадрового перегляду можна побачити погані ознаки генерування й накладання зображення на відеоролик. Особливу увагу варто звернути на:
обличчя не завжди може пропорційно "накладатися" на тіло; в області брів та очей можуть бути неприродні тіні; окуляри або ж аксесуари можуть мати дивні відблиски, а особливо це помітно на фотографіях; штучний інтелект погано працює з волоссям, яке на відео не виглядає природно. Воно може бути "розмитим", або ж мати неправильну лінію росту; інколи ж бракованість можуть видавати й очі, йдеться про їх рух, відблиски світла та інше; міміка та рух загалом можуть здаватися неприродними.
Важливо додати, що технологію діпфейку майже завжди використовують з підміною голосу.
Спробувати розпізнавати діпфейки можна на сайті ентузіастів Массачусетського технологічного інституту за посиланням.
Чи може Росія вдатися до використання технології?
Відповідь: так.
Як повідомляє Центр стратегічних комунікацій та інформаційної безпеки, сьогодні агресор може вдатися до усіх спроб дезорієнтувати наших громадян, або ж змусити їх зневіритись.
У тому числі йдеться й про використання технології діпфейк в, нібито, "офіційних заявах" президента України Володимира Зеленського про, наприклад, капітуляцію.
"Знайте – це фейк! Його мета – дезорієнтувати, посіяти паніку, зневірити громадян і схилити наші війська до здачі. Будьте впевнені – Україна не капітулюватиме", – пише пресслужба центру.
Пам'ятайте, важливо отримувати інформацію виключно з перевірених джерел, особливо сьогодні. Не дайте ворогу ввести вас в оману.
Війна Росії проти України триває сьомий день. Всі подробиці російської агресії, ситуація в містах та міжнародна реакція – у текстовому онлайні РБК-Україна.
Термінові та важливі повідомлення про війну Росії проти України читайте на каналі РБК-Україна у Telegram.