Сьогоднішні інтернет-фейки вже не обмежуються лише невдалим фотошопом. Користувачі все частіше стикаються з відео, створеними штучним інтелектом, та діпфейками — від фальшивих реклам до неправдивих “репортажів” про катастрофи. Сучасні технології стирають межу між реальністю та вигадкою, роблячи підробки ще більш правдоподібними.
Що необхідно знати про відео Sora
Відео, створені Sora, технологічно вражають і перевершують продукцію конкурентів, таких як Midjourney V1 та Google Veo 3. Вони відрізняються високою роздільною здатністю, синхронізованим звуком та неймовірною креативністю. Одна з найпривабливіших функцій — Cameo, що дозволяє використовувати образи реальних людей у будь-якій АІ-сцені. Як наслідок, виходять лякаюче реалістичні ролики.
Це викликає багато занепокоєння навколо Sora. Додаток значно спрощує процес створення небезпечних діпфейків, поширення дезінформації та перетворення реальності. Особливо уразливими є знаменитості, тому профспілки, такі як SAG-AFTRA, вже звернулися до OpenAI з проханням посилити захисні заходи.
Якщо технологія OpenAI Sora вже викликала плутанину в інформаційному просторі, її вірусна версія — умовна “соціальна мережа” Sora 2 — стала предметом обговорення і найбільш оманливим феноменом у мережі. Це фактично стрічка у стилі TikTok, де весь контент є виключно фальшивим. Платформа постійно вдосконалюється у створенні реалістичних вигаданих сцен, що створює реальні ризики для суспільства.
Як розпізнати відео, створене за допомогою Sora
Звертайте увагу на водяний знак
Усі відео, завантажені з iOS-додатку Sora, мають водяний знак — білий логотип Sora у формі хмаринки, що рухається по краю кадру. Це нагадує водяні знаки TikTok і є одним із найпростіших способів ідентифікації АІ-контенту.
Проте водяні знаки не забезпечують 100% захисту: статичні можна обрізати, а динамічні — видалити за допомогою спеціальних додатків. Глава OpenAI Сем Альтман раніше зазначив, що суспільство має бути готовим до ситуації, коли будь-хто може створити фейкове відео з ким завгодно. Це означає, що простої візуальної ознаки вже недостатньо.
Перевірте метадані
Хоча перевірка метаданих може здатися складною, в реальності це один з найнадійніших способів виявлення походження відео. Метадані — це службова інформація, автоматично прикріплена до файлу: тип камери, дата і місце зйомки, ім’я файлу та інші відомості. У ШІ-контенту часто є спеціальні мітки, що вказують на його штучне походження.
OpenAI є членом коаліції C2PA (Coalition for Content Provenance and Authenticity), тому відео Sora містять відповідні метадані. Перевірити їх можна за допомогою інструмента Content Authenticity Initiative (Ініціатива з забезпечення автентичності контенту).
Як перевірити метадані файлу:
- Перейдіть на сайт verify.contentauthenticity.org
- Завантажте фото, відео або документ
- Клікніть “Відкрити”
- Ознайомтеся з інформацією в правій панелі — якщо контент створений штучним інтелектом, це буде зазначено в описі.
При перевірці відео Sora сервіс зазначає, що файл “випущений OpenAI” і є ШІ-згенерованим. Це підтверджує його походження.
Інструмент Content Authenticity Initiative (фото: CNET)
Обмеження методу
Як і будь-які детектори ШІ, цей інструмент не є досконалим. Відео, створені іншими сервісами, такими як Midjourney, можуть не мати потрібних метаданих. Крім того, якщо відео Sora було оброблено стороннім додатком і збережено заново, шанси на його правильне розпізнавання зменшуються.
Все ж таки перевірка метаданих залишається одним із найефективніших способів відрізнити справжнє відео від діпфейка у часи швидкого розвитку штучного інтелекту.
Шукайте позначки ШІ і вказуйте їх самостійно
На платформах Meta, таких як Instagram і Facebook, користувачі мають можливість отримати додаткові підказки щодо генерованого ШІ контенту. У Meta існують внутрішні системи, які позначають такі матеріали спеціальними мітками. Ці механізми не ідеальні, але у мітках можна знайти відповідні позначки. Подібні правила маркування ШІ-контенту діють також на TikTok і YouTube.
Однак єдино надійний спосіб довідатися, чи створений контент штучним інтелектом — це безпосередня вказівка автора. Багато соціальних мереж зараз пропонують налаштування, які дозволяють позначати публікації як згенеровані за допомогою ШІ. Навіть просте пояснення в підписі до посту може допомогти аудиторії зрозуміти, як був створений матеріал.
Поки користувач переглядає контент Sora, він розуміє, що це вигадка. Але як тільки відео потрапляє на інші платформи, відповідальність за виявлення його походження переходить на користувачів.
У міру того, як технології на кшталт Sora стирають межі між реальністю та уявою, саме користувачі повинні забезпечити максимально прозоре виявлення походження відео — реальне це чи штучно створене.
Головне — залишатися пильними
Немає єдиного методу для моментального визначення, чи є відео справжнім, чи це генероване ШІ. Найкраще, що можна зробити, — це не вірити всьому, що ви бачите в інтернеті. Якщо щось виглядає підозріло або “неприродно”, ймовірно, так воно і є.
Оскільки мережа заповнюється контентом, створеним штучним інтелектом сумнівної якості, найкращий захист — уважний перегляд. Слід звертати увагу на спотворені тексти, об’єкти, що зникають, і рухи, які суперечать фізичним законам. І якщо ви все ж таки випадково натрапите на фейк — не варто звинувачувати себе; навіть фахівці не завжди можуть виявити підробку.
















