Фейкові відео, що висміюють знаменитостей і політиків, вже давно перестали бути безневинними забавками. Вони можуть впливати на вибори або викликати масові заворушення.
Президент Instagram Адам Моссері зізнався в бесіді з CBS, що соціальна мережа не має розробленої політики поведінки в разі виявлення фейкових фільмів. В інтерв’ю він сказав, що поки що компанія намагається знайти оптимальний спосіб визначити, чим взагалі є deepfake. Лише після цього можна буде почати розробляти методи реагування на них – усування чи маркування, щоби користувачі знали, з чим мають справу.
Instagram не видалив навіть підробленого відео з Марком Цукербергом, побоюючись порушити власні правила. Фільм дуже реалістичний. Його автори використали інтерв’ю, яке президент Facebook дав CBSM у 2017 р., підклали голос актора і, за допомогою штучного інтелекту маніпулювали мімікою Цукерберга таким чином, щоби здавалося, що це він говорить. На відео Марк Цукерберг «визнає», що контролює світ і вкрадені дані мільйонів людей по всьому світу.
Алгоритми Facebook і Instagram не готові на великий наплив такого змісту
«Ми не збираємося приймати одноразове рішення про видалення цього відео лише тому, що на ньому Марк, а Марк – наш бос», – сказав Моссері в інтерв’ю. „Це було б неправильно і безвідповідально. Ми повинні мати певні правила, і дотримуватися прозорості по відношенню до цих принципів», – сказав Моссері, а відео з керівником Facebook надалі доступне в Instagram. Facebook вирішив тільки знизити пріоритет цього матеріалу і не рекомендувати його користувачам.
Світом керує «Spectre»
Цей deepfake – одна із кількох підробок, створених для виставки «Spectre», яка відбулася в рамках фестивалю документального кіно «Sheffield Doc Fest» у Великобританії. Відео було створено двома художниками-Білла Постерса і Даніела Хоу у співпраці з рекламним агентством «Canny». Матеріал створений при використанні технології «VDR», що дозволяє за допомогою інструментів штучного інтелекту підкласти будь-голосову доріжку під картинку. «Жертвою» митців став не тільки Марк Цукерберг, але у популярна інстаграм-блогерка та знаменитість Кім Кардашьян.
Ці deepfake’и порівнено невинні, але вони – не єдині в інтернеті. У травні з’явилося підроблене відео з Ненсі Пелосі, спікеркою американської Палати представників. Пелосі виглядала на ньому п’яною. Тоді Facebook також не видалив відео, але перестав його рекомендувати користувачам. Однак, на думку аналітиків, цього замало. Deepfake поширюють неправдиву інформацію, але у формі, завдяки якій багато людей можуть прийняти її за істину. Алгоритми Facebook та Instagram не готові на наплив такого змісту. Вони не можуть шукати такі відео і правильно ідентифікувати їх як фейки. Тому вони повинні покладатися на скарги користувачів соціальних мереж.
Безпорадний Facebook
Як Facebook, так і Instagram гарантують, що вони працюють над кращими та швидшими алгоритмами, що ловлять deepfake. Однак невідомо, як швидко вони зможуть їх ввести.
На думку аналітиків, відео, що містять недостовірну інформацію, буде ще більше. Досі по мережі кружляли порноролики, в яких нібито зіграли відомі акторки. Жодне з цих відео не є правдивим, але, метод, за допомогою якого тіло порноакторки з’єднували з обличчям Гал Гадот чи Скарлетт Йоханссон, настільки точна, що важко маніпуляцію важко помітити. Deepfake дає набагато більше можливостей. Особливо перед виборами. Аналітики попереджають, що такі відео можуть стати потужним інструментом у руках піарників політичних партій або людей, які зацікавлені в конкретному результаті виборів.
У США досі аналізується можливий вплив російської розвідки на результат останніх президентських виборів. Підроблені відео можуть стати абсолютно новим словом у виборчій боротьбі. Facebook, Instagram або Twitter не зможуть впоратися з ними за відсутності ефективних алгоритмів.
Хао Лі, професор Університету Південної Каліфорнії, попереджає, що навіть найкращі алгоритми виявлення deepfake будуть корисні тільки протягом короткого часу. «Штучний інтелект, що стоїть за цими фільмами, буде пристосовуватися і обходитиме захист», – пише The Verge. Професор Лі є одним із вчених, які розробили кілька алгоритмів виявлення фільмів, створених за допомогою штучного інтелекту. Алгоритм може виявляти невідповідності у міміці людей на підроблених відеороликах, зіставляючи їх зі справжніми виступами політиків. Таким чином, їм вдалося виявити deepfake із президентом Дональдом Трампом і сенаторкою Елізабет Уоррен. За словами професора, deepfake стають все кращими і невдовзі алгоритми не зможуть їх ідентифікувати.
Джерело: Rzeczpospolita