Штучний інтелект ElevenLabs, ймовірно, використано у російській операції впливу
Штучний інтелект уже неодноразово опинявся у центрі скандалів через його зловживання, включно з підробкою академічних праць чи створенням копій робіт художників. Тепер його, схоже, використовують у державних операціях впливу. Про це повідомляє TechCrunch.
За даними американської компанії Recorded Future, яка спеціалізується на кіберзагрозах, комерційні ШІ-технології генерації голосу, зокрема стартап ElevenLabs, “дуже ймовірно” застосовувалися у російській кампанії впливу під назвою Operation Undercut.
Читайте також: ElevenLabs представила функцію GenFM для створення подкастів за допомогою штучного інтелекту
Мета операції та методи впливу
Ця кампанія була спрямована на підрив підтримки України в Європі. У її межах поширювалися фейкові та маніпулятивні відео “новинного” характеру, озвучені штучно згенерованими голосами.
У роликах, орієнтованих на європейську аудиторію, критикували українських політиків, звинувачуючи їх у корупції, та ставили під сумнів ефективність військової допомоги Україні. Наприклад, один із відеоматеріалів стверджував, що американські танки Abrams є малоефективними, навіть з використанням пристроїв для захисту від ракет.
Також цікаво: Додаток для перетворення тексту в мовлення Reader від ElevenLabs тепер доступний у всьому світі
Використання ElevenLabs
Recorded Future встановила, що для озвучення відео використовували генерацію голосу, ймовірно, з використанням технологій ElevenLabs. Кліпи були перевірені за допомогою інструменту AI Speech Classifier від ElevenLabs, який підтвердив збіг.
Хоча ElevenLabs не прокоментувала ситуацію, Recorded Future зазначає, що для створення роликів могли застосовувати й інші подібні технології. Проте ElevenLabs стала єдиною компанією, яку конкретно згадали у звіті.
Читайте також: ШІ-генератор від ElevenLabs створює вибухи та інші звукові ефекти за допомогою простої підказки
Переваги та недоліки ШІ для пропаганди
Завдяки генерації голосу організаторам кампанії вдалося озвучити відео різними європейськими мовами — англійською, французькою, німецькою, польською та турецькою. Водночас ШІ допоміг уникнути акценту, притаманного носіям російської мови, що зробило ролики більш переконливими для цільової аудиторії.
Проте організатори кампанії припустилися помилок. Деякі відео були озвучені справжніми голосами, в яких чітко простежувався російський акцент, що викрило їхнє походження.
Зв’язок із російськими структурами
Recorded Future пов’язує Operation Undercut з організацією Social Design Agency, яку санкціонували у США у березні 2024 року. Ця агенція керувала мережею з понад 60 сайтів, що видавали себе за європейські медіа, а також використовувала фейкові акаунти у соцмережах для поширення маніпулятивного контенту.
Хоча вплив кампанії на громадську думку в Європі був мінімальним, випадок підкреслює ризики, пов’язані з використанням ШІ у пропаганді.
Попередні інциденти з ElevenLabs
Продукти ElevenLabs вже раніше потрапляли у скандали. Зокрема, у січні 2024 року технологія була використана для створення робокола від імені президента США Джо Байдена, що закликав виборців не голосувати.
Компанія заявляє, що забороняє “несанкціоноване, шкідливе чи оманливе використання” своїх продуктів і впровадила функції, які автоматично блокують голоси відомих політиків.
Попри ці інциденти, ElevenLabs демонструє вражаюче зростання. З моменту заснування у 2022 році компанія збільшила річний дохід із $25 до $80 мільйонів, а її оцінка може сягнути $3 мільярдів.