автор: Надія Баловсяк
Працівник автосалону повідомляє, що Олена Зеленська придбала Bugatti під час війни.
У мережі поширюється відео, на якому воїнів ЗСУ вербують у ЦАХАЛ.
Українські військові на відео скаржаться на свавілля командирів.
В іншому ролику дівчина розповідає, як її згвалтували співробітники ТЦК.
Це лише частина фейків, які циркулюють в українському медіапросторі. Вони націлюються на українських юзерів, перетворивши їх у суб’єктів інформаційної війни. Здавалося б, суспільство, яке ще пам’ятає наколоті апельсини та хлопчика в трусиках зі Слов’янська, могло б мати довічний імунітет проти таких вкидів. Проте наш супротивник не шкодує коштів та фантазії на створення сюжетів, мета яких – вплив на українців і закордонну аудиторію.
Допомагають нашому ворогу не лише протиріччя в Україні та закордоном, загальні настрої суспільства, втома від війни, політичні суперечки й інші загрози, які Росія так успішно використовує в інформаційній війні. Її вправним фейкоробам, у досвіді яких є успішна діяльність фабрики тролів та підозра на використання методів Cambridge Analytica, останнім часом допомагає новітня технологія – штучний інтелект (він же ШІ, Artificial intelligence, AI), великі мовні моделі та ChatGPT і його аналоги.
Ризики штучного інтелекту в поширенні фейків у світі вважають більш ніж серйозними. Старша аналітикиня ГО “Інтерньюз-Україна” Альона Гришко підкреслює:
“У звіті Всесвітнього економічного форуму про глобальні ризики за 2024 рік надано рейтинг найсерйозніших загроз, з якими ми стикаємося в короткостроковій перспективі (два роки), а також він дає нам довгострокове уявлення про ландшафт ризиків (10 років). Існує три основні зміни порівняно з минулорічним звітом, і всі вони стосуються розповсюдження та потенційного зловживання ШІ“.
Ризики, пов’язані зі створеною за допомогою ШІ дезінформацією, на другому місці за небезпекою. Графіка зі звіту ВЕФ про глобальні ризики
Анна Нестеренко, координаційна менеджерка національного проєкту з медіаграмотності “Фільтр” Міністерства культури та інформаційної політики України, переконана:
“Штучний інтелект може бути потужним інструментом для створення та поширення дезінформації, а ще — для генерації фейкового контенту, реалістичних фото, аудіо та відео. Також ШІ можуть використовувати для автоматизації поширення дезінформації – наприклад, для автоматичного створення та керування великою кількістю фейкових акаунтів у соціальних мережах (ботоферми)”.
Всього лише півтора року світ вчиться жити та використовувати інструменти штучного інтелекту, які перетворюються на засоби повсякденного використання.
А поки триває обговорення того, як AI змінить життя журналістів, юристів та вчителів, пропагандисти та представники спецслужб активно використовують цю технологію для поширення власних наративів у так званих операціях впливу.
Наприкінці весни цього року компанія OpenAI розповіла про те, що декілька країн світу (Росія, Іран, Китай) використовували її штучний інтелект у кампаніях впливу. В OpenAI підкреслили, що це перший випадок, коли такі інструменти використовувалися з такою метою.
У звіті OpenAI йдеться принаймні про п’ять виявлених операцій впливу, і до двох з них була дотична Росія. Автори цих операцій використовували технологію OpenAI для створення публікацій у соціальних мережах, перекладу та редагування статей, написання заголовків. Все це робилось для залучення підтримки для політичних кампаній або для зміни громадської думки в геополітичних конфліктах.
Одна російська інформаційна кампанія отримала назву Bad Grammar. Вона працювала переважно в Telegram і була спрямована на Україну, Молдову, країни Балтії та Сполучені Штати. Люди, які управляли нею, використовували інструменти OpenAI для запуску бота Telegram і створення коротких політичних коментарів російською та англійською мовами, які потім публікувалися в Telegram.
В іншій операції Doppelganger використовувалися моделі OpenAI для створення коментарів англійською, французькою, німецькою, італійською та польською мовами, які публікувалися на Twitter (X) та 9GAG. Окрім того, з їхньою допомогою перекладалися й редагувалися статті англійською і французькою мовами, які потім розміщувалися на веб-сайтах, створювалися до них заголовки, а також новинні статті перетворювалися на дописи у Facebook.
Контент, створений за допомогою інструментів OpenAI, був здебільшого антиукраїнськими коментарями та статтями, які підтримували Росію у війні в Україні.
У звіті компанії зазначається, що такий контент отримав мало відповідей і “лайків”. Хоча сьогоднішній генеративний штучний інтелект може допомогти зробити кампанії впливу ефективнішими, ці інструменти поки не створили потоку переконливої дезінформації, підсумовує OpenAI.
“Це свідчить про те, що деякі з наших найбільших побоювань щодо операцій впливу за допомогою штучного інтелекту та дезінформації за допомогою штучного інтелекту ще не виправдалися”, — цитує The New York Times Джека Стаббса (Jack Stubbs), головного фахівця з розвідки компанії Graphika, яка займається відстеженням маніпуляцій у соціальних мереж.
Проте інший експерт, старший директор Лабораторії цифрових криміналістичних досліджень Atlantic Council Грем Брукі (Graham Brookie), у цьому ж матеріалі, присвяченому використанню інструментів OpenAI для поширення фейків, попереджає, що онлайн-ландшафт поширення дезінформації може змінитися. Адже генеративний штучний інтелект стає все більш потужним.
Хоча OpenAI лише в останні дні весни 2024 року розповіла про випадки використання її AI-інструментів в операціях впливу, насправді зловмисники ще раніше взяли на озброєння генеративні AI-засоби.
У червні цього року підрозділ Google DeepMind оприлюднив результати дослідження, в якому намагався виявити найпоширеніші зловмисні застосування технологій штучного інтелекту. Дослідники Google DeepMind і Jigsaw проаналізували близько 200 випадків неправомірного використання штучного інтелекту в період з січня 2023 року по березень 2024 року. Експерти аналізували матеріал у вільному доступі на соціальних платформах Twitter (X), на сайті Reddit, а також у блогах та згадках ЗМІ про неправомірне використання штучного інтелекту.
Створення підробних зображень, відео та аудіо людей, тобто продукування саме політичних діпфейків стало найпопулярнішою сферою зловмисного використання технології AI – на це припадає 27% випадків такого використання штучного інтелекту.
Причому частка таких випадків майже вдвічі перевищує другий за рейтингом спосіб AI-зловживань — фальсифікація інформації у вигляді тексту, тобто створення дезінформації для онлайн-публікацій.
Іншими словами, найчастіше генеративний штучний інтелект у світі використовується саме для створення фейків – або у вигляді зображень, відео чи аудіо, або у вигляді текстів.
Автори дослідження підкреслюють, що у більшості випадків зловмисного використання AI його автори обирали легко доступні інструменти, які вимагали мінімальних технічних знань. Цей висновок викликає особливе занепокоєння, адже свідчить про те, що продукування різного роду фейків за допомогою штучного інтелекту не потребує особливих умінь та доступне практично кожному.
Коментуючи отримані результати для Financial Times, науковий співробітник Інституту Алана Тюрінга Арді Янджева (Ardi Janjeva) підкреслив, що “забруднення” загальнодоступної інформації штучно згенерованим фейковим контентом може “спотворити наше колективне розуміння соціально-політичної реальності”.
І додає: “Навіть якщо ми не впевнені щодо впливу дипфейків на поведінку під час голосування, це викривлення може стати таким, що його буде важче помітити в найближчій перспективі. Це створює довгострокові ризики для наших демократій”.
Конкретну історію використання AI не лише для поширення фейків, але й для зміни думки виборців розповів британський телеканал Channel 4. Його журналісти спілкувалися з виборцями, які не визначилися, і показували їм підробний контент, в тому числі діпфейки (підробні відео). Цей експеримент намагався змоделювати мікротаргетинг за допомогою політичних фейків – людям показували ті відео та матеріали, які напевне будуть їм цікаві через особисті вподобання, потреби та інтереси.
Одним учасникам експерименту розповідали про певні (неправдиві) принципи у виділенні соціального житла, іншим говорили про підвищення цін на медичні послуги, третім брехали про мігрантів. Задля чистоти експерименту журналісти “вкладали” ці фейки в уста представників різних політичних партій.
Отримані результати вражали – люди, яких “годували” цими фейками, обрали для себе тих кандидатів, які обіцяли їм те, що їх хвилювало, не намагаючись оцінити правдивість тверджень чи відео. Таким чином журналісти показали, як легко в майбутньому зможе фейковий контент впливати на виборців.
Читайте також:
Консульську інформацію для ЗМІ від МЗС коментуватиме ШІ-аватар Вікторія
Про ризики використання штучного інтелекту в поширенні дезінформації нещодавно говорив заступник міністра культури та інформаційної політики України Тарас Шевченко під час форуму “Штучний інтелект 2.0: регулювання та робота під час війни”.
Чиновник назвав ситуацію, що склалася, такою собі “гонкою озброєнь”:
“З одного боку, штучний інтелект дозволяє компаніям краще робити модерацію контенту та створювати ефективніші алгоритми розпізнавання дезінформації. З іншого – ШІ так само дозволятиме робити ще кращих ботів та кращі фейки”.
Анна Нестеренко, координаційна менеджерка національного проєкту з медіаграмотності “Фільтр” МКІП повідомила про те, що експерти її організації спостерігають збільшення кількості діпфейк-відео з українськими військовими:
“У них порушують дуже чутливі для суспільства теми, як-то мобілізація, забезпечення військових, ситуація на певних ділянках фронту тощо”.
Альона Гришко з ГО “Інтерньюз-Україна” як приклад пригадує відео, в якому український президент Володимир Зеленський нібито робить заяву про капітуляцію, або псевдо-заклик до державного перевороту від Залужного.
“Такі неякісні відео розраховані на швидке захоплення уваги авдиторії з можливістю швидкого поширення серед користувачів.
На щастя, українці мають високий рівень стійкості до подібних закликів – тому спроби дискредитувати керівництво України виявилося доволі недолугим. Проте є спроби також дискредитувати й західних партнерів за допомогою діпфейку: до прикладу, новина про “привітання Ентоні Блінкеном очільника ПВК “Вагнер” Пригожина із взяттям Бахмута” була оперативно спростована MythDetektor (команда фактчекерів із Грузії)”, — уточнює експертка.
Антон Тарасюк, засновник компанії Mantis Analytics, що займається використанням штучного інтелекту для ідентифікації фейків, наводить декілька прикладів “штучних” фейків, з якими зустрічалась його компанія. І пригадує вельми показовий випадок:
“Йдеться про дезінформаційну кампанію, яка поширилася в російськомовному інформаційному просторі. Вона містила сфабриковані цитати, приписані Сергію Волинському “Волині”, українському морському піхотинцю. Дезінформація стверджувала, що ці цитати були взяті з інтерв’ю турецькій газеті, якого насправді не існувало. У цьому “інтерв’ю” йшлося про наявність високопоставлених американських військових на “Азовсталі”.
Окрім цих конкретних прикладів, експерти наводять загальні техніки використання штучного інтелекту в продукуванні фейків, які уже використовуються в Україні.
Ось найпопулярніші з них:
1. Боти, що просувають проросійські наративи
Ольга Петрів, аналітикиня з Центру демократії та верховенства права, зі свого досвіду розповідає, що “Росія масово застосовує ботів, що використовують ШІ, для створення фейкових профілів на платформах, наприклад Twitter (X).
Боти видавали себе за американців та просували вигідні Росії наративи.
Деякі з цих наративів прямо повʼязані з Україною”.
Про таку ж техніку говорить і Альона Гришко з ГО “Інтерньюз”:
“Використання ботів та автоматизованих акаунтів для поширення дезінформації та фейкових новин є одним із найпоширеніших методів. Боти можуть створювати ілюзію масової підтримки або невдоволення, впливаючи на громадську думку та формуючи хибне враження про реальний стан справ”.
2. Цільове таргетування
Альона Гришко також ділиться ще однією технікою – спрощенням таргетування фейків на цільову аудиторію:
“Штучний інтелект може аналізувати великі обсяги даних про користувачів та створювати персоналізовану “інформаційну бульбашку”, яка базується на інтересах, політичних поглядах або інших характеристиках аудиторії. Це підвищує ефективність маніпуляцій та робить їх більш правдоподібними”.
3. Фейкові сайти, що маскуються під відомі ресурси
Також як приклад техніки поширення штучно згенерованих фейків Ольга Петрів наводить вебсайт The Houston Post:
“На цьому сайті Росія поширювала пропагандистський контент, який створювався за допомогою ШІ. Про це свідчили шматки промтів в заголовках та невідповідності у тексті. Як ми знаємо, промт використовують для того щоб поставити завдання ШІ”.
Про техніку створення підробних медіа розповідає Катерина Іонова, фактчекерка VoxCheck:
“Частою є практика створення за допомогою штучного інтелекту медіаресурсів з назвами та/або логотипами, подібними до відомих видань. Там розповсюджують пропагандистські меседжі, які неуважні користувачі можуть перепостити, подумавши, що новина надійшла від надійного джерела.
Наприклад, на тлі заяв президента Франції Емманюеля Макрона про можливість надсилання військових в Україну почало поширюватися повідомлення про те, що французькі полки вже прямують до Румунії, а з неї – в Одесу.
Неправдиву інформацію поширив акаунт FranceNews24 у Twitter (X). Ця назва схожа на назву відомого французького видання France24. Проте в цьому акаунті публікуються виключно новини про війну в Україні, мігрантів з близькосхідних та африканських країн і протести проти чинного президента Франції Макрона”.
4. Діпфейки з українськими військовими
Ольга Петрів також розповідає про зростання популярності діпфейків:
“Наприклад, Росія генерує безліч відео, де начебто українські військові звертаються до громадян з потрібними їм наративами. Вони не завжди якісні, але, на жаль, є багато таких, де люди просто не розуміють, що контент згенерований”.
5. Фейкороби “рідною” мовою
Альона Гришко розповідає також, що здатність до швидкого автоматичного перекладу за допомогою AI дозволяє створювати більш правдоподібні фейки:
“Це ускладнює їх виявлення та боротьбу з ними, особливо в умовах великої кількості інформації. Проте не завжди переклад із російської на українську є коректним. Ми з командою зустрічали публікацію про “Годинниковий Яр” (на жаль, дана публікація була видалена) — насправді мова йшла про наш Часів Яр”.
Про аналогічні випадки поширення інформаційних кампаній впливу українською мовою розповідали під час дискусії експертки з Мінцифри, ЦЕДЕМ та Texty.org.ua.
Читайте також:
У пошуках компромісу між зручністю та ризиками. Що Україні робити з Telegram
Боротьба зі штучно згенерованими фейками може здійснюватися в кількох напрямках. Один із них – це регуляторні обмеження, які застосовуватимуться як проти авторів AI-фейків, так і проти платформ, які їх поширюють.
Про необхідність ухвалення законів, що стосуються поширення діпфейків, нещодавно заговорив президент Microsoft Бред Сміт. Топменеджер, у першу чергу, наголошував на необхідності захисту жертв сексуальних діпфейк-відео. Хоча подібні закони уже існують у деяких країнах світу, до прикладу, у Великій Британії. У США після активного поширення підробних відео зі співачкою Тейлор Свіфт було створено аналогічний законопроект, який захищає жертв підробного порно.
Проте американські регулятори говорять не лише про фейкові відео, що використовуються для порнопомсти. Федеральна комісія зв’язку США (FCC) пропонує вимагати від авторів політичної AI-реклами повідомляти про те, що таке оголошення було створене інструментами штучного інтелекту.
Проте поки що такі ідеї звучать на рівні пропозицій і, напевно, не набудуть втілення у вигляді законів до президентських виборів 2024 року.
Та й самі соціальні платформи вводять певні обмеження на AI-контент, принаймні на рекламу, створену за допомогою штучного інтелекту. Так, Meta заборонила використовувати штучний інтелект у політичній рекламі, а Google планує повідомляти, якщо така реклама міститиме “синтетичний вміст”.
Технічні чи технологічні рішення проблеми штучних фейків мають на меті заблокувати поширення такого контенту відразу після того, як буде зрозуміло, що його було створено штучними інструментами. Для цього компанії шукають спосіб автоматичної ідентифікації таких матеріалів.
З цією метою було створено альянс, який просуватиме стандарт C2PA (Coalition for Content Provenance and Authenticity), що передбачає додавання до контенту матеріалів про його автора.
Якщо помітки про авторство (невидимої для звичайних юзерів) не буде, то вважатиметься, що такий контент є штучно згенерованим і його можна, до прикладу, заблокувати.
Уже на початку серпня 2024 року стало відомо, що OpenAI давно створила й перевірила інструмент виявлення текстів, написаних за допомогою ChatGPT. Він міг би допомогти в боротьбі принаймні з текстовими фейками.
Проте компанія не поспішає випускати його на загал, побоюючись його недосконалості й того, що зловмисники швидко знайдуть спосіб обійти таку перевірку.
Альона Гришко з “Інтерньюз” переконана, що світові доведеться створити інструменти для автоматичного виявлення фейкових новин та діпфейків із подальшим їх маркуванням відповідним дисклеймером. Експертка розповідає про такий інструмент, який створюють в Україні:
“Команда Інтеньюз-Україна зараз працює над проєктом AI4Debunk – набором інструментів, серед яких, зокрема, моніторинг фейкового контенту. Наш інноваційний підхід передбачає поєднання соціологічних аспектів дезінформації з конкретними рішеннями на основі ШІ для її стримування”.
Не останню роль в боротьбі з AI-фейками повинна грати медіаграмотність.
Ольга Петрів із ЦЕДЕМ переконана, що “для того, щоб не стати жертвою подібних маніпуляцій, потрібно перевіряти джерела та проводити власний аналіз інформації. Також слід перевіряти інформацію про автора статті. Адже автори статей, згенерованих ШІ, часто є також згенерованими, як і їхні фото”.
Анна Нестеренко з проєкту “Фільтр” підкреслює:
“Боротьба з цими загрозами вимагає комплексного підходу. По-перше, необхідно підвищувати медіаграмотність населення, щоб люди могли краще розрізняти фейкові новини та правдиву інформацію. По-друге, важливо розвивати технології для автоматичного виявлення діпфейків та інших форм AI-генерованого контенту та популяризувати ці сервіси серед населення. Адже зараз генерувати фейковий контент набагато легше, ніж перевіряти його на автентичність.
Однак існують інструменти та сервіси, які можуть допомогти виявити сліди ШІ у відео, зображеннях або текстах. Приміром, сервіс Deepware Scanner може допомогти перевірити, чи було відео згенероване ШІ. А платформа Truly Media має функції на основі ШІ для аналізу цифрового контенту та виявлення дезінформації”.
Антон Тарасюк з Mantis Analytics перераховує декілька речей, які допоможуть вберегти наш медіпростір від штучно згенерованих фейків. Перша – це технології:
“Без штучного інтелекту, без систем швидкого реагування, без моніторингу того, що відбувається в інформаційному просторі в реальному часі, без обміну інформацією — двоякі цілі, описані вище, недосяжні”.
За допомогою ШІ російська пропаганда створила і почала масово поширювати фейк про те, нібито дружина президента Олена Зеленська придбала авто Bugatti Tourbillon за 4,5 млн євро
Окрім того, на думку Антона, важливою в цій боротьбі є довіра до інституцій:
“Українці традиційно ставляться з підозрою до інституціоналізованих медіа, часто — справедливо. Але альтернатива — мережі анонімних телеграм-каналів незрозумілого походження, сайти-одноденки, блогери-сенсаційники — не краща.
Думаю, ЗМІ треба більш ретельно підходити до редакційного процесу, фактчекінгу, журналістської доброчесності — і комунікувати це відкрито: “Ось як ми отримали цю інформацію і ці оцінки”. А публіці — розуміти та цінувати це “виробництво правди”.
Це важливий урок цієї війни. За одну ніч телеграм-канал з “інсайдами” стає російським пропагандистським активом, який закликає “не підтримувати ЗСУ” (реальний випадок з перших тижнів війни). Чому? Бо він завжди таким був, просто чекав свого часу”.
〉〉 Вподобали статтю? Найкращий лайк - переказ 50, 100, 200 грн. для гонорарів авторам "Новинарні". Наші рахунки – тут.
〉〉 Кожен читач "Новинарні" має змогу налаштувати щомісячний переказ на довільну суму через сервіс Patreon - на підтримку редакції.
Ми виправдовуємо довіру!