автор: Надія Баловсяк
Автори фільмі “Термінатор”, знятого понад 30 років тому, показали прототип військового штучного інтелекту – систему Skynet, яка в певний момент досягає самосвідомості. Skynet сприймає людство як загрозу та ініціює ядерний удар, що призводить до глобальної війни. Кіборги-убивці серії T-800, дрони-розвідники та бойові машини, які самостійно приймають рішення про знищення противника – всі ці залізні “комбатанти” — опиняються без контролю людини та успішно ведуть бойові дії.
Цей культовий фільм-антиутопія ще до недавнього часу показував нереалістичний сценарій розвитку подій. Проте і російсько-українська війна, й останні анонси від OpenAI вказують на те, що гілка сюжету “Термінатора” щодо створення роботів-убивць у різних формах стає більш реальною, ніж ми могли б уявити.
Ще у 2023 році компанія OpenAI у своїй угоді з користувачами (Terms of Use) чітко зафіксувала недопустимість використання її розробок для військових цілей. OpenAI забороняла використання своїх моделей для створення або вдосконалення технологій, що можуть бути використані у воєнних діях, зокрема для розробки зброї чи автономних бойових систем. Використання технологій OpenAI для створення автономних систем, які можуть діяти без участі людини у вирішальних аспектах, наприклад, у застосуванні сили або ухваленні стратегічних рішень, також потрапляло під обмеження.
Проте на початку 2024 року ставлення компанії до використання її розробок у військових цілях різко змінилося. Компанія оновила свою політику та скасувала явну заборону на воєнне застосування, прибравши з документа згадки про розробку зброї та військову справу та війну. Попередню заборону на “розробку зброї” та “військові та бойові програми” було замінено ширшою забороною “не використовувати наш сервіс, щоб завдати шкоди собі чи іншим”. Відповідно до OpenAI, ця зміна є частиною більш глобальних змін, спрямованих на те, щоб зробити документ “чіткішим” і “більш читабельним”.
Проте коментуючи ці зміни, представник OpenAI Ніко Фелікс зазначив: “Заборонено будь-яке використання наших технологій, включаючи військові, для розробки або застосування зброї, завдання шкоди людям чи знищення майна, а також участь у несанкціонованих діях, що можуть порушити безпеку будь-яких служб або систем”.
Згодом OpenAI ще декілька разів фігурувала у новинах про військове використання її продуктів. Проте справжній “оборонний розворот” і зміна цінностей OpenAI відбулися вже на початку грудня 2024 року. Тоді OpenAI оголосила, що її технологія буде використана безпосередньо на полі бою. Це станеться після оголошеного співробітництва OpenAI з військовою технологічною компанією Anduril, яка займається розробкою та виробництвом безпілотників, радіолокаційних систем і ракет, що допомагають військовим силам США та союзників захищатися від повітряних атак. OpenAI допоможе створити ШІ-моделі, які “прискорять обробку даних, знизять навантаження на операторів та покращать ситуаційну обізнаність”. Це повинно допомогти ефективніше знищувати ворожі безпілотники.
У повідомленні в блозі від 24 жовтня компанія написала, що якщо робота з військовими чи оборонно-технологічними компаніями може допомогти забезпечити домінування демократичних країн у гонці штучного інтелекту, то це не суперечитиме місії OpenAI. Але, найімовірніше, OpenAI пішла на такий крок, бо зрозуміла, що їй не вижити без держконтрактів. Поки компанія трималася за свої принципи, що спочатку обмежували її взаємодію з воєнною сферою, конкуренти активно включалися у щедре фінансування військових технологій урядом США та приватними інвесторами. Лише за 2024 рік стартапи сфери defense tech залучили $3 млрд у 85 раундах фінансування.
Журналісти, які змогли побачити плани OpenAI на полігоні, розповідали про те, що технології OpenAI сприятимуть справжньому прориву у використанні штучного інтелекту у воєнних діях. І описували її як аналог “розумного будинку”, здатного управляти різноманітними фрагментами воєнних дій, серед яких – не лише захист від дронів, а й організація атаки, управління дронами, що ведуть спостереження, видимість та контроль об’єктів навіть на великих відстанях.
Безпосередньо інструменти OpenAI допоможуть у навчанні ШІ-моделей на великих дата-сетах, зібраних датчиками з тисяч пристроїв, та подальшому їх аналізі, формуванні оперативної картини бойових дій із точністю, якої раніше ніколи не вдавалося досягнути. У результаті, ШІ-моделі допомагатимуть в ухваленні воєнних рішень.
Насправді активності компанії OpenAI є відповіддю на глобальні тренди щодо використання штучного інтелекту. Попри всі намагання законотворців та деяких експертів у галузі ШІ створити захисні механізми проти використання цієї інновації не на користь, а на шкоду, у світі все активніше шукають патерни застосування ШІ у військовій справі. Нещодавно США, прагнучи стати світовим лідером у галузі штучного інтелекту, оголосили, що просуватимуть ініціативи щодо включення генеративного штучного інтелекту у внутрішню роботу міністерства оборони.
Це відбулося майже одночасно з тим, як ШІ-компанії стали надавати свої пропозиції великим оборонним підрядникам. США повідомили про інвестиції в розмірі $100 млн у впровадження генеративного ШІ в міністерство оборони для розвитку інновацій у таких сферах, як підтримка рішень, логістика та кібербезпека. Ці зміни сприятимуть швидшому впровадженню технологій у військовій сфері, водночас експерти попереджають про потенційні ризики для національної безпеки та етики.
Ця інституційна активність американського військового керівництва проявляється також і в пошуку нових ШІ-рішень. В інтерв’ю TechCrunch головна офіцерка зі штучного інтелекту Пентагону Радха Плам (Radha Iyengar Plumb) розповіла, що сучасні технології штучного інтелекту допомагають значно прискорити процес ухвалення рішень у військових діях. Причому серед них — не лише краща координація зусиль окремих підрозділів, а й застосування летальної сили.
Офіцерка поділилася з виданням тим, що ШІ дозволяє оптимізувати “ланцюжок знищення”. Одночасно з цим генеративний ШІ активно використовується на етапах планування та моделювання сценаріїв майбутніх дій командирів. Загалом ці технології допомагають військовим знаходити оптимальні варіанти дій та оцінювати можливі їхні наслідки. Як зауважила експертка, поки що повністю автономна зброя у світі не застосовується, і участь людини у прийнятті рішень залишається обов’язковою.
Війна в Україні, власне, як і будь-яка кризова ситуація, стала можливістю для впровадження та тестування нових технологій на полі бою. Однією з цих технологій став і штучний інтелект, який використовується при веденні бойових дій.
Проте ці інновації виникли не лише як бажання перевірити нову технологію в реальних умовах. Ще у 2024 році The Guardian розповідав про те, що росіяни намагаються інтегрувати штучний інтелект у дрони, аби спробувати створити “зграї безпілотників”. Це дозволить “Шахедам” координувати свою роботу час атаки таким чином, щоб обходити українську протиповітряну оборону. Проте наразі невідомо, чи ця технологія уже запроваджена, чи лише розробляється, а також – наскільки вона може бути ефективною.
На початку 2024 року журнал Time назвав російсько-українську війну першою ШІ-війною в історії людства та розповів про те, як в Україні використовуються технології однієї з найбільш закритих американських технологічних корпорацій Palantir.
Ця ШІ-війна, про яку обережно, але впевнено говорять міжнародні експерти, проявляється по-різному.
Сергій Грабський, військовий експерт і громадський діяч, полковник запасу ЗСУ в коментарях для “Новинарні” окреслив основні напрями використання штучного інтелекту у військових тактиках:
Андрій Латиш, офіцер Збройних сил, спеціаліст із військового застосування штучного інтелекту пояснює, що, розповідаючи про використання штучного інтелекту у війні, “варто визначити рівень складності та ступінь поширення систем зі штучним інтелектом у поточній війні та в секторі оборони й безпеки в цілому.
Зараз мова не йде про системи стратегічного планування, управління боєм чи навіть автономні системи керування роботизованими платформами. Йдеться про конкретні, точкові рішення, які допомагають людині виконувати досить конкретну, окрему задачу, таку як донаведення боєприпасу на ціль, допомога у виявлення об’єктів інтересу на фото чи відео, певні інструменти аналізу та обробки даних тощо.
При цьому значна частина рішень, принаймні з тих, що на слуху, є прототипами різного степеня зрілості. Більшість із них – у розробці й випробуванні. У кращих випадках – надходять у війська в досить обмеженій кількості”.
Одним із прикладів застосування ШІ на полі бою є використання цієї технології для підвищення точності ударів українських сил. Безпілотник SAKER, який був допущений до експлуатації ще 2023 року, у 2024-му почав використовувати програмне забезпечення згаданої вище компанії Palantir для підвищення точності ударів по супротивнику. Саме воно дозволило досягти точності в ударах дронами до 80%.
Іще одним напрямком застосування штучного інтелекту є геопросторова розвідка. Українські військові використовують ШІ для автоматичного аналізу даних із безпілотників та камер спостереження.
Наприклад, платформа Avengers, розроблена Центром інновацій Міністерства оборони України, дозволяє щотижня виявляти близько 12 тисяч одиниць ворожої техніки шляхом обробки відео. Завдяки цій технології оператори можуть швидше приймати рішення, зменшуючи ризик помилок, пов’язаних із людським фактором.
Крім того, аналітики з OSINT-спільноти Molfar використовують моделі ШІ для збору інформації про ворожі війська. Вони аналізують великі обсяги даних із соціальних мереж та публікацій, щоб виявити потенційні слабкі місця противника і визначити місця з низьким моральним духом російських солдатів. Це дозволяє українським військовим націлювати удари на найбільш вразливі об’єкти.
Детальніше дізнатися про конкретні випадки використання ШІ в українській війні та загалом у військових операціях нам допоміг Олександр Краковецький, CTO (chief technical officer, головний інженер – прим. ред.) у ДонорUA, автор книги “ChatGPT, DALL·E, Midjourney: Як генеративний штучний інтелект змінює світ”.
Зокрема, він навів такі приклади:
“Але ера реального використання штучного інтелекту лише починається”, — додав експерт.
Штучний інтелект усе частіше стає частиною обговорень про майбутнє технологій, включно з його можливим застосуванням у воєнних конфліктах. На сьогодні приклади використання ШІ у війні залишаються обмеженими й точковими, проте це не зменшує суспільної тривоги щодо потенційних наслідків.
Ми звернулися до експертів у сфері технологій, безпеки та військової справи, щоб отримати відповіді на запитання: чи дійсно ШІ може стати потужним інструментом у війнах? Їхня коментарі були схожими — ШІ вже використовується для розвідки, аналізу великих обсягів даних, прогнозування поведінки ворога та навіть управління безпілотниками. Однак повна автономізація бойових систем залишається етичним і правовим викликом.
Олександр Краковецький вважає, що “штучний інтелект може використовуватися практично в будь-якому аспекті — від цифровізації рутинних процесів до автономного прийняття рішень у системах ведення бою. Однак на практиці все впирається в бюрократію, відсутність єдиних стандартів, “зоопарк” технічних рішень та відсутність технологічного суверенітету”.
Антон Тарасюк, директор з експертизи української ШІ-компанії Mantis Analytics, ставиться до штучного інтелекту у веденні війни через призму когнітивної складової:
“Іншими словами, можна оцінити — скільки роботи зі збору, обробки та аналізу інформації треба зробити, щоб виконати задачу. Штучний інтелект емулює і, за вдалого застосування, прискорює виконання когнітивних операцій — відповідно, він не може не використовуватись у сучасній війні.
Якщо ж конкретизувати, то важко знайти діяльність, яка не мала б цієї когнітивної частки та не була кандидатом на застосування до неї ШІ. До прикладу, допомога у плануванні; ситуаційна обізнаність; OSINT-розслідування; інформаційна стійкість та операції психологічного впливу; системи розпізнавання об’єктів і багато-багато ще…
Проте питання завжди буде таким: хто швидше та краще виконає когнітивну задачу — людина чи машина?”.
Сергій Грабський, військовий експерт, полковник запасу ЗСУ, громадський діяч натомість підкреслює:
“На даний момент штучний інтелект використовується переважно на тактичному рівні, тоді як на стратегічному рівні він поки що не залучається.
Це важливо розуміти при аналізі сучасного застосування ШІ на полі бою — на цьому етапі ШІ не приймає самостійних рішень, а лише допомагає швидко реагувати на зміни обстановки на полі бою. У короткостроковій перспективі людський досвід іноді є ефективнішим при зборі та оцінці даних”.
Тож поки що ШІ у війнах — це більше питання майбутнього, ніж сьогодення, але його вплив важко недооцінити.
Експерти також наголошують, що загроза використання ШІ у війнах залежить від того, хто і як контролює ці технології. Відсутність чітких міжнародних правил створює ризики для ескалації конфліктів.
Разом із тим, перспективи використання ШІ у військовій сфері залишаються дискусійними, адже одночасно він може слугувати для підтримки миру, зокрема шляхом запобігання людським помилкам.
Проте всі ці патерни військового ШІ уже сьогодні мають певні ризики. Адже
як тільки автономні бойові системи, керовані ШІ, зможуть працювати без людського втручання, це створить ризик неконтрольованих дій, зокрема помилкових атак по цивільних об’єктах або ескалації конфлікту.
Відсутність етичних норм у програмуванні таких систем підсилює небезпеку.
Іще однією небезпекою є ШІ-гонка озброєнь. В умовах браку чітких міжнародних стандартів використання ШІ у військовій сфері ризик його неправомірного застосування збільшується.
На думку Олександра Краковецького, “основними загрозами під час використання штучного інтелекту у військових технологіях є питання надійності алгоритмів, наприклад, у системах розпізнаванні об’єктів, що може призводити до непередбачуваних результатів.
Системи штучного інтелекту, як правило, вчаться на попередніх даних, тому будь-яка зміна в реальному середовищі може зламати ці алгоритми або вивести з ладу. Галюцинування систем генеративного штучного інтелекту теж привносять ризики, оскільки майже ніколи не можна бути впевненим на 100% на результат генерування. Тому поки ці технології не використовуються для прийняття важливих рішень, хоча в цілому їх ефективність часто вища, ніж у людей. І звісно, штучний інтелект чудово підходить для створення ІПСО, генерування фейків, що також може мати прямий вплив на результати виборів, громадську думку чи позицію тих чи інших країн, інституцій і навіть цілих країн”.
Читайте також:
Фабрика брехні. Як штучний інтелект допомагає в інформаційній війні проти України
Антон Тарасюк вважає, що ризик сам по собі залежить від технології:
“Наприклад, наша компанія, Mantis Analytics, займається застосуванням ШІ до ризик-менеджменту та безпекових задач, зокрема в інформаційній площині — те, що на наш погляд не зовсім вдало звуть “дезінформацією”, а зараз почали більше використовувати термін “маніпуляція інформацією та втручання з боку іноземних акторів” (FIMI).
Тут найчастіше виникають такі питання: “як довести надійність даних?”, “як показати, що процес умовиводу ШІ є зрозумілим, коректним та прозорим?”, “що дозволяє стверджувати наявність FIMI в одному випадку, а в іншому заперечувати?”.
Але давайте придивимося до цих питань ще раз. Вони виникли б до будь-якого когнітивного агента, зокрема — людини. Відповісти на них можна”.
Військовий експерт Сергій Грабський був більш конкретний щодо суто військових загроз використання ШІ у воєнних діях. Він, зокрема, визначив такий перелік:
D-21-11 — обладнаний автоматичною туреллю універсальний український робот, який може виконувати бойові завдання. Фото: Михайло Федоров/ТГ
Штучний інтелект швидко інтегрується у військові технології, що створює потенційні загрози для глобальної безпеки. Думати про потенційні негативні наслідки цих процесів варто вже сьогодні. Серед них важливою є розробка та впровадження міжнародних нормативно-правових актів, які регулюватимуть використання ШІ у військовій сфері. Такі угоди повинні встановлювати чіткі обмеження на створення та використання автономних бойових систем, зокрема забороняти їх застосування без людського контролю із одночасним створенням незалежних комісій з моніторингу та оцінки військових ШІ. Важливим також є інвестування у розробку захисних ШІ-систем.
Олександр Краковецький розповідає:
“Донедавна існувало неформальне табу на використання автономних рішень на базі штучного інтелекту у воєнних конфліктах, однак війна в Україні змінила це ставлення. Тепер такі системи будуть активно розроблятися та впроваджуватися практично без суттєвих обмежень. Звісно, продовжуватимуться дискусії про етичні норми, укладатимуться меморандуми та міжнародні угоди про обмеження використання. Однак, на мій погляд, війна в Україні стала своєрідним рубіконом, який відкрив шлях до більш широкого використання автономних технологій у військовій сфері”.
На думку Антона Тарасюка, потрібно розуміти, що запобігти неконтрольованому використанню ШІ у війні однозначно можна. Адже “як машина, штучний інтелект підкорюється правилам, тому задати “червоні лінії” йому можна.
Є, правда, питання не стільки до їх дотримання, скільки до додаткового автономного навчання, яке може призвести до переходу цих ліній. Але це також контрольовано — принаймні на цьому технологічному етапі. Окремо стоїть проблема помилок, недовершеності алгоритмів… Тут відповідь додатково ускладнюється. Я б поставив таке питання: а чи можливо запобігти неконтрольованому використанню людського потенціалу і ресурсів у війні?
У нашого ворога, Росії, непогано зі штучним інтелектом, вони мають доволі потужні інженерні та технологічні школи. Але ми говоримо про воєнні злочини, які чинять їхні солдати, командири — з плоті і крові. Якщо виявиться, що якусь ракету навів ШІ?
Врешті-решт, ідея відповідальності має поширюватися на людину, яка стоїть за рішенням. Тобто відповідальний — той, хто переклав відповідальність на ШІ“.
〉〉 Вподобали статтю? Найкращий лайк - переказ 50, 100, 200 грн. для гонорарів авторам "Новинарні". Наші рахунки – тут.
〉〉 Кожен читач "Новинарні" має змогу налаштувати щомісячний переказ на довільну суму через сервіс Patreon - на підтримку редакції.
Ми виправдовуємо довіру!