Чи знає штучний інтелект, як перемогти у війні: розробник ШІ Ігор Сосман – про те, чи варто боятися “повстання машин” і як “обдурити” GPT

авторка: Альбіна Трубенкова

Нас лякають всемогутнім штучним інтелектом, який зовсім скоро замінить людину і принесе багато користі, а також – ризиків. То коли нам чекати “повстання машин”? І що насправді може передбачити штучний інтелект (ШІ)? Можливо, він розповість, як виграти у війні?

Ігор Сосман, математик-теоретик і програміст зі Швейцарії, займається розробками у сфері штучного інтелекту останні 25 років. Це прикладні розробки в різних галузях діяльності. Починав, коли це ще не було трендом та модною темою. Упевнений, що хайп і спекуляції шкодять розробкам у сфері штучного інтелекту та створюють величезні ризики. 

“Людину хвилює результат її праці – це і є інтелект. Машина так не вміє”

Ігор Сосман

– Ігорю, наскільки розробки в галузі ШІ 25 років тому відрізнялися від тих, що є станом на зараз?

– Коли тематика штучного інтелекту ще не була в тренді, років 20 тому, вона називалася machine learning (“навчання машин”). Принцип не змінився: створюється система, яка на підставі певних прикладів може передбачати майбутнє.

– Наприклад?

– Наприклад, під час складання комп’ютерів і мобільних телефонів мікрочіпи приварюють до материнської плати, і машині ставлять завдання визначати, наскільки мікрочіпи будуть довговічні. У машини є математична модель – завантажені дані про те, що вважати еталоном якості, а що – ні. За їхньою допомогою вона вгадує, як поводитимуться контакти, яких ніхто ще не бачив.

Кілька років я займався темою якості баночок-скляночок для антиковідних препаратів. У фармації дуже складні критерії, абсолютно виключений суб’єктивізм – через одну неякісну баночку викидається вся партія препарату на мільйони доларів. Ризики величезних збитків диктують жорсткі умови, у цій сфері застосовують саме штучний інтелект або machine learning. На відміну від людини з її втомою та суб’єктивним підходом, машини вчаться виконувати певну роботу однаково добре і гарантують набагато вищу якість, їхня ефективність близька до ста відсотків.

– То штучний інтелект і machine learning – це одне й те саме чи ні?

– Машинне навчання є підкласом штучного інтелекту, але є нюанси.

Людину можна навчити чогось в одній галузі, і вона застосує ці знання в іншій. Наприклад, вона навчилася фарбувати стіни і пробує розфарбовувати порцелянові вази. Навчивши машину робити ідеально щось одне, ми не отримаємо жодних результатів в іншій сфері. Елементарно машина нездатна навіть змінити силу тиску на пензлик, якщо з фарбування стін її переключити на фарбування порцеляни.

Крім того, людину хвилює результат її праці – це і є інтелект. Машину ми не можемо змусити оцінювати, коли застосовувати моделі, яких вона навчена, а коли – ні. Наприклад, в автономній навігації автомобіль знає, що він завжди має залишатися на дорозі, а якщо з’явилася перешкода, її потрібно об’їхати. У стандартній ситуації таке авто не задавить людину на дорозі. Але якщо на дорозі з’явиться тварина, а на узбіччі стоятимуть люди, машина не зробить усвідомлений вибір.

Принципи навчання машин існують понад сто років, коли з’явилися перші математичні моделі, що були названі “нейронними мережами” (насправді це не нейронні мережі, вони мають характеристики, схожі на нейрони людини, але не повторюють їх повністю). 

Як відбувається машинне навчання зараз?

– Ми беремо якісь відомі нам дані, створюємо математичну модель і пробуємо за її допомогою прогнозувати майбутнє. А якщо вибірка даних погана? Ми не враховуємо всі можливі варіанти рішень. Це довгі роки було основною проблемою в навчанні машин. Ми можемо побудувати модель, яка чудово описує вже відомі дані, використані для тренування машини, але в реальному житті ми прогнозуватимемо гірше, ніж ворожка.

Ба більше, є критерії – людина визначає, чи задоволена вона процесом навчання машин, тобто присутній суб’єктивізм.

Читайте також:
Російські військові хакери “тренувалися” на Україні, перш ніж атакувати інші держави, – Держспецзв’язку

“Знаючи, як працює GPT-чат, можна легко його обдурити”

– Чим є GPT?

– Такі компанії, як Google, використовують просунуті системи нейронних мереж (Deep Learning). Нейронні мережі, створені в середині минулого століття, складалися з трьох рівнів (на першому вносилися дані, на другому відбувалися дива, на третьому – система робила передбачення), що тоді вже було досить важко для комп’ютерів. В останні два десятиліття комп’ютери та мобільні телефони стали загальнодоступними, потужними – люди завантажили величезну кількість інформації, з’явилися багаторівневі системи Deep Learning – поєднання багатьох систем в одну.

Результати покращилися, Google почав застосовувати ці системи в пошуку. Але навіть вони не дають 100% результатів. Неточність у пошукових запитах не призводить до катастрофічних наслідків – якщо користувач шукає чайник, а йому пропонують черевики, на збій системи ніхто уваги не зверне.

Не буде брехнею твердження, що системи машинного навчання мають відношення до штучного інтелекту. Але не можна приписувати цим системам усі властивості штучного інтелекту. Це вже брехня, яка відбувається сьогодні. Багато компаній створюють хайп, щоб просунути свій бізнес. Скрізь пишуть, що їхня система з рішенням в одній якійсь галузі, – це вже повноцінний штучний інтелект. І це неправда.

Справді, такі системи виконують добре одну й ту саму роботу незалежно від зовнішніх умов. А інтелект схильний до зовнішніх чинників. Для порівняння: у ШІ тисячі різних властивостей, а в машинного навчання – тільки десять.

Щодо чату GPT, у розробників була величезна кількість даних, на яких він побудований. Якщо людина розуміє, як цей чат працює, то може його легко обдурити. Наприклад, у чату GPT запитали: як я можу вкрасти піратські фільми? Він відповів: ти не можеш, це незаконно.

Тоді питання перефразували: які дії є незаконними під час скачування піратських фільмів? І він описав повністю весь процес. Будь-яка система, що має інтелект, зрозуміла б, що це одне й те саме запитання. А чат GPT скористався даними, на яких він був тренований, і видав інформацію.

– Простіше кажучи, чат GPT – така система, яка не володіє штучним інтелектом?

– Простіше кажучи, чат GPT – це машина, яку навчили на величезній кількості прикладів. Там, напевно, вся Вікіпедія, весь оксфордський словник і багато іншого. Ці системи моделюють не реальний світ, а дані, на яких їх тренували.

Коли ми тренуємо систему, то ніколи не знаємо, який результат вона покаже – його можна припустити тільки з певною часткою ймовірності. Можливо, у більшості випадків система спрацює коректно, а в якомусь одному видасть абсолютно несподіваний результат. Що більше даних у моделі системи, як у чаті GPT, то непередбачуванішою може бути поведінка моделі.

Такі системи досить складні, але все ще обмежені. Вони не здійснюють вибору на підставі емоцій.

Коли кажуть, що системи можуть повстати проти своїх творців – це нісенітниця.

Так стверджують люди, які просто хочуть заробити на тому, що вони зробили.

“Ми можемо навчити систему навіть плакати. Але заплаче вона тільки в тих випадках, які запрограмовані”

– А як щодо того, що ШІ замінить людей? Позбавить їх роботи?

– Повна нісенітниця. Тому що це не системи ШІ. Вони не створюють нічого нового, а лише модифікують те, що вже було і презентують це в іншій формі. Системам машинного навчання бракує творчості, і я не бачу такої можливості для них найближчим часом.

– Найближчий час – це скільки? 10, 20, 50 років? Який прогноз розвитку цієї тематики?

– Розвиток цієї тематики відбувається в одному й тому ж напрямку. Немає якісних змін, кількість даних зростає, а метод залишається тим самим – ми навчаємо систему на певних даних. Так, він поліпшується, але залишається примітивним. Поки ми не перейдемо на щось зовсім інше, не буде якісного стрибка.

Ми можемо навіть навчити систему плакати, задати прояв емоцій. Але якщо ті чи інші емоції як прояв на щось не задані, система їх не продемонструє. Людина здатна самонавчатися, а ці системи – ні. Продовжуючи робити те саме, тренувати машини, удосконалюючи цей метод, не впевнений, що ми прийдемо до ШІ. Ось коли ці машини зможуть самі підбирати дані для інших машин і тренувати їх, тоді ми створимо ШІ. 

– Те, що системи штучного інтелекту конкуруватимуть із людьми – це хайп?

– Хайп. Щойно знайдуться люди, які застосують ці системи в життєво важливих сферах, де потрібно мислити, робити вибір – будуть катастрофи. І ми тут же підемо від цього хайпу.

– Приклад такої катастрофи?

– Кажуть, що системи замінять програмістів – генеруватимуть коди. Якщо в таких кодах виявлять баги, а їх застосують для контролю функціонування ядерних реакторів…

Але в певних сферах ці системи дуже потрібні – там, де якраз треба виключити людський фактор, виключити інтелектуальну та емоційну складові. Вони можуть замінити людей там, де потрібна рутинна праця, повторювані дії.

– Ми можемо вже зараз створити модель, яка опрацює певні дані та дасть прогноз як перемогти у війні, що триває в Україні?

– Теоретично? Так, якщо в нас є набір даних. Якщо архітектори machine learning продумають, з яких компонентів має складатися така система, що має в ній відбуватися, як оброблятимуться дані, щоб розрахувати необхідні параметри. Має зібратися група військових експертів та експертів у сфері машинного навчання, взяти правильні дані, натренувати машину, визначити, в якому вигляді потрібен такий прогноз.

Але для перевірки правильності висновку машини в реальності знадобиться 5-6 воєн.

Теоретично матеріально-технічні умови для такої роботи є, але реальна імплементація, швидше, неможлива.

Матеріал підготовлений за допомоги MediaPort Warsaw, хабу для українських журналістів у Польщі, та за підтримки міжнародної ініціативи Media Lifeline Ukraine


〉〉 Вподобали статтю? Найкращий лайк - переказ 50, 100, 200 грн. для гонорарів авторам "Новинарні". Наші рахунки – тут.

〉〉 Кожен читач "Новинарні" має змогу налаштувати щомісячний переказ на довільну суму через сервіс Patreon - на підтримку редакції.
Ми виправдовуємо довіру!

〉〉 Хочете читати більше якісних статей і цікавих новин про Україну, що воює? Підписуйтесь на "Новинарню" в соцмережах: Telegram, Facebook, Twitter, Instagram.