Як штучний інтелект інтегрують у військову сферу: моделі, перспективи, виклики
espreso.tv
Thu, 14 Aug 2025 18:08:00 +0300

На початку серпня світові було презентовано нову флагманську модель штучного інтелекту ChatGPT - GPT-5. Ця подія виводить на новий рівень дискусії про перспективи розвитку ШІ, зокрема, про те, наскільки глибоко ШІ проникає у військову сферу, де він живе і у яких формах.
фото: Getty Images Поява моделі штучного інтелекту GPT-5 не стала такою гучною подією, як поява на початку року здатної до міркувань китайської моделі DeepSeek R1 ( і те, нагадаємо, лише через кілька місяців після появи здатної до міркувань американської моделі GPT o1). Тоді обговорювалися перспективи технологічної конкуренції США і Китаю, адже досягнення у ШІ для оцінки загального технологічного рівня країни навіть індикативніші за ядерну зброю.Тепер мова йде про чергове оновлення великих мовних моделей (LLM). Це цікаво передусім тим, наскільки ці моделі наближаються до AGI (Artificial General Intelligence) — штучного загального інтелекту, який у широкому сенсі здатний на те, на що здатна людина. Саме від LLM очікується це технологічне диво — наближення до інтелекту людини. Відкритий чи закритий: чим відрізняються американський та китайський підходи до ШІGPT-5, за оцінкою розробників, не доходить до рівня AGI. Тим не менш, це вельми важлива подія. По-перше, тому що Китай має “зрівняти рахунок” у технологічному змаганні, як було у випадку GPT o1 та DeepSeek R1. По-друге, тому що GPT-5, незважаючи на перші проблеми з маршрутизатором запитів, який погано утримував контекст розмови, наче неуважний референт, для широкої сфери застосування великих мовних моделей несе нову якість роботи. Це стосується і військової сфери. Зрештою, технології GPT-5 полегшують тим, хто має до них доступ, генерацію спеціалізованих моделей, що підтримують процес прийняття рішень у штабах, проводять селекцію цілей у системах ППО і ПРО, визначають точки ударів для ракет і роїв дронів.Американські розробки, зокрема OpenAI (ChatGPT), Anthropic (Claude) і DeepMind (Gemini), переважно дотримуються закритої моделі доступу: код, архітектура та повні навчальні дані залишаються власністю компанії. Це дозволяє зберігати технологічну перевагу, але водночас викликає критику щодо монополізації знань і обмеження міжнародної співпраці.Китай, навпаки, активно просуває відкриті моделі (open-source), серед яких найвідомішою стала DeepSeek. Її можна, умовно кажучи, завантажити і скомпілювати на своєму комп’ютері, якщо вистачить місця і обчислювальних потужностей. Формально DeepSeek відповідає критеріям відкритості: її код можна завантажити та розгортати локально. Але ця відкритість має специфіку: у модель вбудовано фільтри контенту та алгоритмічні обмеження відповідно до китайського законодавства про кібербезпеку, а ліцензія передбачає можливість обмеження доступу у випадку “порушень”.Поруч із DeepSeek активно розвиваються й інші китайські моделі: Baidu (ERNIE Bot), Alibaba (Qwen) та Beijing Academy of Artificial Intelligence (Wu Dao, Aquila). Їхні підходи до відкритості подібні — технічна доступність поєднується з централізованим регулюванням і вбудованими механізмами контролю.
фото: Getty Images Китайська відкритість сприймається США як інструмент демпінгового проникнення на глобальні ринки з метою їх захоплення. Водночас у США розробники ШІ також експериментують із відкритими моделями. З’явилися LLaMA від Meta, Mistral (європейський проєкт, але активний на американському ринку), а також рішення від Hugging Face і стартапів на кшталт Together AI.Нарешті, на початку серпня 2025 року, після кількаразового перенесення термінів презентації, OpenAI представила свої перші open-weight моделі — gpt-oss-120b та gpt-oss-20b — під відкритою ліцензією Apache 2.0. Ця ліцензія дозволяє завантажувати, запускати й модифікувати програмний продукт вільно. Вона широко використовується в програмних продуктах, зокрема подвійного цивільного і військового застосування.Це схоже на давню конкуренцію закритих платних продуктів Microsoft та відкритих продуктів міжнародних команд, що працюють над Linux. Microsoft під тиском конкуренції в певний момент намагалася переконати світ, що Linux — це вірус. А серед розробників Linux все ще жива легенда, що “Microsoft must die”. Але на практиці закриті і відкриті програмні продукти ділять ринок, зокрема у сфері військового застосування. Тож можна прогнозувати, що так само, як співіснують Microsoft і Linux, зможуть співіснувати ChatGPT і DeepSeek.Сфери застосування ШІ в оборонному секторіВеликі мовні моделі стали символом прогресу штучного інтелекту для широкої аудиторії. Але для нас як країни, що веде війну за існування країни, принципово важливо, як це позначиться на військовій сфері.Загалом відомо, що розробки ШІ в оборонному секторі мають застосування, приміром, для автоматичного перекладу, підготовки аналітичних звітів і швидкої обробки відкритих джерел інформації. Але це лише невелика, найбільш відкрита частина цього застосування. Військове використання ШІ виходить далеко за межі синтезу змістовного тексту.На рівні управління обороною ключове значення мають спеціалізовані системи підтримки прийняття рішень (Decision Support Systems, DSS). На оперативному і тактичному рівнях їхнє застосування часто називають системами обізнаності про поле бою. Це комплекси, які інтегрують дані з розвідки, супутникових знімків, радарів, сенсорних мереж і логістичних каналів, надаючи достовірну та актуальну картину війни, її битв і боїв.Наприклад, ізраїльська система цілевказання Fire Weaver від Rafael об’єднує в єдину мережу спостережні сенсори, розвідувальні платформи і засоби ураження, автоматично підбираючи найкращий варіант вогневого впливу.Stormcloud — проєкт Королівського флоту Великої Британії, який у співпраці з AWS, Microsoft, стартапами та університетами створює хмарну систему бойової обізнаності й підтримки прийняття рішень. Вона поєднує збір даних з безпілотників, сенсорів, радарів, розвідки та супутників з їхньою обробкою у хмарі й на edge-пристроях, використовуючи алгоритми ШІ для розпізнавання цілей, прогнозування загроз і визначення пріоритетів. Результати аналізу швидко передаються у вигляді чітких команд на тактичний рівень, замикаючи kill-chain від виявлення до ураження. Інфраструктура побудована модульно: нові алгоритми чи сенсори можна підключати як “плагіни” через NavyPODS, що забезпечує швидке оснащення кораблів новими можливостями без повної заміни систем.Ще один напрям широкого впровадження штучного інтелекту у військах — автономні системи (БПЛА, морські дрони, роботизована бронетехніка і стаціонарні бойові модулі). ШІ дозволяє таким системам без участі людини ідентифікувати цілі, ухвалювати рішення про ураження та управляти процесом його здійснення. Наприклад, в ізраїльських баражуючих боєприпасах типу IAI Harop або Hero-120 від UVision ШІ аналізує зображення з бортових камер, відсіює хибні цілі та коригує траєкторію в останні секунди польоту.
Міжнародна оборонна та аерокосмічна виставка SAHA EXPO 2024, фото: Getty Images У сфері протиповітряної оборони ШІ допомагає прогнозувати траєкторії ракет і дронів, оптимізувати використання боєзапасу й автоматично пріоритезувати загрози. Ізраїльський Iron Dome інтегрує алгоритми прогнозування точки падіння ворожого снаряда, що дозволяє не витрачати ресурси на ті, які не становлять загрози. Американська протиракетна система Aegis від Lockheed Martin має модулі автоматизованого розпізнавання та супроводу цілей.Серед інших прикладів — естонська безпілотна бойова машина THeMIS, яка може працювати в автономному режимі патрулювання або транспортування боєприпасів, та турецькі бойові дрони Bayraktar Kızılelma, зокрема з українськими двигунами, що розробляються з урахуванням інтеграції бортових систем ШІ для тактичних рішень у повітряному бою.Менш помітне, але не менш важливе застосування ШІ — військова логістика. Алгоритми планування маршрутів, прогнозування потреб у пальному чи боєприпасах і моделювання сценаріїв доставки у зонах бойових дій використовуються, наприклад, у системі Joint Precision Airdrop System (JPADS) армії США.З огляду на це, у складних бойових системах інтелектуальна складова — сенсори, алгоритми аналізу даних, системи автономного управління — може становити від третини до майже половини загальної вартості. Наприклад, у сучасних винищувачах п’ятого покоління, на зразок F-35, вартість бортових сенсорних систем, систем обробки даних та алгоритмів ухвалення рішень може сягати третини вартості літака. Аналогічна ситуація на кораблях з авангардними комплексами протиракетної оборони рівня Aegis, де значну частину бюджету створення займає інтеграція радарів, програмних модулів та автоматизованих систем керування боєм.
Harop від Israel Aerospace Industries (IAI), фото: uk.wikipedia.org У безпілотних апаратах і наземних роботизованих платформах питома вага програмного забезпечення та алгоритмів може бути ще більшою. В ізраїльських баражуючих боєприпасах Harop від Israel Aerospace Industries (IAI) та Hero-120 від UVision вартість корпусу й двигуна є відносно невеликою порівняно з вартістю оптико-електронних сенсорів і програмних модулів автономного цілевказання. У таких випадках частка ШІ та пов’язаних із ним компонентів може перевищувати 50% ціни боєприпасу. Це ж стосується й наземних платформ на кшталт THeMIS від Milrem Robotics, де апаратна частина дешевша за розробку систем автономної навігації, керування та інтеграції з бойовими модулями.Хто формує ринок ШІ в оборонній сферіЦе різні групи гравців. З одного боку, це традиційні оборонні корпорації, які інтегрують штучний інтелект у вузькоспеціалізовані військові продукти. Прикладами є IAI, UVision Air Ltd, Rafael, Lockheed Martin, Anduril і Milrem Robotics. Вони поєднують власні апаратні розробки з програмними системами, створеними або всередині компанії, або за партнерськими угодами.З іншого боку, існують компанії, що виникли у сфері цивільного штучного інтелекту і поступово входять у військові програми. Palantir створює аналітичні платформи для обробки розвідданих, Scale AI забезпечує інфраструктуру для навчання моделей на спеціалізованих даних.
Palantir, фото: blog.palantir.com Розробники великих мовних моделей — OpenAI, Anthropic, DeepMind, Meta — прямо не займаються виробництвом бойових систем. Їхні технології можуть застосовуватися у військових цілях опосередковано, наприклад, через ліцензування API або використання відкритих моделей LLaMA чи Mistral, які інтегрують сторонні розробники. Відомо про контракт, який OpenAI підписала з Пентагоном на розробку адаптованої для військових потреб моделі LLM.Загалом, чим складніший алгоритм і чим глибше ШІ інтегрований в управління військами та у бойовий цикл застосування зброї, тим вищою є його частка у кінцевій вартості системи. Ситуація, коли програмне забезпечення визначає значну частину вартості озброєнь, вже не на горизонті, а поруч.Правові аспекти: чому доведеться переписувати Женевські конвенціїЦивільно-військовий обмін у сфері ШІ є двостороннім. Це безпосередньо пов’язано з викликами для міжнародного гуманітарного права. Закони і звичаї війни, закріплені в Женевських конвенціях і додаткових протоколах, були створені задовго до появи автономних бойових систем.Більшість існуючих систем озброєнь формально залишають “людину в циклі” (human-in-the-loop). Тобто остаточне рішення про вогонь ухвалює оператор. Але зростання швидкості бойових дій і обсягів інформації стимулює перехід до режимів “людина над циклом” (human-on-the-loop) або навіть “людина поза циклом” (human-out-of-the-loop), коли ШІ самостійно приймає рішення про ураження. Це не обов’язково стосується “зоряних війн”. Майже неможливо швидко збити дрон з кулемета на кілометровій відстані без допомоги штучного інтелекту, який автоматично тисне на гачок, коли при наведенні виникають умови для влучення.Одна при цьому питання відповідальності за дії ШІ залишається неврегульованим: якщо автономна платформа уражає цивільний об’єкт, відповідати має командир, розробник, оператор чи держава? Відповідь залежить від того, як міжнародна спільнота визначить статус алгоритмічних рішень у контексті права війни.Фактором ризику є відсутність єдиних міжнародних стандартів для військового ШІ. Країни можуть по-різному трактувати допустимий рівень автономності, а розробники — вбудовувати різні механізми обмеження дій моделі. Це відкриває простір для технологічних гонок, де перевага швидкості впровадження переважає над безпекою та відповідністю правовим нормам.Тож можна спрогнозувати, що у найближчі роки дискусія про військовий штучний інтелект вийде за межі технічних і стратегічних аспектів. Вона стане питанням міжнародних переговорів і правового регулювання, де слід знайти баланс між оборонною ефективністю та зобов’язаннями, що випливають із законів і звичаїв війни.Замість післямови. Штучний інтелект, не чекаючи появи чергових моделей ChatGPT та DeepSeek, вже став повноцінним елементом сучасної війни. Чергові дискусії про AGI, посилені виходом GPT-5, ідуть паралельно з удосконаленням спеціалізованих військових моделей. Тож поки що питання про AGI риторичне. Але коли штучний інтелект такого рівня з’явиться, Женевські конвенції доведеться переписувати. Визначати стандарти законів і звичаїв штучноінтелектуальної війни, найімовірніше, буде перший, хто зможе її вести. Наразі невідомо, це будуть США чи Китай.Матеріал підготовлено у співпраці з Консорціумом оборонної інформації (CDI), проєктом, який об’єднав українські аналітичні та дослідницькі організації та спрямований на посилення інформаційної підтримки й аналітичного забезпечення у сфері національної безпеки, оборони й геополітики.





Останні новини
