Суддя-людина чи суддя-алгоритм? Від мети про "мислячу машину" до запровадження ШІ у сфері судочинства

Ми постійно говоримо про важливі проблеми українського правосуддя такі, як криза довіри, надмірне навантаження, корупційні ризики та інші. На це регулярно звертають увагу європейські партнери, наприклад, Єврокомісія нещодавно оприлюднила звіт про рух країн-кандидатів у ЄС, де прямо на це вказала. В такій складній ситуації, коли судді перевантажені рутиною, а суспільство вимагає швидких та ефективних рішень, з'являється велика технологічна спокуса побачити в ШІ заміну судді.
Я добре пам'ятаю часи, коли судді писали рішення від руки, а в судах працювали спеціальні відділи, що друкували тексти ухвал та рішень. З часом друковані кодекси, сторінки яких були обклеєні вирізаними змінами, поступилися місцем електронним ресурсам. Більше не потрібно було робити вирізки, вони оновлювались автоматично. Тоді нікому і в голову не могло прийти запропонувати замінити суддю автоматичним банком знань, всі логічно розуміли, що цифрові інструменти були допомогою, які звільнили від рутини, але не позбавили нас необхідності мислити, аналізувати, тлумачити норми права та нести відповідальність.
Історія розвитку ШІ
Хоча ми часто уявляємо штучний інтелект як свіже відкриття сучасності, його коріння сягають набагато глибше, у 1950 рік, коли англійський математик Алан Тюрінг кинув виклик світові своїм провокативним запитанням: "Чи може машина думати?". А у 1956 році, на Дартмутській конференції Джон Маккарі, Клод Шенон, Марвін Мінський та Герберг Саймон поставили собі за мету створення машини, яка зможе мислити, і вперше використали термін "Artificial Intelligence".
Це був початок закладення нової наукової дисципліни і в 1959 році, Джон Маккарі та Марвін Мінський, заснували Лабораторію штучного інтелекту в Массачусетському технологічному інституті. Вона стала однією із перших у світі наукових установ, присвячених дослідженню та розвитку "мислячих машин", де з 1960-х років і почали здійснювати перші спроби перевірки ідей Тюрінга на практиці. Саме на базі даної наукової лабораторії, з'явились перші комп'ютерні програми, зокрема ELIZA.
А в 2003-му ця лабораторія злилася з Лабораторією комп'ютерних наук, народивши CSAIL – Computer Science and Artificial Intelligence Laboratory, яка нині стоїть, як гігантський міст між минулим і майбутнім. Саме тут народжувались інновації, що згодом втілювались у таких технологіях, як пошукові системи (Google), інтелектуальні помічники, автоматичні транспортні системи, робототехніку та сучасні нейромережі, що змінили наш спосіб життя назавжди.
Та саме поява у 2017 році архітектури Transformer, на якій збудовані сучасні великі мовні моделі, створила нову спокусу побачити в LLM не просто помічника, а саме мислячу машину та, відповідно, панацею від наших проблем з навантаженням, кадрами та навіть корупційною складовою.
Ця спокуса почала живитися ідеєю, що машина може бути розумнішою та, відповідно, і справедливішою. Але багатьом знайомі ситуації, коли незрозуміло, чому алгоритм видалив пост у Facebook та, які саме норми спільноти були порушені. Як наслідок, не зрозуміло, як і де це можна виправити чи оскаржити, оскільки алгоритм непрозорий і працює на незрозумілих принципах. Питання риторичне: чи довірили б ви своє життя і свободу алгоритмам соціальної мережі? Навряд.
Необхідність правового регулювання
Нові технології, наче "павутиння", стрімко оплітають всю планету, проникаючи в усі сфери нашого життя, державні системи, кожну професію, досягнення та напрацювання людства, що піднімає серйозні етичні та правові питання.
Тому міжнародні організації – ООН, ЮНЕСКО, Рада Європи, ЄС та ОЕСР наголосили на необхідності розроблення єдиних міжнародних правил, здатних гарантувати безпечний розвиток штучного інтелекту без суперечності базовим цінностям – правам людини, демократії та верховенства права.
Перші кроки в цьому напрямку відбулись у 2021 році, коли ЮНЕСКО ухвалила Рекомендації про етичні аспекти ШІ. Це перший глобальний документ, який визначив спільні моральні стандарти для всіх держав.
Водночас Єврокомісія запропонувала проєкт Акту про штучний інтелект – першого у світі комплексного документа, побудованого на принципі оцінки ризиків. Документ мав упорядкувати використання ШІ в усіх сферах життя, встановивши допустимі межі небезпечного застосування. Після довгих обговорень та доопрацювань документ було ухвалено Європейським парламентом у березні 2024 року, набравши чинності 1 серпня того ж року та розпочавши розвиток правового регулювання ШІ в межах ЄС.
Також, у вересні 2024 року Рада Європи відкрила для підписання Рамкову конвенцію про ШІ, права людини, демократію та верховенство права, спрямовану на забезпечення розвитку та використання штучного інтелекту відповідно до основних цінностей Ради Європи – прав людини, демократії та верховенства права. Україна приєдналася до цієї Конвенції в травні 2025 року, підтвердивши свою європейську свідомість та визнання необхідності регулювання меж впровадження та використання ШІ в часи стихійного розвитку алгоритмічних технологій.
Варто відзначити, що попри запровадження правового регулювання ШІ в межах його загального використання, у сфері правосуддя ще не було міжнародного комплексного підходу до його використання. Локально, в різних державах почали з'являтися поодинокі пілотні проєкти із застосуванням алгоритмів у судовій системі, однак єдиних міжнародних стандартів щодо меж і принципів провадження ШІ в судочинстві не існувало.
Саме тому знаковою подією міжнародного масштабу стало представлення Доповіді Спеціальної Доповідачки ООН Маргарет Саттертвейт "Використання штучного інтелекту в судових системах: перспективи та розвиток" (А/80/169), під час 80-ї сесії Генеральної асамблеї ООН 16 липня 2025 року.
Звіт був підготовлений під егідою Ради ООН з прав людини та мав дати оцінку як системи штучного інтелекту вже впливають на здійснення правосуддя, чи є ризики загрози незалежності правосуддю та права людини на справедливий суд.
У доповіді Спеціальна доповідачка систематизувала вже існуючі практики різних країн та визначила переваги застосування ШІ, ризики та межі в яких він може співіснувати з основоположними принципами верховенства права.
Приклади з інших країн:
- Латвія використовує алгоритми для розподілу справ між суддями, що підвищує ефективність, але вимагає аудиту для уникнення маніпуляцій.
- Бразилія застосовує систему Victor у Верховному суді для аналізу позовів і сортування справ. Це зменшує навантаження, але ризики включають непрозорість алгоритмів і залежність від приватних компаній. Однак попри успішність проєкту були відмічені ризики непрозорості алгоритмів і залежність від технічних рішень приватних компаній – розробників.
- Франція заборонила аналітику, яка профілює суддів, після спроб використання відкритих даних, щоб зберегти незалежність.
- Марокко, Венесуела та Уругвай розробляють стратегії для ШІ в адміністративних процесах, таких як електронний документообіг, розклади, комунікація – без втручання в суттєві рішення.
- Канада легко долає мовний бар'єр, оскільки в державі декілька офіційних мов, і ШІ надає учасникам процесу доступ до автоматичного перекладу тим самим забезпечуючи швидкий та ефективний доступу до суду.
- США використовують ШІ для автоматичного надання правової допомоги або попередньої оцінки ризиків у кримінальному процесі. Саме американський досвід став поштовхом для регулювання використання алгоритмічних технологій, оскільки під час використання запровадженої програми COMPAS було виявлено упередженість програми за расовою ознакою.
У багатьох державах алгоритми використовуються для аналітичної та статистичної роботи: допомагають виявляти окремі категорії спорів, відстежувати строки розгляду, аналізувати практику судів. Крім того, створення електронних баз судових рішень, до яких інтегровано системи пошуку, фільтрації та виклад мотивів рішення короткою зрозумілою мовою, зробило інформацію більш доступною для суспільства, що позитивно впливає на підвищення довіри до судової влади.
У доповіді ООН відзначається, що використання штучного інтелекту може не лише оптимізувати роботу судів, а й реально розширити доступ до правосуддя, особливо для соціально вразливих груп населення.
Однак, попри існування позитивних напрацювань, Спеціальна доповідачка ООН під час дослідження виявила ряд ризиків та наголошує на тому, що саме людський контроль є ключовою умовою безпечного та ефективного використання ШІ у системі судоустрою.
Застереження звіту
Системні ризики, наприклад, як у випадку з Facebook, коли алгоритм не дозволяє простежити логіку прийняття рішення, користувач не розуміє істинних причин видалення посту, і головне, в разі оскарження цього рішення, не зрозуміло чи призведе дане оскарження до певного результату, оскільки скаргу буде розглядати теж алгоритм.
Тобто, використовуючі ШІ у процесі ухвалення рішень або навіть для попередньої оцінки суті справи, суд і сторони втрачають можливість перевірити її обґрунтованість. Програма на основі своєї алгоритмічної оцінки надає висновок, який не можна перевірити та зрозуміти які саме критерії вплинули на формування саме такої позиції, що суперечить принципам змагальності та публічності правосуддя, оскільки учасники не можуть відслідкувати, які саме критерії вплинули на результат.
У Звіті присвячено окрему увагу цій проблемі, доповідачка називає даний ефект "ефектом чорної скриньки" – неможливістю відтворити логіку, за якою система дійшла певного висновку.
Наступною небезпекою є те, що мовні моделі навчаються на великому обсягу даних, в яких вже присутні перекоси, неточності та стереотипи , але ШІ надає цьому вигляд раціонального судження, адже "машина є розумнішою".
Це, по суті, цементування існуючих стереотипів під виглядом об'єктивності та мова вже не йде про індивідуалізацію, що прямо суперечить принципу "бути почутим судом".
Окремий розділ ризиків описує загрозу алгоритмічного тиску на суддю чи учасників процесу, тобто мовна модель буквально навʼязує щось, як правильну відповідь. У випадку із суддею, який піддався на таку провокацію від машини, це може мати катастрофічні наслідки.
Також доповідачка відмічає перспективу розвитку окремого напрямку маніпулювання та керування судовим процесом з боку тих, хто створює та регулює алгоритм, приватна компанія, чи уряд, оскільки вони мають вплив на алгоритм. І тут знов з'являється ефект "чорної скриньки" у поєднанні з концентрацією технологічної влади, оскільки фактично частина судової інфраструктури передається під контроль третіх осіб, які є непідзвітними.
Захисту персональних даних також приділено багато уваги, оскільки без цього, вони можуть бути розкриті або використані поза межами судового процесу.
У підсумку, звіт ООН наголошує: кожна держава, яка впроваджує системи штучного інтелекту в судовій сфері, повинна передбачити механізми прозорості, аудиту права людини на оскарження алгоритмічних рішень та саме людський контроль є ключовою умовою безпечного та ефективного використання штучного інтелекту і судовій системі.
Приклад Британії та перспективи України
Звіт ООН наголошує на необхідності чітко визначеного правового регулювання у сфері правосуддя і тут є доречним прагматичний досвід Великобританії.
Офіційним апаратом судової влади Англії та Уельсу у квітні 2025 року було надано рекомендації суддям (оновили їх 31 жовтня 2025 року).
У цьому документі чітко наголошено, що використання ШІ має бути безпечним, етичним і відповідальним. Його ключова ідея у тому, що судді можуть використовувати ШІ, як допоміжний інструмент, але не замість власного аналізу чи розсуду.
Велика Британія визначила, що кожен суддя несе особисту відповідальність за достовірність матеріалів, підготовлених під ім'ям алгоритму, а це і є той самий баланс відповідальності.
Що стосується України, то ми у своїй практиці маємо певні напрацювання саме у допоміжному напрямку застосування алгоритмів через використання Єдиної судової інформаційно-телекомунікаційної системи, електронного документообігу.
Однак, хоча Україна і приєдналася до Рамкової конвенції, національних норм правового регулювання, ми все ще поки не маємо. Тож варто слідувати прикладам наших міжнародних країн-партнерів, оскільки технології розвиваються швидко і ми вже маємо приклади, коли сторони процесу використовують алгоритмічні застосунки для надання пояснень, клопотань та навіть доказів, згенерованих ШІ.
Ключова рекомендація ООН полягає у тому, що відповідальність має нести сама судова влада. Не уряд, не ІТ-компанії, а самі судді повинні проактивно очолити цей процес. Тому що це питання стосується саме ефективного доступу людини до правосуддя та до незалежності третьої, судової, гілки влади.
Щойно центр прийняття рішень зміститься до алгоритму, під загрозою опиниться не лише доля окремої людини, а й фундамент незалежності судової гілки влади. Адже судовий процес – це живий процес змагання, у якому кожна сторона повинна бути впевненою, що рішення ухвалює мисляча людина, а не алгоритм. Саме "людський" суддя здатен оцінити не лише факти, а й моральні, етичні та соціальні аспекти справи, пояснити своє рішення та нести за нього відповідальність.
Можливо, у майбутньому, коли сторони спору свідомо погоджуватимуться на розгляд їхньої справи алгоритмом, така технологія зможе виступати своєрідним електронним "третейським суддею", рішення якого може перевірити реальний суддя, за клопотанням сторони, перед видачею виконавчого документу, але не самостійним елементом правосуддя.
Марина Барсук









