Судья-человек или судья-алгоритм? От цели о "мыслящей машине" до внедрения ИИ в сфере судопроизводства

Мы постоянно говорим о важных проблемах украинского правосудия, таких как кризис доверия, чрезмерная нагрузка, коррупционные риски и другие. На это регулярно обращают внимание европейские партнеры, например, Еврокомиссия недавно обнародовала отчет о движении стран- кандидатов в ЕС, где прямо на это указала. В такой сложной ситуации, когда судьи перегружены рутиной, а общество требует быстрых и эффективных решений, появляется большой технологический соблазн увидеть в ИИ замену судье.
Я хорошо помню времена, когда судьи писали решения от руки, а в судах работали специальные отделы, которые печатали тексты определений и решений. Со временем печатные кодексы, страницы которых были обклеены вырезанными изменениями, уступили место электронным ресурсам. Больше не нужно было делать вырезки, они обновлялись автоматически. Тогда никому и в голову не могло прийти предложить заменить судью автоматическим банком знаний, все логично понимали, что цифровые инструменты были помощью, которые освободили от рутины, но не избавили нас от необходимости мыслить, анализировать, толковать нормы права и нести ответственность.
История развития ИИ
Хотя мы часто представляем искусственный интеллект как свежее открытие современности, его корни уходят гораздо глубже, в 1950 год, когда английский математик Алан Тьюринг бросил вызов миру своим провокационным вопросом: "Может ли машина думать?". А в 1956 году, на Дартмутской конференции Джон Маккари, Клод Шенон, Марвин Минский и Герберг Саймон поставили своей целью создание машины, которая сможет мыслить, и впервые использовали термин "Artificial Intelligence".
Это было начало закладки новой научной дисциплины и в 1959 году, Джон Маккари и Марвин Минский, основали Лабораторию искусственного интеллекта в Массачусетском технологическом институте. Она стала одним из первых в мире научных учреждений, посвященных исследованию и развитию "мыслящих машин", где с 1960-х годов и начали осуществлять первые попытки проверки идей Тьюринга на практике. Именно на базе данной научной лаборатории, появились первые компьютерные программы, в частности ELIZA.
А в 2003-м эта лаборатория слилась с Лабораторией компьютерных наук, родив CSAIL – Computer Science and Artificial Intelligence Laboratory, которая сейчас стоит, как гигантский мост между прошлым и будущим. Именно здесь рождались инновации, которые впоследствии воплощались в таких технологиях, как поисковые системы (Google), интеллектуальные помощники, автоматические транспортные системы, робототехнику и современные нейросети, изменившие наш образ жизни навсегда.
Но именно появление в 2017 году архитектуры Transformer, на которой построены современные большие языковые модели, создало новый соблазн увидеть в LLM не просто помощника, а именно мыслящую машину и, соответственно, панацею от наших проблем с нагрузкой, кадрами и даже коррупционной составляющей.
Этот соблазн начал питаться идеей, что машина может быть умнее и, соответственно, и справедливее. Но многим знакомы ситуации, когда непонятно, почему алгоритм удалил пост в Facebook и, какие именно нормы сообщества были нарушены. Как следствие, не понятно, как и где это можно исправить или обжаловать, поскольку алгоритм непрозрачен и работает на непонятных принципах. Вопрос риторический: доверили бы вы свою жизнь и свободу алгоритмам социальной сети? Вряд ли.
Необходимость правового регулирования
Новые технологии, словно "паутина", стремительно оплетают всю планету, проникая во все сферы нашей жизни, государственные системы, каждую профессию, достижения и наработки человечества, что поднимает серьезные этические и правовые вопросы.
Поэтому международные организации – ООН, ЮНЕСКО, Совет Европы, ЕС и ОЭСР подчеркнули необходимость разработки единых международных правил, способных гарантировать безопасное развитие искусственного интеллекта без противоречия базовым ценностям – прав человека, демократии и верховенства права.
Первые шаги в этом направлении состоялись в 2021 году, когда ЮНЕСКО приняла Рекомендации об этических аспектах ИИ. Это первый глобальный документ, который определил общие моральные стандарты для всех государств.
В то же время Еврокомиссия предложила проект Акта об искусственном интеллекте – первого в мире комплексного документа, построенного на принципе оценки рисков. Документ должен был упорядочить использование ИИ во всех сферах жизни, установив допустимые границы опасного применения. После долгих обсуждений и доработок документ был принят Европейским парламентом в марте 2024 года, вступив в силу 1 августа того же года и начав развитие правового регулирования ИИ в пределах ЕС.
Также, в сентябре 2024 года Совет Европы открыл для подписания Рамочную конвенцию об ИИ, правах человека, демократии и верховенстве права, направленную на обеспечение развития и использования искусственного интеллекта в соответствии с основными ценностями Совета Европы – прав человека, демократии и верховенства права. Украина присоединилась к этой Конвенции в мае 2025 года, подтвердив свою европейскую сознательность и признание необходимости регулирования границ внедрения и использования ИИ во времена стихийного развития алгоритмических технологий.
Стоит отметить, что несмотря на введение правового регулирования ИИ в пределах его общего использования, в сфере правосудия еще не было международного комплексного подхода к его использованию. Локально, в разных государствах начали появляться единичные пилотные проекты с применением алгоритмов в судебной системе, однако единых международных стандартов относительно границ и принципов производства ИИ в судопроизводстве не существовало.
Именно поэтому знаковым событием международного масштаба стало представление Доклада Специального Докладчика ООН Маргарет Саттертвейт "Использование искусственного интеллекта в судебных системах: перспективы и развитие" (А/80/169), во время 80-й сессии Генеральной ассамблеи ООН 16 июля 2025 года.
Отчет был подготовлен под эгидой Совета ООН по правам человека и должен был дать оценку как системы искусственного интеллекта уже влияют на осуществление правосудия, есть ли риски угрозы независимости правосудия и права человека на справедливый суд.
В докладе Специальный докладчик систематизировала уже существующие практики разных стран и определила преимущества применения ИИ, риски и пределы, в которых он может сосуществовать с основополагающими принципами верховенства права.
Примеры из других стран:
- Латвия использует алгоритмы для распределения дел между судьями, что повышает эффективность, но требует аудита во избежание манипуляций.
- Бразилия применяет систему Victor в Верховном суде для анализа исков и сортировки дел. Это уменьшает нагрузку, но риски включают непрозрачность алгоритмов и зависимость от частных компаний. Однако несмотря на успешность проекта были отмечены риски непрозрачности алгоритмов и зависимость от технических решений частных компаний – разработчиков.
- Франция запретила аналитику, которая профилирует судей, после попыток использования открытых данных, чтобы сохранить независимость.
- Марокко, Венесуэла и Уругвай разрабатывают стратегии для ИИ в административных процессах, таких как электронный документооборот, расписания, коммуникация – без вмешательства в существенные решения.
- Канада легко преодолевает языковой барьер, поскольку в государстве несколько официальных языков, и ИИ предоставляет участникам процесса доступ к автоматическому переводу тем самым обеспечивая быстрый и эффективный доступ в суд.
- США используют ИИ для автоматического предоставления правовой помощи или предварительной оценки рисков в уголовном процессе. Именно американский опыт стал толчком для регулирования использования алгоритмических технологий, поскольку при использовании внедренной программы COMPAS была выявлена предвзятость программы по расовому признаку.
Во многих государствах алгоритмы используются для аналитической и статистической работы: помогают выявлять отдельные категории споров, отслеживать сроки рассмотрения, анализировать практику судов. Кроме того, создание электронных баз судебных решений, в которые интегрированы системы поиска, фильтрации и изложение мотивов решения коротким понятным языком, сделало информацию более доступной для общества, что положительно влияет на повышение доверия к судебной власти.
В докладе ООН отмечается, что использование искусственного интеллекта может не только оптимизировать работу судов, но и реально расширить доступ к правосудию, особенно для социально уязвимых групп населения.
Однако, несмотря на существование положительных наработок, Специальный докладчик ООН в ходе исследования обнаружила ряд рисков и отмечает, что именно человеческий контроль является ключевым условием безопасного и эффективного использования ИИ в системе судоустройства.
Предостережения отчета
Системные риски, например, как в случае с Facebook, когда алгоритм не позволяет проследить логику принятия решения, пользователь не понимает истинных причин удаления поста, и главное, в случае обжалования этого решения, не понятно приведет ли данное обжалование к определенному результату, поскольку жалобу будет рассматривать тоже алгоритм.
То есть, используя ИИ в процессе принятия решений или даже для предварительной оценки сути дела, суд и стороны теряют возможность проверить его обоснованность. Программа на основе своей алгоритмической оценки предоставляет вывод, который нельзя проверить и понять какие именно критерии повлияли на формирование именно такой позиции, что противоречит принципам состязательности и публичности правосудия, поскольку участники не могут отследить, какие именно критерии повлияли на результат.
В Отчете уделено отдельное внимание этой проблеме, докладчица называет данный эффект "эффектом черного ящика" – невозможностью воспроизвести логику, по которой система пришла к определенному выводу.
Следующей опасностью является то, что языковые модели обучаются на большом объеме данных, в которых уже присутствуют перекосы, неточности и стереотипы , но ИИ придает этому вид рационального суждения, ведь "машина умнее".
Это, по сути, цементирование существующих стереотипов под видом объективности и речь уже не идет об индивидуализации, что прямо противоречит принципу "быть услышанным судом".
Отдельный раздел рисков описывает угрозу алгоритмического давления на судью или участников процесса, то есть языковая модель буквально навязывает что-то, как правильный ответ. В случае с судьей, который поддался на такую провокацию от машины, это может иметь катастрофические последствия.
Также докладчик отмечает перспективу развития отдельного направления манипулирования и управления судебным процессом со стороны тех, кто создает и регулирует алгоритм, частная компания или правительство, поскольку они имеют влияние на алгоритм. И здесь вновь появляется эффект "черного ящика" в сочетании с концентрацией технологической власти, поскольку фактически часть судебной инфраструктуры передается под контроль третьих лиц, которые являются неподотчетными.
Защите персональных данных также уделено много внимания, поскольку без этого, они могут быть раскрыты или использованы вне судебного процесса.
В итоге, отчет ООН отмечает: каждое государство, которое внедряет системы искусственного интеллекта в судебной сфере, должно предусмотреть механизмы прозрачности, аудита права человека на обжалование алгоритмических решений и именно человеческий контроль является ключевым условием безопасного и эффективного использования искусственного интеллекта в судебной системе.
Пример Британии и перспективы Украины
Отчет ООН подчеркивает необходимость четко определенного правового регулирования в сфере правосудия и здесь уместен прагматичный опыт Великобритании.
Официальным аппаратом судебной власти Англии и Уэльса в апреле 2025 года были предоставлены рекомендации судьям (обновили их 31 октября 2025 года).
В этом документе четко отмечено, что использование ИИ должно быть безопасным, этичным и ответственным. Его ключевая идея в том, что судьи могут использовать ИИ, как вспомогательный инструмент, но не вместо собственного анализа или усмотрения.
Великобритания определила, что каждый судья несет личную ответственность за достоверность материалов, подготовленных под именем алгоритма, а это и есть тот самый баланс ответственности.
Что касается Украины, то мы в своей практике имеем определенные наработки именно во вспомогательном направлении применения алгоритмов через использование Единой судебной информационно-телекоммуникационной системы, электронного документооборота.
Однако, хотя Украина и присоединилась к Рамочной конвенции, национальных норм правового регулирования, мы все еще пока не имеем. Поэтому стоит следовать примерам наших международных стран- партнеров, поскольку технологии развиваются быстро и мы уже имеем примеры, когда стороны процесса используют алгоритмические приложения для предоставления объяснений, ходатайств и даже доказательств, сгенерированных ИИ.
Ключевая рекомендация ООН заключается в том, что ответственность должна нести сама судебная власть. Не правительство, не ИТ- компании, а сами судьи должны проактивно возглавить этот процесс. Потому что этот вопрос касается именно эффективного доступа человека к правосудию и к независимости третьей, судебной, ветви власти.
Как только центр принятия решений сместится к алгоритму, под угрозой окажется не только судьба отдельного человека, но и фундамент независимости судебной ветви власти. Ведь судебный процесс – это живой процесс соревнования, в котором каждая сторона должна быть уверена, что решение принимает мыслящий человек, а не алгоритм. Именно "человеческий" судья способен оценить не только факты, но и моральные, этические и социальные аспекты дела, объяснить свое решение и нести за него ответственность.
Возможно, в будущем, когда стороны спора сознательно будут соглашаться на рассмотрение их дела алгоритмом, такая технология сможет выступать своеобразным электронным "третейским судьей", решение которого может проверить реальный судья, по ходатайству стороны, перед выдачей исполнительного документа, но не самостоятельным элементом правосудия.
Марина Барсук








