ВИКОРИСТАННЯ ШТУЧНОГО ІНТЕЛЕКТУ ПРИ ЗДІЙСНЕННІ СУДОЧИНСТВА. ПРО ЯКІ РИЗИКИ ВАРТО ПОДБАТИ?
10.02.2026 11:42
[5. Legal sciences]
Author: Ніколаєвський Дмитро Сергійович, аспірант, Інститут держави і права імені В.М. Корецького НАН України, м.Київ
Ми сьогодні говоримо про штучний інтелект (ШI) так, ніби це щось, що чекає нас у віддаленому майбутньому. Проте це майбутнє вже настало. І це “гальмування свідомості” майже головна проблема. Допоки ми ставимося до ШI як до майбутньої загрози або як до майбутньої надії, він вже працює в нашій реальності: в документах, у підготовці правових позицій, у пошуку практики, у внутрішніх процесах великих компаній, і навіть у діяльності державних інституцій. ШI вже вагома частина нашого життя, незалежно від того, чи визнаємо ми це публічно. Коли ми постійно акцентуємо увагу на ризиках і недосконалості ШI, ми, безумовно, говоримо правду. Але водночас ми робимо ще одну річ, яку зазвичай не помічаємо: ми формуємо негативні установки на майбутнє і виховуємо в професії упередження проти прогресу. Тут є дуже тонка межа. Один підхід - професійна обережність. Зовсім інший - психологічна самозаборона на розвиток, яка маскується під обережність. Юристи взагалі звикли мислити категоріями ризиків. Але якщо ми весь час знаходимось у цій парадигмі, у нашій свідомості відбувається непомітна підміна: ми починаємо оцінювати ШI не як інструмент, що має недоліки й потенціал, а як джерело небезпеки, яке краще не чіпати. І ось тут правова система, яка завжди тяжіє до розумної консервативності, потрапляє в пастку: страх і підозра не створюють якісних правил, вони створюють заборони. В свою чергу заборони є простим, проте дуже далеким від ефективності регуляторним інструментом.
Поштовхом для початку цього аналізу стала дискусія, яка 25 вересня 2025 р. відбулась у НЮУ імені Ярослава Мудрого за темою «Використання ШІ в юриспруденції» в межах ІХ Харківського міжнародного юридичного форуму [1]. На цьому професійному майданчику пролунало багато дуже точних, сильних й одночасно контраверсійних виступів, від яких я хотів би відштовхнутись. Почну з однієї з почутих там позицій, яку я вважаю фундаментально правильною: “останньою інстанцією відповідальності в праві завжди лишається людина”. Це дуже влучне спостереження. Але я хочу звернути увагу на логічне продовження цієї думки, яке часто губиться: якщо людина - це остання інстанція відповідальності, то людина має бути й останньою інстанцією компетентності. Ми не можемо дозволити собі позицію “ми не використовуємо ШI, бо він ризикований”. Якщо ми так скажемо, це означатиме, що ми добровільно відмовляємося від власної компетентності керувати тим, що все одно прийде і стане частиною нашої спільної реальності вже завтра.
В цьому сенсі для мене дуже показово, що європейські рамкові документи, які орієнтовані саме на правову сферу, говорять про ШI в судочинстві спокійно, без містики, як про інструмент, який ефективно може працювати на результат. Зокрема, у висновках Європейської етичной хартії CEPEJ (Ради Європи) зазначається: “На думку CEPEJ, застосування штучного інтелекту в галузі правосуддя може сприяти підвищенню його ефективності та якості”[2].
Це свідчить про те, що навіть у дуже обережній правовій культурі є чітке розуміння, що розмова про ШI це не лише про ризики, а й про мету: ефективність та якість у сфері правосуддя. Відмова від інструмента не зупиняє технологію. Вона зупиняє лише нас.
Тепер перейдемо у ще більш практичну площину. На конференції зокрема йшлось про те, що ШI вже здатен генерувати матеріали “настільки схожі, настільки правдоподібні”, що потрібен “ретельний аналіз”, аби при роботі з доказами не потрапити у пастку. Також прозвучала й теза про те, що ШI може «підкидати» рішення, які є “не зовсім релевантними”, він може виривати правові позиції з контексту, і навіть за умови перевірки факту існування справи, це ще не гарантує їх коректного застосування. Звучали також й занепокоєння про упередженість ШІ: якщо в даних, на яких ШІ навчається, можуть бути закладені дискримінаційні патерни - інструмент здатен їх відтворювати. Якщо подивитися на цей блок проблем технологічно - стає зрозумілим, що відповідні ризики зменшуються, а дуже часто можуть бути повністю локалізовані спеціальними процедурами. Ризик “нерелевантності” нівелюється стандартами перевірки джерел і контексту. Ризик “виривання з контексту” - вимогою до структури аргументації. Ризик упередженості - аудитом даних, контрольними наборами, порівнянням результатів, процедурою людської перевірки. Це все сфера професійної дисципліни. Це те, що юристи роблять щодня, й робили це протягом паперової епохи.
Одним з найсерйозніших аргументів “скептиків” є проблема так званої “чорної скриньки”. Так, ілюстративно була наведена історія про справу Луміса [3], де логіка алгоритму була непрозорою через комерційну таємницю, і в результаті було отримано рішення, яке неможливо пояснити. З цим дуже резонує наступне пряме питання: “Чи може суддя виносити вирок, базуючись на рекомендаціях системи, логіку роботи якої він сам не розуміє?”. Невід’ємною рисою, що має бути притаманною ефективному правосуддю є пояснюваність логіки прийняття рішення як є належною гарантією можливості його оскарження в майбутньому. Проте рішення цієї проблеми є дуже простим. Генеративні моделі вже зараз можна використовувати у такий спосіб, щоб позиція була обґрунтованою з посиланням на конкретні норми права та підстави їх застосування. Додатково ми можемо також бачити й послідовно викладений шлях побудови правової позиції інструментами генеративного ШІ. Іншими словами - неможливість зрозуміти логіку роботи системи може бути компенсована можливістю зрозуміти та оцінити результат її роботи як послідовний ланцюг логічних міркувань.
Тут дуже доречним буде навести ще одну тезу зі згаданої вище Європейській етичній хартії CEPEJ, яка фактично формулює ідею про роль людини як контролера і морального орієнтира: «Фахівці в системі правосуддя повинні в будь-який момент мати можливість переглянути судові рішення та дані, використані для отримання результату, і не бути обов'язково пов'язаними ними...» [2].
Окремий блок проблем ШІ пов’язаний з питаннями забезпечення конфіденційності при роботі з ним. На конференції в черговий раз звучало важливе застереження: “усе, що ми заливаємо у публічний чатбот, може вийти назовні”. Це дійсно дуже важливий аспект. Це питання професійної етики й довіри клієнта. Якщо клієнт не може бути впевненим, що адвокат або суддя контролюють матеріали справи, юристи програють ще до суду, оскільки вони втрачають довіру з боку свого клієнта. З цього вибудовується висновок про необхідність нових базових правил юридичної професії у нових умовах. Це втілена у нормах обережність, яка робить складні інновації можливими. Отже ідею “не користуйтеся ШI” варто замінити ідеєю “не користуйтеся ШI як дилетанти”.
А ще хотілося б набагато більше чути професійних дискусій про те, які ефективні шляхи існують для попередження проблем. Такими шляхами є: знеособлення даних, нові політики безпечної обробки даних, внутрішні контрольовані середовища, офлайн-моделі генеративного ШІ, розмежування доступів, заборона на завантаження чутливих даних в публічні сервіси, використання моделей, що не тренуються на даних користувача, та інше.
Дуже цікавим є те, що більшість “жахливих” прикладів, які сьогодні пов’язують з ШI, насправді є прикладами людської недбалості. Зокрема на конференції був згаданий кейс, де ШI “згенерував судові рішення, які не існують”, а юрист посилався на них у поданих до суду документах без попередньої перевірки. Насправді це свідчить лише про те, що більшою небезпекою є як раз відмова від базових стандартів професії. Юристи й без ШI завжди робили грубі помилки: вони могли переплутати номер справи, послатися на неіснуючі норми, залишали у рішеннях суду частини тексту з інших судових рішень, тощо. ШI лише збільшує масштаб та швидкість. І це точно треба враховувати. Бо юридична професія це саме про конструювання правил, які дозволяють суспільству рухатися без руйнування. Право це спосіб зробити майбутнє керованим. Все свідчить про те, що основна задача юристів прямо зараз це приділяти максимум уваги ШI-інструментам, вивчати їх недоліки, але переважно з тією метою, щоб найскоріше їх усунути, зробити в такий спосіб їх більш придатними для дуже складного та дуже відповідального правового середовища, де ціна помилки є надзвичайно високою.
В роботі «Етичні принципи для надійних ШІ-систем», підготовлених експертною групою при Єврокомісії наводяться наступні поради щодо побудов безпечних ШІ-систем, які слід навести й тут:
“Забезпечити, щоб весь життєвий цикл системи ШІ відповідав семи ключовим вимогам до надійного ШІ:
(1) людська діяльність та нагляд,
(2) технічна надійність та безпека,
(3) конфіденційність та управління даними,
(4) прозорість,
(5) різноманітність, недискримінація та справедливість,
(6) екологічне та соціальне благополуччя та
(7) підзвітність.
- Розгляньте технічні та нетехнічні методи для забезпечення виконання цих вимог.
- Сприяйте дослідженням та інноваціям, щоб допомогти оцінити системи ШІ та сприяти досягненню вимог.
- Поширюйте результати та відкриті питання серед широкої громадськості та систематично готуйте нове покоління експертів з етики ШІ.
- Чітко та проактивно інформуйте зацікавлені сторони про можливості та обмеження системи ШІ, що дозволить сформувати реалістичні очікування, а також про спосіб виконання вимог. Бути прозорими щодо того, що вони мають справу з системою ШІ.
- Сприяйте простежуваності та аудиту систем ШІ, особливо в критичних контекстах та ситуаціях.
- Залучайте зацікавлені сторони протягом усього життєвого циклу системи ШІ. Сприяйте навчанню та освіті, щоб усі зацікавлені сторони були обізнані та навчені щодо надійного ШІ.
- Пам'ятайте, що між різними принципами та вимогами можуть існувати фундаментальні суперечності.
- Постійно виявляйте, оцінюйте, документуйте та повідомляйте про недоліки та засоби їх усунення» [4].
Це грунтовний та дуже правильний підхід, який варто взяти на озброєння і в Україні в нашому складному шляху оволодіння новітніми технологіями.
Неможна тут оминути й ще одну дуже дискусійну тему - “цифрового суддю”. Уява про робота в мантії, який виносить вирок, є гротескною та карикатурною. Вочевидь ШI (якщо його правильно спроєктувати) може якісно виконувати значну частину інтелектуальної роботи, яку ми сьогодні вважаємо “людською” лише тому, що так було завжди. Судочинство має величезну кількість задач, де не потрібні ані емоції ані мораль. Натомість тут потрібна інтелектуальна дисципліна: звести факти, перевірити відповідність формальним вимогам, знайти релевантну практику, виявити протиріччя, побудувати структурований виклад, звірити посилання, знайти прогалини в аргументації, виявити, де сторона підміняє поняття, де пропускає елемент складу, де маніпулює причинно-наслідковим зв’язком. Це все можна формалізувати не як “автоматичне рішення”, а як інтелектуальну підтримку, яка підвищує якість і швидкість. Цифровий суддя це не про заміну людини, а радше про новий рівень інструментальності. На цьому рівні легко можна уявити систему, яка вміє робити чорнову інтелектуальну роботу дуже якісно: готувати проєкти процесуальних документів, пропонувати типові структури мотивувальної частини, підказувати, де слабкі місця в доводах, перевіряти наявність і релевантність посилань. Але при цьому все одно: людина робить фінальну перевірку, людина затверджує, людина відповідає. В такому випадку ШI працює як підсилювач якості, а не як “джерело легітимності”. І тут роль людини, як на мене, стає навіть більш цінною. Людина тут не зникає. Вона перестає бути заручником рутини. Вона стає тим, хто тримає правосуддя на рівні сенсів: перевіряє роботу ШI, коригує її там, де потрібен контекст, і (що найважливіше) виступає моральним орієнтиром вищого рівня, коли перед нами не просто норма закону, а людська доля. І тут постає ще більш складне питання: «Чи зможе з часом технологія штучного інтелекту еволюціонувати настільки, щоб цілковито замінити суддю-людину?». Відповіді на це питання поки що нема, проте я не бачу жодних підстав повністю виключати таку можливість. Проте, якщо це колись і стане можливим, то точно не раніше, ніж переважна частина суспільства буде довіряти інструментам штучного інтелекту не менше, а може й більше, ніж людям-професіоналам в усіх інших сферах життя.
Наостанок залишається запропонувати не робити жодних негативних установок та упереджень відносно потенціалу використання ШІ у правосудді на майбутнє. Неправильно було би виховувати професійну упередженість з професійної обережності або, (що ще гірше) з поширених чуток про те, як роботи заберуть роботу у фахівців ба більше - встановлять диктатуру над людством в цілому. Замість цього ми маємо зберігати здорову критичність — вона дійсно потрібна. Потрібна для того, щоб наша держава була однією з перших в питаннях цифровізації правосуддя. Ми маємо амбітну мету побудувати дуже складні та дуже ефективні інформаційні системи, які в змозі дуже швидко виконувати завдання максимального рівня складності. За рахунок цього ми будемо здатні підняти загальну якість системи правосуддя, і навіть вивести суддівську доброчесність на принципово новий рівень. ШI не забере в юристів роботу. Він лише змусить нас заново відповісти на питання про те, що саме ми маємо розуміти під професійністю юриста, судді у нову цифрову епоху. В будь-якому випадку саме людина залишиться останньою інстанцією відповідальності. Та сама людина, яка обов’язково має стати й першою свідомою запорукою людського прогресу.
Література:
1. НЮУ імені Ярослава Мудрого. Використання ШІ в юриспруденції Електронний ресурс : відеозапис (YouTube). – Трансляція в межах ІХ Харківського міжнародного юридичного форуму, 25 вересня 2025 р. – Режим доступу: https://www.youtube.com/watch?v=FRRqKUHqDZ4 (дата звернення: 08.02.2026).
2. Council of Europe. European Ethical Charter on the use of Artificial Intelligence in judicial systems and their environment [Електронний ресурс]. – 2018. – Режим доступу: https://www.europarl.europa.eu/cmsdata/196205/COUNCIL%20OF%20EUROPE%20-arter%20on%20the%20use%20of%20AI%20in%20judicial%20systems.pdf (дата звернення: 08.02.2026). - с. 12, с. 78.
3. Law Review. Criminal Law — Sentencing Guidelines — Wisconsin Supreme Court Requires Warning Before Use of Algorithmic Risk Assessments in Sentencing. — State v. Loomis, 881 N.W.2d 749 (Wis. 2016) [Електронний ресурс]. – 2017. – (Harvard Law Review. Vol. 130, No. 5. P. 1530–1537). – Режим доступу: https://harvardlawreview.org/wp-content/uploads/2017/03/1530-1537_online.pdf (дата звернення: 08.02.2026).
4. High-Level Expert Group on Artificial Intelligence. Ethics Guidelines for Trustworthy AI [Електронний ресурс]. – 2019. – Режим доступу: https://www.aepd.es/sites/default/files/2019-12/ai-ethics-guidelines.pdf (дата звернення: 08.02.2026). - с. 24.
_______________________
Науковий керівник: Тимченко Геннадій Петрович, доктор юридичних наук, старший науковий співробітник, Інститут держави і права імені В.М. Корецького НАН України, м.Київ