Публікація

Штучний інтелект та юридична сфера: чи зможуть технології замінити суддів?

Розвиток штучного інтелекту поновив дискусії про можливість використання ШІ у юридичній сфері. Це може допомогти розвантажити судову систему під час розгляду нескладних справ або ж видання деяких судових наказів. Чи може штучний інтелект вирішувати юридичні спори і замінити суддю та які з цим можуть бути виклики  — дослідив юрист Центру стратегічних справ Української Гельсінської спілки з прав людини Максим Войнов.

Десятиліттями відповідь більшої частини юридичної спільноти була «ні». Однак розвиток штучного інтелекту (ШІ), можливість обробки такими технологіями величезної кількості інформації та здатність до машинного навчання призвели до відновлення дискусій про таку можливість. 

Видання судових наказів про стягнення заборгованості, призначення аліментів і інші справи незначної складності і вузького кола обставин беззаперечно можна віддати на розгляд штучного інтелекту, суттєво розвантаживши судову систему. 

Дедалі частіше в судових системах різних держав розробляються технології, які допомагають сторонам по справі прогнозувати судові рішення, а суддям – визначати результат судового розгляду. Використання штучного інтелекту в судових спорах може суттєво підвищити ефективність судових процесів, скоротити їх тривалість, зекономити необхідні для судового розгляду ресурси і поліпшити доступ до правосуддя. Проте існує занепокоєння, що системи ШІ при використанні їх у сфері правосуддя можуть знизити прозорість винесення рішень, призвести до дискримінаційних процесів, створити загрозу фундаментальним правам людини та зашкодити розвитку права.

Одним з прикладів використання ШІ на стадії судового розгляду є проєкт об’єднаної команди дослідників UCL з Пенсільванського та Шеффілдського університетів, в якому судові рішення Європейського Суду з прав людини (ЄСПЛ) були передбачені з точністю 79% за допомогою методу штучного інтелекту, розробленого UCL

Ілюстративне фото: Європейський суд з прав людини

«Ми не вважаємо, що штучний інтелект замінить суддів чи адвокатів, але ми думаємо, що вони знайдуть його корисним для швидкого виявлення закономірностей у справах, які призводять до певних результатів. Наша система також може бути цінним інструментом для виявлення випадків, які, найімовірніше, є порушенням Європейської Конвенції з прав людини», — зазначає Николаос Алетрас, керівник цього проєкту, 

Під час проведення вказаного дослідження оброблили матеріали 584 справ, пов’язаних зі статтями 3 (заборона катування та нелюдського чи такого, що принижує гідність, поводження), 6 (право на справедливий суд) та 8 (право на повагу до «приватного та сімейного життя, житла та кореспонденції) Європейської Конвенції з прав людини і застосований алгоритм ШІ для пошуку шаблонів у тексті. Найнадійнішими факторами для прогнозування рішення суду виявились використана мова, а також теми та обставини, зазначені в тексті справи.

Нормативно-правове регулювання використання ШІ в судочинстві ЄС 

Вже у 2017 році Рада Європи закликала розглядати розвиток ШІ як нову тенденцію, яка може забезпечити «високий рівень захисту даних, цифрових прав та етичних стандартів». Надалі у Висновках Ради Європи від жовтня 2020 року «Доступ до правосуддя — використання можливостей цифровізації» зазначено, що застосування ШІ в секторі правосуддя може містити ризик закріплення і посилення існуючої дискримінації і непрозорого прийняття рішень, що своєю чергою може призвести до порушення фундаментальних прав людини: права на свободу, недискримінацію, недоторканність приватного життя і справедливий судовий розгляд. Відповідно до Висновків, штучний інтелект не повинен впливати на повноваження суддів щодо прийняття рішень та їхню неупередженість.

Максим Войнов, юрист ЦСС

Питання використання ШІ у правосудді також розглядалося у «Законі про штучний інтелект» (Artificial Intelligence Act, AI Act), законопроєкті, який був запропонований Європейською Комісією у квітні 2021 року та передбачав правила щодо розробки та використання систем штучного інтелекту в ЄС відповідно до пропорційного підходу, заснованого на оцінці ризиків. Із законопроєкту вбачається, що сфера правосуддя є одною зі сфер, де використання певних технологій штучного інтелекту слід вважати високоризикованими. Особливо це стосується систем ШІ, призначених для надання допомоги судовим органам у дослідженні та інтерпретації фактів і закону та у застосуванні закону до конкретних обставин справи.

В Додатку III до AI Act системами високого ризику ШІ також визначаються будь-які системи, які можуть використовуватися правоохоронними органами для оцінки достовірності доказів під час розслідування. Однак, до категорії високоризикованих не відносяться системи штучного інтелекту, призначені для суто допоміжної адміністративної діяльності, яка не впливає на фактичне здійснення правосуддя: анонімізація або псевдонімізація судових рішень, комунікація між персоналом, адміністративні функції або розподіл ресурсів.

Викладена в Artificial Intelligence Act позиція була підтримана Європейською радою з питань захисту даних та Європейським інспектором з питань захисту даних. Про це вони зазначили у своєму Спільному висновку № 5/2021 щодо «Закону про штучний інтелект» від 18 червня 2021 року, наголосивши на тому, що AI Act має надзвичайно важливі наслідки для захисту персональних даних та підтримавши підхід, що базується на оцінці ризиків.

6 жовтня 2021 року Європейський парламент ухвалив «Резолюцію про штучний інтелект у кримінальному законодавстві та його використання поліцією і судовою владою у кримінальних справах» (далі – Резолюція), що визнає переваги та ризики, які штучний інтелект може принести судовій владі та правоохоронним органам. Європейський парламент підтвердив, що всі рішення щодо застосування ШІ в державних органах мають повністю відповідати принципам людської гідності, недискримінації, свободи пересування, презумпції невинуватості, свободи вираження поглядів та рівності перед законом відповідно до Європейської конвенції з прав людини. Європейський парламент наголосив, що застосування Штучного інтелекту має бути заборонено, якщо його використання є несумісним з основоположними правами людини. 

Ілюстративне фото. Джерело depositphotos.com

Резолюція вказує на ризики, пов’язані, зокрема, з витоком даних, порушенням безпеки даних і несанкціонованим доступом до інформації щодо кримінального розслідування або судових справ, яка обробляється системами штучного інтелекту. Також Резолюція вказує на необхідність особистого людського нагляду при застосуванні певних критично важливих технологій ШІ та закликає правоохоронні органи і судову систему використовувати тільки те програмне забезпечення, яке відповідає принципу конфіденційності та захисту даних. Ці принципи від початку мають бути закладені в програмне забезпечення з метою уникнення використання персональних даних понад встановлених меж.

Крім того, відповідним вторинним законодавством, що регулює використання ШІ, є Загальний регламент про захист даних (GDPR), Регламент (ЄС) 2018/172521 (EUDPR), Директива про електронну приватність 2002/58/EC та Директива про правоохоронну діяльність 2016/680 (LED), яка призначена для правоохоронних та судових органів. Ці нормативно-правові акти встановлюють основні права суб’єктів та принципи захисту даних, регламентують їх автоматизовану обробку, забороняють винесення будь-яких рішень, які є результатом автоматизованої обробки персональних даних та мають юридичні наслідки для особи, за винятком випадків, коли це прямо дозволено законом.

Етичний аспект використання ШІ в правосудді

Робоча група при Раді Європи — Європейська комісія з питань ефективності правосуддя Ради Європи (CEPEJ) проаналізувала можливі випадки використання ШІ в судових системах і визначила приклади використання, де застосування ШІ було б найбільш рекомендованим. Серед найперспективніших напрямків застосуваннями Штучного інтелекту в правосудді CEPEJ виділила вдосконалення судової практики, поліпшення доступу до правосуддя та створення нових стратегічних інструментів управління судами.

В грудні 2018 року Європейська комісія з питань ефективності правосуддя (CEPEJ) Ради Європи ухвалила перший європейський документ, який визначає етичні принципи використання Штучного інтелекту в судовій системі – Європейську Етичну хартію щодо використання штучного інтелекту в судовій системі та її середовищі.

Ілюстративне фото. Джерело depositphotos.com

За змістом Хартії, застосування ШІ у сфері правосуддя може суттєво підвищити ефективність і якість правосуддя, однак має впроваджуватись відповідально і з дотриманням основних прав людини, гарантованих, зокрема, Європейською конвенцією з прав людини (ЄКПЛ) та Конвенцією Ради Європи про захист персональних даних. ШІ має залишатися інструментом, який служить загальним інтересам, проте поважає і не порушує права особистості. 

Хартія містить систему принципів, якими мають керуватися законодавці та працівники системи правосуддя при використанні ШІ в національних судових процесах:

  • Принцип поваги до основних прав людини і забезпечення того, щоб розробка та впровадження технологій штучного інтелекту були сумісними з основними правами людини.
  • Принцип недискримінації, зокрема, недопущення розвитку або посилення будь-якої дискримінації між окремими особами або групами осіб.
  • Принцип прозорості, неупередженості та справедливості, тобто забезпечення доступності та зрозумілості методів обробки даних. 
  • Принцип якості, безпеки та контролю, тобто забезпечення того, щоб користувачі були поінформовані про використання їх персональних даних та могли контролювати цей процес.

Використання штучного інтелекту в правосудді може призвести до втручання в основні права і свободи людини. Тому будь-яке рішення щодо впровадження штучного інтелекту має відповідати чинному законодавству, зокрема законодавству про захист даних, забезпечувати прозорість, пропорційність, мінімізацію даних, обмеження цілей їх використання, відповідальність за порушення, а також передбачати можливість людського втручання, коли це необхідно.

Зважаючи на те, що ШІ може створювати нові ризики або негативні наслідки для окремих осіб або суспільства в цілому, законодавці все частіше закликають розробляти спеціальні нормативні акти, які б регулювали правові аспекти використання цих технологій загалом, забезпечуючи таким чином збалансованість правового регулювання.

Проблеми використання ШІ у сфері правосуддя

Важливим питанням є анонімізація або псевдонімізація персональних даних з використанням ШІ у контексті їхнього захисту. Відбір судових рішень, що підлягають оприлюдненню, не завжди добре організований серед судів різних інстанцій: певні програми з використанням ШІ, що використовуються судами Європи, не були розроблені для цієї мети, особливо щодо рішень першої інстанції, і деяким країнам доведеться запровадити нові технології для вирішення цього питання. Крім того, досі не було розроблено повністю ефективного автоматизованого механізму, який би запобігав будь-якому ризику ідентифікації суб’єктів.

У цифрову епоху для досягнення балансу між необхідністю оприлюднення судових рішень та дотриманням основних прав учасників судового процесу та свідків їхні імена та адреси не повинні розкриватися в рішеннях, що публікуються. Слід брати до уваги ризик зловживання та повторного використання зазначеної особистої інформації, а також особливо чутливий характер даних, які можуть міститися в рішеннях. Це стосується даних, які розкривають, наприклад, національне або расове походження, політичні переконання, релігійні або інші переконання, фізичне або психічне здоров’я чи статеве життя та вважаються чутливою інформацією. 

Фото ілюстративне: depositphotos.com
Ілюстративне фото. Джерело: depositphotos.com

Суди, які розглядають кримінальні справи, особливо занепокоєні іншою категорією чутливих даних. Це дані, що стосуються кримінального процесу та кримінальних вироків. З усіма цими чутливими даними потрібно поводитися з належною увагою. Їхнє масове поширення створює серйозні ризики дискримінаційного поводження, «профілювання» та порушення людської гідності.

Іншою загрозою для прав людини можуть слугувати програми на основі ШІ, які використовуються для збору персональних даних особи та визначення на їх основі ступені ризику вчинення нею правопорушень у майбутньому. До таких систем належать HART (Harm Assessment Risk Tool), яка проходила тестування у Великій Британії та COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), яка використовувалася в США і мала на меті оцінку ризику вчинення повторного злочину. Якщо технологія HART мала суто консультативне значення для судді, то технологія COMPAS була обов’язковою у деяких федеральних штатах Америки.

Після проведення дослідження Американською неурядовою організацією «ProPublica» стало відомо, що алгоритми, які вона використовує, можуть призвести до дискримінаційного ставлення з боку судді при винесенні вироку. Виявилося, що «темношкірі майже вдвічі частіше, ніж білі, потрапляють до групи підвищеного ризику, але насправді не вчиняють повторних злочинів», тоді як COMPAS «робить протилежну помилку серед білих: вони набагато частіше, ніж темношкірі, потрапляють до групи меншого ризику, але продовжують скоювати інші злочини». Дослідження також виявило, що лише 20 відсотків людей, яким прогнозували скоєння насильницьких злочинів, насправді їх скоїли. 

Залучення технологій ШІ в системі судочинства України

Щодо залучення подібних технологій ШІ в системі судочинства в Україні, в 2020 році Міністерством юстиції України було розроблене і почало використовуватись програмне забезпечення з елементами штучного інтелекту «Кассандра», яке може аналізувати злочинців і визначати, чи схильні вони порушувати закон у майбутньому. Програма пропонує відповісти на запитання і відповідно до відповідей оцінює ймовірність скоєння нового злочину від 0 до 97. По суті це є базовим, але простим штучним інтелектом, який допомагає судді встановити справедливу міру покарання. 

Використання єдиної судової інформаційно-телекомунікаційної системи (ЄСІТС), платформи «Електронний Суд», програми для проведення конференцій «EasyCon», системи електронного кримінального провадження і інших сервісів також є передумовою впровадження ШІ в Україні.

Проте, впровадження штучного інтелекту в систему правосуддя України є досить складним процесом, який потребує попереднього вирішення низки технічних проблем і вдосконалення алгоритмів задля забезпечення справедливого, неупередженого судового розгляду і дотримання прав людини, в тому числі права на конфіденційність персональних даних. 

Судові рішення, ухвалені за допомогою штучного інтелекту, слід оцінювати з особливою ретельністю, щоб уникнути ситуацій, коли фундаментальні права і свободи людини зазнають негативного впливу, а особи піддаються різним формам дискримінації, обмеженню прав, несправедливому поводженню тощо.

Ще одним проблемним аспектом використання ШІ в системі правосуддя є біометрична ідентифікація осіб у публічно доступних місцях, а також механізми навчання ШІ на основі аудіовізуальних даних, що створює високий ризик втручання в приватне життя особи.

Тому, в національне законодавство повинно впроваджуватися регулювання, яке гарантує, що системи ШІ у судочинстві не завдають фундаментальної шкоди правам людини. Для досягнення цієї мети необхідно зробити ряд кроків:

  • Необхідно заборонити використання систем штучного інтелекту, оцінки ризиків у правоохоронних органах і кримінальному судочинстві для прогнозування, профайлінгу та оцінки ризиків. Тільки пряма заборона може захистити людей від фундаментальної шкоди, яку вони завдають. 
  • Для всіх інших систем має бути обов’язковим незалежне тестування на упередженість як на етапі розробки, так і на всіх етапах функціонування. Щоб зробити таке тестування на упередженість можливим, необхідно вдосконалити збір даних, включаючи дані з розбивкою за расовою, етнічною та національною приналежністю.
  • Повинно бути зрозуміло, як працює система, як вона управляється і як вона приймає рішення. Кожен, на кого впливають ці системи та їхні результати, наприклад, підозрювані та обвинувачені, повинні мати можливість розуміти, як вони працюють, так само як і широка громадськість.
  • Люди, які приймають рішення у сфері кримінального правосуддя, повинні обґрунтовувати свої рішення та надавати докази того, як на них вплинули системи ШІ.
  • Особа повинна бути повідомлена щоразу, коли система ШІ вплинула або могла вплинути на рішення в системі кримінального правосуддя, яке її стосується. Також повинні існувати чіткі процедури оскарження рішень ШІ та або самих систем, а також шляхи відшкодування збитків.

Автор: Максим Войнов, юрист Центру стратегічних справ Української Гельсінської спілки з прав людини


Підписуйтесь на сторінки УГСПЛ у соціальних мережах:

Facebook | Instagram | Telegram юридичний | Telegram з анонсами подій Twitter Youtube


Матеріал підготовлено за підтримки Європейського Союзу та Міжнародного Фонду  «Відродження» в рамках спільної ініціативи «Європейське Відродження України». Матеріал представляє позицію авторів і не обов’язково відображає позицію Європейського Союзу чи Міжнародного фонду «Відродження».

Якщо помітили помилку на сайті, будь ласка, виділіть текст та натисніть ctrl-enter.

Також може бути корисним

Приєднуйтесь

Робiмо велику справу разом!
Підтримати Стати волонтером Пройти стажування

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: