У Сполучених Штатах набирає обертів незвична тенденція: дедалі більше американців відмовляються від послуг юристів, натомість покладаючись на генеративний штучний інтелект у судових справах. Результати вражають — хтось виграє справи, а хтось отримує штрафи за підроблені документи.
Коли ChatGPT рятує від виселення
Історія Лінн Уайт із Лонг-Біч, Каліфорнія, стала показовою для нової ери судочинства. Жінці загрожувало виселення з будинку через заборгованість за оренду. Скориставшись послугами призначеного судом захисника, вона програла справу. Грошей на платного адвоката не було, тож Лінн вирішила діяти самостійно — з допомогою нейромережі ChatGPT та сервісу Perplexity.
Рішення виявилося переломним. Уайт регулярно завантажувала до ChatGPT судові документи та деталі своєї справи. Чат-бот допоміг їй виявити процесуальні помилки судді, окреслити можливі стратегії захисту, вивчити відповідне законодавство та підготувати аргументи для апеляції. Після кількох місяців судових баталій жінка домоглася скасування виселення та уникнула штрафу майже в 55 тисяч доларів, а також списала понад 18 тисяч боргу за прострочену оренду.
«Неможливо переоцінити роль ШІ у моїй справі, — зізнається Лінн. — Я б ніколи, ніколи, ніколи не змогла виграти цю апеляцію без штучного інтелекту. Це було наче Бог відповідав на мої запитання».
Спочатку Уайт користувалася безкоштовною версією ChatGPT, згодом перейшла на преміум-версію за 20 доларів на місяць. Також вона оплачувала Perplexity Pro за ту саму ціну. Адвокати протилежної сторони після завершення справи навіть похвалили її за знання законодавства, написавши в електронному листі: «Якщо юриспруденція — це те, що вас цікавить як професія, ви цілком могли б цим займатися».
Масштаби явища: від поодиноких випадків до тренду
Щоб з’ясувати, наскільки поширеним стало використання ШІ у судах, телеканал NBC News провів розмови з понад 15 учасниками судових процесів, які представляють себе самостійно, юристами, керівниками некомерційних організацій, стартапами у сфері штучного інтелекту та компаніями з юридичних досліджень.
«За останній рік я бачила більше позивачів, які представляють себе в суді самостійно, ніж, мабуть, за всю свою кар’єру», — розповідає Меган Холмс, помічник юриста у фірмі Thorpe Shwer з Фенікса, коментуючи використання чат-ботів у юриспруденції.
Стейсі Деннетт, власниця фітнес-бізнесу в Нью-Мексико, також звернулася до ChatGPT, коли отримала судову повістку про несплачений борг. «Зазвичай я не веду судові справи з ChatGPT, але часто використовую його у бізнесі та повсякденному житті», — пояснює вона.
Деннетт підійшла до справи креативно: «Я просила ChatGPT притворитися професором права з Гарварда та розбити мої аргументи вщент. Розбивати доти, доки я не отримаю за завдання оцінку «А+»». Зрештою жінка домовилася про мирову угоду, заощадивши понад 2 тисячі доларів порівняно з початковим боргом — часткову перемогу, яку вона значною мірою приписує штучному інтелекту.
Темна сторона: галюцинації та фальшиві справи
Попри окремі успіхи, юристи застерігають: судові документи, складені за допомогою ШІ, часто рясніють неточностями та помилковими аргументами. Меган Холмс розповідає про типову ситуацію: «Позивачі використовують справу, яку їм надав ChatGPT, а коли я йду її шукати — її не існує. У більшості випадків ми домагаємося відхилення через неподання фактичного позову, адже це, не хочу бути грубою, але просто нісенітниця».
Моделі штучного інтелекту часто генерують інформацію, яка є хибною або такою, що вводить в оману, але подається як факт. Це явище відоме як «галюцинація». Чат-боти навчаються на величезних масивах даних, щоб передбачити найімовірнішу відповідь на запит, але іноді стикаються з прогалинами у своїх знаннях. У таких випадках модель може спробувати заповнити пробіли за допомогою найкращого наближення, що призводить до неточних або вигаданих деталей.
Для учасників судових процесів такі галюцинації можуть обернутися дорогими штрафами. Джек Овок, колоритний флоридський магнат з виробництва енергетичних напоїв, який програв справу про неправдиву рекламу на суму 311 мільйонів доларів, нещодавно був покараний за подання клопотання з 11 галюцинаціями ШІ, де згадувалися неіснуючі судові справи. Овок визнав, що використовував генеративний штучний інтелект через обмежені фінансові можливості. Йому призначили 10 годин громадських робіт, а тепер він зобов’язаний розкривати інформацію про використання ШІ у всіх майбутніх документах.
База даних судових провалів ШІ
Дам’єн Шарлотен, юридичний дослідник та фахівець з даних, створив публічну базу, яка відстежує судові рішення у справах, де позивачів спіймали на використанні ШІ. Він задокументував 282 такі випадки у США та понад 130 в інших країнах, починаючи з 2023 року.
«Це справді почало прискорюватися приблизно навесні 2025 року», — зазначає Шарлотен. І база даних далеко не вичерпна — вона відстежує лише ті випадки, коли встановлене або передбачуване використання ШІ безпосередньо розглядалося судом.
Шарлотен виділяє три типи галюцинацій штучного інтелекту: «Є сфабриковані судові справи — їх досить легко виявити, бо такої справи не існує. Потім є хибні цитати з існуючих справ — їх теж легко знайти за допомогою пошуку. І нарешті, є спотворені прецеденти. Їх набагато складніше виявити, адже ви цитуєте щось, що існує, але повністю перекручуєте його зміст».
Гіркий досвід навчання
Ерл Тейкфман на власному досвіді зіткнувся з ненадійністю штучного інтелекту. Зараз він представляє себе в кількох справах у Флориді щодо невдалої угоди. Минулого року він почав використовувати ШІ для допомоги в суді.
«Мені ні на секунду не спадало на думку, що ChatGPT може повністю вигадувати справи. На жаль, я дізнався про це на власному гіркому досвіді», — розповідає Тейкфман телеканалу NBC News.
Помилку він усвідомив, коли адвокат протилежної сторони вказав на вигадану справу в одному з його документів. «Я повернувся до ChatGPT і сказав, що він справді підставив мене. Він вибачився», — згадує чоловік.
Суддя зробив Тейкфману зауваження за посилання на одну й ту саму неіснуючу справу — вигадану справу 1995 року під назвою Hernandez v. Gilbert — у двох окремих документах. Збентежений своєю помилкою, Тейкфман вирішив бути обережнішим.
«Я сказав собі: «Добре, я знаю, як обійти цю проблему. Я попрошу ChatGPT надати мені реальні цитати зі справи, на яку хочу послатися. Звісно ж, вони ніколи не вигадають справжню цитату». Але виявилося, що вони і це вигадали!»
«Я, звісно, не хотів вводити суд в оману, — наголошує Тейкфман. — Вони ставляться до цього дуже, дуже серйозно і не прощають тебе, навіть якщо ти виступаєш без адвоката».
Наприкінці серпня суд зобов’язав Тейкфмана пояснити, чому його не слід карати за помилки. Суд прийняв вибачення і не застосував санкцій. Втім, цей досвід не відвернув чоловіка від використання ШІ — просто тепер він звіряє інформацію з різних додатків і перевіряє кожну справу через Google.
Коли помиляються професіонали
Більшість галюцинацій ШІ у базі даних Шарлотена походить від позивачів, які представляють себе самостійно, проте чимало випадків трапляється й серед самих адвокатів. На початку жовтня суд Каліфорнії зобов’язав юриста сплатити штраф у 10 тисяч доларів за подання апеляції до суду штату, в якій 21 із 23 цитат були вигадані ChatGPT. За даними CalMatters, це, ймовірно, найбільший штраф, коли-небудь накладений за вигадки штучного інтелекту.
«Я легко можу зрозуміти, як людина без адвоката, яка вважає, що не має грошей на юриста, може піддатися спокусі скористатися одним із цих інструментів, — каже Роберт Фройнд, адвокат, який регулярно поповнює базу даних Шарлотена. — Але я не можу зрозуміти, як адвокат може зрадити найфундаментальніші частини наших обов’язків перед клієнтами… і висувати аргументи, засновані на повній вигадці».
Фройнд, який керує юридичною фірмою в Лос-Анджелесі, підкреслює, що наплив вигадок ШІ марнує час як суду, так і протилежної сторони, змушуючи їх витрачати ресурси на виявлення фактичних неточностей.
Меттью Гарсес, дипломований медбрат із Нью-Мексико, який є ярим прихильником використання штучного інтелекту для представлення своїх інтересів, наразі бере участь у 28 федеральних цивільних позовах, включно з 10 активними апеляціями та кількома клопотаннями до Верховного суду. Ці справи охоплюють широкий спектр тем — від лікарської недбалості до житлових суперечок із орендодавцем та передбачуваної неправомірної поведінки судових органів.
Відзначивши, що Гарсес подав документи з численними посиланнями на неіснуючі справи, колегія суддів П’ятого апеляційного суду США нещодавно розкритикувала його за численні подання нових позовів. У рішенні великими літерами зазначено: «ВДРУГЕ ПОПЕРЕДЖАЄМО» уникати «надалі несерйозних, повторюваних чи інших зловмисних позовів», інакше він ризикує зіткнутися з дедалі суворішими покараннями. Суддя в іншій справі Гарсеса також рекомендував заборонити йому подавати будь-які позови без чіткого дозволу старшого судді та класифікувати його як «докучливого позивача».
Попри це, Гарсес наполягає: «ШІ відкриває доступ до дверей суду, які часто залишаються зачиненими через гроші. Без інструментів штучного інтелекту для організації, дослідження та підготовки документів було б практично неможливо самостійно вести майже 30 федеральних позовів».
Застереження від розробників
Цікаво, що провідні компанії у сфері штучного інтелекту не рекомендують клієнтам використовувати їхні сервіси в юридичних цілях, хоча інші практично не згадують про цю можливість.
В умовах надання послуг Google зазначено: «Не покладайтеся на Послуги у питаннях медичних, юридичних, фінансових чи інших професійних консультацій. Будь-який контент, що стосується цих тем, надається виключно в інформаційних цілях і не замінює консультацій кваліфікованого фахівця».
Політика xAI попереджає користувачів, що вони не повинні використовувати її моделі для роботи «в регульованій галузі чи регіоні без дотримання відповідних нормативних вимог».
Проте при постановці юридичних запитань більшість чат-ботів відповідають і надають юридичні консультації без жодних попереджень, окрім загальних застережень дрібним шрифтом про те, що відповіді генеративного ШІ можуть бути неточними.
Джессі Дуайєр, представник Perplexity, заявив NBC News: «Ми не стверджуємо, що точні на 100%, але стверджуємо, що ми єдина компанія, яка невтомно працює над цим. Використання ШІ споживачами в деяких із найскладніших аспектів правової екосистеми є доказом того, наскільки необхідні надійність і точність».
OpenAI, Anthropic, Google DeepMind та xAI не відповіли на запити про коментарі.
Читати також:
Юриста в США усунули від роботи за написання позову за допомогою штучного інтелекту
ChatGPT тепер може бронювати готелі, замовляти таксі, створювати дизайн
Ілон Маск анонсував запуск Grokipedia — конкурента Вікіпедії на базі штучного інтелекту
Uber запускає доставку їжі дронами
Світлина згенерована за допомогою ШІ

