Довіряй, але перевіряй — ШІ може неслабо підставити, якщо користуватися ним бездумно
2025-09-01
De Novo Cloud Expert
Генеративний штучний інтелект вивів роботу з інформацією на новий рівень ефективності. Але все ж потребу критичної оцінки результатів ніхто не скасовував — у цьому на власному гіркому досвіді переконалася група адвокатів, яка сприйняла «галюцинації» ШІ за реальні дані. Проте проблема в даному випадку значно глибша, ніж просто ще один курйоз.
Поки в ЄС та США обережно обговорюють потенційну можливість впровадження штучного інтелекту в судово-юридичну практику, в деяких країнах можливості ШІ вже активно використовуються. Результат, як правило, передбачуваний.
Про них дізнався весь світ
На перший погляд, це була звичайна, нічим не примітна справа: колишній мер муніципалітету Умвоті, що в ПАР, Філані Годфрі Мавундла намагався повернути собі посаду через суд. Спочатку він навіть виграв процес у регіонального органу влади, проте той подав апеляцію. Адвокати позивача, у свою чергу, також подали апеляцію до Верховного суду провінції Квазулу-Натал і доповнили документ прикладами із судової практики, які мали би підкріпити їхню позицію. Проте був один нюанс: деякі з цих прикладів вигадав ШІ.
Платформа ChatGPT, до якої звернулася юридична команда, згенерувала нібито реальні прецеденти. Справи виглядали переконливо: назви, цитати, формулювання — усе було як у підручнику. Однак, коли суддя вирішив перевірити один із наведених випадків (також, до речі, за допомогою ChatGPT), з’ясувалося, що такої справи не існувало. Подальша поглиблена перевірка, проведена вже за всіма правилами юридичної науки, показала, що така ситуація була характерна для кількох ключових прецедентів, на які спиралася сторона захисту.
Історія швидко вийшла за межі адвокатської спільноти й потрапила на сторінки світових ЗМІ, зробивши нікому не відому команду провінційних південноафриканських адвокатів справжніми «зірками» мережі — щоправда, у негативному світлі.
Не перший випадок
Cуд, звісно ж, відхилив позов, посилаючись, зокрема, на непрофесійне подання матеріалів. У письмовому рішенні суддя вказав: адвокати помилково повірили у достовірність даних, згенерованих ШІ, й не спромоглися їх перевірити. Юридичну фірму, що представляла інтереси Мавундли, зобов’язали компенсувати витрати на додаткові засідання, а копію рішення було передано до Ради з юридичної практики (Legal Practice Council, LPC) Квазулу-Натала — органу, який регулює поведінку юристів у ПАР. Зараз LPC розглядає питання щодо дисциплінарних заходів. За словами його представника Кабело Летебеле, до них уже надійшло кілька аналогічних справ, пов’язаних із генеративними ШІ (Gen AI), такими як ChatGPT. Загалом же, станом на кінець липня 2025 року, це був уже третій зафіксований випадок у ПАР, коли юристи некоректно використовували ШІ.
У червні 2024 року аналогічна ситуація сталася в процесі тяжби між гірничодобувною компанією Northbound і південноафриканським наглядовим органом із питань алмазів і дорогоцінних металів. У 2023 році — у процесі щодо наклепу. А нинішня справа за участю Мавундли стала найрезонанснішою і першою, яка офіційно дійшла до LPC.
А що у світі?
Найнеприємніше в цій історії те, що Південною Африкою ситуація не обмежується — у світі вже зафіксовані сотні випадків, коли галюцинації ШІ потрапляли до судових документів. Є навіть ентузіасти, які відстежують подібні прецеденти. Очевидно, що найбільш повний список таких інцидентів веде та регулярно оновлює Дам’єн Шарлотен — фахівець у сфері штучного інтелекту та юриспруденції. Згідно з наданою інформацією, найбільше випадків відзначається у США — на момент підготовки публікації в країні було зафіксовано 144 інциденти.
У першій п’ятірці, з великим відривом від лідера, — Ізраїль (21), Канада (18), Австралія (17), Велика Британія (10). У списку також фігурують Бразилія, Ірландія, Іспанія, Італія, Канада та вже згадана ПАР. Перелік швидко зростає — якщо за першу половину 2023 року було відзначено лише 10 випадків, то за той же період 2025-го — 91. Примітно також, що штрафи за подібні прорахунки були призначені лише в одному випадку з п’яти. Та й суми стягнень рідко перевищували еквівалент кількох тисяч євро (лише в одному випадку штраф склав 100 тис. фунтів стерлінгів, але це чи не єдине виключення).
Таким чином, схоже, що це не технологічна проблема, а питання правової культури. Адвокати користуються ШІ, як колись — калькулятором або перевіркою орфографії. Але на відміну від калькулятора, Gen AI набагато складніший і не гарантує достовірності, що порушує питання етичного та відповідального використання подібних рішень у чутливих галузях — таких як юриспруденція, медицина або наука.
Використання ШІ в судовій практиці піднімає важливе питання: чи можуть тепер судді довіряти позиціям сторін без додаткового контролю викладених фактів? Якщо ж така перевірка буде необхідна в кожному випадку — це суттєво ускладнить роботу судових органів і вплине на швидкість розгляду справ. На цьому тлі все гучніше лунають заклики посилити покарання для юристів за використання подібної «бездумної» практики, аж до накладення штрафів і позбавлення ліцензій. Але, схоже, зупинити процес уже не вдасться — надто зручні інструменти дає штучний інтелект, і дедалі важче відмовитися від їх використання. Залишається сподіватися на професійну етику, а також на те, що в найближчому майбутньому ШІ працюватиме надійніше, зменшуючи кількість вигаданих фактів та хибної інформації у відповідях.
Тим часом AI прогресує
Надію на прогрес дає стрімкий розвиток ШІ-технологій, який спостерігається сьогодні і навряд чи сповільниться найближчим часом. Так, наприкінці липня голова OpenAI Сем Альтман повідомив, що до кінця 2025 року компанія володітиме потужністю мільйона прискорювачів на базі GPU з тензорними ядрами (TPU), але і це не межа — у перспективі, кількість прискорювачів може сягнути фантастичної цифри в сто мільйонів. Альтман вважає, що це реально. Одним із практичних кроків на шляху реалізації ініціативи стало, зокрема, створення величезного дата-центру OpenAI в Техасі, США. Кампус, розрахований сьогодні на потужність у 390 МВт, є найпотужнішим ШІ-ЦОД у світі, а наступного року ко мпанія планує довести цей показник до 1 ГВт. Якщо плани OpenAI будуть реалізовуватись — цей проєкт буде не єдиним.