Доверяй, но проверяй — ИИ может крупно подставить, если пользоваться им бездумно
2025-09-01
De Novo Cloud Expert
Генеративный искусственный интеллект выел работу с информацией на новый уровень эффективности. Но, все же необходимость критической оценки результатов никто не отменял — в этом, на собственном горьком опыте, убедилась группа адвокатов, принявшая «галлюцинации» ИИ за реальные данные. Но, проблема в данном случае, гораздо глубже, чем просто еще один курьез.
Пока в ЕС и США осторожно обсуждают потенциальную возможность внедрения искусственного интеллекта в судебно-юридическую практику, в некоторых странах возможности ИИ уже используются полным ходом. Результат, как правило, предсказуем.
О них узнал весь мир
На первый взгляд, это было обычное, ничем не примечательное дело: бывший мэр муниципалитета Умвоти, что в ЮАР, Филани Годфри Мавундла пытался вернуть себе должность через суд. По началу он даже выиграл процесс у регионального органа власти, однако тот подал апелляцию. Адвокаты истца, в свою очередь, также направили апелляцию в Верховный суд провинции Квазулу-Натал и снабдили документ примерами из судебной практики, которые должны были укрепить их позицию. Вот только один нюанс: некоторые из этих примеров придумал ИИ.
Платформа ChatGPT, к которой обратилась юридическая команда, сгенерировал якобы реальные прецеденты. Дела выглядели убедительно: названия, цитаты, формулировки — всё было как по учебнику. Однако, когда судья решил перепроверить один из приведённых случаев (также, кстати, с помощью ChatGPT), выяснилось, что такого дела не существовало. Дальнейшая углубленная проверка, проведенная уже по всем правилам юридической науки, показала, что такая ситуация была характерна для нескольких ключевых прецедентов, на которые опиралась защита.
История быстро вышла за пределы адвокатского сообщества и попала на страницы мировых СМИ, сделав никому неизвестную команду провинциальных южноафриканских адвокатов, настоящими «звездами» сети, правда, в негативном ключе.
Не первый случай
В итоге суд, разумеется, отклонил иск, сославшись в том числе, на непрофессиональную подачу материалов. В письменном решении судья указал: адвокаты ошибочно доверились достоверности данных, сгенерированных ИИ, и не удосужились их перепроверить. Юридическую фирму, представлявшую интересы Мавундлы, обязали возместить расходы на дополнительные заседания, а копия решения была передана в Совет по юридической практике (Legal Practice Council, LPC) Квазулу-Натала — орган, который регулирует поведение юристов в ЮАР. Сейчас LPC рассматривает вопрос о дисциплинарных мерах. По словам его представителя Кабело Летебеле, к ним поступило уже несколько аналогичных дел, связанных с генеративными ИИ (Gen AI), такими, как ChatGPT. В целом же, по состоянию на конец июля 2025 года это был уже третий зафиксированный случай в ЮАР, когда юристы некорректно использовали ИИ.
В июне 2024 года нечто подобное произошло в процессе тяжбы между горнодобывающей компанией Northbound и южноафриканским надзорным органом по алмазам и драгоценным металлам. В 2023 году — на процессе о клевете. А нынешнее дело с участием Мавундлы стало самым резонансным и первым, которое официально дошло до LPC.
А что в мире?
Самое неприятное в этой истории то, что Южной Африкой ситуация не ограничивается — в мире зафиксированы уже сотни случаев, когда галлюцинации ИИ попадали в судебные документы. Есть даже энтузиасты, которые отслеживают подобные прецеденты. Очевидно, наиболее полный список подобных инцидентов ведет и регулярно обновляет Дамьен Шарлотин — специалист в сфере искусственного интеллекта и юриспруденции. Согласно представленной информации больше всего случаев отмечается в США — на момент подготовки публикации, в стране было отмечено 144 инцидента.
В первой пятерке, с большим отрывом от лидера — Израиль (21), Канада (18), Австралия (17), Великобритания (10). Фигурируют в списке также Бразилия, Ирландия, Испания, Италия, Канада и уже упомянутая ЮАР. Перечень быстро растет — если за первую половину 2023 года было отмечено всего 10 случаев, то за тот же период 2025-го — 91. Примечательно также, что штрафы за подобные просчеты были назначены едва ли в одном случае из пяти. Да и сумы взысканий редко превышали эквивалент нескольких тысяч евро (лишь в одном случае штраф составил 100 тыс. фунтов стерлингов, но это чуть ли не единственное исключение).
Таким образом, похоже что это не технологическая проблема, а вопрос правовой культуры. Адвокаты пользуются ИИ, как раньше — калькулятором или проверкой орфографии. Но в отличие от калькулятора, Gen AI гораздо сложнее и не гарантирует достоверности, что поднимает вопрос этичного и ответственного использования подобных решений в чувствительных областях — таких как юриспруденция медицина или наука.
Использование ИИ в судебной практике поднимает важный вопрос: могут ли теперь судьи доверять позициям сторон без дополнительного контроля изложенных фактов? Если же такая проверка будет необходима в каждом случае — это существенно осложнит работу судебных органов и повлияет на скорость рассмотрения дел. На этом фоне все громче звучат призывы ужесточить наказания для юристов за использование подобной «бездумной» практики, вплоть до наложения штрафов и лишения лицензий. Но, похоже, остановить процесс уже не удастся — слишком удобные инструменты дает искусственный интеллект и все труднее отказаться от их использования. Остается надеяться на профессиональную этику, а также на то, что в ближайшем будущем ИИ будет работать надежнее, снижая количество «галлюцинаций» и ложных фактов в ответах.
Тем временем AI прогрессирует
Надежду на прогресс дает стремительное развитие ИИ-технологий, которое отмечается сегодня и вряд ли замедлится в ближайшем будущем. Так, в конце июля глава OpenAI Сэм Альтман сообщил, что к концу 2025 года компания будет обладать мощностью миллиона ускорителей на базе GPU с тензорными ядрами (TPU), но и это не предел — в перспективе, число ускорителей может достигнуть фантастической цифры в сто миллионов. Альтман считает, что это реально. Одним из практических шагов на пути реализации инициативы, стало, в частности, создание огромного дата-центра OpenAI в Техасе, США. Кампус, рассчитанный сегодня на мощность в 390 МВт является мощнейшим ИИ-ЦОД в мире, а в следующем году компания планирует довести этот показатель до 1 ГВт. И если планы OpenAI продолжат реализовываться — этот проект будет не единственным.