Высокий суд Англии и Уэльса поймал юристов на использовании фальшивых прецедентов, сгенерированных ИИ

Высокий суд Англии и Уэльса выявил случаи, когда адвокаты ссылались на вымышленные решения судов, созданные ИИ, — сообщает The New York Times. Суд предупредил юристов: за использование в судебных документах данных, сгенерированных искусственным интеллектом, может грозить уголовная ответственность.

Один из рассмотренных случаев касался мужчины, который подал иск против банков и требовал компенсации в миллионы. Позже он признал, что использовал ИИ и интернет для сбора ссылок на судебную практику, приняв их за достоверные. Его адвокат заявил, что полагался на материалы, собранные клиентом, и не стал проверять их.

В другом деле юрист, представлявшая интересы выселенного жителя Лондона, привела в жалобе фальшивые прецеденты, происхождение которых объяснить не смогла. Суд заметил использование ИИ из-за американского написания и шаблонных формулировок. Хотя сама юрист отрицала обвинения в этом деле, она призналась, что делала это ранее — и тогда также добавляла вымышленные данные, полученные через поисковики с ИИ-анализом.

Судья Виктория Шарп предупредила: неправильное использование ИИ в юридической практике может повлечь серьёзные последствия — вплоть до уголовной ответственности или лишения адвокатского статуса. Она подчеркнула, что такие инструменты, как ChatGPT, не подходят для юридических исследований, поскольку часто выдают убедительно звучащие, но вымышленные данные.

Она также сослалась на случаи из США, Австралии, Канады и Новой Зеландии, где искусственный интеллект либо неправильно трактовал законодательство, либо придумывал несуществующие цитаты из судебных решений.