Доверяй, но проверяй: ChatGPT подставил адвоката — он может лишиться лицензии
Нью-Йоркский адвокат Стивен Шварц из юридической фирмы Levidow, Levidow & Oberman столкнулся с серьезными проблемами после того, как воспользовался чат-ботом ChatGPT для подготовки судебных документов по делу своего клиента, сообщает CNN. Чат-бот сгенерировал вымышленные факты, и адвокату пришлось оправдываться за свой непрофессионализм.
Шварц представлял интересы Роберто Мата, который обвинял авиакомпанию Avianca Airlines в нанесении ущерба его здоровью. Адвокат хотел найти прецеденты, которые подтверждали бы халатность со стороны персонала авиакомпании, и обратился к чат-боту ChatGPT от компании OpenAI, основанному на технологии искусственного интеллекта. Чат-бот выдал ему список из нескольких дел, которые казались подходящими для его цели. Однако Шварц не проверил достоверность этих данных и включил их в свои документы, которые представил суду, практически вслепую.
Оказалось, что чат-бот сгенерировал вымышленные факты, которые не имели никакого отношения к реальности. Судья Кевин Кастель, рассматривающий дело Мата, обнаружил, что по крайней мере шесть дел, упомянутых Шварцем, были фиктивными и не имели под собой никаких доказательств. Судья потребовал от Шварца объяснений и запустил проверку по факту предоставления ложной информации.
Шварц признался под присягой, что это был первый раз, когда он использовал чат-бота для юридического исследования, и что он не знал о том, что чат-бот может выдавать ложные данные. Он извинился за свою ошибку и пообещал больше не пользоваться искусственным интеллектом без абсолютной проверки всех фактов.
Судья Кастель назначил слушание по делу Шварца на 8 июня. Адвокату грозит потеря лицензии и другие санкции за нарушение этических норм.