ChatGPT впервые был использован для принятия судебного решения

Судья в Колумбии использовал ChatGPT для принятия судебного решения, и это, вероятно, первый раз, когда юридическое решение было принято с использованием текстового генератора ИИ – или, по крайней мере, первый случай, о котором мы знаем.
Судья Хуан Мануэль Падилья Гарсия, который возглавляет Первый окружной суд в городе Картахена, сказал, что он использовал инструмент ИИ, чтобы задавать юридические вопросы по делу и включил свои ответы в свое решение, согласно судебному документу от 30 января 2023 года.
«Обоснование этого решения будет определяться с учетом использования искусственного интеллекта. Соответственно, мы включили некоторые из правовых вопросов, поднятых в это разбирательство», — написал Гарсия в решении. – Цель включения этих текстов, созданных ИИ, никоим образом не заменяет решение судьи. Фактически, мы стремимся оптимизировать время, затрачиваемое на подготовку судебных решений после проверки информации, предоставленной ИИ».
Дело касалось спора с медицинской страховой компанией по поводу того, должен ли аутичный ребенок получать страховку на лечение. Согласно судебному документу, среди правовых вопросов, которые были введены в инструмент AI, были следующие: «Освобождается ли несовершеннолетний аутичный ребенок от оплаты лечения?» и «Принимал ли Конституционный суд положительные решения по таким делам?»
Гарсия включил полные ответы чат-бота в решение, что, по-видимому, было первым случаем, когда судья признал это. Судья также включил свои собственные аргументы для применимых правовых прецедентов и сказал, что ИИ был использован для «расширения аргументации решения». После подробного обсуждения с ИИ судья принимает его ответы и собственные юридические аргументы в качестве основы для принятия решения.
Колумбийское законодательство не запрещает использование искусственного интеллекта в судебных решениях, но такие системы, как ChatGPT, известны тем, что дают предвзятые, дискриминационные или просто неправильные ответы. Это связано с тем, что языковая модель не имеет реального понимания текста — она просто синтезирует предложения, основанные на вероятности из миллионов примеров, используемых для обучения системе.
Источник: vice.com