ChatGPT впервые был использован для принятия судебного решения

ChatGPT впервые был использован для принятия судебного решения - rdd.media 2023

Судья в Колумбии использовал ChatGPT для принятия судебного решения, и это, вероятно, первый раз, когда юридическое решение было принято с использованием текстового генератора ИИ – или, по крайней мере, первый случай, о котором мы знаем.

Судья Хуан Мануэль Падилья Гарсия, который возглавляет Первый окружной суд в городе Картахена, сказал, что он использовал инструмент ИИ, чтобы задавать юридические вопросы по делу и включил свои ответы в свое решение, согласно судебному документу от 30 января 2023 года.

«Обоснование этого решения будет определяться с учетом использования искусственного интеллекта. Соответственно, мы включили некоторые из правовых вопросов, поднятых в это разбирательство», — написал Гарсия в решении. – Цель включения этих текстов, созданных ИИ, никоим образом не заменяет решение судьи. Фактически, мы стремимся оптимизировать время, затрачиваемое на подготовку судебных решений после проверки информации, предоставленной ИИ».

Дело касалось спора с медицинской страховой компанией по поводу того, должен ли аутичный ребенок получать страховку на лечение. Согласно судебному документу, среди правовых вопросов, которые были введены в инструмент AI, были следующие: «Освобождается ли несовершеннолетний аутичный ребенок от оплаты лечения?» и «Принимал ли Конституционный суд положительные решения по таким делам?»

Гарсия включил полные ответы чат-бота в решение, что, по-видимому, было первым случаем, когда судья признал это. Судья также включил свои собственные аргументы для применимых правовых прецедентов и сказал, что ИИ был использован для «расширения аргументации решения». После подробного обсуждения с ИИ судья принимает его ответы и собственные юридические аргументы в качестве основы для принятия решения.

Колумбийское законодательство не запрещает использование искусственного интеллекта в судебных решениях, но такие системы, как ChatGPT, известны тем, что дают предвзятые, дискриминационные или просто неправильные ответы. Это связано с тем, что языковая модель не имеет реального понимания текста — она просто синтезирует предложения, основанные на вероятности из миллионов примеров, используемых для обучения системе.

Источник: vice.com

Tags: