ИИ-юрист: почему нейросети опасны в уголовном праве
Как же у меня полыхает. Нейросети сегодня обсуждают все — от программистов до юристов. Но то, как искусственный интеллект ведёт себя в уголовном праве, иначе как катастрофой не назовёшь.
Когда машина «допридумывает» закон
Ситуация из практики: ChatGPT уверенно выдал вид наказания, которого в статье вообще нет. Ни в старом УК РСФСР, ни в действующем УК РФ. Машина придумала «принудительные работы» там, где законом предусмотрено только лишение свободы. Уверенно, аргументированно — и абсолютно мимо реальности.
Почему это проблема
ИИ встроено понятие «справедливости» в правовом смысле. Алгоритм искренне считает, что и адвокат, и обвиняемый хотят справедливого приговора. Он рассуждает в логике закона, а не стратегии защиты. В итоге — позиция обвинения, но с лицом помощника.
Кейс из практики
В деле клиента можно было переквалифицировать статью на менее тяжкий состав. Следователь — за «семёрку», адвокат — за минималку. ChatGPT же уверенно заявил, что «мягкая» квалификация нарушает нормы УК и приведёт к несправедливому наказанию. Машина даже не допускает мысли, что задача защиты — минимизировать ущерб, а не играть в мораль.
Что нейросеть умеет, а что — нет
Да, ИИ может анализировать текст закона, подбирать судебную практику, составлять шаблоны документов. Но он не понимает стратегию, не чувствует процесс, не учитывает человеческий фактор и психику обвиняемого. Это инструмент, а не коллега-юрист. И пока он остаётся только помощником для анализа, но не для решений.
Совет от практика
Используйте нейросети для сбора данных, перевода, подготовки черновиков. Но не спорьте с юристом, цитируя ChatGPT. Особенно до того, как заплатили ему гонорар. После — посмотрим.
Редакция PavRC