11 апреля в Москве прошла научно-практическая конференция по теме «Адвокатура и правосудие в эпоху искусственного интеллекта: конституционные риски и способы защиты», организованная Центром конституционного правосудия. Модератором выступил руководитель ЦКП Иван Брикульский, который отметил, что фокус мероприятия смещен с практики применения ИИ на вопросы сосуществования с этими технологиями и защиты от связанных с ними рисков. Он напомнил об инциденте в Краснодаре, где искусственный интеллект фактически участвовал в правосудии. Судья скопировала часть вердикта из нейросети, причем алгоритм рекомендовал ужесточить приговор.
Адвокат Melling, Voitishkin & Partners, обладатель CALI Award по международному праву Павел Ларионов рассказал о подходах к регулированию искусственного интеллекта в уголовном праве США и России. Так, американское уголовное право различает наказание за распространение детской порнографии с использованием ИИ и без него. В качестве примера он привел законодательство штата Техас, где срок лишения свободы в первом случае (никакой вред несовершеннолетнему или кому бы то ни было не причинялся, запрещенный материал был сгенерирован ИИ) составляет до четырех лет, а во втором – до шести лет. Адвокат обратил внимание, что в российском законодательстве есть нормы, предусматривающие уголовную ответственность за распространение материалов с изображением несовершеннолетних без их фактического участия.
Павел Ларионов также затронул тему распознавания лиц. Он рассказал, что в США эти технологии широко используются для арестов, но ошибки системы приводят к незаконным задержаниям. В подтверждение он привел дело Анджелы Липпс, которую ошибочно арестовали, хотя она находилась в другом штате в момент совершения преступления. При этом Верховный суд США потребовал раскрывать алгоритмы распознавания лиц, чтобы обеспечить право на защиту.
Адвокат отметил, что в России хорошо развита система видеонаблюдения: административные штрафы уже давно выписывают на основе данных с дорожных камер. По его мнению, использовать ту же инфраструктуру для выявления причастности к преступлениям – технически несложно, остается лишь принять соответствующее решение. Павел Ларионов предположил, что такая практика появится в ближайшее время.
Руководитель Центра международного права Сергей Охотин рассмотрел философские, практические и политико-правовые аспекты внедрения ИИ в правоприменение. Он отметил, что искусственный интеллект воспринимается как инструмент для снятия ответственности с человека и уменьшения субъективных ошибок. Вместе с тем субъективность – это не дефект системы, а свойство человека. Судья и чиновник интерпретируют факты через свои опыт и ценности. Отсюда, собственно, и риск ошибки, и возможность милосердия. По мнению эксперта, полное устранение субъективности приведет к тому, что человеческое суждение заменится слепым правилом.
Сергей Охотин охарактеризовал ИИ в праве как современную версию поиска арбитра, стоящего выше человека, и перенос ответственности с конкретного человека на систему. Затем он перешел к текущей политической повестке: в ноябре 2025 г. Президент России утвердил перечень поручений (с конкретным сроком исполнения, большинство до 1 июня 2026 г.) о последовательном внедрении ИИ в отрасли экономики, социальную сферу, в государственное управление и образование. Данные поручения включают создание единой базы для внедрения ИИ и приоритетное использование отечественных генеративных моделей.
Эксперт подчеркнул, что в России до сих пор юридически не определено само понятие «искусственный интеллект». На практике ИИ используется для поиска и анализа данных, прогнозирования, а также для подготовки черновиков судебных решений. По словам Сергея Охотина, ИИ не устраняет ошибки, а лишь переносит их в другую форму, воспроизводит существующую предвзятость и копирует практику без обоснования ее справедливости. Отдельную угрозу, по его словам, создают «галлюцинации» права – когда ИИ генерирует фиктивные прецеденты, что подрывает правовую определенность и верховенство права.
В завершение Сергей Охотин выделил две возможные антропологические модели развития ИИ в праве. Первая – ИИ как инструмент развития правовой системы в интересах человека. Вторая – ИИ как усилитель существующего правоприменения в интересах тех, кто контролирует институты и данные. По мнению эксперта, практически вероятнее вторая модель, но главный вопрос заключается в том, в чьих интересах и в какой роли искусственный интеллект будет допущен в правовую систему.
Ведущий юрисконсульт управления интеллектуальной собственностью «Яндекса» Артем Никифоров рассказал о природе ИИ, связанных с ним рисках, о том, почему нейросети галлюционируют и как с этим бороться. Эксперт пояснил, что ИИ – это не человеческий интеллект, а алгоритм аппроксимации, т.е. статистическая модель, которая выдает наиболее вероятные ответы на основе анализа данных.
Он отметил, что современные нейросети автономны и могут адаптироваться к тем ответам, которые они дают, и принимать какие-то решения вне зависимости от изначальной интенции человека. Они работают на основе статистики с миллиардами значений, что создает эффект «черного ящика» – когда непонятно, каким именно образом алгоритм пришел к тому или иному выводу.
Артем Никифоров объяснил, что галлюцинация ИИ – это генерация правдоподобной, но фактически неверной информации. Такое происходит потому, что у модели отсутствует понятие истины, она не различает истину и ложь, работает с лингвистической вероятностью, что особенно опасно в юридической аргументации и при составлении нормативных ссылок.
Говоря о способах снижения рисков, Артем Никифоров отметил, что привязка ИИ к проверенным базам данных и правильное построение запросов уменьшают вероятность ошибок, но не исключают их полностью. Отдельную опасность, по его словам, представляют агентные модели, которые могут выполнять вредоносные инструкции, – это особенно критично в судебной практике.
Профессор кафедры процессуального права ВАВТ Минэкономразвития РФ, д.ю.н., Дмитрий Туманов отметил, что среди ученых и практиков существуют полярные мнения о применении ИИ в правосудии: некоторые из них вообще предлагают заменить судью искусственным интеллектом в первой инстанции, оставив человека только для последующего обжалования; другие же ученые считают, что правосудие должно развиваться с новыми принципами, учитывающими существование ИИ.
Спикер высказал скептическое отношение к использованию ИИ в правосудии, поскольку эти технологии не способны принимать решения, требующие судебного усмотрения и работы с абстрактными юридическими категориями. При этом Дмитрий Туманов признал, что ИИ может помочь в подготовке дел и обнаружении пробелов в праве или в ситуации, когда судья посчитал что-то пробелом в праве, а это законодательно регулируется. Но, подчеркнул он, это можно делать лишь с очень большими ограничениями.
Дмитрий Туманов объяснил, почему ИИ не может заменить правосудие. По его словам, правосудие – это сложнейшее явление, результат эволюционных и революционных процессов, основанное на фундаментальных принципах. Именно принципы судопроизводства, такие как гласность и процессуальная форма, обеспечивают качество правосудия и защиту от произвола, а реализовать их через искусственный интеллект крайне сложно. Отдельно он затронул проблему независимости судей. ИИ, по его мнению, не гарантирует независимости, потому что обучение ИИ зависит от заинтересованных лиц.
Сооснователь сообщества «ilovedocs нейросети» Павел Мищенко подчеркнул, что нейросети – это инструмент, у которого есть свои преимущества и недостатки, но на сегодняшний день их преимущества перевешивают недостатки. Он полагает, что нейросети повышают эффективность работы судей и адвокатов, а их использование неизбежно. Поэтому, считает эксперт, важно правильно определить области применения и необходимые навыки.
Павел Мищенко обратил внимание на технические детали: нейросеть не учится в процессе диалога, обучение происходит на данных, зафиксированных на определенную дату, а новые модели обновляются отдельно. Чат нейросети, пояснил эксперт, является основным интерфейсом взаимодействия, однако контекст диалога ограничен, что напрямую влияет на качество ответов. Спикер отметил, что оптимальный объем данных для анализа судебных актов – около 20 решений, а большее количество, наоборот, ухудшает результат.
Как пояснил Павел Мищенко, нейросети не всегда имеют доступ к актуальным данным и не обучены на российской судебной практике, что приводит к ошибкам. Выходом, по его словам, служит включение функции поиска в интернете, например в DeepSeek, что позволяет получать актуальные и точные ответы.
Павел Мищенко объяснил, что нейросеть забывает контекст после завершения чата, поэтому он посоветовал создавать проекты с сохранением инструкций и данных. Отдельно он остановился на эволюции взаимодействия с нейросетями. По его словам, традиционные промты устаревают – теперь благодаря «думающим моделям» можно общаться с нейросетью на естественном языке. Такие модели, пояснил он, перепроверяют ответы внутри себя, обеспечивая более точные результаты.
К.ю.н., LL.M (McGeorge Law School), консультант ИЦЧП им. С.С.Алексеева Наталья Спиридонова рассмотрела проблемы использования ИИ в правосудии, подходы к его регулированию в разных странах, а также вопросы ответственности за ошибки, опираясь на конкретные судебные кейсы. По ее мнению, искусственный интеллект не может полностью заменить судью. Причины заключаются в проблемах с предвзятостью алгоритмов, невозможности адекватной интерпретации правовых норм и отсутствии у ИИ способности формировать судебные прецеденты.
В качестве примера Наталья Спиридонова привела американскую ИИ-систему COMPAS, которая демонстрирует ложноположительные и ложноотрицательные предрассудки, которые по-разному влияют на решения о залоге в отношении лиц в зависимости от их цвета кожи. Эксперт считает, что использование ИИ в судах создает риски для легитимности правосудия и может привести к дискриминации.
Затрагивая вопрос регулирования, Наталья Спиридонова отметила, что в Канаде предлагается полный запрет использования ИИ судьями. Такой подход, пояснила она, исходит из того, что ответственность за правосудие должны нести исключительно люди.
Также спикер отметила, что ЮНЕСКО разработала рекомендации по использованию ИИ, в которых рекомендуется избегать предвзятостей, раскрывать факт использования ИИ в судебных процессах, соблюдать принцип надлежащей правовой процедуры и обеспечивать возможность обжалования решений, вынесенных с участием ИИ. Относительно ответственности за ошибки ИИ Наталья Спиридонова сообщила, что судьи теоретически могут быть привлечены к дисциплинарной ответственности вплоть до предупреждений и лишения статуса, однако на сегодняшний день таких случаев пока не зафиксировано.
Адвокат филиала Приморской краевой коллегии адвокатов – конторы адвокатов «Берест» Максим Сикач рассказал о деле, связанном с использованием ИИ в избирательных кампаниях. Так, например, в Челябинской области кандидаты от КПРФ использовали агитационный материал с изображением семьи, сгенерированным ИИ в стилистике советского плаката. Избирательная комиссия запретила этот материал, сославшись на закон, запрещающий использовать в агитации изображения лиц, кроме самих кандидатов. Кроме того, на листовке изображен ребенок, что также нарушает закон. Челябинский областной суд признал запрет избиркома незаконным и разрешил распространение агитационного материала. Однако Второй апелляционный суд общей юрисдикции уже после избирательного цикла отменил решение областного суда, признав законным запрет избиркома. 4 февраля Верховный Суд вынес Кассационное определение по делу № 48-ИКАД26-1-А2, которым поддержал вывод апелляции о том, что в агитационных материалах, в том числе созданных с применением нейросетей, допускается лишь использование изображения кандидата.
Максим Сикач подчеркнул: ЦИК отмечает, что в отсутствие адекватного законодательства в этой сфере применение ИИ будет работать не во благо избирательной системы, а вопрос регулирования ИИ становится не только вопросом чистоты кампании, но и вызовом с точки зрения национальной безопасности.
Затем эксперт привел международные примеры. В Индонезии, рассказал он, запретили использование ИИ в предвыборной агитации, а также «фотошоп». В Южной Корее запретили дипфейки за 90 дней до выборов. Китай применяет двойную маркировку ИИ-контента с серьезными штрафами за удаление метаданных. Бразилия также запретила дипфейки и чат-боты в избирательных кампаниях. По мнению Максима Сикача, запрет на использование в избирательных кампаниях изображений, похожих на людей, ведет к стагнации развития и скрытой цензуре. Он считает, что такие запреты – это ретроградство, поскольку инструмент сам по себе нейтрален, а умысел всегда исходит от человека.
Юрист Центра конституционного правосудия Даниил Богачёв обратил внимание, что проблема использования вспомогательных инструментов в правосудии не нова. Судьи и раньше прибегали к помощникам судей – эта фигура была введена в процессуальные кодексы в 2019 г., и из-за огромной нагрузки помощники фактически выполняют роль судьи, а судья лишь подписывает подготовленный ими текст. Также распространено заимствование из документов, представленных сторонами, или других судебных решений, что иногда называют «флеш-правосудием». По мнению эксперта, использование ИИ аналогично этим практикам. Вопрос в том, есть ли здесь парадигмальный слом: когда копирует человек, он хоть как-то критически оценивает материал, а при использовании технологии ИИ эта критичность может исчезнуть.
Даниил Богачёв обратился к принципу свободной оценки доказательств и внутреннего убеждения судьи. Если судья использует ИИ для составления части приговора, но перед подписанием исправляет ошибки, то с точки зрения догмы принцип не нарушается. Более того, нормы УПК о технических средствах позволяют толковать ИИ именно так, поэтому буквально закон не запрещает его использование. Принцип осуществления правосудия только судом, по мнению эксперта, не нарушается, если судья сохраняет контроль над решением. Что касается независимости судьи, она сохраняется при условии критической оценки текста, предоставленного ИИ: судья должен что-то убрать, что-то оставить по внутреннему убеждению, не поддаваясь внешнему давлению.
Ключевой предпосылкой для внедрения ИИ Даниил Богачёв назвал колоссальную нагрузку на судей. Он также обратил внимание на позицию КС РФ: прямой запрет на использование ИИ судьей не установлен. Эксперт поддержал идею публичного раскрытия факта использования ИИ, модели и данных – для соблюдения принципа гласности и конфиденциальности. По его мнению, судья не может делегировать ИИ принятие решения по существу, но все вспомогательные вопросы могут быть переданы ИИ, при этом ответственность всегда остается на судье.
Юрист, партнер Vamos Law Firm Илья Петрановский поделился практическим опытом использования ИИ в своей профессиональной деятельности, рассказал о конкретных инструментах и методах повышения качества работы, а также указал на предостережения.
Он отметил, что ИИ стоит рассматривать не как способ формирования смыслов, а как инструмент ускорения формирования позиции и обрамления этой позиции с точки зрения логики и содержания. Эксперт выделил три уровня использования ИИ в юридической сфере. Первый или базовый – анализ договоров и позиций. Второй – работа с продвинутыми моделями, которые позволяют дать им доступ к папке с материалами дела (может прочитать до 500 страниц) и быстро находить противоречия, не видимые обычным взглядом. Третий – системное встраивание ИИ: от предварительного анализа и оценки шансов до подготовки процессуальных документов и прогнозирования позиций суда и оппонента.
По словам Ильи Петрановского, главная опасность при использовании ИИ – это самообман: получив несколько раз качественный результат, можно поверить, что так будет всегда. На самом деле галлюцинации случаются, поэтому перепроверка обязательна. Эксперт также рассказал о методе, которым сам пользуется, – лингвистическом анализе апелляционных и кассационных жалоб: «Иногда глаз “замыливается”, и юрист может думать, что его позиция безупречна. Полезно попросить ИИ выступить в роли судьи и “отбрифить” документ по строгим процессуальным основаниям (допустимость пересмотра, переоценка доказательств и т.д.). Это помогает понять, что нужно подправить».
Также Илья Петрановский описал, как выстраивать процессуальную стратегию: сначала сформулировать свою позицию, затем попросить ИИ проверить ее на ошибки, затем смоделировать позицию оппонента и, наконец, «прогнать» обе позиции через роль судьи, чтобы увидеть, какие аргументы выглядят убедительными. Это особенно полезно для жалоб в Конституционный Суд, где не проверяются фактические обстоятельства дела, пояснил спикер.
В завершение конференции Илья Брикульский поблагодарил коллег за выступления и живую дискуссию. Он отметил, что участие представителей адвокатского и юридического сообществ, экспертов и преподавателей позволило осветить множество проблем с разных сторон: бизнеса, конституционализма, уголовного права, теории и народовластия.

