×
Вашеняк Наталья
Вашеняк Наталья
Адвокат АП г. Москвы, ассоциация адвокатов «Центральная московская коллегия адвокатов»

В последние годы искусственный интеллект (ИИ) преобразовал множество отраслей, начиная от медицины и заканчивая автомобилестроением. Нейросети – это компьютерные системы, вдохновленные структурой и функционированием человеческого мозга, способные к обучению и адаптации. Эти технологии обеспечивают возможности для автоматизации сложных задач, анализа больших объемов данных и даже принятия решений на основе обучения и опыта.

В контексте юридической практики использование нейросетей все еще находится в стадии активного изучения и адаптации. Тем не менее многие адвокаты и юридические компании начинают исследовать возможности использования нейросетей для анализа судебной практики, автоматизации документооборота и даже помощи в формировании правовых стратегий.

Несмотря на то что перспективы использования ИИ в юриспруденции многообещающие, возникает ряд вопросов, связанных с юридической ответственностью, этикой и точностью. Попробуем разобраться, в каких пределах возможно использование нейросетей в деятельности адвоката и какие риски это влечет.

Адвокат – это юрист, получивший особый статус, подтверждающий высокий уровень профессиональных знаний, обладающий опытом. Адвокаты обязаны повышать квалификацию и соблюдать Кодекс профессиональной этики адвоката. Для большинства доверителей наличие у юриста адвокатского статуса является своеобразным знаком качества и означает дополнительные гарантии. От адвоката ожидают высокого профессионализма, честности и добросовестности в работе. Существование и деятельность адвокатского сообщества невозможны без соблюдения корпоративной дисциплины и профессиональной этики, заботы о чести и достоинстве, а также об авторитете адвокатуры.

Применяя в работе нейросети, адвокат обязан проверять их выводы. Генеративный ИИ является вероятностным – т.е. выдает статистически наиболее вероятный результат на основе своих обучающих данных и используемой модели, в связи с чем может галлюцинировать и приходить к неправильным выводам. Кроме того, законы динамично меняются, поэтому редакция закона, на которой основывались выводы ИИ, на момент обращения к ней может оказаться уже устаревшей. Безусловно, адвокат не может допустить предоставление доверителю документа с ошибкой или ссылкой на устаревшую редакцию нормы права. Чтобы снизить этот риск, выходные данные всегда должны тщательно проверяться адвокатом перед использованием.

Примечателен пример из зарубежной судебной практики, связанный с адвокатами Стивеном Шварцем и Питером Лодуком, использовавшими чат-бот, работая по делу против авиалиний Avianca. Иск к Avianca был подан Роберто Мата, который утверждал, что получил травму колена от металлической сервировочной тележки во время полета в Нью-Йорк.

Когда Avianca попыталась остановить процесс через федерального судью, адвокаты истца, включая Стивена Шварца, представили в качестве доказательства 10-страничный документ с цитатами экспертов и ссылками на схожие дела – в частности, «Мартинез против Delta Airlines», «Дерден против KLM Royal Dutch Airlines», «Зикерман против Korean Air Lines» и «Варгезе против China Southern Airlines».

Однако юристам Avianca и судье не удалось найти упомянутые в документе решения и цитаты. В ходе разбирательства выяснилось, что часть дел, упомянутых истцом, сгенерирована искусственным интеллектом. Судья подчеркнул, что «шесть из них являются вымышленными судебными решениями с выдуманными цитатами и ссылками». В результате под присягой адвокаты признали использование чат-бота, за что были оштрафованы на 5 тыс. долларов.

В соответствии с п. 2 ст. 6 КПЭА соблюдение профессиональной тайны является безусловным приоритетом в деятельности адвоката. В связи с этим адвокат не вправе вводить в нейросети данные, составляющие адвокатскую тайну. Большинство генеративных нейросетей обучаются на данных ввода и вывода пользователей. Все, что загружено пользователями в нейросеть, может быть использовано для выдачи на запросы других пользователей, о чем правообладатели нейросетей предупреждают в пользовательских соглашениях. Таким образом, может произойти разглашение адвокатской тайны, что неприемлемо в деятельности адвоката: за разглашение сведений, составляющих адвокатскую тайну, адвокат может быть привлечен к дисциплинарной ответственности.

Одни из ключевых этических рисков, связанных с использованием ИИ в юриспруденции, – потенциальное замещение человеческого фактора и потеря индивидуального подхода к рассмотрению дел. Юридические дела зачастую требуют не только знания законов, но и понимания человеческих аспектов – таких, в частности, как мотивы, намерения, социальный контекст. Искусственный интеллект хотя и способен обрабатывать большие объемы информации, не может полностью понять эти нюансы. Выбирая адвоката, доверители хотят получить именно его знания и опыт, индивидуальный подход к их делам. В связи с этим полагаю, что адвокат не вправе «делегировать» ИИ принятие критически важных решений по делу и слепо следовать его рекомендациям.

Несмотря на значительные достижения в области искусственного интеллекта, современные нейросети имеют ряд недостатков и ограничений. Одним из основных является зависимость от данных, на которых они обучены. Если эти данные неполны, неточны или предвзяты, выводы ИИ могут быть ошибочными или некорректными. Также важно учитывать, что нейросети не обладают способностью к критическому мышлению или пониманию контекста в той же степени, что и человек. Это означает, что они могут не учитывать уникальные аспекты каждого конкретного дела, что особенно важно в юридической сфере. Важно, чтобы ИИ дополнял профессиональный опыт, а не заменял его.

Приведу еще один пример из зарубежной практики. В Колумбии судья использовал нейросеть для консультации перед вынесением приговора. Часть юридического сообщества критически оценила действия судьи, хотя нарушений с его стороны выявлено не было. Кроме того, выводы нейросети совпали с выводами судьи и лишь помогли ему сэкономить время. Кроме того, в Колумбии действует закон, обязывающий юристов использовать современные технологии для более эффективной работы.

Одним из серьезных рисков использования ИИ является проблема непредвиденных искажений и предвзятости. Искусственный интеллект, обучающийся на основе исторических данных, может воспроизводить и усиливать предвзятости, имеющиеся в этих данных. Это особенно опасно в юридической практике, где справедливость и объективность являются фундаментальными принципами. Например, если данные о судебных решениях содержат гендерные, расовые или социальные предвзятости, ИИ может непреднамеренно усиливать эти тенденции в своих рекомендациях и анализе. Так, в исследовании Института Брукингса1 выявлены случаи, когда алгоритмическая предвзятость наблюдалась в алгоритмах уголовного правосудия. Результатом такого риска ИИ является то, что отдельные лица или группы внутри общества могут быть подвергнуты дискриминации на основе результатов работы алгоритма ИИ.

Резюмируя, отмечу, что применение искусственного интеллекта в адвокатской практике поднимает важные вопросы профессиональной этики. Адвокаты, использующие ИИ для анализа дел, должны убедиться, что не умаляют свою профессиональную ответственность и обязанность заботиться об интересах доверителей. Им необходимо гарантировать, что использование ИИ не приведет к разглашению адвокатской тайны или снижению качества правовой помощи. Также важно учитывать, что рекомендации ИИ следует рассматривать как дополнительный инструмент, а не окончательное решение. Адвокаты должны критически оценивать выводы, предоставляемые ИИ, и принимать окончательные решения, опираясь на профессиональный опыт и знания.


1 Nicol T.L. Algorithmic bias detection and mitigation: Best practices and policies to reduce consumer harms / T.L. Nicol. // Brookings : [сайт]. – URL: https://www.brookings.edu/articles/algorithmic-bias-detection-and-mitigation-best-practices-and-policies-to-reduce-consumer-harms/.

Рассказать:
Другие мнения
Ильчук Юлия
Ильчук Юлия
Директор по развитию PRAVO TECH
Как инструменты анализа и мониторинга помогают при подготовке к судебным заседаниям
Legal tech
Тренды цифровизации правосудия
15 февраля 2024
Ильчук Юлия
Ильчук Юлия
Директор по развитию PRAVO TECH
Меньше времени на рутину, больше – на правовую помощь
Legal tech
Цифровые инструменты помогают формировать стратегию по делу и оценивать риски
01 сентября 2023
Караванов Богдан
Караванов Богдан
Юрист LegalTech, ООО «Докзилла»
«(Де)гуманизация» юриспруденции?
Legal tech
Заменит ли нейросеть юриста и почему в ближайшей перспективе этого не произойдет
28 июля 2023
Аликперов Ханлар
Аликперов Ханлар
Директор Центра правовых исследований (Баку, Азербайджанская Республика), д.ю.н., профессор      
Для чего судам «Электронные весы правосудия»
Legal tech
Платформа исключает влияние «человеческого фактора» при определении наказания за преступление
06 апреля 2023
Сенцов Иван
Сенцов Иван
Преподаватель юридического факультета Воронежского государственного университета, адвокат, заведующий филиалом Воронежской областной коллегии адвокатов «Адвокатская контора Маклаков, Сенцов и партнеры», член квалификационной комиссии адвокатской палаты Воронежской области
Новая форма процесса
Legal tech
О некоторых вопросах электронного правосудия и электронных доказательств
26 декабря 2022
Стрижова Татьяна
Стрижова Татьяна
Партнер АБ «Бартолиус»
Достигнут ли новые требования поставленной цели?
Legal tech
Или в результате трансграничная передача персональных данных просто уйдет в тень
29 ноября 2022
Яндекс.Метрика