×

Использование искусственного интеллекта при интерпретации медицинских данных

Безопасность, ответственность и эффективность
Зарбабян Мартин
Зарбабян Мартин
Адвокат, член Адвокатской палаты города Москвы, руководитель практики уголовного права и процесса Инфралекс

В начале апреля Президент РФ Владимир Владимирович Путин утвердил перечень поручений по итогам совещания с членами Правительства, состоявшегося 18 февраля 2026 г. Одним из поручений стало обеспечение внедрения технологий искусственного интеллекта в медицинскую практику, в том числе для автоматизации процессов анализа данных и результатов лабораторных исследований.

Вообще ИИ проникает во все сферы экономики, становясь незаменимой составляющей транспорта, социальных и финансовых услуг, общественного питания и, конечно, здравоохранения. Все чаще он используется при эксплуатации медицинских изделий и оказании медпомощи, являясь важным инструментом взаимодействия с пациентом.

Среди зарегистрированных медицинских изделий с ИИ от российских компаний-разработчиков популярны средства анализа изображений (тканей и органов, глазного дна), радиологических изображений (КТ ГМ, КТ ОГК, КТ зубов, маммография), видеопотока (колоноскопия), данных интегрированной электронной медицинской карты, фармтерапии, цифровых ЭКГ и планирования операций. Наибольшее количество решений направлено именно на оценку и интерпретацию изображений. К примеру, существует российский сервис для выявления подозрительных очагов на снимках молочных желез и классификации исследования по шкале BI-RADS, а также для оценки качества проведенного маммографического исследования по системе PGMI. По мнению разработчика сервиса, ИИ-решение помогает врачам обнаруживать патологические новообразования в молочной железе. В частности, система формирует предварительное рентгенологическое заключение.

Разумеется, прогрессивный врач должен не только быть хорошо подготовленным
в теоретическом плане, но и ориентироваться в многочисленном потоке новой информации, обладая способностью в ограниченные сроки найти верное решение. Потому использование ИИ в здравоохранении в настоящее время является приоритетным направлением развития современной медицины.

При этом активное внедрение ИИ в сферу здравоохранения, несомненно, повышает качество и уровень оказываемой медпомощи. В частности, сторонники активного использования ИИ в медицинской сфере, особенно при интерпретации медицинских данных, отмечают, что пациентам стоит позитивно относиться к использованию ИИ, поскольку специалист сможет более точно диагностировать заболевание, что в конечном счете позволит своевременно подобрать эффективное лечение. Также использование ИИ при интерпретации медицинских данных может способствовать выявлению различных патологий на ранних стадиях и, как следствие, – снижению издержек на организацию системы здравоохранения, тем самым повышая уровень доступности медицины для граждан.

Однако ввиду объективной нехватки информации, касающейся функционирования ИИ-решений в медицинской практике, отношение к ИИ зачастую предвзятое, основанное в большей степени на мифах и стереотипах, а не на реальных фактах.

Среди главных опасений использования ИИ при интерпретации медицинских данных называется проблема ответственности за возможное причинение вреда пациенту.
В частности, ставится вопрос о том, кто должен нести ответственность, если в результате ошибочного диагностического заключения, составленного с помощью ИИ, наступили негативные последствия для пациента?

Во-первых, на данный момент ИИ-решения в российской медицине используются не вместо врача, а в помощь ему, в том числе в качестве второго-третьего мнения. К примеру, ИИ способен помочь в обнаружении патологических образований. Для этого система анализирует изображения, полученные с помощью инструментальных методов исследования, что крайне важно для диагностики доброкачественности/злокачественности опухоли. Представляется, что, когда решение специалиста отличается от того, что предлагает алгоритм, у врача может и должна оставаться возможность проверить правильность исследования, провести дополнительный осмотр или повторно изучить результаты обследования.

Во-вторых, в соответствии с законодательством использование ИИ-решений при интерпретации медицинских данных не исключает персональной ответственности врача, поскольку ответственность за все последствия работы нейросетей несет физическое или юридическое лицо, признаваемое субъектом ответственности в соответствии с законодательством РФ.

К тому же в Национальной стратегии развития ИИ на период до 2030 г., утвержденной Указом Президента РФ от 10 октября 2019 г. № 490, определены основные принципы закрепления ответственности в ходе совершенствования нормативно-правового регулирования отношений, связанных с развитием и использованием ИИ. Например, установлено, что не допускается делегирование системам ИИ ответственного нравственного выбора, а также ответственности за последствия принятия решений.

Читайте также
Искусственный интеллект получит государственное регулирование
Минцифры подготовило проект закона, направленного на создание правовых условий для ускоренного развития и внедрения технологий искусственного интеллекта, обеспечение безопасности личности, общества и государства
06 апреля 2026 Новости

Кроме того, в марте на сайте Федерального портала проектов нормативных правовых актов опубликован законопроект об основах государственного регулирования сфер применения технологий искусственного интеллекта в РФ, разработанный Минцифры России. Данная инициатива направлена на регулирование отношений, возникающих в связи с внедрением, использованием и иным применением технологий ИИ.

Авторами законопроекта предложен ряд положений, которые призваны закрепить и каскадировать ответственность различных субъектов при использовании ИИ, что может повысить уровень гарантий для пациентов в случае использования цифровых решений при оказании медпомощи.

Несмотря на возможность применения к соответствующим отношениям
положений действующего законодательства, интенсивное развитие технологий ИИ
в России, на мой взгляд, актуализирует и оправдывает принятие специального правового регулирования. Следовательно, вопросы, связанные с ответственностью субъектов, использующих ИИ-решения при медицинской диагностике, по-прежнему важны и требуют законодательного совершенствования.

Отдельно стоит отметить Кодекс этики применения ИИ в сфере охраны здоровья1, представляющий собой набор принципов и рекомендаций, предлагаемых Министерством здравоохранения РФ, которые направлены на определение этических норм использования ИИ. В частности, в указанном документе обращается внимание на необходимость обеспечения безопасности пациентов на всех этапах жизненного цикла систем ИИ, а также на разработку таких систем с ориентацией на понятность и объяснимость результатов функционирования.

Таким образом, активное использование технологий ИИ при интерпретации медицинских данных подразумевает, в первую очередь, соблюдение безопасности, когда решения не должны приводить к негативным последствиям для граждан, а также персонализацию, когда ответственность не абстрактная, а конкретная и понятная. Подобный подход использования ИИ закономерно не снимает ответственности с врача или специалиста, использующего цифровые решения в своей деятельности.

Резюмируя, отмечу, что использование ИИ в медицине представляет огромный потенциал для улучшения диагностики и профилактики заболеваний, и для его успешной реализации необходимы функционирующие правовые нормы и механизмы, включая специальное регулирование. Полагаю, что развитие нормативно-правового регулирования должно, с одной стороны, обеспечивать защиту прав человека и безопасности страны, а с другой, – устранять чрезмерные барьеры на пути к активному использованию решений в области цифровых технологий.


1 Кодекс этики применения искусственного интеллекта в сфере охраны здоровья. Версия 2.1 (утв. Межведомственной рабочей группой при Минздраве России по вопросам создания, развития и внедрения в клиническую практику медицинских изделий и сервисов с использованием технологий искусственного интеллекта, протокол от 14 февраля 2025 г. № 90/18-0/117).

Рассказать:
Другие мнения
Арутюнян Овагим
Арутюнян Овагим
Адвокат, член АП Ставропольского края
Если следственных отделов – несколько
Уголовное право и процесс
Кто в таком случае выступает руководителем следственного органа по смыслу ч. 6 ст. 220 УПК?
30 апреля 2026
Покровский Филипп
Покровский Филипп
Адвокат Адвокатской палаты Санкт-Петербурга, глава Адвокатской консультации № 70 Санкт-Петербургской объединенной коллегии адвокатов
Требуется сбалансированный подход
Гражданское право и процесс
Анализ законодательной инициативы о запрете займов под залог жилья между физическими лицами
29 апреля 2026
Якубовская Светлана
Якубовская Светлана
Член АП Санкт-Петербурга, Санкт-Петербургской коллегии адвокатов «Объединенная Невская»
Границы взяточничества и мошенничества
Уголовное право и процесс
ВС разграничил ситуации «обмана о возможностях» и случаи реального использования служебного положения
24 апреля 2026
Муратова Надежда
Муратова Надежда
Член АП Республики Татарстан, управляющий партнер Адвокатского бюро «Муратова и партнеры», к.ю.н., доктор юридического администрирования, заслуженный юрист Республики Татарстан
Религиозные организации как операторы персональных данных
Интернет-право
Новые зоны риска и точки опоры для адвоката при оказании юридической помощи
21 апреля 2026
Дигмар Юнис
Дигмар Юнис
Член Адвокатской палаты города Москвы
Экономика решений
Гражданское право и процесс
Положительные изменения правоприменительной практики Верховного Суда Российской Федерации по корпоративным спорам
21 апреля 2026
Ватаманюк Владислав
Ватаманюк Владислав
Адвокат, к.ю.н., управляющий партнер Адвокатской группы Ватаманюк & Партнеры, арбитр Арбитражного центра при РСПП, старший преподаватель кафедры гражданского и административного судопроизводства Московского государственного юридического университета имени О. Е. Кутафина (МГЮА)
Искусственная группа – не повод для отказа от коллективной защиты
Гражданское право и процесс
В процессуальном законе уже есть инструменты, чтобы пресечь злоупотребления
21 апреля 2026
Яндекс.Метрика