Активное внедрение искусственного интеллекта (ИИ) в повседневную жизнь неизбежно сопровождается новыми вызовами в сфере уголовного права. Российское законодательство традиционно реагирует на изменения социальной действительности корректировкой правовых норм, однако в отношении квалификации преступлений, совершенных с применением технологий ИИ, наблюдается лакуна.
В Уголовном кодексе РФ отягчающие обстоятельства определены ст. 63 и представляют собой исчерпывающий перечень, не подлежащий расширительному толкованию (Постановление Пленума Верховного Суда РФ от 22 декабря 2015 г. № 58 «О практике назначения судами Российской Федерации уголовного наказания»). Однако существующие нормы не учитывают качественно новые угрозы, возникающие вследствие использования ИИ. При этом современные технологии позволяют значительно увеличить масштаб и тяжесть преступных последствий – например, при мошенничестве с подделкой голосов и образов (дипфейк-технологии).
В сентябре 2024 г. в Госдуму внесен законопроект № 718538-8, предлагающий ввести квалифицирующий признак использования дипфейков при совершении мошенничества. Проект получил позитивную оценку Верховного Суда. Председатель Следственного комитета РФ Александр Бастрыкин также подчеркнул целесообразность включения использования ИИ в перечень отягчающих обстоятельств – аналогично применению оружия или совершению преступлений в особых условиях. Премьер-министр РФ Михаил Мишустин поддержал предложение считать применение искусственного интеллекта отягчающим обстоятельством.
На необходимость усиления ответственности за использование при совершении преступлений высоких технологий указывает и следственная практика последних лет. Так, в сентябре 2024 г. было установлено, что мошенники, используя ИИ-технологии, смогли похитить значительную сумму денежных средств, сфальсифицировав голос жительницы Барнаула. Следствие отметило повышенную общественную опасность такого способа преступления, однако вынуждено было квалифицировать деяние по общей норме ст. 159 УК ввиду отсутствия специального указания в законе на технологический аспект.
Массовый характер приобрели мошеннические схемы, в которых применяются чат-боты на основе ИИ для массовой рассылки фальшивых сообщений банков. Это позволяет причинить значительный материальный ущерб десяткам граждан. Именно поэтому становится актуальной необходимость учета технологии совершения преступления при назначении наказания.
МВД подчеркивает особую сложность и повышенную общественную опасность подобных деяний. По данным МВД, в 2024 г. в России зарегистрировано 765,4 тыс. преступлений, совершенных с использованием информационно-телекоммуникационных технологий или в сфере компьютерной информации, что на 13,1% больше, чем в 2023 г. В общем количестве преступлений их удельный вес увеличился с 34,8% до 40%.
Зарубежный опыт демонстрирует осознание необходимости специального правового регулирования ответственности за указанные преступления. Так, во Франции с 2023 г. на законодательном уровне ужесточено наказание за преступления с использованием ИИ-технологий – в частности, deepfake-контента (ст. 226-8-1 Уголовного кодекса Франции). В США, несмотря на отсутствие прямого законодательного закрепления, министерство юстиции рекомендовало прокурорам добиваться ужесточения наказаний по преступлениям, совершенным с применением ИИ, в силу значительно возросшей общественной опасности (DOJ guidelines, 2024). Например, по делу United States v. Vasquez (Southern District of California, 2024) суд признал отягчающим обстоятельством использование дипфейк-технологий, что привело к существенному ужесточению наказания. В Китае с января 2023 г. действует нормативный акт «О регулировании использования технологий глубокого синтеза» (Deep Synthesis Management Regulations, 2023), устанавливающий жесткие ограничения и уголовную ответственность за противоправное использование дипфейков.
Научно-правовое обоснование введения нового отягчающего обстоятельства основывается на признании искусственного интеллекта современным орудием совершения преступлений. В уголовно-правовой доктрине под орудием преступления понимается средство, с помощью которого виновный облегчает совершение противоправного деяния, увеличивая вероятность наступления тяжких последствий. Применение орудий преступления традиционно рассматривается юридической наукой как фактор, повышающий степень общественной опасности совершенного деяния1.
С точки зрения уголовного права искусственный интеллект выступает особым техническим средством, способным значительно расширить круг потерпевших и увеличить размеры причиненного вреда. Возможности ИИ включают генерацию реалистичных поддельных визуальных образов и голосов (дипфейки), автоматизированные системы массовой коммуникации (чат-боты), что существенно затрудняет их выявление правоохранительными органами. В доктрине уголовного права общественная опасность определяется потенциальной или реальной возможностью причинения вреда охраняемым законом интересам. ИИ в руках злоумышленников обладает такой возможностью в многократно усиленном масштабе, так как обеспечивает высокий уровень анонимности, оперативность и охват большого числа жертв за короткое время.
Теория отягчающих обстоятельств в уголовном праве исходит из необходимости ужесточения ответственности за деяния, при которых степень угрозы или вреда существенно превышает средние показатели для аналогичных преступлений. Использование ИИ соответствует этому критерию, поскольку оно не только облегчает противоправную деятельность, но и усложняет механизмы предупреждения и расследования преступлений, увеличивая риски повторных незаконных деяний.
По аналогии с признанными уголовным законодательством отягчающими обстоятельствами (например, использование оружия) применение искусственного интеллекта, на мой взгляд, следует рассматривать как обстоятельство, усугубляющее тяжесть содеянного. Оружие усиливает опасность посягательства ввиду его способности причинять значительный вред здоровью или жизни человека. ИИ, в свою очередь, повышает опасность преступления за счет качественно иного воздействия: упрощает преступный процесс, усиливает эффект обмана и масштабирует причинение ущерба. В этом смысле искусственный интеллект становится техническим эквивалентом традиционного оружия.
Таким образом, введение использования ИИ как отягчающего обстоятельства в УК представляется логически оправданным, соответствующим реалиям цифровой эпохи и отвечающим современным тенденциям развития уголовного права.
Закрепление данного отягчающего обстоятельства в ст. 63 УК позволит суду объективно учитывать реальную степень общественной опасности преступления и правильно индивидуализировать наказание. При этом важно не допустить чрезмерно широких формулировок, которые могли бы привести к произвольному применению норм закона.
Сформулировать новое отягчающее обстоятельство представляется целесообразным следующим образом: «совершение преступления с использованием информационно-телекоммуникационных технологий, в том числе технологий искусственного интеллекта, существенно повышающих общественную опасность преступления». Подобная формулировка создаст гибкость для правоприменения, одновременно оставаясь достаточно конкретной для обеспечения единообразия судебной практики.
С точки зрения адвоката, представляющего интересы потерпевших по данной категории уголовных дел, дополнение ст. 63 УК новым пунктом, касающимся использования ИИ, представляется логически обоснованным, актуальным и своевременным шагом, отражающим современные реалии и отвечающим потребностям правоприменительной практики.
1 См.: Комментарий к Уголовному кодексу РФ под ред. В.М. Лебедева, 2022.