Еще в начале 80-х гг. ХХ в. ученые в области теории вычислений Аврон Барр и Эдвард Файгенбаум предложили определение искусственного интеллекта (далее – AI1) как области информатики, занимающейся разработкой интеллектуальных компьютерных систем, – т.е. систем, обладающих возможностями, традиционно связываемыми с человеческим разумом: пониманием языка, обучением, способностью рассуждать, решать проблемы и т.д.2.
Позже к AI стали относить ряд алгоритмов и программных систем, отличительным свойством которых является то, что они могут решать некоторые задачи так, как это делал бы размышляющий над их решением человек.
Спустя несколько десятилетий, прошедших с момента первых разработок, стремительное развитие сферы высоких технологий привело к тому, что технологии с использованием AI повсеместно вошли в жизнь миллионов людей, став ее неотъемлемой частью. Учитывая современные тенденции в данной отрасли, можно утверждать, что экспансия технологий на базе искусственного интеллекта в нашу жизнь будет расширяться в геометрической прогрессии.
В то же время прогресс привнес и новые проблемы.
Так, уже воплощена в жизнь давно волновавшая умы ученых и энтузиастов идея создания технологии управления автомобилем с помощью AI. Наглядным подтверждением может служить представленный на выставке потребительской электроники в Лас-Вегасе автомобиль, оснащенный системой искусственного интеллекта. Программа взаимодействует с водителем, при этом постоянно совершенствуется и подстраивается под него. Например, машина способна распознавать эмоции и самочувствие водителя и пассажиров, подстраивая под это маршрут движения, работу климатической установки, способ вывода информации (звук, дисплей, тактильные ощущения), а при необходимости перейти в полностью автономный режим движения.
В то же время воплощение указанной идеи на практике оказалось не настолько безопасным, как предполагалось в теории. Несмотря на весьма незначительное количество автомобилей, оснащенных системой искусственного интеллекта, «компьютер-водитель» уже неоднократно попадал в ДТП. В частности, в 2018 г. в штате Калифорния США электрокар на высокой скорости врезался в припаркованный патрульный автомобиль. Водитель назвал причиной аварии активную функцию автопилота. В середине мая того же года похожая авария произошла в штате Юта: электрокар, за рулем которого находилась женщина, на скорости около 100 км/ч врезался в машину пожарной службы. В марте 2020 г. в штате Аризона во время испытаний в ночных условиях беспилотный автомобиль сбил пересекавшую дорогу велосипедистку, которая позднее умерла в больнице от полученных травм.
Другим примером, иллюстрирующим проблематику использования высоких технологий, может служить выпущенная в июне 2022 г. модель искусственного интеллекта, использующая «глубокое обучение» для создания текста, похожего на созданный человеком. Так, цифровой сервис был обучен с использованием миллиардов строк кода из общедоступных репозиториев и мог преобразовывать «естественный» язык во фрагменты кода на десятках языков программирования. Использование данной технологии привело к иску, рассматриваемому в настоящее время в окружном суде штата Калифорния (США), к ряду компаний в связи с нарушениями, допущенными нейросетевым помощником программиста. По мнению истца, данная технология нарушает как условия лицензий с открытым исходным кодом, так и права программистов. Исковые требования составляют 9 млрд долларов.
Анализ данных из открытых источников позволяет привести немало иных случаев причинения вреда технологиями с использованием AI (к примеру, при производстве хирургических операций, в промышленном производстве и даже на спортивных соревнованиях).
Таким образом, несмотря на очевидные преимущества использования AI, выражающиеся в возложении на него выполнения не только сложных вычислительных процессов, но и тяжелого физического труда и т.п., стоит задуматься и о потенциальных угрозах со стороны «машин», выявление и нейтрализация которых – ключевые условия для безопасного взаимодействия с ними. При этом наравне с обеспечением безопасности – которым в первую очередь должны заниматься специалисты в области IT – не менее важной представляется задача создания надежной и эффективной правовой базы, позволяющей оперативно разрешать возникающие спорные ситуации. Одним из наиболее востребованных направлений в данной сфере является, на мой взгляд, разработка законодательства, регулирующего вопросы возмещения вреда, причиненного в результате взаимодействия человека с технологиями на основе AI.
Несмотря на то что в ряде стран уже начали принимать такие нормативные правовые акты3, приходится констатировать, что вопросам возмещения вреда в рассматриваемой сфере уделяется крайне мало внимания. Это актуально и в отношении нашей страны. Так, основными нормативными правовыми актами, затрагивающими правоотношения в сфере искусственного интеллекта, являются:
- Федеральный закон от 24 апреля 2020 г. № 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации – городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона “О персональных данных”»;
- Указ Президента РФ от 10 октября 2019 г. № 490 «О развитии искусственного интеллекта в Российской Федерации»;
- Распоряжение Правительства РФ от 19 августа 2020 г. № 2129-р «Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года».
Вместе с тем применительно к ответственности за вред, причиненный в результате использования технологий на основе AI, специального правового регулирования в России на данный момент нет. То есть при разрешении споров о возмещении вреда руководствоваться придется положениями Гражданского кодекса РФ, а также в ряде случаев – Законом о защите прав потребителей, положения которых, однако, для такого рода правоотношений не всегда пригодны.
К примеру, если автомобиль под управлением AI собьет пешехода, возмещение вреда будет происходить по правилам ГК, которыми регламентирована ответственность за вред, причиненный источником повышенной опасности (ст. 1079 и др.). Если в ходе хирургической операции из-за сбоя в программном обеспечении пациенту будет причинен вред, руководствоваться придется нормами § 3 гл. 59 ГК, посвященной ответственности за вред, причиненный вследствие недостатков товаров (работ, услуг), а также Закона о защите прав потребителей.
Однако применение данных норм к ответственности за вред, причиненный продуктами на основе AI, выявляет ряд сложностей, наиболее актуальными из которых являются проблемы:
- доказывания наличия вины;
- поиска виновного и регрессных исков;
- транснационального характера разработчиков и применимого права.
Проблема доказывания наличия вины
В соответствии со ст. 1079 ГК юрлица и граждане, деятельность которых связана с повышенной опасностью для окружающих (среди которой в законе указана и деятельность по использованию ТС), несут ответственность за вред, причиненный таким источником, независимо от вины, если не докажут, что вред возник вследствие непреодолимой силы или умысла потерпевшего, а также в ряде иных случаев, прямо предусмотренных законом (например, при выбытии источника из владения в результате противоправных действий других лиц).
Согласно ст. 1095 Кодекса вред, причиненный жизни, здоровью или имуществу гражданина либо имуществу юрлица вследствие конструктивных, рецептурных или иных недостатков товара (работы, услуги), а также недостоверной или недостаточной информации о товаре (работе, услуге), подлежит возмещению продавцом или изготовителем товара, лицом, выполнившим работу или оказавшим услугу (исполнителем), независимо от их вины (за исключением случаев причинения вреда вследствие непреодолимой силы или нарушения потребителем установленных правил пользования товаром, результатами работы, услуги или их хранения (ст. 1098 ГК)) и от того, состоял ли потерпевший с ними в договорных отношениях. При этом абз. 2 ст. 1095 Кодекса содержит специальное условие, согласно которому ответственность независимо от вины допускается лишь при условии приобретения товара (выполнения работы, оказания услуги) в потребительских целях, а не для использования в предпринимательской деятельности.
Таким образом, пострадавшему от действий «компьютера-водителя» в ДТП гражданину-потребителю, как и юрлицу, которое приобрело товар (заказало работу, услугу) в целях, не связанных с предпринимательскими, а также в ряде случаев иным лицам защитить свои права относительно просто.
В большинстве же случаев вина в причинении вреда является обязательным условием, и для возложения на продавца (изготовителя, исполнителя) ответственности истцу придется доказать наличие в действиях ответчика состава гражданско-правового деликта, а именно представить доказательства:
- наличия вреда и его размера (п. 2 ст. 15 ГК);
- того, что вред причинен в результате использования технологии на основе AI (причинно-следственная связь);
- подтверждающие, что ответчик является разработчиком, поставщиком технологии на основе AI либо исполнителем услуги с использованием этой технологии, причинившей вред.
По той причине, что вред в рассматриваемой ситуации подлежит возмещению на общих основаниях, ответчик может быть освобожден от ответственности, если докажет, что ущерб возник не по его вине (п. 2 ст. 1064 ГК). Однако бремя доказывания отсутствия вины будет возложено именно на ответчика, и вина в нарушении обязательства или в причинении вреда – при условии доказанности истцом названных обстоятельств – будет предполагаться, пока не доказано обратное (п. 12 Постановления Пленума Верховного Суда РФ от 23 июня 2015 г. № 25 «О применении судами некоторых положений раздела I части первой Гражданского кодекса Российской Федерации»).
Если с доказыванием наличия и размера ущерба (хотя бы в приблизительном размере), а также установлением причинно-следственной связи проблем возникнуть не должно, то вопрос с виной, тем более с ее степенью, при определенных обстоятельствах может вызвать серьезные сложности. Наибольшая из них, на мой взгляд, заключается в праве ответчика доказывать отсутствие непосредственно его вины в произошедшем (вина в нарушении обязательства или в причинении вреда предполагается, пока не доказано обратное).
Очевидно, что непосредственный продавец (исполнитель) в большинстве случаев не имеет отношения к разработке продукта, повлекшего ущерб, и не осведомлен о технологиях, лежащих в его основе. Не обладает такое лицо, как правило, и специальными познаниями, позволяющими определить наличие дефекта в продаваемых товарах, вынуждая порой слепо доверять гарантиям контрагентов (которые также могут не являться непосредственными разработчиками). Кроме того, ни один продукт, в основе которого лежит технология с использованием AI, не является идеальным и может содержать ошибки («баги»), а также скрытые уязвимости для кибер-атак, которые проявляются лишь в процессе использования (порой по истечении продолжительного периода времени).
Применительно к приведенному примеру с хирургической операцией контрагент, поставивший оборудование, давшее сбой, наверняка будет доказывать в суде, что вред произошел по причине сбоя в ПО продукта, за которое он не отвечает, – т.е. ссылаться в качестве возражений на то что он, действуя с разумной степенью осмотрительности и добросовестности, не мог знать, что поставленное им оборудование содержит дефекты, повлекшие впоследствии причинение вреда истцу.
Как отмечалось, в отношении потребителей, которые приобрели товар (услугу) в целях, не связанных с предпринимательством, подобные возражения вряд ли окажутся эффективными (ввиду предусмотренной законом ответственности независимо от наличия вины), однако в случае приобретения товара (работы, услуги) в предпринимательских целях исключать такого нельзя4.
Впрочем, даже в случае удовлетворения иска владелец источника повышенной опасности (продавец товара, исполнитель услуги), считающий, что вред причинен по причине недостатков, за которые отвечает производитель (продавец) такого источника, не лишен права потребовать возмещения понесенных им убытков в порядке регресса.
Однако, приняв такое решение, указанные лица рискуют столкнуться с иными проблемами.
Проблемы поиска виновника и регрессных исков
Судебная практика показывает, что возместивший вред продавец (исполнитель) вправе предъявить регрессные требования исключительно контрагенту по договору поставки товара5. Если от изготовителя до конечного покупателя (исполнителя некачественных услуг) товар прошел через несколько продавцов и каждый из них примет решение о предъявлении регрессных требований, придется проходить всю цепочку посредников до тех пор, пока не будет установлен непосредственный производитель продукта, ответственный за его ненадлежащее качество.
Однако применительно к продуктам, в основе которых лежит технология AI, необходимо учитывать, что AI, по сути, – это программа для ЭВМ, т.е. представленная в объективной форме совокупность данных и команд, предназначенных для функционирования ЭВМ и других компьютерных устройств в целях получения определенного результата, включая подготовительные материалы, полученные в ходе разработки программы для ЭВМ, и порождаемые ею аудиовизуальные отображения (ст. 1261 ГК).
Характерной особенностью современных программ для ЭВМ является то, что они представляют собой произведение, преимущественно создаваемое с использованием существующих библиотек и фреймворков6. Производителей, создающих продукты, в основе которых лежит технология AI, «с чистого листа», без использования существующих наработок – практически нет. В подобной ситуации непосредственный производитель продукта не всегда может рассматриваться как лицо, несущее «итоговую ответственность» за вред, причиненный созданным им продуктом.
При этом вопрос определения «истинного виновника» гораздо сложнее чем кажется и усугубляется неправильной квалификацией программы для ЭВМ в законодательстве.
В обоснование этого вывода отмечу следующее.
Конституционный Суд РФ в Постановлении от 16 июня 2022 г. № 25-П «По делу о проверке конституционности пункта 3 статьи 1260 Гражданского кодекса Российской Федерации в связи с жалобой гражданина А.Е. Мамичева» определил программу для ЭВМ как составное произведение.
Согласно п. 2 ст. 1259 ГК под составным произведением понимается произведение, представляющие собой результат творческого труда по подбору или расположению материалов.
Исходя из буквального смысла п. 2 ст. 1259 Кодекса, можно выделить ключевые признаки составного произведения:
- произведение, состоящее из нескольких (двух и более) других произведений, каждое из которых является самостоятельным объектом авторского права;
- творческий замысел автора такого произведения заключается исключительно в подборе и расположении в составном произведении, включенных в него материалов (их объединение замыслом автора в единое целое).
Если признать такое определение верным, к числу составных произведений будут относиться различные сборники (стихов, песен, справочные правовые системы и т.п.). Это подтверждают примеры из судебной практики, в которых суды признавали в качестве составных произведений:
- сборник средних сметных цен на материалы, изделия, конструкции и другие ресурсы, применяемые в строительстве в текущем уровне цен7;
- индексы пересчета сметной стоимости строительно-монтажных работ8;
- рабочие тетради, в которых подобран и определенным способом расположен учебный материал9.
Существует также устоявшаяся практика по отнесению к составным произведения контента сайта в сети «Интернет»10 (что, на мой взгляд, в ряде случаев представляется весьма спорным).
В то же время программа для ЭВМ по причине несоответствия приведенным критериям не может быть признана составным произведением. Это также подтверждает ст. 1261 ГК, в соответствии с которой к охраняемым элементам программы для ЭВМ отнесены: подготовительные материалы, исходный текст (код), объектный код, аудиовизуальное отображение (последнее является частью интерфейса, к которому относятся и средства управления, не охраняемые по отечественному законодательству)11.
Среди специалистов в области авторского права существует обоснованная точка зрения (разделяемая мной), согласно которой данные элементы программы для ЭВМ не являются простым подбором и расположением материалов, а в большинстве случаев представляют собой результат творческого труда автора (нескольких авторов) по их созданию12.
Применительно к AI стоит отметить, что суть данной технологии выражена в исходном коде программы, представляющем собой набор команд языка программирования, написанный по определенному алгоритму в форме, доступной для понимания человеком13.
Язык программирования, как любой другой язык, представляет собой способ общения (в данном случае человека с компьютером). При таких обстоятельствах – так же, как совокупность букв, расположенных автором в логической и смысловой последовательности, превращается в книгу, а семь нот – при наличии творческого вклада композитора – в сонату, – составляющие компьютерного языка посредством манипуляций программиста воплощаются в уникальный исходный код программы, выполняющий заложенные в нее действия. Следует отметить, что творческий характер работы программиста проявляется не только в написании команд для компьютера, но и в подборе для программы определенных библиотек и фреймворков, а также использовании при выполнении операций различных алгоритмов и способов решений задач (своего рода технических решений), в результате чего может достигаться повышенная производительность итогового продукта в сравнении с его аналогами14.
Таким образом, отнесение КС программы для ЭВМ к составным произведениям, указанным в п. 2 ст. 1259 ГК, представляется спорным. На мой взгляд, программу для ЭВМ, правильнее было бы определить как непоименованный объект гражданских прав, более всего соответствующий понятию сложной вещи из ст. 134 Кодекса (условно можно назвать его «сложное произведение»).
Так, согласно ст. 134 ГК если разнородные вещи образуют единое целое, предполагающее использование их по общему назначению, они рассматриваются как одна вещь (сложная вещь). Действие сделки, заключенной по поводу сложной вещи, распространяется на все ее составные части, если договором не предусмотрено иное.
Исходя из указанной нормы, понятие сложной вещи включает следующие элементы:
- в ее состав входят разнородные вещи;
- данные вещи физически не связаны между собой (как, например, в техническом агрегате типа автомобиля);
- указанные вещи в совокупности составляют единое целое, позволяющее использовать их сумму – сложную вещь – по общему скоординированному назначению;
- каждая составная вещь, входящая в состав сложной вещи, может использоваться самостоятельно15.
Включение в состав сложной вещи иных составных частей не прекращает право собственности на сложную вещь у ее собственника (сложная вещь является делимой), а лишь изменяет ее технические характеристики и параметры технологического присоединения16.
Как видно, приведенные критерии сложной вещи вполне применимы и к программе для ЭВМ. При этом даже составные части такой программы (в частности, исходный код) могут состоять из компонентов, представляющих собой отдельные объекты авторского права (библиотеки и фреймворки), имеющие авторов и правообладателей. В такой ситуации причиной ошибки, повлекшей причинение вреда, может являться как ошибка автора конечного продукта, так и ошибки, допущенные авторами других компонентов, входящих в конечный продукт. В последнем случае возложение «итоговой ответственности» на разработчика всего продукта, а не создателя (правообладателя) отдельного компонента, представляется необоснованным и противоречащим принципу генерального деликта.
Однако, даже выяснив «конечного» виновника, ответственного за причиненный вред, восстановление прав и законных интересов всех пострадавших может оказаться труднодостижимым вследствие еще одной проблемы.
Транснациональный характер разработчиков и применимое право
Зачастую разработчиками ПО выступают крупные транснациональные компании, многие из которых не имеют официальных представительств на территории России. Более того, распространенным условием использования продуктов таких разработчиков является полное и безоговорочное принятие пользователем так называемого пользовательского соглашения – договора между пользователем продукта и его разработчиком, содержащего условия использования, ответственность, указание о подсудности споров и т.п.
В качестве примера приведу текст соглашения «Общие условия использования продуктов Adobe» (далее – «Условия»), в п. 10.1 и 10.2 которых прямо указано, что по общему правилу стороны ни при каких обстоятельствах не несут ответственность перед пользователем или кем-либо еще за любой особый, случайный, косвенный, вторичный, моральный, штрафной или карательный ущерб, независимо от причины, включая убытки и ущерб:
- в результате потери использования, данных, репутации, дохода или прибыли;
- основанные на любой теории ответственности, включая нарушение договора или гарантии, небрежность или другие неправомерные действия;
- возникающие вследствие использования услуг и ПО либо доступа к ним или связанные с таким использованием/доступом.
При этом общая ответственность по любому вопросу, возникающему вследствие Условий или имеющему отношение к ним, ограничивается большей из этих сумм: 100 долларов или общей суммой, уплаченной пользователем за доступ к Услугам и ПО в течение трех месяцев, предшествующих событию, повлекшему возникновение ответственности. Что касается поставщиков, то они согласно п. 10.2 Условий не несут никакой ответственности по любым вопросам, вытекающим из Условий или связанным с ними.
Применительно к российскому законодательству данные условия по правовой природе соответствуют договору присоединения (ст. 428 ГК), ограничение ответственности по которому в большинстве случаев будет признано ничтожным (ст. 400 ГК, п. 39 Постановления Пленума ВС от 28 июня 2012 г. № 17 «О рассмотрении судами гражданских дел по спорам о защите прав потребителей»). Однако, учитывая место нахождения ответчика (иностранное государство), может сложиться ситуация, при которой даже успешное разрешение спора в российском суде не принесет в конечном счете позитивного результата, поскольку решение так и не будет приведено в исполнение.
Учитывая постоянный технологический прогресс, разумно предположить, что в ближайшее время разработкой и созданием продуктов на базе AI начнут заниматься не только крупные IT-компании, но и отдельные разработчики, которые есть и сейчас. При этом необязательно, что распространение продуктов будет происходить на возмездной основе. Предоставляя открытый доступ к своим разработкам, данные авторы прямо предупреждают об их использовании «на свой страх и риск». Принимая такое условие, пользователь фактически заключает с автором продукта двустороннее соглашение об отказе от претензий, которые могут возникнуть в процессе использования продукта. Законодательство ряда стран подобные правила хоть и с ограничениями, но допускает.
В заключение добавлю, что приведенные примеры демонстрируют наличие существенных проблем, с которыми могут столкнуться те, кто использует в своей деятельности технологии на основе AI.
Применительно к РФ основные проблемы заключатся в следующем.
Во-первых, законодательство в сфере ответственности за вред, причиненный в результате использования продуктов, в основе которых положена технология искусственного интеллекта, как таковое пока отсутствует. Применение к подобным спорам положений действующих НПА в силу наличия в них множества пробелов далеко не всегда эффективно.
Во-вторых, если своевременно не принять меры по разработке и внедрению эффективной правовой базы, по мере развития технологий на основе AI количество этих проблем будет только расти.
Возможны следующие пути их решения. Идеальным, но труднодостижимым вариантом, на мой взгляд, могла бы стать разработка международного договора, регламентирующего вопросы ответственности за вред, причиненный в результате использования технологий на основе AI. Более оптимистичным вариантом представляется разработка отдельного блока норм (lex specialis), регулирующих непосредственно вопросы такого рода ответственности – к примеру, внедрение в законодательство норм о договорах с ограниченной ответственностью17. Такого рода договоры в российской судебной практике уже встречались, однако существенного распространения пока не получили18.
1 От англ. artifical intelligence – искусственный интеллект.
2 Barr A. Handbook of Artificial Intelligence / E. Feigenbaum – Los Altos, CA: William Kaufman, 1989.
3 Например, AI Act: a step closer to the first rules on Artificial Intelligence, Blueprint for an AI Bill of Rights, Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence и т. п.
4 Ввиду отсутствия практических примеров дел, в которых ответчиком была бы занята изложенная позиция, предсказать решение суда в такой ситуации сложно. Однако, исходя из общеправовой презумпции добросовестности, вполне возможно, что суд встанет на сторону ответчика.
5 Постановление АС Поволжского округа от 27 мая 2020 г. № Ф06-61461/2020 по делу № А65-28917/2019.
Данное правило применимо исключительно к субъектам предпринимательской деятельности. В отношении граждан-потребителей действуют иные правила (например, закрепленные в ст. 18 Закона о защите прав потребителей).
6 Фреймворк (англицизм, неологизм от англ. framework «остов, каркас, рама; структура») – программная платформа, определяющая структуру программной системы; ПО, облегчающее разработку и объединение разных компонентов большого программного проекта. Фреймворк отличается от понятия «библиотека» тем, что последняя может быть использована в программном продукте как набор подпрограмм похожей функциональности, не влияя на архитектуру программного продукта и не накладывая на нее ограничений. В то время как фреймворк диктует правила построения архитектуры приложения, задавая на начальном этапе разработки поведение по умолчанию – «каркас», который нужно будет расширять и изменять согласно указанным требованиям.
7 Определение ВАС РФ от 30 октября 2013 г. № ВАС-15273/13.
8 Там же.
9 Определение Судебной коллегии по гражданским делам ВС РФ от 2 февраля 2021 г. № 5-КГ20-146-К2, 2-607/2019.
10 Постановление Президиума ВАС от 22 апреля 2008 г. № 255/08 по делу № А63-14046/2006-С1; Определение Судебной коллегии по экономическим спорам ВС от 13 сентября 2016 г. № 305-ЭС16-7224 по делу № А40-26249/2015; Постановление Суда по интеллектуальным правам РФ от 14 сентября 2023 г. № С01-992/2022 по делу № А41-15615/2021.
11 На это обращено внимание и в Протоколе № 24 Заседания научно-консультативного совета при СИП от 27 ноября 2020 г.
12 Подробнее по данному вопросу см. «Правовая охрана элементов, составляющих программу для ЭВМ» // Журнал Суда по интеллектуальным правам, № 7, март 2015 г., с. 50–54.
13 Определение понятия «исходный код» содержится, например, в Протоколе № 24 Заседания научно-консультативного совета при СИП от 27 ноября 2020 г.
14 В качестве примера можно привести предназначенные для решения схожих задач, но различающиеся по характеристикам брокеры сообщений.
15 Постановление ФАС Западно-Сибирского округа от 31 июля 2006 г. по делу № Ф04-6718/2005(25038-А70-33).
16 Апелляционное определение Свердловского облсуда от 24 июля 2013 г. по делу № 33-7456/2013.
17 Договор, основанный на общепринятом в международной практике принципе «как есть» (AS IS), означающем, что за проблемы, возникающие в процессе установки, обновления, поддержки и эксплуатации программного продукта (в том числе: проблемы совместимости с другими программными продуктами (пакетами, драйверами и др.), проблемы, возникающие из-за неоднозначного толкования сопроводительной документации, несоответствия результатов использования программного продукта ожиданиям лицензиата и т.п.), лицензиар ответственности не несет.
18 См., например, решение АС г. Москвы от 19 ноября 2012 г. по делу № А40-131571/12.






