Обратите внимание на дату публикации материала: информация могла устареть из-за изменений в законодательстве или правоприменительной практике.

Искусственный интеллект на службе у бизнеса: неочевидные риски

Нейросети активно внедряют в рабочие процессы как небольшие предприятия, так и корпорации. Но такая интеграция может дорого обойтись компании. Как бизнесу минимизировать риски?

Искусственный интеллект на службе у бизнеса: неочевидные риски

Нейросети помогают обрабатывать Big Data, составлять отчеты, прогнозировать спрос в сфере услуг, подбирать лучшие решения и др. Роль искусственного интеллекта (ИИ) в бизнес-процессах стремительно растет, но и риски компаний увеличиваются.

Считается, что интеграция ИИ позволяет уменьшить влияние человеческого фактора, а значит, сократить ошибки. Но при этом, если сотрудники будут чрезмерно доверять машинам, вероятность попасть в плохую историю может только увеличиться.

Предлагаю рассмотреть основные риски компаний, активно использующих нейросети.

Утечка конфиденциальной информации

Для обучения нейросетей используют данные двух типов.

  • Информация из публичных источников – из поисковиков, открытых баз данных, с сайтов и др. Однако далеко не все согласны с таким сбором сведений. Например, в июне на разработчика ChatGPT подали в суд. Истцы утверждают, что компания без разрешения собирала и использовала их персональные данные для обучения ИИ1.
  • Запросы, которые люди вводят в чат-бот. Сотрудники компаний ежедневно нагружают ИИ десятками задач. Некоторые используют для этого реальные данные, представляющие коммерческую ценность. Притом что официально их не всегда можно разглашать.

Риски. Если хакеры взломают ИИ, они доберутся до данных клиентов компании. По закону в таком случае призвать к ответу можно не только компьютерных злоумышленников, но и разработчика нейросети или даже компанию, сотрудники которой неосторожно загружали в программу чувствительную информацию.

Оператору персональных данных – создателю нейросети, или компании, сотрудники которой отправляли конфиденциальную информацию в диалог с чат-ботом, – грозит гражданская и административная ответственность. Также представителя компании могут привлечь к уголовной ответственности за незаконные получение и разглашение сведений, составляющих коммерческую, налоговую или банковскую тайну (ст. 183 УК РФ).

В России назначают довольно мягкие наказания для компаний, допустивших утечку пользовательских данных. Например, в 2021 г. Oriflame заплатила 30 тыс. руб. за утечку данных 1,3 млн клиентов, а в 2022 г. «Яндекс.Еду» оштрафовали на 60 тыс. руб. (ст. 13.11 КоАП РФ).

Такие инциденты наносят серьезный вред репутации организации. И если крупные компании в состоянии справиться с кризисом и восстановить доверие аудитории, то малому бизнесу после скандала сохранить клиентов будет куда сложнее.

Рекомендации. ИИ самообучается и совершенствуется каждый день. Даже разработчики признаются, что не всегда точно знают, какие данные для этого использует нейросеть2. Поручиться, что эту информацию не похитят, нельзя. Нет непробиваемой защиты, а значит, риск утечки есть всегда.

Эксперты по инфобезопасности сходятся во мнении, что нужно приучить сотрудников относиться к нейросети как к экспериментальному сервису, надежность которого пока под вопросом3. С ним нельзя делиться конфиденциальной информацией – своей и клиентской. Если компания остро нуждается в применении ИИ и для этого нужно загружать в программу данные, можно ввести правило: использовать только вымышленную информацию – ненастоящие имена и фамилии, почтовые адреса и др.

Прогностические ошибки

ИИ нужен бизнесу для получения результатов машинного прогнозирования. Этот метод особенно активно внедряют в нескольких нишах.

  • Страхование. С помощью нейросетей оценщики выявляют годовые убытки по полисам, а потом на основе этих данных определяется стоимость ОСАГО и КАСКО. Искусственный интеллект помогает просчитать вероятность оттока клиентов и пролонгацию полисов, а также дистанционно оценить ущерб от ДТП.
  • Ретейл. ИИ анализирует поведение и предпочтения клиентов, что позволяет предлагать им релевантные товары и услуги. Технологии машинного прогнозирования используют для выявления спроса на товар и расчета запасов на складе. Нейросеть способна еще до покупки определить примерное количество продукции, которая вернется на склад, а это помогает точнее подсчитать прибыль и сократить расходы на логистику.
  • Промышленность. Нейросеть собирает данные о поставщиках и оценивает их финансовую устойчивость, а также может заранее предупредить заказчиков о потенциальных рисках. Разработчики утверждают, что ИИ способен анализировать производительность персонала, находить ошибки в работе сотрудников и предлагать способы их решения4.

Риски. Алгоритмы нейросетей пока далеки от совершенства. Представьте ситуацию: ИИ допустил ошибку в прогнозах, и это привело к финансовым и репутационным потерям. Должен ли разработчик или компания, которая предоставила программу, возместить убытки?

Все зависит от условий договора. Если компании предусмотрели компенсацию в случае ошибки нейросети, шанс получить деньги есть. Но обычно в соглашения добавляют пункт о том, что прогноз ИИ не всегда сбывается. Тогда скорее суд не удовлетворит требование о возмещении ущерба.

В теории получить компенсацию можно, если последствия вышли за рамки гражданско-правового поля и перешли в уголовное. Например, сотрудники получили травму на производстве из-за рекомендаций, которые сформировал ИИ. Или компания на основе данных нейросети выбрала поставщика, который оказался мошенником и украл деньги.

Рекомендации. ИИ не божество и не пророк. Его создали люди, которым свойственно ошибаться. Нейросеть не прогнозирует будущее, она всего лишь просчитывает вероятность, с которой событие произойдет или не произойдет. Учитывать данные, полученные с помощью ИИ, нужно. Но лучше воспринимать их критически и перепроверять вручную. Риск, что одновременно ошибется и машина, и человек, намного меньше. Скорее разработчик или поставщик программы даст вам тот же совет.

Юридические отделы разработчиков ИИ-решений часто составляют договоры и пользовательские соглашения так, чтобы их компании несли минимальную ответственность в случае ошибки в ПО. Поэтому, полагаясь только на ИИ, вы действуете на свой страх и риск.

***

Будущее за ИИ, и отрицать его пользу бессмысленно. Нейросети уже стали частью нашей жизни. Потому призываю предпринимателей и сотрудников компаний придерживаться правил безопасности при работе с ИИ: не делитесь с ним конфиденциальной информацией и старайтесь его перепроверять.


1 «На создателей ChatGPT подали в суд за кражу личных данных» (https://www.rbc.ru/rbcfreenews/649dc8ef9a794746da1a4f00).

2 «Универсальная машина: как чат-боты могут незаконно использовать персональные данные» (https://iz.ru/1539262/dmitrii-alekseev/universalnaia-mashina-kak-chat-boty-mogut-nezakonno-ispolzovat-personalnye-dannye).

3 Там же.

4 «Искусственный интеллект в промышленности» (https://vc.ru/tech/585900-iskusstvennyy-intellekt-v-promyshlennosti).


Фото: фотобанк Freepik/@freepik

Читайте также: