В мажилисе рассматривается законопроект об искусственном интеллекте, который вводит ограничения на использование технологий без согласия пользователя, запрещает полностью автономные ИИ-системы и классифицирует их по степени риска. Ответственность за ущерб, причиненный ИИ, предлагается возложить на владельцев и операторов систем, а страхование таких рисков сделать добровольным. Корреспондент inbusiness.kz узнал у страховых компаний, готовы ли они к таким продуктам и почему массовое внедрение пока маловероятно.
Пока больше вопросов, чем решений
По словам управляющего директора СК “Евразия” Азата Татинбекова, до появления специализированных страховых продуктов, охватывающих риски, связанные с применением искусственного интеллекта, в Казахстане пока еще далеко. Однако, учитывая стремительное развитие технологий, такие решения могут быть реализованы быстрее, чем кажется, особенно в странах с развитым страховым рынком и технологическим сектором.
“Массовое страхование рисков применения ИИ в Казахстане пока сложно представить даже в среднесрочной перспективе. Для начала Казахстану важно прийти к тому, чтобы в обязательном порядке начать маркировать продукты, будь то информационные или творческие, созданные с применением искусственного интеллекта. Пока еще непонятно, какую модель страхования предлагают реализовать разработчики законопроекта, вероятно, речь идет о добровольном страховании гражданско-правовой ответственности перед третьими лицами”, – сказал он.
Пока же в компании отметили, что не рассматривают разработку собственных программ страхования рисков использования искусственного интеллекта. Как пояснил Азат Татинбеков, любые добровольные страховые продукты появляются только при наличии устойчивого спроса со стороны рынка. В Казахстане такого спроса еще не наблюдается. СК “Евразия” до настоящего времени не получала запросов от потенциальных клиентов — ни от физических лиц, ни от компаний — на предоставление страхового покрытия рисков, связанных с использованием ИИ.
“Сейчас мы не видим спроса в Казахстане, но готовы принять участие в международных программах перестрахования таких рисков. Это поможет изучить нам опыт развитых стран, их программы: условия и тарифы, оценить риски и вероятность их наступления. Такой опыт впоследствии может стать базой для создания отечественного продукта для рынка страхования при появлении спроса на рынке”, – добавил управляющий директор.
Также в компании отмечают, что и запросы на страхование киберрисков поступают нечасто, несмотря на то, что информационные технологии уже проникли во все сферы жизни, а десятки тысяч казахстанских предприятий собирают, обрабатывают и хранят персональные данные своих клиентов.
Страховой рынок пока не готов
Основная трудность при внедрении страхования рисков, связанных с ИИ, заключается в отсутствии достаточной статистики. Азат Татинбеков отметил, что для разработки полноценного страхового продукта необходимо обладать данными о частоте инцидентов, масштабах ущерба и вероятности наступления страховых случаев. Пока таких данных практически нет. Большинство известных случаев причинения вреда с участием ИИ ограничиваются мошенническими действиями — например, подделкой голоса или созданием дипфейков. К слову, ответственность за создание и распространение дипфейков уже предусмотрена в проекте закона.
“К примеру, в Китае, США и Европе сейчас активно разрабатывают технологии автопилотирования на основе искусственного интеллекта, но они все еще находятся на этапе испытаний, хоть и в довольно продвинутых стадиях. Коммерческой эксплуатации технологии нет, но, когда регуляторы разных стран начнут их допускать на дороги общего пользования не в ограниченных масштабах, а массово, можно будет говорить о формировании хоть какой-то статистики ДТП, совершенных по вине (вследствие ошибочных действий или решений) искусственного интеллекта. Этот же принцип можно проецировать и на другие области применения искусственного интеллекта: медицина, финансы, программирование, творчество и т. д.”, – сказал он.
ИИ может ошибаться
В компании также отмечают, что сферы применения искусственного интеллекта теоретически не ограничены и потенциальные риски могут возникать в самых разных отраслях. Например, в фармацевтике ИИ может использоваться для разработки новых лекарств и терапий, в экономике и финансах ИИ применяется для моделирования и анализа. Искусственный интеллект может взять под свое управление не только отдельные автомобили, но и целые системы общественного транспорта, грузоперевозки и логистику, авиасообщение. ИИ способен проникнуть во все сферы экономики и жизни, но кто гарантирует, что все процессы и задания будут выполняться идеально верно?
“[Где гарантия, что] разработанное ИИ лекарство не вызовет побочных действий, не произойдет авария на дороге между автомобилями под управлением автопилота, или в экономической модели, принятой на основе данных, собранных ИИ, окажется статистическая ошибка, которая может повлечь серьезные финансовые убытки? Даже существующие ИИ-агенты, используемые массовым пользователем, могут генерировать изображения и музыку, право на которые уже зарегистрировано за третьим лицом. Так, сгенерированное изображение лица может принадлежать реальному живущему сейчас человеку. Музыкальный фрагмент в созданной ИИ музыке уже может быть написан ранее и защищен авторским правом. Потенциальных рисков, возникающих при использовании ИИ, очень много, и до конца не понятна вероятность их наступления и стоимость нанесенного ущерба”, – считает Азат Татинбеков.
По его мнению, страхование рисков, связанных с использованием искусственного интеллекта, может быть построено по аналогии со страхованием гражданско-правовой ответственности (ГПО) разработчика перед конечным клиентом. Такой подход уже применяется в Казахстане, например, при страховании ответственности нотариусов или аудиторов за возможные ошибки перед клиентами. В международной практике действует аналогичный механизм — страхование ответственности директоров и руководителей (Directors & Officers Liability).
В случае добровольного страхования ГПО в Казахстане основанием для выплаты страхового возмещения является решение суда, которое определяет наличие ущерба, пострадавшее лицо и его размер. Только после этого страховая компания производит выплату в пользу пострадавшего.
“От рисков использования ИИ разработчик или владелец ИИ-агента может застраховать свою гражданско-правовую ответственность перед конечным пользователем или потенциальным пострадавшим. Разработать программы страхования можно будет только после внедрения ИИ в определенную сферу деятельности, после сбора статистики и вероятных рисков. Для разных сфер применения ИИ существуют совершенно разные сценарии наступления рисков и их характера”, – пояснил управляющий директор.
Страховать ИИ не рано, но отдельно пока нет смысла
По мнению директора департамента по разработке корпоративных продуктов АО “СК Jusan Garant” Марата Абышева, создание отдельного страхового продукта, покрывающего риски, связанные с искусственным интеллектом, в настоящее время преждевременно. Это связано с отсутствием достаточной аналитики по убыткам, а также неурегулированностью правового статуса субъектов ответственности в данной сфере. Тем не менее в корпоративном сегменте такая инициатива может быть актуальной. По его словам, потребности бизнеса в страховании ИИ-рисков при желании можно реализовать через включение дополнительных покрытий в уже существующие страховые продукты — например, в рамках имущественного страхования или страхования гражданско-правовой ответственности.
“Основные трудности, с которыми может столкнуться страховой рынок, – это ценообразование, оценка самих рисков, малая осведомленность клиентов, ну и, как ранее говорили, правовая база в отношении ИИ, ее попросту нет. Что касается интереса со стороны рынка, то пока это точечный интерес со стороны технологических стартапов, использующих в своем бизнесе машинное обучение, но сказать, что мы имеем массовый спрос, нельзя”, – сказал Марат Абышев.
Как отметил спикер, первыми под страховое покрытие могли бы попасть риски, связанные с ошибочными решениями, принятыми искусственным интеллектом, если эти ошибки повлекли за собой убытки. Кроме того, к числу потенциально страхуемых рисков относятся киберугрозы, возникающие из-за уязвимостей в системах ИИ, а также нарушения казахстанского законодательства, спровоцированные действиями или результатами работы искусственного интеллекта.
В страховой компании также отметили, что на сегодняшний день не существует ни международного, ни локального стандарта, который бы четко регламентировал распределение ответственности при причинении вреда системами искусственного интеллекта. Однако возможным подходом может стать модель распределенной ответственности между всеми участниками процесса.
“При такой модели владелец несет базовую ответственность, как пользователь ИИ, оператор (исполнитель) – если имело место ненадлежащее использование, и разработчик – в случае, если ущерб вызван программной ошибкой или архитектурной уязвимостью. Страхование может использовать подход смешанной ответственности или право обратного требования, когда страховая компания выплачивает убыток, а затем взыскивает его с виновной стороны”, – добавил Марат Абышев.
Изображение Tung Nguyen с сайта Pixabay
Читайте по теме:
В Казахстане вводятся новые страховые продукты