21 ноября 2025 года 18:52
Страховой рынок может стать примером трансформации бизнес-процессов под воздействием ИИ - доклад ЦБ
Страховой рынок может стать одним из примеров трансформации бизнес-процессов под воздействием применения технологий искусственного интеллекта (ИИ), к такому выводу приходит Банк России в опубликованном консультативном докладе "Применение искусственного интеллекта на финансовом рынке".
Так, революционные изменения ожидают страховщиков с внедрением ИИ в автостраховании, в страховании личных рисков и для имущества граждан, при работе в экосистемах, в сфере защиты от страховых мошенников, при селекции заявлений клиентов на выплату убытков, при ускорении расчетов, при работе с клиентами с помощью голосовых помощников или роботов-советников.
Одним из вызовов, стоящих сегодня перед страховым сообществом, становится внедрение в стране беспилотного транспорта. "Беспилотные автомобили могут поменять характер оценки ответственности в автостраховании", - обращают внимание авторы доклада. "Кто несет ответственность в случае ДТП: пассажир, производитель автомобиля или разработчик программного обеспечения алгоритмов ИИ? Такая постановка вопроса может привести к трансформации традиционного автострахования в том виде, в котором оно есть сейчас", - говорится в докладе. Реализованных рисков может оказаться меньше, а ущерб от событий - больше.
"Использование беспилотных транспортных средств предполагает сокращение количества аварий. Однако выход из строя самой системы ИИ или хакерская атака может вызвать каскадную серию происшествий, приводящую к значительному увеличению максимально возможного ущерба, что в целом формирует переход от высокочастотных небольших рисков к низкочастотным, но существенным", - отмечает ЦБ.
При этом накопление и концентрация рисков представляют "серьезное препятствие" для другого направления бизнеса - страхования киберрисков: "риски высокой степени тяжести требуют очень высоких лимитов покрытия и выплат, что ставит перед страховыми компаниями задачу пересмотра традиционного страхового покрытия и разработки инновационных страховых продуктов".
Вместе с тем в ЦБ считают, что "совокупность непрерывного андеррайтинга и поступающие данные от телематических или носимых устройств позволят создать страхование по требованию для различных активов", это создает новые возможности для страхового бизнеса. "Потенциально ИИ может быть интегрирован в систему обработки заявок страховой компании и автоматически принимать решение в простых случаях", - делает вывод регулятор.
НОВЫЙ БИЗНЕС И ПОМОЩНИКИ
ИИ открывает дорогу к страхованию рисков, с которыми страховщики до сих пор не работали. "Страховое покрытие можно будет приобрести для широкого спектра рисков низкой степени тяжести на время фактического использования актива (например, дополнительное страхование личных вещей от кражи или повреждения, новые продукты в туристическом или автостраховании), которые раньше не поддавались страхованию", - уточняется в докладе.
ИИ, внедряемый в других сферах экономики, приводит к размыванию традиционных отраслевых границ и созданию глобальных экосистем. Такие экосистемы позволят страховым компаниям "не только выйти на новые потоки доходов, пересмотрев свою традиционную роль в экономике, но и интегрировать свои страховые продукты в повседневную жизнь клиента, удовлетворяя его разнообразные потребности в рамках единого взаимодействия".
Новые возможности для трансформации бизнеса страховщиков, по мнению ЦБ, лежат и в сфере урегулирования убытков, учета массовых обращений. В перспективе ИИ даже сможет принимать решения о выплатах самостоятельно при соблюдении определенных условий и по простым убыткам.
"ИИ может применяться для классификации поступающих обращений, автоматического считывания и обработки данных в сфере мониторинга обращений клиентов и урегулирования претензий, - допускает регулятор. - Развитие генеративного ИИ существенно упрощает и оптимизирует взаимодействие финансовой организации и заявителя. Чат-боты и голосовые помощники принимают на себя рутинные функции на протяжении всего процесса урегулирования претензии". Алгоритмы страховщиками "могут применяться для классификации поступающих обращений, автоматического считывания и обработки данных, например, для извлечения информации из медицинских карт, распознавания типов транспортных средств и повреждений".
В целом при сборе и анализе больших объемов исторических данных ИИ может применяться "для сегментации претензий по виду и типу сложности, для определения уровня компенсации при наступлении страховых случаев, для анализа причин отклонения претензий и (или) изменения суммы страхового возмещения", следует из документа.
Развитие ИИ может также повлиять на управление инвестиционными и кредитными рисками, предоставив дополнительные инструменты для их мониторинга и оценки, выявлять на ранней стадии риски возможного дефолта контрагента.
ИИ ДЛЯ КОНТРОЛЯ ЗА ПОДОЗРИТЕЛЬНЫМ
Противодействие мошенничеству - еще одно направление, в котором расширяется использование механизмов ИИ, полагают в ЦБ. Благодаря способности анализировать большие объемы данных, выявлять нетипичные транзакции и отслеживать аномалии, труднозаметные для человека, технологии "ИИ позволили за счет снижения ресурсоемкости вывести процедуры обнаружения фактов мошенничества на новый уровень, превосходящий классический анализ контрольных факторов рисков". Эти закономерности и отклонения важны при анализе документов финансовой отчетности и при анализе данных в страховании.
Вместе с тем многие финансовые организации по-прежнему полагаются на традиционные системы проверки и контроля или совмещают обе опции при проверках, отмечает ЦБ в докладе.
ИИ может помочь настроить системы безопасности организации, которые смогут идентифицировать аномальное поведение внутренних систем и вредоносные программы и мгновенно реагировать на них.
Однако регулятор обращает внимание: мошенничество - это нетипичная транзакция, которая не поддается непосредственному наблюдению. Резкое изменение поведения клиента может привести к нарушению привычных взаимосвязей, сбоям в работе алгоритма, а значит, к прямо противоположному результату.
ПРИМЕНЕНИЕ ИИ САМО ГЕНЕРИРУЕТ РИСКИ
В докладе ЦБ отдельно выделяются собственно риски внедрения ИИ, которые разделены по категориям на основные, включая этические, и дополнительные.
В частности, среди основных Банк России помещает риск разработки и искажения работы модели ИИ, риск аутсорсинга, который связан с делегированием отдельных функций в бизнес-процессах. Существуют также риски в области данных с точки зрения информационной безопасности, риски мошеннических атак, риск в сфере конкуренции или сговора с использованием ИИ, риски злоупотреблений, связанных с доминирующим положением, макроэкономические риски и риски финансовой стабильности.
Этические риски ЦБ связывает с нарушением прав потребителей и инвесторов. В том числе связанные, например, с "дискриминацией или индивидуальным ценообразованием", с ограниченной способностью алгоритмов решать сложные вопросы при обслуживании потребителей, риски "нарушения прав потребителей и инвесторов в ходе предложения финансовых продуктов", некорректных способов продажи и продвижения продуктов.
Таким образом, по мнению ЦБ, "особое внимание" должно уделяться применению ИИ "с точки зрения обеспечения должной защиты прав потребителей финансовых услуг и инвесторов".
В качестве дополнительных рисков выделяется тот факт, что модели генеративного ИИ обладают "худшей объясняемостью".
Кроме прочего, существуют риски ликвидности, поясняет ЦБ в докладе, - когда алгоритмы генеративного ИИ могут применяться "при совершении сделки с высоким кредитным или рыночным риском с целью максимизации прибыли". Этот риск может реализоваться при неправильном обучении моделей ИИ.
Банк России в докладе дополняет перечень угроз от внедрения ИИ своего рода психологическим риском - опасностью "стадного поведения" финансовых организаций. Она способна возникнуть из-за "сгенерированных финансовых отчетов, где могут содержаться выводы о состоянии экономики". Такие же риски могут быть связаны и с появлением обзоров рынков, с анализом рисков в кризисных ситуациях. Подобные выводы, сделанные с использованием ИИ, "могут оказаться ошибочными", предупреждает ЦБ.
Результатом, казалось бы, технической ошибки может стать "паника среди населения", ИИ "может вызвать ложный или вредоносный контент". На финансовом рынке это "может привести к бегству вкладчиков", обращает внимание ЦБ, а значит принести ущерб целым сегментам финансового рынка.
"В мире отсутствует единое мнение в отношении рисков, присущих технологии ИИ. Вместе с тем большинство экспертов склоняется к тому, что риски, характерные для ИИ, во многом схожи с рисками для других технологий. В частности, выделяются риски технологического, экономического, этического характера, а также риски в сфере информационной безопасности. При этом эксперты отмечают наличие специфических рисков, связанных с применением технологий ИИ, особенно генеративного ИИ", - обобщает регулятор в докладе.
20 ноября 2025 года 17:30
19 ноября 2025 года 17:57
11 ноября 2025 года 18:53
07 ноября 2025 года 10:00
01 ноября 2025 года 18:25
30 октября 2025 года 20:16
10 октября 2025 года 08:17
09 октября 2025 года 09:19
07 октября 2025 года 08:42
01 октября 2025 года 16:45



