Страховые компании активно внедряют искусственный интеллект в ключевые процессы — андеррайтинг, ценообразование, урегулирование убытков и клиентский сервис. Это ускоряет обработку данных, повышает точность оценки рисков и улучшает взаимодействие с клиентами. Однако за технологическими преимуществами неизбежно следуют вопросы регулирования и этики.

Регуляторы диктуют новые правила игры
Рост применения ИИ не остался без внимания со стороны законодателей. В США, где технологии развиваются наиболее динамично, уже действуют законы в Калифорнии, Колорадо и Нью-Йорке. Еще 24 штата приняли собственные версии рекомендаций NAIC 2023 года по использованию ИИ страховщиками.
Новые нормы требуют от компаний внедрения внутренних систем тестирования алгоритмов, создания письменных политик и процедур, а также обеспечения прозрачности для потребителей. Главная цель — предотвратить несправедливую дискриминацию и гарантировать подотчетность и честность решений, принимаемых машинами.
Дискриминация: старая проблема в цифровой оболочке
Страхование по своей сути основано на объективной дифференциации рисков — это нормально и необходимо. Проблема возникает, когда ИИ начинает использовать данные, прямо или косвенно связанные с защищенными характеристиками: расой, полом, возрастом или этничностью. Даже без злого умысла такие алгоритмы могут выдавать предвзятые результаты.
Принципы NAIC 2020 года обязывают страховщиков минимизировать алгоритмические предубеждения, обеспечивать объяснимость решений и нести полную ответственность за работу систем. Ключевым ориентиром остается Закон о недобросовестной торговой практике — он по-прежнему запрещает любые формы дискриминации, в том числе и те, что порождены ИИ.
Управление на новом уровне
Внедрение искусственного интеллекта требует пересмотра корпоративного управления. Советам директоров теперь необходимо обладать «грамотностью в сфере ИИ» — понимать возможности, ограничения и риски технологий. Без этого невозможно эффективно контролировать процессы и управлять связанными с ними угрозами.
Компании обязаны разрабатывать четкие критерии оценки эффективности ИИ-систем, а также письменные программы ответственного использования (AIS). Такие программы должны регулировать весь жизненный цикл алгоритмов — от разработки до аудита — и закреплять ответственность за них на уровне топ-менеджмента. ИИ должен стать не временной мерой, а устойчивой частью долгосрочной стратегии бизнеса.