by Alan O'Loughlin Statistical Modelling and Analytics Lead for Europe, Insurance, LexisNexis Risk Solutions

Martes, Abril 9, 2019

Escuchando a las aseguradoras y los científicos de datos debatir sobre inteligencia artificial y analítica avanzada, me he dado cuenta de la confusión que se produce en algunas cuestiones importantes, como la falta de distinción entre "automatización" y la verdadera "Inteligencia Artificial" (IA) o si debemos tener una visión amplia de la tecnología o centrarnos en resolver los micro-problemas y los micro-pasos en los procesos de seguros.

Parece que la IA y la transformación digital en los seguros están de alguna manera interrelacionadas, aumentando la demanda de datos disponibles de manera abierta en diferentes puntos del ecosistema. Todavía hay un trabajo importante por hacer en la industria, sobre la calidad de los datos, la estandarización y la interconectividad, para decidir con precisión qué es lo que da valor a los datos. Tenemos que abordar el problema de la calidad de los datos. 

En Insurance Analytics y AI Europe expliqué cómo los actuarios pueden utilizar el data science y las nuevas técnicas de modelización para procesar grandes cantidades de datos de nuevas fuentes, a fin de rediseñar los perfiles de riesgo. Mostré que la adaptación es clave y que los actuarios deben adaptarse rápidamente a la innovación y a las nuevas fuentes de datos para aumentar la rentabilidad de las aseguradoras. Como la analítica ya se aplica en todo el espectro de seguros, es necesario pensar en cómo se almacenan y se accede a los datos, para que proporcionen un valor adicional.

Los desafíos de la analítica avanzada en seguros requieren que aseguremos que se usan todas las fuentes de datos necesarias y que su tratamiento analítico se realiza correctamente. Modelar y descubrir nuevos atributos de riesgo es una parte de esto, lo cual es muy satisfactorio. La diferenciación de riesgos y la modelización en la selección de riesgos es cada vez más avanzada. Es como elegir un tono de color para pintar una habitación, técnicamente el ojo humano puede ver millones de variaciones de matices, estando cada variación un poco más cerca del tono perfecto que tenemos en mente. Con la mayor cantidad de datos, técnicas de modelización y herramientas disponibles, nos acercamos cada vez más a la tarificación adecuada.

Ser competitivo en el negocio del riesgo implica explicar, identificar y segmentar grupos de riesgos desconocidos. Identificar el riesgo a un mayor nivel con una mejor segmentación conduce a una mejor clasificación de cliente en el proceso de selección y suscripción. Gran parte de lo que hacen nuestros equipos de análisis y modelización en LexisNexis es reducir los residuos (la diferencia entre la pérdida pronosticada y la real), explicando riesgos previamente inexplicables y separándolos del ruido estadístico real, utilizando fuentes de datos cada vez mayores. Hacemos todo lo posible para investigar y probar la validez de los modelos y, al hacerlo, ayudar a nuestros clientes a encontrar competitividad adicional y mejorar los resultados técnicos.

Hemos aprendido que la innovación puede provenir de diferentes fuentes de datos preexistentes que se enriquecen y examinan a través de una perspectiva diferente y, con las bases de datos contributivas existentes y las que estamos construyendo, podemos crear nuevas variables y nuevos factores de riesgo.

Al igual que otros actores en el mercado, estamos utilizando modelos de tarificación cada vez más avanzados, modelos de precios dinámicos basados en "deep learning", modelos end-to-end totalmente automatizados y otros sistemas de inteligencia artificial. Pero todos los modelos de tarificación son tan buenos como los datos que usan. En el ámbito de la inteligencia artificial, aconsejamos a los clientes que nunca vayan a por una solución íntegramente basada en IA, implementando un modelo de precios dinámico sin ninguna intervención humana (actuarios). Hoy estamos en un punto en el tiempo en el que necesitamos esa interfaz humana que se encargue de los controles y equilibrios de la gobernabilidad, y que ayude a elegir factores de riesgo aceptables para el mercado.

Todavía tenemos mucho por hacer en el campo de la inteligencia artificial y necesitamos una nueva forma de pensar y una nueva cultura empresarial. Por ahora todavía estamos averiguando, ¿cuáles son las preguntas correctas para hacer a las máquinas?

En la UE no tenemos un modelo de gobierno para implementar modelos de regresión, así que ¿por qué deberíamos crear uno  para la IA? Si la inteligencia artificial se convierte en algo más que una serie de casos de uso específicos o micro soluciones, ¿cómo vamos a gestionarlo como industria?

El cambio es la única constante.