El mayor reto en el uso de IA para detectar el fraude en el seguro es la transparencia
Por Sebastià Company, Product Marketing Manager EMEA de Guidewire
El sector asegurador ha integrado con éxito sofisticadas herramientas digitales que han permitido optimizar los procesos de suscripción, peritaje e indemnización. Entre ellas, la Inteligencia Artificial, que se ha convertido en punta de lanza de una revolución que no ha hecho más que empezar, y que permite no solo una mayor eficiencia en los procesos, sino reducir de forma considerable uno de los grandes problemas a los que se enfrenta el sector: el fraude.
El informe sobre fraude elaborado por FRISS en 2020 cifró en un 18% los siniestros que contenían algún elemento fraudulento. Se calcula que estos comportamientos, exacerbados por la pandemia, cuestan al sector alrededor de 80.000 millones de dólares al año, lo que justifica buscar fórmulas para reducirlos.
Sin embargo, las herramientas que se están utilizando para analizar información pública (por ejemplo, la publicada por los propios usuarios en redes sociales) plantean retos que empiezan a preocupar en el sector: especialmente, la ética y el respeto a la privacidad de las personas, así como la discriminación hacia determinados colectivos.
La Inteligencia Artificial se fundamenta en algoritmos que se alimentan a través de datos recopilados de los que se extraen patrones de comportamiento que, a su vez, alimentan la propia evolución del sistema. Cualquier vicio en estas etapas supondrá condicionar las futuras, generando un ciclo que, como se ha demostrado, puede perjudicar a algunos colectivos sobre otros.
En paralelo, el análisis de los perfiles personales de cientos de personas en busca de contenidos que evidencien fraude o negligencia puede constituir una intromisión ilegítima en su intimidad, así como una violación de su privacidad, independientemente de que se trate de contenidos que comparten de forma abierta y voluntaria en redes sociales. Por eso se requieren plataformas como Social Discovery, desarrollada por Guidewire con este peligro en mente: gracias a ella, no se compromete la privacidad de los usuarios, sin por ello perjudicar al objetivo de las aseguradoras de reducir el fraude a través del análisis de información disponible en la red.
En cualquier caso, estos ejemplos son aún remotos, pues el principal uso que se está haciendo de los algoritmos en el sector asegurador se enfoca hacia el cálculo de las primas. Y es ahí donde hay que sentar las bases de un modelo ético, justo y transparente, incidiendo claramente en la necesidad de evitar toda forma de discriminación, y respetando en todo momento tanto la privacidad de los usuarios como su derecho a conocer el uso que se está haciendo de los datos que las aseguradoras poseen de ellos.
Si no construimos una base de confianza asentada en la ética y la transparencia, es cierto que el sector asegurador contará con poderosas herramientas capaces de detectar el fraude y establecer primas para cada usuario de forma certera. Pero quizás entonces no queden usuarios a los que evaluar ni proporcionar un precio personalizado, porque se habrán marchado a otras compañías que muestren mayor sensibilidad hacia las preocupaciones inherentes a tecnologías con este potencial.
Es el momento de que el sector asegurador tome la iniciativa y desarrolle un nuevo modelo en el que se ponga en el centro al cliente, y no tanto a una tecnología que, en ocasiones, puede convertirse en un arma de doble filo.
