Reflexiones de BHSI sobre la IA generativa
Por Tomás Blas, Head of Property Spain en BHSI
La Inteligencia Artificial (IA) tradicional ya está integrada en nuestras vidas desde hace tiempo. Por ejemplo, Amazon utiliza algoritmos de IA para aprender lo que le gusta a una persona y lo que han comprado otras personas con perfiles similares para ofrecer recomendaciones sobre futuras compras. De forma similar, el motor de recomendaciones de Netflix funciona con IA y utiliza el historial de visionado de cada suscriptor para ofrecerle sugerencias sobre futuros programas.
El sector asegurador también lleva varios años utilizando la IA tradicional, desde para leer las solicitudes de suscripción y extraer los datos críticos necesarios, hasta para interpretar los correos electrónicos entrantes sobre siniestros y automatizar el inicio de la tramitación de estos.
Por tanto, podemos entender la IA tradicional como el reconocimiento de patrones a partir de conjuntos de datos discretos.
La IA generativa, por el contrario, va mucho más allá y es una tecnología que puede crear nuevos contenidos, como imágenes, música y texto, sin estar explícitamente programada para ello. Funciona aprendiendo patrones y reglas a partir de ejemplos existentes y luego utiliza ese conocimiento para generar nuevos contenidos.
El conjunto de datos disponible para la IA generativa es potencialmente ilimitado y puede crear un número ingente de valiosos casos de uso empresarial, en sectores tan diversos como la medicina, la educación, el transporte, la energía o la agricultura y, como no, en el propio sector asegurador.
En lo que respecta a la suscripción de riesgos, un ejemplo de utilización de la IA generativa puede ser el entrenamiento de modelos con datos históricos de siniestralidad para que los suscriptores puedan comprender mejor los factores de riesgo, identificar patrones de tendencias y estimar las probabilidades de que ocurra un siniestro, lo que puede conducir a decisiones de suscripción más precisas y a una tarificación optimizada. En cuanto a la gestión de siniestros, las técnicas de IA generativa pueden desempeñar un papel fundamental en la detección del fraude mediante la identificación de anomalías y valores atípicos en los datos de siniestros.
Aunque la IA generativa tiene un enorme potencial, existen riesgos asociados a su uso, como pueden ser los siguientes:
- Desinformación y contenido falso: La IA generativa puede utilizarse para crear contenidos realistas pero completamente inventados, como imágenes, vídeos o texto. Esto suscita preocupación por la propagación de desinformación y contenidos falsos, ya que cada vez resulta más difícil discernir entre los contenidos auténticos y los generados.
- Seguridad y privacidad de los datos: Las soluciones de IA generativa disponibles públicamente generalmente no garantizan la seguridad de los datos. Cualquier dato compartido con estas herramientas pasaría a formar parte del ecosistema de esa herramienta. Esto plantea también problemas de privacidad, ya que puede incluirse información personal o sensible en el conjunto de datos de entrenamiento.
- Amplificación de los sesgos: Una vez más, dado que los modelos de IA generativa aprenden de los datos con los que se entrenan, también pueden captar los sesgos presentes en estos datos. Si estos están sesgados en términos de raza, género u otras características, el contenido generado puede mostrar los mismos sesgos.
- Falta de transparencia y explicabilidad: Los sistemas de IA pueden ser muy complejos y opacos, lo que dificulta comprender cómo toman decisiones o cómo llegan a ciertas conclusiones. Esta falta de transparencia puede dificultar la refutación de las decisiones sesgadas o erróneas de la IA y responsabilizar a los desarrolladores de IA por sus sistemas.
- Infracción de la propiedad intelectual: La IA generativa puede crear contenidos que se asemejen a obras existentes, lo que plantea preocupaciones sobre los derechos de propiedad intelectual.
- Manipulación y falsificaciones: La IA generativa puede utilizarse para crear «deepfakes», que son contenidos manipulados de gran realismo que representan falsamente a personas diciendo o haciendo cosas que en realidad nunca hicieron. Los “deepfakes” pueden utilizarse con fines malintencionados, como difundir desinformación, chantajear o dañar la reputación de alguien.
- Consideraciones éticas: El uso de la IA generativa plantea cuestiones éticas sobre el consentimiento y la propiedad. Por ejemplo, cuando se generan contenidos que se asemejan a los humanos, surgen dudas sobre el consentimiento y el posible uso no autorizado de la imagen de alguien. El desarrollo de la IA también genera otras consideraciones éticas complejas, como cuál es la naturaleza de la conciencia, cuál es el significado de la inteligencia o cuáles son los límites de la intervención humana en los sistemas de IA.
- Desplazamiento de puestos de trabajo: A medida que la IA se vuelve más sofisticada, podría automatizar tareas que actualmente realizan las personas, lo que llevaría a la pérdida de ciertos empleos, si bien también deberían generarse otro tipo de empleos relacionados con la IA.
Para hacer frente a estos riesgos se requiere una combinación de avances técnicos, uso responsable y directrices éticas. Es crucial desarrollar salvaguardas, métodos de verificación y normativas para mitigar los efectos negativos de la IA generativa y garantizar su aplicación responsable y beneficiosa en la sociedad. Así mismo, es importante considerar el impacto social y económico de la IA y desarrollar estrategias para ayudar a las personas que podrían verse afectadas negativamente por esta tecnología.
Además de los potenciales peligros mencionados anteriormente, algunos expertos también han advertido sobre el riesgo de que la IA se vuelva tan inteligente que supere la inteligencia y las capacidades humanas, lo que podría conducir a un escenario en el que la IA represente una amenaza para la humanidad. Sin embargo, otros expertos creen que este riesgo es poco probable y que la IA se seguirá utilizando en beneficio de la humanidad.
En BHSI, nuestro enfoque respecto a la IA generativa pasa por informarnos sobre los beneficios, oportunidades, riesgos y retos que plantea, garantizar la existencia de protecciones y controles adecuados, e identificar y crear casos de uso y proyectos piloto que tengan aplicaciones empresariales prácticas. Estos casos deben estar bien gestionados para que adquiramos el conocimiento y la comprensión detallados del alcance y los resultados esperados. Esto nos ayudará a determinar las futuras protecciones, políticas y controles que queremos para estas herramientas en general.
Creemos que nuestras principales oportunidades se deben focalizar en mejorar la eficiencia operativa general y en mejorar los resultados de la suscripción y los siniestros.
En definitiva, la IA en todas sus vertientes ya nos rodea y es nuestra responsabilidad el intentar hacer el mejor uso de esta, esforzándonos en entender su potencial, sus limitaciones y sus riesgos que, además, irán evolucionando con el tiempo. Se trata de una herramienta muy poderosa que nos puede ayudar a mejorar en áreas muy diferentes de nuestras vidas y que está aquí para quedarse.
Para escribir este artículo, además de en nuestro propio conocimiento y experiencia, también nos hemos apoyado en herramientas online tradicionales, así como en herramientas que utilizan IA generativa. En cualquier caso, lo que reflejamos aquí es un conjunto de reflexiones y pensamientos humanos que están totalmente libres de sesgos derivados de su uso. Aunque, ¿podemos estar completamente seguros de ello?

