El seguro pide a la Comisión Europea un marco adecuado para promover la Inteligencia Artificial
Insurance Europe ha publicado su respuesta a una consulta de la Comisión Europea sobre los requisitos éticos y legales para una inteligencia artificial (IA) fiable en la UE.
Las aseguradoras ya están utilizando la inteligencia artificial para mejorar el servicio al cliente, aumentar la eficiencia, proporcionar una mayor comprensión de las necesidades de los clientes y prevenir transacciones fraudulentas. Los clientes están adoptando esta innovación en seguros, ya que responde a sus necesidades y hace que sus interacciones con las aseguradoras sean más efectivas.
Como señaló el grupo de expertos de alto nivel de la Comisión sobre IA en sus recomendaciones políticas, el desarrollo y uso de la IA ya está cubierto por un amplio cuerpo de legislación de la UE existente, como sobre derechos fundamentales, privacidad y protección de datos, así como sobre productos relacionados con la seguridad y la responsabilidad. Esto se complementa aún más con marcos regulatorios nacionales y sectoriales.
Para promover la adopción de la IA y evitar que las tecnologías innovadoras se vean reprimidas por una regulación prematura, el uso ético de la IA, según Insurance Europe, debe, por tanto, apoyarse y reforzarse mediante instrumentos voluntarios y / o no legislativos en la medida de lo posible. Tradicionalmente, las certificaciones voluntarias han demostrado ser un medio eficaz para garantizar estándares elevados y transparentes (por ejemplo, en el ámbito de la seguridad informática).
Además, un enfoque que se centra principalmente en instrumentos voluntarios (por ejemplo, códigos de conducta o directrices desarrollados por la industria) sigue siendo compatible con la opción de introducir instrumentos legislativos que contengan requisitos obligatorios para determinadas aplicaciones de IA.
Sin embargo, es importante garantizar que cualquier instrumento legislativo de la UE que pueda introducirse sea, de acuerdo a esta entidad, horizontal, proporcionado y basado en el riesgo, y se limite únicamente a las aplicaciones de IA de «alto riesgo» que se determinen sobre la base de criterios claros. La inclusión en el alcance de tales requisitos de procesos o aplicaciones de automatización comunes y de bajo riesgo que presentan poco o ningún riesgo para los derechos de los clientes obstaculizaría la innovación y la adopción de nuevas tecnologías, generaría costes adicionales y crearía una carga desproporcionada en vista de su bajo riesgo.
