El Instituto de Actuarios de España pondrá en marcha un grupo de trabajo para diseñar un Marco Ético de Inteligencia Artificial (IA) para esa profesión. Se trata de una iniciativa pionera destinada a reforzar la transparencia, la responsabilidad y la deontología en el uso de sistemas de inteligencia artificial, según ha anunciado su presidente, Fernando Ariza, en las XII Jornadas de Investigación Actuarial organizadas por ICEA.
La creciente integración de la inteligencia artificial en procesos como la tarificación, la suscripción, la gestión y modelización de riesgos, la identificación de vulnerabilidades o la detección del fraude entre otros, exige garantías sólidas en materia de gobernanza, explicabilidad, equidad e inclusión. En este contexto, el Instituto considera que el actuario, por su formación técnica, su propósito, y su compromiso ético y social, está llamado a desempeñar un papel esencial como garante de la fiabilidad y la ética de los modelos de IA.
El futuro Marco Ético tratará de establecer principios, directrices y recomendaciones orientados a asegurar que los sistemas basados en IA utilizados en el ámbito actuarial sean transparentes, auditables y alineados con la normativa vigente y los principios éticos y de conducta de la profesión.
“Ante la irrupción de la IA, el actuario no solo participa en la modelización del riesgo, sino que también debe proteger los derechos de las personas que interactúan con IA. La deontología profesional nos obliga a asegurar que la inteligencia artificial se utilice con rigor técnico, integridad profesional y pleno respeto a los derechos de las personas y a la legislación”, argumenta Fernando Ariza.
Con esta iniciativa, el Instituto de Actuarios de España reafirma su compromiso con la excelencia profesional y con la defensa del interés general, posicionando a la profesión actuarial como referente en la gobernanza ética de la inteligencia artificial aplicada al riesgo.