16 Apr
16Apr

Santalucía ha acogido el ‘People Summit’ RR.HH. liderando la integración de la IA en la organización”. El encuentro impulsado por Top Employers Institute ha reunido a más de un centenar de compañías en gestión de personas para reflexionar sobre el rol de los departamentos de Recursos Humanos (RRHH) en la integración de la inteligencia artificial (IA) con una visión estratégica, humana y orientada al negocio, y en un momento clave para la transformación organizativa.

Berta Durán, Directora General de Personas, Organización y Comunicación de Santalucía, subraya el papel clave de las áreas de Personas a la hora de liderar la transformación tecnológica desde una mirada ética, y alineada con el propósito de las organizaciones: "La incorporación de la IA a nuestros procesos y formas de trabajo nos plantea grandes oportunidades y retos, y potencia el rol esencial de la función de Personas en la transformación de las organizaciones y las personas. Es más importante que nunca generar foros de reflexión conjunta que nos permitan avanzar hacia modelos de trabajo más innovadores, poniendo siempre a las personasen el centro”.

Carlos Fernández, Director General de Transformación, Innovación y Gobierno del Dato en la aseguradora, participa en el debate sobre cómo incorporar estas nuevas tecnologías desde una perspectiva estratégica y responsable con Raquel Larena, HR Regional Leader Spain & Large European Countries de Randstad; Pedro Casaño, Global People Director de Hijos de Rivera; y Virginia Sánchez, Head of Talent Acquisition de Leroy Merlin.

Para Carlos Fernández, "la IA está transformando la función de Recursos Humanos, pero el verdadero reto no es tecnológico, sino cultural. La clave está en acompañar a las personas en este proceso, impulsando la capacitación, fomentando un cambio de mentalidad y ayudando a eliminar los miedos que inevitablemente surgen ante cualquier transformación. Solo así podremos aprovechar todo el potencial de la IA de forma responsable y sostenible”.

El encuentro ha contado con la participación de 200 representantes de 150 grandes compañías, en su mayor parte certificadas por Top Employer Institute como Top Employer 2026. En 2026, Top Employers Institute ha certificado cerca de 2.500 empresas de todo el mundo, de las que sólo un 10 % logran el aval de ‘mejores empleadores’ por sus prácticas de Gestión de Personas. Santalucía es una de ellas.

El Director SEE & ME de Top Employers Institute, Massimo Begelle, anunció la publicación del informe sobre el diseño del trabajo en la era de la IA Multiagéntica. Una nueva tecnología de IA, que realiza múltiples tareas de manera similar a un equipo con una intervención humana limitada, y sobre la que Begelle ha reivindicado “el papel clave de los responsables de RRHH en esta nueva era, ya que para que la implantación de la IA Multiagéntica cree valor, hay que rediseñar profundamente los roles y procesos de trabajo con la colaboración y la confianza de los empleados".

Además de ejercer como anfitriona del ‘People Summit’, Santalucía (empresa TopEmployer por cuarto año consecutivo) vuelve a ver reforzada su colaboración con Top Employers Institute en un año especialmente significativo: un proyecto de la Dirección General de Personas, Organización y Comunicación de la aseguradora ha sido incluido dentro del estudio de tendencias globales Top Employers 2026. Se trata de Campus Play, reconocida por la entidad certificadora como una de las mejores prácticas de RRHH a nivel internacional. Es una iniciativa impulsada desde Campus, su referente formativo, y que implementa dinámicas de gamificación al aprendizaje para fomentar una formación más continua, participativa y motivadora. Esta plataforma interactiva cuenta con más de 1.700 usuarios del grupo Santalucía, y además de mejorar el engagement, ha aumentado el conocimiento general en un 20%.

BTS avisa que AI Act regula el uso para la gestión del talento

Por otra parte, la entrada en vigor del Reglamento Europeo de Inteligencia Artificial (AI Act) ha establecido un marco legal estricto para el uso de sistemas de IA en procesos de selección, promoción y evaluación de personas. La norma clasifica estos sistemas como de alto riesgo, imponiendo obligaciones técnicas, de gobernanza y de supervisión que transformarán la manera en que las organizaciones utilizan la IA para tomar decisiones laborales. Las prácticas que no cumplan con los requisitos del reglamento podrán enfrentarse a sanciones que alcanzan los 35 millones€ o el 7% de la facturación global anual en el caso de prácticas prohibidas, y hasta 15 millones o el 3% para incumplimientos de obligaciones adicionales.

“El EU AI Act marca un punto de inflexión para todas las organizaciones que utilizan IA en gestión del talento. Muchas compañías están haciendo un uso tipificado como alto riesgo de la IA, priorizándola por encima de la supervisión de personas, sin trazabilidad y desconociendo por completo los riesgos que ciertos sistemas representan”, señala Jordi Bastús, Senior Director Assessment & Development practice en España en BTS.

Ante este nuevo contexto, surge la necesidad urgente de identificar las áreas de mayor exposición regulatoria. En este sentido, BTS, consultora global especializada en estrategia, liderazgo y transformación de compañías, ha establecido cinco red flags esenciales que las organizaciones deben revisar en sus sistemas y proveedores de IA, basadas en los requisitos del EU AI Act y en los estándares profesionales recogidos en la documentación técnica del sector.

  • 1.- Inferir emociones, estrés u honestidad mediante vídeo o voz: El AI Act prohíbe expresamente cualquier técnica que intente evaluar emociones, honestidad, estrés, estabilidad emocional o rasgos de personalidad a través de la voz, el rostro o la biometría. Esta prohibición responde a la evidencia científica de que estas inferencias son altamente inexactas y sesgadas, lo que puede derivar en decisiones injustas que afecten a la equidad y a la inclusión. “Las empresas que utilicen estas prácticas se exponen a sanciones económicas elevadas, por no hablar de un gran riesgo reputacional y conflictos legales derivados de discriminación laboral. Además, estas técnicas pueden generar desconfianza en los empleados y candidatos, impactando en la marca empleadora y en la capacidad de atraer talento”, continúa Bastús.
  • 2.- Automatizar decisiones sin supervisión humana efectiva: Los sistemas que filtran candidatos asignan puntuaciones o toman decisiones sin supervisión humana se sitúan en la zona roja. El AI Act exige que la supervisión sea real y activa, con autoridad para revisar, corregir y validar resultados. Esto significa que la tecnología no puede reemplazar el juicio humano, sino complementarlo. La ausencia de revisión efectiva aumenta el riesgo de errores sistemáticos, sesgos inadvertidos y decisiones injustas que pueden afectar la diversidad y la igualdad de oportunidades dentro de la organización. Desde BTS señalan que la supervisión humana también es clave para cumplir con auditorías regulatorias y demostrar que la IA se utiliza de manera responsable y ética.
  • 3.- Utilizar datos históricos que perpetúan sesgos o discriminación: Los datasets históricos, si no se revisan con rigor, pueden replicar desigualdades ya existentes, discriminando por género, edad, etnia o nivel educativo. El AI Act exige que las organizaciones analicen los datos y demuestren su representatividad para todas las poblaciones relevantes. Esto incluye realizar análisis de impacto adverso y pruebas de sesgo antes de implementar cualquier sistema de IA. Ignorar este paso puede no solo invalidar los resultados de los sistemas, sino también generar conflictos legales y dañar la reputación de la empresa. La gestión cuidadosa de los datos es fundamental para garantizar que las decisiones derivadas de las evaluaciones sean justas y objetivas tanto en selección como en promoción, democión o movilidad interna.
  • 4.- No disponer de trazabilidad, logs ni documentación técnica completa: Las organizaciones deben mantener registros completos de decisiones, métricas de precisión, robustez y documentación técnica que explique cómo cada modelo genera sus resultados. La falta de trazabilidad impide auditar procesos, detectar errores o sesgos y justificar decisiones ante reguladores o tribunales. Este incumplimiento puede derivar en sanciones económicas severas y en pérdida de confianza por parte de empleados y candidatos. Contar con documentación detallada también facilita la mejora continua de los sistemas y permite a las empresas adaptarse de manera ágil a cambios regulatorios.
  • 5.- Usar herramientas sin evidencia clara de validez ni relación con el puesto: El AI Act y los estándares profesionales como SIOP exigen que cada sistema de IA esté respaldado por evidencia técnica que demuestre que mide competencias relevantes para el puesto. Esto incluye estudios de validez, análisis de correlación con desempeño laboral y consistencia en resultados. Utilizar herramientas sin esta evidencia no solo pone en riesgo el cumplimiento legal, sino que también afecta la calidad de la toma de decisiones, pudiendo generar errores en contratación o promoción. La validación científica asegura que la IA contribuye a decisiones justas, objetivas y alineadas con los objetivos estratégicos de la organización.

“La implementación responsable de IA en talento no es solo una cuestión de cumplimiento legal: es una oportunidad estratégica para mejorar la calidad de las decisiones, minimizar sesgos y reforzar la confianza interna y externa. Las organizaciones que identifiquen y mitiguen estas cinco red flags estarán mejor posicionadas para aprovechar la IA de manera ética, eficiente y alineada con sus objetivos de negocio, evitando riesgos regulatorios y fortaleciendo su marca empleadora”, concluye Bastús.

Comentarios
* No se publicará la dirección de correo electrónico en el sitio web.