En un escenario empresarial marcado por la automatización, los datos masivos y la toma de decisiones en tiempo real, emerge una nueva figura clave en la alta dirección: el oficial ético de IA (o AI Ethics Officer). Este perfil no solo representa la adopción tecnológica, sino también un cambio profundo en la forma de liderar organizaciones en la era digital. Responsable de alinear la IA con la estrategia de negocio , este cargo se sitúa en la intersección entre innovación, ética y competitividad. Comprender quién es, qué hace y por qué su papel se ha vuelto imprescindible permite entender cómo las empresas están redefiniendo su futuro en un entorno cada vez más inteligente y complejo. Idoia Salazar, profesora de la Universidad CEU San Pablo y directora de la Cátedra Internacional CEU San Pablo-Deloitte en IA Generativa, explica que «estas figuras van a ser cada vez más necesarias para asegurar que los sistemas actúen de manera justa, transparente y responsable, especialmente en sectores críticos como la salud, la seguridad y las finanzas». Salazar, que además es especialista en Ética y regulación en IA, cofundadora y presidenta del Observatorio del Impacto Social y Ético de la Inteligencia Artificial, OdiseIA, y experta del Observatorio de IA del Parlamento Europeo (Epaio), considera que con el aumento de la regulación, como el Reglamento General de Protección de Datos en Europa y otras iniciativas legislativas globales, las empresas van a necesitar de expertos que puedan guiar el cumplimiento y adaptarse a los marcos legales y éticos en evolución . «Muchas empresas reconocen ya la importancia de incorporar consideraciones éticas desde las fases iniciales del desarrollo de productos de IA para evitar problemas futuros que podrían derivar en daños reputacionales o legales», afirma. Desde la Universidad de Deusto, que cuenta con el Programa Experto en Ética de la Digitalización y de la IA, coinciden con esta idea. «Cada vez tenemos más indicios que nos hacen pensar que este tipo de perfiles serán claves», afirma Pedro M. Sasia, vicedecano de Profesorado y director del Departamento de Ciencias Sociales y Humanas de la Universidad de Deusto. La creación de una Agencia de IA en La Coruña indica que cada vez va a ser más necesario hacer un control y un seguimiento exhaustivo de este tipo de sistemas desde la Administración y que ese control debe de ser externo, igual que se hace con otros aspectos, como por ejemplo el financiero. «Podrán ser perfiles internos dentro de la empresa (los departamentos de las grandes empresas tecnológicas que se dedicaban a la vigilancia ética de estos sistemas están muy en entredicho, y tienden a desaparecer), pero parece claro que será necesario este tipo de perfiles para poder desarrollar y desplegar este tipo de sistemas con garantías . La consultoría y la auditoría ética, especialmente en el caso de los algoritmos, es un área en continua expansión en estos momentos», afirma Sasia. Un ejemplo sencillo para en qué se puede traducir la falta de supervisión ética a los sistemas de IA es, por ejemplo, el de la concesión de créditos desde los bancos. Borja Sanz, profesor de la Facultad de Ingeniería de Deusto, afirma que utilizar un sistema opaco, sin ningún tipo de evaluación y sin supervisión humana, hace que el resultado final no pueda ser controlado, obteniendo una respuesta de 'sí' o 'no': «Este tipo de sistemas pudiera hacer que, a través del entrenamiento realizado y de los algoritmos utilizados, el sistema llegue a conclusiones absurdas como que, por ejemplo, sólo se pueden conceder créditos a los hombres mayores de 35 años que tienen un determinado modelo de teléfono móvil. A posteriori, es complicado identificar los patrones de las decisiones tomadas por este algoritmo, y eso puede tener un impacto importante no sólo a nivel ético y social, también a nivel legislativo e, incluso económico, de pérdida de oportunidades importantes. Otro ejemplo en el que se están usando este tipo de sistemas es en los departamentos de recursos humanos y en empresas de captación de talento». Los sistemas de IA plantean retos significativos en materia de privacidad, uso de datos y transparencia. Estos modelos requieren grandes volúmenes de información para su entrenamiento, lo que incrementa el riesgo de que datos personales sean utilizados sin el consentimiento adecuado. Por ello, implementar regulaciones estrictas y prácticas responsables de gestión de datos resulta indispensable para proteger a los usuarios. Asimismo, la transparencia se vuelve un pilar fundamental : comprender cómo funcionan los algoritmos y cómo toman decisiones permite detectar errores, sesgos y posibles abusos, fortaleciendo la confianza pública y garantizando un uso ético de la tecnología. Otros desafíos claves son los sesgos algorítmicos y la propiedad intelectual. Los datos de entrenamiento pueden reproducir prejuicios históricos o sociales, generando decisiones discriminatorias. Corregir estos sesgos es esencial para asegurar sistemas equitativos e imparciales . A ello se suma el debate sobre los derechos de autor, ya que la capacidad de la IA para crear contenido cuestiona la autoría y el uso ético de obras preexistentes, y hace necesario un marco legal actualizado. Los profesionales llamados a trabajar en el ámbito de la ética en la IA empresarial requieren de habilidades interdisciplinarias , por supuesto con conocimientos técnicos mínimos en IA para entender cómo funcionan los algoritmos y modelos de aprendizaje automático. «También es importante tener formación sólida en ética, especialmente aplicada a la tecnología, para identificar y analizar dilemas éticos utilizando diferentes marcos éticos y filosóficos –explica Idoia Salazar–. Deben tener conocimiento sobre los posibles sesgos que se pueden presentar para identificar y mitigar sesgos en datos y algoritmos, y comprender cómo implementar prácticas más justas y equitativas. Además, es importante conocer las leyes y regulaciones que afectan a la IA ( AI act, por ejemplo ) y anticipar futuros cambios legales. También sería deseable que tuvieran habilidades de comunicación para explicar conceptos complejos de IA a públicos no especializados para poder facilitar así el diálogo entre grupos interdisciplinarios». Ya existen profesionales con estos perfiles trabajando en empresas en España, particularmente en aquellas que operan en sectores tecnológicamente avanzados como las telecomunicaciones, la banca, la salud y la tecnología. «Pero aún no hay muchas –explica Salazar–. Es un área incipiente. Sin embargo, se espera que en los próximos dos años (periodo que tardarán en entrar en vigor los requerimientos obligatorios para algoritmos de alto riesgo) haya un aumento significativo de incorporación de estos profesionales a empresas y organismos públicos y privados». Desde la Universidad de Deusto afirman que ya existen consultoras especializadas en el ámbito, como Eticas AI, que se dedican a la auditoría de este tipo de sistemas. «Además, las grandes consultoras cada vez incorporan a más gente para trabajar en este tipo de perfiles –explica Pedro M. Sasia–. También en el espacio académico, muchos departamentos universitarios están desarrollando líneas de investigación y transferencia de conocimiento cuyo objetivo es desarrollar conocimiento y experto y formar profesionales que puedan responder a una necesidad que cada vez es más demandada. Los marcos normativos se irán reforzando, pero su aterrizaje en las realidades empresariales concretas requiere de profesionales con competencias específicas en el área , de la misma manera que ocurre con la necesidad de expertos que participen en el diseño de los propios marcos normativos desde las administraciones públicas». En cuanto a las retribuciones de estos profesionales, «probablemente varíe en función de factores como la industria, la experiencia del profesional, el tamaño y el tipo de empresa, y la ubicación geográfica dentro del país –explica Salazar–. Para aquellos que están comenzando en el campo de la ética de la IA, con poca experiencia previa específicamente en roles de ética, pero con una formación sólida en IA y áreas relacionadas, los salarios pueden comenzar en el rango de 30.000 a 40.000 euros al año . Aunque aumentarían significativamente a medida que se gana experiencia».