Dinamarca traza una línea roja: la IA no podrá interpretar emociones en el trabajo ni en las aulas

En pleno despliegue del nuevo marco europeo de inteligencia artificial, una cuestión concentra la atención de juristas, responsables de cumplimiento y equipos técnicos: ¿qué ocurre con los sistemas que “leen” emociones a partir del rostro, la voz o los gestos? La Guía sobre la prohibición de la IA que deduce emociones en los lugares de trabajo y las instituciones educativas publicada por la Agencia Danesa de Digitalización ofrece una de las primeras interpretaciones del artículo 5.1.f del Reglamento (UE) 2024/1689, y lo hace con un mensaje claro: está prohibido comercializar, poner en servicio o usar sistemas de IA destinados a deducir las emociones de personas físicas en entornos laborales o educativos, salvo por razones médicas o de seguridad. Esto no parece una simple declaración, sino que delimitará una frontera jurídica que condicionará decisiones de compra, diseño de productos y procesos de gobernanza en organizaciones públicas y privadas de toda Europa.

La guía se centra, ante todo, en las razones por las cuales se ha situado aquí una línea roja. Las emociones humanas son realidades contextuales, culturales e individuales que no pueden “objetivarse” con fiabilidad mediante reglas matemáticas. Que una persona sonría no significa siempre que esté feliz; que eleve el tono de voz no prueba que esté enfadada. Por eso, incluso cuando un sistema parezca acertar, su fiabilidad es baja y su uso puede derivar en sesgos y trato desfavorable. Y cuando ese uso se traslada a relaciones de poder asimétricas (empleador-empleado, profesor-alumno) el riesgo para derechos fundamentales se multiplica. De ahí la prohibición específica en estos contextos.

Desde un punto de vista práctico, la guía estructura el análisis en tres condiciones acumulativas. Primera: que exista comercialización, puesta en servicio o uso de un sistema de IA con la finalidad concreta de deducir emociones. Segunda: que el sistema analice datos biométricos (expresiones faciales, lenguaje corporal, timbre o cadencia de la voz) y, a partir de esa observación, infiera un estado emocional identificable (felicidad, tristeza, aburrimiento, estrés, entusiasmo, etc.). Tercera: que el uso tenga lugar en un entorno laboral o educativo. Si concurren las tres, estamos ante una práctica prohibida en toda la UE. Si falta cualquiera de ellas, el caso saldría del perímetro de prohibición, si bien podrá seguir siendo ilícito por otras razones.

La primera condición se refiere al ámbito de aplicación material de la norma. Para que una práctica quede prohibida, el sistema debe haberse comercializado, puesto en servicio o utilizado dentro de la Unión Europea con el fin concreto de deducir emociones. Esto significa que no basta con la mera existencia de una tecnología con potencial para hacerlo: debe haberse desplegado o puesto a disposición del mercado con esa finalidad específica. De esta forma, la prohibición alcanza tanto a quienes diseñan y venden estos sistemas como a las organizaciones que los implementan.

La segunda condición es la bisagra técnica y conviene detenerse en su alcance. No basta con que un sistema capte rasgos; debe deducir explícitamente una emoción. La guía subraya que el concepto de “deducir” exige interpretación: convertir rasgos físicos o conductuales en una conclusión emocional: “desinterés”, “frustración” o “satisfacción”. Y concreta, además, que no todo análisis conductual entra en este supuesto: la “detección” de gestos o la contabilización de sonrisas, sin inferencia emocional, no activa por sí sola la prohibición. Lo prohibido es atribuir un estado emocional a una persona a partir de esos datos biométricos.

La tercera condición delimita los contextos. “Lugar de trabajo” se interpreta de forma amplia: oficinas, fábricas, almacenes, entornos virtuales como Teams o Zoom, teletrabajo en el hogar, espacios públicos cuando existe relación laboral o situaciones de reclutamiento y selección (entrevistas, pruebas). “Centro educativo” también se entiende en sentido extensivo: primaria, secundaria, universidad, formación profesional, educación de adultos y plataformas de e-learning cuando su uso es obligatorio. El foco, en este caso, son quienes están en relación de subordinación o dependencia respecto de la entidad.

Para aterrizar el análisis, la guía propone dos escenarios ilustrativos que hoy resultan reconocibles. En el primero, una empresa instala cámaras con IA en salas de reuniones para analizar la voz y el rostro de su plantilla y medir el “entusiasmo” durante presentaciones; la autoridad concluye que el caso está prohibido: hay sistema de IA, hay inferencia emocional a partir de biometría y ocurre en el trabajo, sin amparo médico ni de seguridad. En el segundo, centros escolares emplean una tecnología que monitoriza caras en el aula para señalar al docente, en tiempo real, si el alumno está aburrido, cansado o frustrado; también prohibido por concurrir las tres condiciones, con la nota de un desequilibrio añadido por tratarse de menores.

La guía no ignora que hay excepciones. El Reglamento de IA permite la deducción de emociones solo cuando la finalidad sea médica o de seguridad, y siempre que ese objetivo esté claramente justificado y documentado, y no existan alternativas menos intrusivas igual de eficaces. Se mencionan, a título de ejemplo, usos terapéuticos (apoyo a personas con autismo) o de accesibilidad (asistencia a personas ciegas o sordas). En cambio, proporcionar a la dirección un “termómetro” de satisfacción laboral o medir la “atención” del alumnado no es seguridad ni medicina, y no cabe en la excepción.

¿Cómo deben reaccionar las organizaciones?

Probablemente, el punto de partida es analizar cualquier iniciativa de IA que toque voz, imagen o gestualidad en RR. HH., selección y evaluación del desempeño; monitorización de equipos de atención al cliente; analíticas de aprendizaje; vigilancia de aula. Si la finalidad real es deducir estados emocionales en personal o estudiantes, la conclusión jurídica es directa: cesar, no adquirir o no poner en marcha ese sistema. La prohibición actúa desde el principio: no puede legalizarse si sigue existiendo la intención de analizar emociones en esos casos.

Segundo, conviene replantear requisitos a fabricantes y proveedores. La guía enfatiza que un sistema puede escapar a la prohibición si no infiere emociones, sino que se limita, por ejemplo, a medir indicadores objetivos de interacción en una reunión (tiempos de palabra, turnos, interrupciones) o métricas pedagógicas no emocionales en el aula (entregas, participación observable sin etiquetado emocional). Esto obliga a rediseñar productos y a garantizar, contractual y técnicamente, que no existe inferencia emocional encubierta. El matiz es importante: aunque no se muestre al usuario, si se hace una clasificación emocional, su uso en trabajo o educación sigue estando prohibido.

Tercero, es imprescindible diferenciar emociones de estados físicos. Un sistema que detecta somnolencia en conductores profesionales con base en parpadeo y comportamiento del vehículo puede aspirar a la excepción de seguridad, siempre que se justifique que protege vida y salud, y que no hay alternativa menos intrusiva. Pero “detectar estrés” de un teleoperador con análisis de tono de voz para ajustar su guion no es una medida de seguridad ni una intervención médica; es un uso prohibido. La finalidad y la proporcionalidad no se presumen: deben probarse.

Cuarto, a nivel de gobernanza, la guía encaja con el principio de responsabilidad proactiva: no basta con suprimir una referencia al “estado de ánimo”; hay que auditar funcionalidades y documentar que el sistema no realiza deducción emocional en estos contextos. En contratación, se deben incluir cláusulas que prohíban explícitamente la activación presente o futura de módulos de reconocimiento emocional en ámbitos laborales o educativos, y que habiliten auditorías técnicas. Y en Compliance interno, actualizar políticas de IA, catálogos de prácticas prohibidas y mecanismos para rechazar casos de uso “atractivos” desde el punto de vista de negocio, pero jurídicamente inviables.

Quinto, conviene recordar que el Reglamento de IA coexiste con el RGPD y la normativa laboral y educativa. Un caso que no encaje en la prohibición del 5.1.f puede seguir siendo ilícito por otros motivos: tratamiento de biometría sin base legal, falta de transparencia o minimización, impactos desproporcionados en igualdad o no discriminación. La guía lo dice con claridad: su foco es únicamente la categoría de prohibición de deducción emocional en trabajo y educación; no prejuzga el cumplimiento de las demás leyes aplicables

En conclusión, la Guía danesa sobre la prohibición de sistemas de IA que deducen emociones pueden constituir un referente temprano en la aplicación del Reglamento Europeo de Inteligencia Artificial. Su interpretación aclara los límites de una práctica que, por su potencial impacto en la privacidad y la dignidad, queda prohibida en entornos laborales y educativos salvo por motivos médicos o de seguridad.

El documento refuerza la idea de que las organizaciones deben revisar cualquier tecnología que utilice datos biométricos para inferir emociones, garantizando que sus usos se ajustan estrictamente a la normativa y no generan desequilibrios de poder ni tratamientos intrusivos. De este modo, la guía contribuye a consolidar un marco de confianza en el desarrollo y aplicación de la inteligencia artificial dentro de la Unión Europea. Puedes leer otras entradas de nuestro Blog relacionadas con IA aquí y aquí.