NUEVA GUÍA DE LA AEPD SOBRE IA AGÉNTICA: IMPLICACIONES EN MATERIA DE PROTECCIÓN DE DATOS

La AEPD publica en febrero de 2026 la guía “Inteligencia artificial agéntica desde la perspectiva de protección de datos” (de ahora en adelante, la “Guía”) cuyo objetivo es ofrecer criterios prácticos para que responsables y encargados del tratamiento puedan comprender cómo el uso de agentes de IA afecta a los tratamientos de datos personales. La Guía parte de la premisa de que utilizar un agente de IA no implica únicamente sustituir una herramienta tecnológica por otra más avanzada, sino que puede cambiar la propia naturaleza del tratamiento, su alcance y sus riesgos asociados. Por ello, antes de adoptar esta tecnología, es imprescindible identificar las obligaciones aplicables de las distintas normativas que resulten de aplicación.

Concepto  

La AEPD define al agente de IA como un sistema de inteligencia artificial que utiliza modelos de lenguaje para cumplir un objetivo. Un agente actúa de manera adecuada según sus circunstancias y objetivos, es flexible ante entornos cambiantes, aprende de la experiencia y toma decisiones acordes a sus limitaciones perceptivas y computacionales. Estos sistemas descomponen tareas complejas en subtareas, que se ejecutan de forma planificada mediante una cadena de razonamiento. Además, pueden percibir el entorno mediante sensores, interfaces o APIs, y ejecutar acciones externas como enviar información o interactuar con servicios digitales.

Arquitectura y funcionamiento

Los sistemas de IA agéntica pueden estar formados por una aplicación de interfaz, uno o varios agentes con distintos patrones de razonamiento, modelos de lenguaje locales o remotos, herramientas integradas, almacenamiento para memoria a corto y largo plazo, y servicios de soporte como gestión de credenciales o trazabilidad. Estos elementos pueden desplegarse de forma local, externa o híbrida.

Adicionalmente, también pueden funcionar dentro de arquitecturas multiagente, en las que diferentes agentes colaboran o reparten tareas según su rol. Para ello, se requiere una capa de orquestación que coordina el ciclo de vida de cada agente, gestiona dependencias, asigna responsabilidades y resuelve posibles conflictos.

La IA agéntica y los tratamientos de datos personales

Cuando un agente se integra en las operaciones de un tratamiento de datos personales, puede ejecutar desde una única operación hasta la totalidad del proceso. La Guía explica que esta incorporación puede modificar el contexto del tratamiento original, ampliar sus finalidades, introducir nuevos actores y crear nuevas formas de interacción con datos de carácter personal. Incluso cuando el tratamiento ya había sido evaluado, la integración de un agente de IA obliga a revisar el cumplimiento de las obligaciones y los riesgos inherentes al tratamiento.

La IA agéntica, por su propia naturaleza, puede acceder a información de la propia organización (correos electrónicos, informes, actas, bases de datos, etc.) o a fuentes, lo que puede generar tratamientos no previstos inicialmente de otros interesados. Esto puede incluir, por ejemplo, datos personales de usuarios internos, de sujetos del tratamiento, o incluso datos de terceros que se encuentren en bases de datos consultadas por el agente de IA. La AEPD subraya que estos escenarios deben analizarse detenidamente, ya que pueden derivar en incumplimientos si no se aplican medidas adecuadas.

Principales vulnerabilidades

La Guía realiza un análisis exhaustivo de las vulnerabilidades más relevantes asociadas a la IA agéntica en los tratamientos de datos personales, identificando las siguientes:

  • Interacción con el entorno

La capacidad de un agente para consultar servicios externos o acceder a información interna puede provocar que datos personales salgan del ámbito controlado del responsable sin que este tenga conciencia de ello. Del mismo modo, el uso de fuentes externas no verificadas puede introducir sesgos, inexactitudes o información obsoleta en el contexto del tratamiento. La AEPD alerta de que, dado que muchas de estas interacciones no son visibles para el usuario, deben establecerse controles específicos para evitar comunicaciones involuntarias.

  • Integración de servicios

Los agentes suelen apoyarse en una combinación de servicios internos, modelos de lenguaje y herramientas externas. La AEPD señala que esta dependencia puede generar problemas de interoperabilidad, cambios inesperados en los términos de servicio, discontinuidad de funcionalidades, riesgos de disponibilidad o dificultades para garantizar la continuidad del cumplimiento normativo. A más servicios integrados, mayor es la complejidad y el riesgo de que los datos personales queden expuestos en repositorios no previstos.

  • Gestión de la memoria

La memoria es uno de los elementos más potentes y a la vez más delicados de la IA agéntica. Que puede incluir memoria de trabajo, memoria a largo plazo o registros de actividad. La Guía establece que un uso inadecuado de la memoria puede provocar almacenamiento excesivo, mezcla de información de distintos tratamientos, tratamientos no pertinentes o incluso la creación de perfiles no previstos. Adicionalmente, si los registros que alimentan la memoria están gestionados por servicios externos, los riesgos para la privacidad se multiplicarían.

  • Autonomía

La autonomía del agente de IA le permite decidir cómo llevar a cabo las tareas, qué información consultar y qué acciones ejecutar. En relación con esto la AEPD indica que esta autonomía puede tener consecuencias importantes si las decisiones automatizadas producen efectos significativos sobre los interesados, si se basan en datos imprecisos o si el agente accede a datos que no debería emplearse en el tratamiento. Por ello, se pone de manifiesto la importancia de incluir supervisión humana efectiva.

Cumplimiento de las obligaciones en protección de datos

La AEPD analiza en profundidad cómo deben abordarse las diferentes obligaciones aplicables en materia de protección de datos cuando se utilizan agentes de IA.

  • Determinación de responsabilidades

La introducción de un agente puede incluir nuevos intervinientes en el tratamiento, como servicios que actúan como encargados o subencargados, proveedores de modelos de lenguaje o servicios auxiliares. La organización debe identificar el rol de cada entidad, documentar los flujos de datos y evaluar si existe comunicación entre responsables. Este análisis debe realizarse incluso cuando la interacción con otros servicios se produce automáticamente.

  • Transparencia

El uso de agentes puede modificar finalidades, destinatarios o períodos de conservación. La AEPD subraya que, cuando esto ocurre, la organización debe informar adecuadamente a los interesados antes de iniciar el tratamiento ulterior, incluyendo la existencia de decisiones automatizadas cuando proceda.

  • Legitimación y minimización

Si el uso de sistemas de IA agéntica no conlleva tratamientos adicionales más allá del tratamiento original, no será necesario aplicar una nueva base de legitimación.

Es fundamental evitar accesos amplios o recopilaciones masivas, de tal forma que los agentes deberán configurarse para acceder únicamente a la información estrictamente necesaria para llevar a cabo el tratamiento. La AEPD recuerda que el uso de IA agéntica no justifica ampliar el volumen de datos tratados ni acceder a repositorios que no guardarían relación con la finalidad del tratamiento. Por ello, La minimización debe aplicarse desde el diseño y mantenerse en todas las fases del ciclo de vida del tratamiento.

  • Registro de actividades del tratamiento

La incorporación de agentes de IA puede obligar a modificar el Registro de Actividades de Tratamiento (RAT) y a crear procedimientos específicos para garantizar el ejercicio de derechos. Es necesario prever cómo se gestionará el acceso, rectificación o supresión cuando los datos personales estén almacenados en memorias persistentes, registros internos del agente o servicios externos que colaboran en su funcionamiento.

  • Gestión del riesgo en tratamientos con IA agéntica

La AEPD establece que la incorporación de sistemas agénticos exige realizar un nuevo análisis de riesgos, dado que el tratamiento sufre un cambio en su naturaleza. La AEPD recomienda el uso del modelo de amenazas LIINE4DU para identificar los diferentes riesgos. Esta herramienta permite evaluar no solo los riesgos inherentes al sistema, sino también aquellos derivados de la interacción entre agentes, memorias, servicios y fuentes de datos de distintos orígenes.

La Guía también hace referencia a la “Regla de 2”, una forma de identificar configuraciones que nunca deben permitirse, especialmente cuando confluyen acceso a información sensible, acciones automáticas sin control y procesamiento de información incontrolada. Esta regla constituye un umbral mínimo para evitar configuraciones potencialmente críticas en términos de seguridad y privacidad.

Medidas recomendadas por la AEPD

La Guía recoge un conjunto detallado de medidas entre las que se incluyen el establecimiento de una gobernanza sólida, la participación activa del delegado de protección de datos, la evaluación continua del rendimiento del agente, la compartimentación de memorias, la trazabilidad del ciclo de vida del dato, la supervisión humana significativa, el uso de entornos de aislamiento técnico, el control estricto de actualizaciones y la adopción de procedimientos estándar para la elaboración de prompts. Todas estas medidas están orientadas a garantizar que los agentes actúan dentro de límites seguros y deberán mantenerse durante todo el ciclo de vida del tratamiento de datos.

Con todo ello, la Guía de la AEPD presenta un marco detallado para entender las implicaciones de estos sistemas de IA agéntica en la protección de datos de carácter personal, así como las medidas deberán adoptar las organizaciones para cumplir con la normativa aplicable. La AEPD enfatiza que la IA agéntica puede llegar a convertirse en una herramienta que mejore la protección de datos mediante automatización responsable y supervisada, pero únicamente cuando se integra bajo marcos robustos de gobernanza, minimización, transparencia y control.

Si te interesa conocer más información sobre IA puedes leer otras entradas de nuestro blog pinchando aquí y aquí.