La Agencia y el Supervisor Europeo analizan las ventajas y desafíos del aprendizaje federado para entrenar modelos de IA
- El informe analiza el papel clave esta tecnología para avanzar en modelos de inteligencia artificial más respetuosos con la protección de datos
- El aprendizaje federado permite entrenar modelos de IA sin centralizar la información, lo que refuerza la protección de datos en sectores sensibles como el sanitario, entre otros
- Esta tecnología es estratégica en un momento en el que las organizaciones buscan equilibrar la innovación tecnológica con el cumplimiento normativo en materia de protección de datos
- Acceso al documento (en español y en inglés )

(10 de junio de 2025). La Agencia Española de Protección de Datos (AEPD) y el Supervisor Europeo de Protección de Datos (EDPS) han publicado un informe conjunto en el que analiza el papel clave del Aprendizaje Federado (Federated Learning) como herramienta para avanzar en modelos de inteligencia artificial más respetuosos con la protección de datos personales.
La creciente necesidad de procesar grandes volúmenes de datos ha llevado al desarrollo de tecnologías como el aprendizaje federado, que permite entrenar modelos de IA utilizando datos descentralizados. Esta tecnología es estratégica en un momento en el que las organizaciones buscan equilibrar la innovación tecnológica con el cumplimiento normativo en materia de protección de datos.
El aprendizaje federado implica que los modelos se entrenan localmente en cada dispositivo o entidad y solo se comparte el resultado, sin necesidad de enviar los datos originales a un servidor central. Esta característica contribuye a mitigar riesgos de privacidad, especialmente en escenarios clave. Entre los casos de uso más destacados que se recogen en el informe se encuentran el desarrollo de modelos de IA en el sector sanitario —con datos especialmente sensibles—, así como en asistentes de voz y vehículos autónomos.
El aprendizaje federado se alinea con principios de protección de datos como la minimización y la limitación de la finalidad, al garantizar que la información permanece bajo control del responsable del tratamiento y no se expone a terceros. Además, mejora en cumplimiento con la responsabilidad proactiva y la auditabilidad de los tratamientos.
Por otro lado, el aprendizaje federado se considera una tecnología de doble uso, tanto para la protección de la privacidad como para el impulso de la economía digital. Así, contribuye una gobernanza de datos efectiva, permitiendo que diversas entidades colaboren en el entrenamiento de modelos de IA, incluso con datos que, por su naturaleza estratégica, sensible o confidencial, nunca serían compartidos de otra forma. El informe también destaca los desafíos que enfrenta el Aprendizaje Federado.
El informe subraya la necesidad de implementar una seguridad integral en todo el ecosistema del aprendizaje federado y de garantizar la calidad de los datos, evitando sesgos. En este sentido, el informe pone de manifiesto que es fundamental no asumir que los parámetros intercambiados o los modelos resultantes son anónimos sin un análisis técnico y legal exhaustivo.
Para aprovechar al máximo el potencial del aprendizaje federado, el informe enfatiza la importancia de adoptar un enfoque que priorice la protección de datos desde el diseño. Esto implica implementar soluciones para el tratamiento de datos que reduzcan el riesgo para las personas, permitan el acceso a datos y aumenten la confianza para que distintos actores entren en la economía digital.
Otros documentos sobre innovación tecnológica publicados junto al EDPS:
- TechDispatch: Neurodatos
- 10 malentendidos relacionados con el machine learning (aprendizaje automático)
- 10 malentendidos relacionados con la anonimización
- Nota Técnica: 14 equívocos con relación a la identificación y autenticación biométrica
- Introducción al hash como técnica de seudonimización de datos personales