¿Debe la inteligencia artificial entender el ejercicio de un derecho de protección de datos?

Última modificación:

Los resúmenes que se recogen a continuación no pueden ser considerados como la publicación oficial de un documento público.

El contenido oficial, completo y vinculante se publica en la sección Resoluciones

 

La Agencia Española de Protección de Datos analiza si es obligatorio que un sistema de Inteligencia Artificial (IA) que se utiliza en comunicaciones comerciales automatizadas entienda y ejecute políticas de privacidad. 

Una empresa remitió a una persona comunicaciones comerciales a través de una aplicación de mensajería instantánea. La información de la que dispone la Agencia apunta a que había una relación contractual previa entre las partes, y esas comunicaciones se realizaban a través de un sistema automático de inteligencia artificial.

La persona alegaba haber recibido mensajes comerciales como este:

“¡Hola! ¿Nos ayudas? Consigue un premio respondiendo a esta encuesta rápido: Hemos visto que recientemente tuviste una cita en [comercio XXX], pero finalmente no acudiste a ella ni la cancelaste y nos gustaría conocer los motivos para mejorar la calidad de nuestro servicio. Responde a esta encuesta y llévate un regalo al completarlo. Muchas gracias por tu tiempo y por tu confianza. El equipo de [XXX]. Responde BAJA para no recibir más mensajes.”

Respuesta de la persona:

“Buenas tardes, Estoy registrado en la lista Robinson. Por favor, cesen el envío de mensajes a mi móvil personal. Yo no les he facilitado mis datos personales en ningún momento, ni les autorizo el uso de mi información. En caso de seguir recibiendo mensajes de su empresa en mi número de móvil personal, me veré obligado a tomar las acciones pertinentes. Procedo a informar a la Agencia de Protección de Datos.”

Nuevo mensaje enviado por parte de la empresa:

“¡Hola XXX! Te escribo desde [comercio XXX]. En estos momentos disponemos de citas de última hora y tenemos una promoción inmejorable  (...).”

Nueva respuesta de la persona:

“Buenas tardes, Estoy registrado en la lista Robinson (...)”

Respuesta de chatbot comercial:

“Lamento mucho si sientes que estamos incumpliendo la LOPD. Por favor, ¿puedes proporcionar más detalles sobre tu preocupación para que pueda ayudarte de la mejor manera posible?”

Contestación final de la persona:

“NO autorizo el envío de información COMERCIAL ni de ningún tipo por parte de vuestra empresa. NO he facilitado mis datos personales y menos mi número de móvil (...)”

Los mensajes comerciales enviados incluían un procedimiento claro y gratuito para oponerse al tratamiento de datos personales con fines promocionales, basado en la remisión de la palabra BAJA como respuesta.

La persona contestaba a esos mensajes sin incluir la palabra “BAJA” en ellos, y el sistema de inteligencia artificial no comprendía la respuesta, en tanto que no estaba diseñado para ello. 

La Agencia destaca en este criterio varios elementos clave del caso concreto:

  • Existía un procedimiento claro y gratuito para oponerse al tratamiento de datos con fines promocionales, basado en el envío de la palabra “BAJA” en cada mensaje recibido. 
  • El sistema de IA utilizado no estaba diseñado para interpretar respuestas que no incluyeran ese término. En un caso como este, aunque sería deseable, no cabe exigir a la configuración de un sistema automatizado de inteligencia artificial que interprete todas las posibles formulaciones humanas o que esté preparado para el cumplimiento de todas las normativas oportunas, incluida la de protección de datos. 
  • La Agencia recuerda que el artículo 50 del Reglamento de Inteligencia Artificial, exigible desde agosto de 2026, obligará a informar expresamente a las personas de que están interactuando con un sistema de IA. La Agencia considera recomendable anticiparse a ese requerimiento, aunque no es exigible. 
  • A la vista de la conversación transcrita en el caso concreto, resultaba evidente que se trataba de un sistema de chatbot, por lo que la persona podía haber escrito simplemente la palabra “BAJA” o, en cualquier caso, acudido a un agente humano para dejar de recibir comunicaciones. También se subraya que la interacción con el chatbot no era el único canal para requerir el cese en el envío de comunicaciones comerciales, existiendo atención humana disponible vía email y web, y podrían ejercerse los derechos y bajas por otras vías y con agentes humanos.