La AEPD ha publicado una entrada en su sección “criterios jurídicos”, a la que puede acceder aquí, en la que se analiza una resolución sancionadora que, a fecha de emisión de esta newsletter, no ha sido publicada en la página web de la autoridad de control.
Así, en este caso, la entidad enviaba a sus clientes (con los que, supuestamente, mantenía una relación contractual previa y en vigor), a través de un sistema de IA de mensajería automatizada, diversas comunicaciones comerciales. En dichas comunicaciones se ponía de manifiesto que si el cliente quería ejercer su derecho de oposición a la recepción de estas comunicaciones, debía responder “BAJA” al mensaje.
Con base en ello, la autoridad de control transcribe la siguiente conversación que el cliente afectado mantuvo con el chatbot:
- Cliente: “Buenas tardes, estoy registrado en la lista Robinson. Por favor, cesen el envío de mensajes a mi móvil personal. Yo no les he facilitado mis datos personales en ningún momento, ni les autorizo el uso de mi información. En caso de seguir recibiendo mensajes de su empresa en mi número de móvil personal, me veré obligado a tomar las acciones pertinentes. Procedo a informar a la Agencia de Protección de Datos.”
- Chatbot: “¡Hola! Te escribo desde [XXX]. En estos momentos disponemos de citas de última hora y tenemos una promoción inmejorable […]”.
- Cliente: “Buenas tardes, estoy registrado en la lista Robinson […]”
- Chatbot: “Lamento mucho si sientes que estamos incumpliendo la LOPD. Por favor, ¿puedes proporcionar más detalles sobre tu preocupación para que pueda ayudarte de la mejor manera posible?”
- Cliente: “NO autorizo el envío de información COMERCIAL ni de ningún tipo por parte de vuestra empresa. NO he facilitado mis datos personales y menos mi número de móvil […]”.
A la vista de lo anterior, como resume la AEPD, el sistema de IA había sido configurado para incluir un procedimiento de oposición al tratamiento de datos sencillo y gratuito, pero que consistía en el envío, exclusivamente, de la palabra BAJA como respuesta. Así, debido a que el cliente no envío un mensaje con dicha palabra, sino que respondía con frases más largas sin incluir la misma, el sistema no entendía la respuesta (no estaba desarrollado de este modo, por lo que no podía interpretar respuestas diferentes) y no podía tramitar dicha oposición.
La autoridad de control ha declarado que, si bien sería lo deseable, “no cabe exigir a la configuración de un sistema automatizado de inteligencia artificial que interprete todas las posibles formulaciones humanas o que esté preparado para el cumplimiento de todas las normativas oportunas”.
Adicionalmente, respecto a la información que se debe facilitar a los usuarios, a partir de agosto de 2026, con base en el Reglamento de IA, se deberá indicar a estos que se están comunicando con un sistema de Inteligencia Artificial, siendo recomendable facilitar está información cuanto antes. No obstante, en el caso que nos ocupa, resultaba evidente que el usuario estaba manteniendo una conversación con un chatbot, por lo que podía haber escrito la palabra BAJA, como este sistema le solicitaba, o haberse dirigido a una persona vía email o web, en donde podía haber ejercido su derecho.