La Agencia Española de Protección de Datos ha publicado un decálogo titulado “Cuidado con lo que le confIAs”, al que puede acceder aquí, cuyo objetivo es proporcionar directrices prácticas para un uso seguro y responsable de herramientas de Inteligencia Artificial. La publicación de este documento busca asimismo demostrar la importancia que puede tener impulsar una cultura de privacidad en la era digital, por cuanto la propia autoridad de control es plenamente consciente del potencial que la IA tiene en el futuro, así como del hecho de que estas herramientas son (y serán) usadas por la mayoría de la población.
El documento recoge una serie de recomendaciones centradas en la prevención de los riesgos derivados del uso indebido de sistemas de IA. Con esta finalidad, se hace referencia a que los usuarios no deben facilitar datos identificativos o sensibles (como, por ejemplo, nombres y apellidos, direcciones postales o información médica o financiera), aconsejándose describir escenarios ficticios, lo que permitiría mitigar el riesgo de identificación.
Respecto a la generación de nuevos contenidos, la AEPD recuerda que no deben emplearse imágenes de terceras personas sin su consentimiento (sobre todo, si se trata de menores de edad), por cuanto estas prácticas pueden suponer no sólo la comisión de una infracción de la normativa de protección de datos, sino también dar lugar a responsabilidades penales. Además, en relación con la información tratada en contextos laborales, se destaca la importancia de dar cumplimiento a las políticas internas de las empresas y evitar facilitar a estas herramientas aquella información que pueda revelar información confidencial o datos de empleados y clientes.
En el documento también se hace especial referencia a la necesidad de mantener una actitud crítica frente a las respuestas generadas por las herramientas de IA (se indica por la AEPD que “si se necesita asesoramiento profesional especializado, emocional o psicológico, la AEPD recomienda a acudir a un profesional cualificado”), debiendo contrastar las informaciones obtenidas.
Adicionalmente, la autoridad de control ha publicado una nueva Guía titulada “Inteligencia Artificial agéntica desde la perspectiva de la protección de datos”, a la que puede acceder aquí, con el objetivo de aclarar las implicaciones que el uso de estos sistemas puede plantear en materia de protección de datos. Estas tecnologías de IA son capaces de interactuar de forma autónoma y ejecutar tareas complejas sin intervención humana, pudiendo enriquecerse con información del entorno digital. Como es lógico, esta autonomía funcional puede generar una serie de riesgos.
El documento explica el concepto de sistemas de IA agéntica, analizándose las vulnerabilidades inherentes a esta tecnología (como, por ejemplo, el acceso a información de la organización y el usuario, su utilización por usuarios no cualificados, el propio funcionamiento autónomo de la herramienta o la falta de transparencia) o las posibles amenazas que podrían derivarse de su uso (falta de control, ausencia de políticas adecuadas, etc.).
Además, la guía enumera un conjunto de medidas y buenas prácticas (orientadas a garantizar el cumplimiento de la normativa de protección de datos y minimizar los impactos negativos) que se deberían tener en consideración antes de implementar estos sistemas en sus procesos.

