La AEPD publica una guia sobre el uso de imágenes de terceros en sistemas de inteligencia artificial y sus riesgos
Inteligencia Artificial
Reino de España
La Agencia Española de Protección de Datos (AEPD) ha publicado una nota informativa en la que analiza las implicaciones del uso de imágenes de terceros en sistemas de inteligencia artificial y los riesgos que comporta, incluso en contextos aparentemente triviales o lúdicos.
El primer apartado de la nota se centra en el impacto visible derivado de generar y difundir imágenes de terceros mediante IA. El documento presta especial atención a situaciones de alto riesgo, como la sexualización y el contenido íntimo sintético, la atribución de hechos no reales con efectos reputacionales, la descontextualización de las imágenes o la utilización de contenidos que afectan a menores de edad o personas en situación de especial vulnerabilidad.
El segundo apartado aborda los riesgos menos visibles, aquellos que se producen por el mero hecho de subir una imagen o un vídeo a un sistema de IA, aunque el resultado no se publique. Entre ellos, la Agencia destaca la pérdida efectiva de control sobre la imagen al intervenir un tercero tecnológico, la retención y la existencia de copias no visibles, la intervención de múltiples actores, la generación de metadatos o el riesgo de identificación persistente en sistemas capaces de reutilizar rasgos de una persona en múltiples contenidos.
Por último, la nota identifica las situaciones que suelen ser especialmente relevantes para la AEPD, aclarando los límites de la normativa de protección de datos, por ejemplo, en ámbitos personales o domésticos sin difusión más allá de ese entorno.