En publicaciones anteriores traté el tema del control o regulación posible (o necesario) sobre las imágenes sintéticas realizadas con inteligencia artificial. Hoy pongo aquí algunos ejemplos concretos de regulaciones y prácticas en diferentes países y sectores como forma de gobernanza respecto de las imágenes generadas con IA, hasta esta fecha.
Unión Europea (UE)
La UE está trabajando en la Ley de Inteligencia Artificial (AI Act), que busca regular el uso de sistemas de IA incluyendo aquellos que generan contenido visual. Esta ley impondrá obligaciones a los proveedores y usuarios para garantizar transparencia, seguridad y respeto a los derechos fundamentales. Por ejemplo, se requerirá etiquetar claramente las imágenes generadas por IA y evitar usos que puedan causar daño o engaño. Además, el Reglamento General de Protección de Datos (GDPR) protege la privacidad de las personas frente a la generación o manipulación de imágenes que puedan afectar su derecho a la imagen o datos personales.
Estados Unidos
Aunque no existe una ley federal específica sobre imágenes generadas con IA, algunos estados han comenzado a aprobar leyes relacionadas con deepfakes para prohibir su uso malicioso, especialmente en contextos políticos o de difamación. Plataformas como Twitter y Facebook han implementado políticas que exigen la identificación clara de contenido generado por IA para combatir la desinformación.
China
China ha establecido regulaciones estrictas sobre la generación de contenido por IA, incluyendo imágenes. Se exige que cualquier contenido generado por IA incluya marcas visibles que informen a los usuarios, y prohíbe la creación y difusión de contenido falso o dañino. Además, empresas tecnológicas deben cumplir con directrices estatales de censura y control.
Organizaciones internacionales
Organismos como la UNESCO o la OCDE están desarrollando recomendaciones para la gobernanza ética de la IA, que incluyen la regulación del contenido visual para promover la transparencia, evitar discriminación y proteger derechos humanos.
También el sector de entretenimiento y medios está incorporando ciertas regulaciones. En cine o publicidad, suelen usarse cláusulas contractuales para regular el uso de imágenes generadas por IA, protegiendo la imagen y derechos de actores o modelos virtuales. También se promueven estándares éticos para evitar la manipulación engañosa en noticias o campañas.
Estos ejemplos muestran que la regulación es un proceso activo y diverso, buscando balancear la innovación tecnológica con la protección social y ética. Es un tema aún delicado y polémico, pero estas acciones están demostrando que sí, en efecto, hay que hacer algo respecto al uso de la IA en las imágenes sintéticas. Pongo aquí también un interesante artículo sobre este asunto, publicado en la Web por el diario argentino La Capital: https://www.lacapitalmdp.com/ia-contra-ia-la-carrera-por-detectar-imagenes-falsas-en-pleno-tsunami-digital/

















