En la publicación anterior vimos ciertos problemas éticos que se presentan con el uso de las imágenes creadas digitalmente usando inteligencia artificial. Ciertamente, algunos de estos dilemas también se dan en el mundo analógico (plagio, usurpación de persona, derechos de autor), pero en el digitalismo, estos asuntos se han multiplicado. En el campo del tema moral hay varios otros aspectos que revisar, también.
La privacidad y el consentimiento es un punto delicado, muchas veces violentado con el uso de la IA. La suplantación de identidad es un ejemplo. Crear imágenes realistas de personas específicas (especialmente figuras públicas, pero también individuos comunes) en contextos falsos, comprometedores o dañinos, es conflictivo. Igualmente pasa con los rostros generados sintéticamente. El uso de rostros digitalizados en noticias falsas o para crear identidades falsas en redes sociales, está cada vez más presente en nuestros medios y en el ciberespacio.
Ello puede complicarse con la presencia de contenido nocivo y NSFW (que significa Not Safe For Work o "No seguro para el trabajo" y se usa para advertir sobre contenido inapropiado para entornos públicos o laborales). Esto tiene que ver con la generación de contenido ofensivo o ilegal. Pornografía no consensuada (deepfakes pornográficos), imágenes violentas, abusivas o con discurso de odio. Aquí se presenta una dificultad técnica y ética para filtrar este contenido sin censurar creatividad legítima.
Justamente, en el campo las profesiones creativas se produce otro gran impacto, con la creciente sustitución laboral. ¿Es ético reemplazar a ilustradores, fotógrafos de stock, modelos o artistas conceptuales con IA, especialmente si se entrenó con sus trabajos? ¿Hay así una devaluación del arte? La masificación y facilidad pueden devaluar el trabajo artístico humano y su valor económico.
Pasamos de esta forma al asunto de la responsabilidad y la atribución de esos productos visuales. Si una imagen sintética causa un daño (difamación, pánico financiero, etc.), ¿quién es responsable? ¿El usuario, la plataforma, el desarrollador del modelo? Debería haber una transparencia en tal sentido, una necesidad de mecanismos de atribución (marcas de agua, metadatos) para identificar una imagen como generada por IA. Actualmente, esto no es obligatorio.
Como última consecuencia tenemos el impacto psicológico y social que se genera. La "objetificación" y fomento de estándares irreales, con la replicación de cuerpos y rostros "perfectos", pueden exacerbar problemas de autoimagen, especialmente en jóvenes. Finalmente nos enfrentamos a la desconfianza y cinismo: hay una erosión del tejido social por la incapacidad de verificar la realidad compartida. el núcleo del dilema es el equilibrio entre un potencial creativo y democratizador inmenso y los riesgos de explotación, desinformación y daño social. La tecnología avanza más rápido que la ética y la ley, por lo que es un debate urgente y necesario que requiere la participación de tecnólogos, legisladores, artistas y la sociedad en general.

No hay comentarios:
Publicar un comentario