En la Web y las redes sociales circulan hoy decenas de imágenes, datos e informaciones que en realidad son una desinformación médica y tratamientos falsos. Circulan imágenes generadas por inteligencia artificial de supuestos pacientes curados milagrosamente (antes/después de tratamientos falsos), imágenes microscópicas inventadas de bacterias o células para vender suplementos, y hasta fotos de instalaciones médicas lujosas que nunca existieron para captar pacientes en turismo de salud.
Lo casos más comunes hoy son los "deepfake doctors", videos generados por IA que muestran a falsos profesionales médicos dando consejos o vendiendo productos. Estos avatares pueden ser facsímiles de médicos reales (usando su imagen sin consentimiento), o figuras ficticias generadas completamente por IA.
El mecanismo combina modelos de difusión (como DALL-E, Midjourney) que crean el vídeo realista, modelos de lenguaje (LLMs) que generan el guión coherente y convincente y medios de difusión viral como las redes sociales. El resultado es tan creíble que incluso los familiares de los médicos reales suelen ser engañados.
Por otro lado, existen modelos generativos capaces de crear radiografías, resonancias o tomografías falsas que son indistinguibles de las reales para un ojo no entrenado. El estudio MedForensics ha documentado generación de imágenes falsas en seis modalidades médicas diferentes usando doce modelos generativos diferentes.
En todos estos casos, el riesgo es siempre grande. Personas que abandonan tratamientos reales por falsas promesas respaldadas por imágenes visualmente convincentes. Este es un asunto bien delicado y complicado, que se hace cada vez más difícil de enfrentar y resolver.

No hay comentarios:
Publicar un comentario