domingo, 5 de abril de 2026

La gobernanza sobre la imagen visual con IA en ciertos países o instituciones

En publicaciones anteriores traté el tema del control o regulación posible (o necesario) sobre las imágenes sintéticas realizadas con inteligencia artificial. Hoy pongo aquí algunos ejemplos concretos de regulaciones y prácticas en diferentes países y sectores como forma de gobernanza respecto de las imágenes generadas con IA, hasta esta fecha.

Unión Europea (UE)

La UE está trabajando en la Ley de Inteligencia Artificial (AI Act), que busca regular el uso de sistemas de IA incluyendo aquellos que generan contenido visual. Esta ley impondrá obligaciones a los proveedores y usuarios para garantizar transparencia, seguridad y respeto a los derechos fundamentales. Por ejemplo, se requerirá etiquetar claramente las imágenes generadas por IA y evitar usos que puedan causar daño o engaño. Además, el Reglamento General de Protección de Datos (GDPR) protege la privacidad de las personas frente a la generación o manipulación de imágenes que puedan afectar su derecho a la imagen o datos personales.

Estados Unidos

Aunque no existe una ley federal específica sobre imágenes generadas con IA, algunos estados han comenzado a aprobar leyes relacionadas con deepfakes para prohibir su uso malicioso, especialmente en contextos políticos o de difamación. Plataformas como Twitter y Facebook han implementado políticas que exigen la identificación clara de contenido generado por IA para combatir la desinformación.

China  

China ha establecido regulaciones estrictas sobre la generación de contenido por IA, incluyendo imágenes. Se exige que cualquier contenido generado por IA incluya marcas visibles que informen a los usuarios, y prohíbe la creación y difusión de contenido falso o dañino. Además, empresas tecnológicas deben cumplir con directrices estatales de censura y control.

Organizaciones internacionales  

Organismos como la UNESCO o la OCDE están desarrollando recomendaciones para la gobernanza ética de la IA, que incluyen la regulación del contenido visual para promover la transparencia, evitar discriminación y proteger derechos humanos.

También el sector de entretenimiento y medios está incorporando ciertas regulaciones. En cine o publicidad, suelen usarse cláusulas contractuales para regular el uso de imágenes generadas por IA, protegiendo la imagen y derechos de actores o modelos virtuales. También se promueven estándares éticos para evitar la manipulación engañosa en noticias o campañas.

Estos ejemplos muestran que la regulación es un proceso activo y diverso, buscando balancear la innovación tecnológica con la protección social y ética. Es un tema aún delicado y polémico, pero estas acciones están demostrando que sí, en efecto, hay que hacer algo respecto al uso de la IA en las imágenes sintéticas. Pongo aquí también un interesante artículo sobre este asunto, publicado en la Web por el diario argentino La Capital: https://www.lacapitalmdp.com/ia-contra-ia-la-carrera-por-detectar-imagenes-falsas-en-pleno-tsunami-digital/

sábado, 4 de abril de 2026

Arte digital industrial por Lucas Gutiérrez

Lucas Gutiérrez, artista digital y diseñador industrial argentino, nacido en 1985 y radicado en Berlín, explora en sus obras la intersección entre programas informáticos y errores gráficos, creando objetos autónomos en un entorno virtual sin principio ni final, caracterizado por texturas macro y superficies imposibles; una propuesta que reflexiona sobre los nuevos paradigmas de la cultura digital desde una perspectiva metafísica, colorida y caótica.

Los últimos trabajos del artista, que ha ofrecido charlas y performances en espacios como el Centro Pompidou, son una original combinación de tecnología y abstracción dinámica que renueva los recursos digitales tridimensionales. Los ha presentado en IRCAM, Manifeste, Sonar+D, NYU Berlin/Tokio y sus obras se han mostrado en certámenes internacionales como The New Infinity, Berliner Festspiele, Immersion y CTM/transmediale, entre otros.

Su práctica explora la materialidad de lo digital a través de universos abstractos donde las superficies parecen convertirse en esculturas. En sus piezas, lo algorítmico adquiere textura, densidad y hasta latido propio. Lo que vemos nos hace dudar de si estamos frente a metal, plástico o pura simulación: la imagen deja de ser plana y empieza a comportarse como materia, que parte del diseño industrial.

Sus imágenes son conocidas por su estética abstracta y futurista y su capacidad para crear entornos profundamente inmersivos. Se mueve entre la cultura del remix y el desarrollo de proyectos audiovisuales en tiempo real, en los cuales fusiona influencias de diferentes contextos. La narrativa de Lucas Gutiérrez gira en torno a distopías y miedos sociales actuales desde un lenguaje metafísico lleno de caos y color. Su sitio Web es extraodinario, muy dinámico y completo. Aquí pongo el enlace y una entrevista muy interesante en la revista digital Planeta Urbano.

https://elplanetaurbano.com/2026/03/lucas-gutierrez-la-textura-del-algoritmo-siempre-se-asocia-lo-tecnologico-con-algo-superficial-o-sin-alma/

https://lucasgutierrez.com/. Acá se aprecia muy bien su estética y el estilo dinámico de su obra. Vale la pena estrar y disfrutar.



viernes, 3 de abril de 2026

Shaw y el futuro

Hoy pongo una hermosa frase del famoso escritor, dramaturgo y poeta irlandés, premio Nobel de literatura en 1925, George Bernard Shaw (1856-1950).

"No nos hace sabios el recuerdo de nuestro pasado, sino la responsabilidad de nuestro futuro".

El pasado y la historia son importantes, pero el futuro hay que hacerlo. 

jueves, 2 de abril de 2026

Sobre la gobernanza digital y las imágenes sintéticas (2/2)

Un aspecto importante a considerar en el caso del uso indiscriminado de imágenes sintetizadas es cómo evitar que violen la privacidad individualk y violenten los derechos personales o colectivos. La gobernanza digital aplicada al control, supervisión o regulación de las imágenes generadas con inteligencia artificial (IA) es, en consecuencia, un tema muy relevante y en desarrollo actualmente.

Podemos revisar cómo se aplica:

1. Normativas y políticas claras. Se crean leyes y regulaciones que establecen qué tipo de imágenes generadas por IA están permitidas, cuáles podrían considerarse ilegales (por ejemplo, imágenes que promuevan el odio, la discriminación o la violencia), y cómo deben tratarse los derechos de autor o la privacidad.

2. Transparencia y etiquetado. Una práctica común es exigir que las imágenes generadas por IA sean etiquetadas claramente como tales para evitar la desinformación o el engaño. Esto forma parte de la gobernanza para garantizar que los usuarios sepan cuándo están viendo contenido manipulado o generado artificialmente.

3. Supervisión ética. Se establecen comités o grupos especializados que evalúan el impacto ético de estas tecnologías y sus usos, y proponen guías o recomendaciones para su aplicación responsable.

4. Control técnico y seguridad. Se implementan mecanismos tecnológicos para detectar imágenes falsas o manipuladas (deepfakes), y prevenir su uso fraudulento o malintencionado.

5. Participación y colaboración. La gobernanza digital promueve la participación de diferentes actores (gobiernos, empresas tecnológicas, expertos, sociedad civil) para que las regulaciones sean inclusivas y efectivas.

6. Protección de derechos. Se asegura la protección de derechos humanos, como la privacidad y la reputación, cuando se utilizan imágenes generadas por IA.

De esta forma, la gobernanza digital busca establecer un marco que permita aprovechar las ventajas de la IA para crear imágenes, pero minimizando riesgos asociados como la desinformación, violaciones a la privacidad o usos maliciosos. No obstante, sigue estando presente el asunto coercitivo y de regulaciòn, que puede derivar en censura y control punitivo. Es un problema candente, que recién está en la palestra.  

miércoles, 1 de abril de 2026

Sobre la gobernanza digital y las imágenes sintéticas (1/2)

Este es un tema muy actual y con muchas implicaciones hoy día: el enorme desarrollo que ha experimentado la difusión de imágenes visuales e incluso productos audiovisuales sintetizados con el uso de inteligencia artificial.  Este crecimiento ha resultado en la proliferaciòn de noticias falsas (fake news) y suplantaciones (deepfakes) que retan la credibilidad y el sentido ético de la comunicación. En este sentido surge una nueva interrogante: ¿hay que controlar, regular o supervisar el uso de la IA en este tipo de imágenes? Entonces, ¿es posible establecer alguna forma de gobernanza de tipo digital para esta tendencia actual?

La gobernanza digital se refiere al conjunto de normas, políticas, procesos y mecanismos que regulan el uso, gestión y desarrollo de las tecnologías digitales y la información en una organización, comunidad o país. Su objetivo principal es asegurar que las tecnologías digitales se utilicen de manera eficiente, segura, ética y transparente para beneficiar a todos los actores involucrados.

En un contexto más amplio, la gobernanza digital abarca aspectos como:

- La regulación del acceso y uso de internet y otras plataformas digitales.

- La protección de datos personales y la privacidad.

- La ciberseguridad.

- La inclusión digital para que más personas puedan acceder y aprovechar estas tecnologías.

- La participación ciudadana a través de medios digitales.

- La transparencia y rendición de cuentas en el gobierno y en organizaciones mediante herramientas digitales.

Ahora bien, se puede pensar en extender la normativa para que abarque con precisión, justamente, el uso ético de la IA en las imágenes y videos sintetizados. Es por supuesto un tema polémico, porque raya con la censura y el control político, pero es necesario algún tipo de regulación o limitación en este sentido, porque cada vez más vemos como se hace patetente el manejo indiscriminado de rostros, espacios y hechos reales para presentar noticias no ciertas y acciones irreales o falsas, que son fuente de mentiras y desinformación. En la publicación de mañana veremos algunas propuestas para revisar esta compleja situación. 

martes, 31 de marzo de 2026

Imaginario paisaje de globos y montañas en ilustración 3D

Esta imagen que muestro hoy es otro ejemplo de arte digital hecho con programas gráficos de ilustración 3D. Es una representación de un paisaje imaginario, con globos aerostáticos y palacios elevados, hallada en la Web. 

lunes, 30 de marzo de 2026

Un sorprendente corto con IA sobre el héroe chino Huo Qubing

A comienzos de marzo de 2026, Yang Hanhan, la directora de AIGC, de 35 años de Wuhan, capital de la provincia de Hubei en el centro de China, se sorprendió al descubrir que un cortometraje generado por inteligencia artificial sobre el antiguo general chino Huo Qubing, lanzado por su equipo apenas un mes antes, se había vuelto viral en el extranjero de manera silenciosa. En la película, no solo se despliegan escenas épicas de guerra una tras otra, sino que incluso los detalles, como el polvo arremolinado en una carga por el desierto, la tensión de los caballos de guerra relinchando y la sutil fruncida de ceño del protagonista, están representados con una delicadeza notable. Estos elementos rompen el estereotipo público del contenido producido por IA como tosco y de baja calidad.

El espectador internacional quedó cautivado por el espíritu juvenil y la devoción patriótica de Huo, así como por la estética oriental presentada a través de la IA. Sin embargo, este proyecto fue completado por un equipo de apenas tres personas, con solo 48 horas de trabajo y aproximadamente 3,000 yuanes (aproximadamente 435 dólares estadounidenses) en costos de computación, según Yang. "Producir un cortometraje de cuatro minutos en 48 horas se está convirtiendo en el estándar de la industria", afirma, agregando que a medida que la tecnología de IA continúa evolucionando y avanzando, la creación de cine y televisión de China y sus exportaciones culturales están siendo redefinidas. 

A principios de 2025, Yang no tenía experiencia profesional en la industria del cine o la televisión. A medida que las plataformas de video con IA evolucionaban rápidamente, ella probó herramientas de video con IA por primera vez mientras promocionaba la especialidad de Wuhan, los "reganmian" o fideos secos y calientes. "Al principio, ninguno de nosotros tenía experiencia. Nos llevó más de una semana, entre cuatro personas, armar un video corto de un minuto", dijo. "El video no era excelente, pero vi la esperanza para esta industria".

Durante el último año, el equipo de Yang ha llevado a cabo una investigación profunda sobre una variedad de herramientas de creación de imágenes y videos con IA, tanto nacionales como internacionales, optimizando continuamente sus indicaciones y superando desafíos fundamentales en la creación con IA, como la coherencia de los personajes y la coherencia visual. A finales de enero de este año, Yang completó el guion del cortometraje Huo Qubing. Su equipo de tres se repartía claramente sus tareas: uno se encargaba de la dirección y la escritura, otro de la generación y edición de IA, y el tercero de la música y los efectos de sonido. Concentraron su energía durante cuatro días, trabajando un total de 48 horas, para completar el proyecto. "En la fase de producción de vídeo, primero generamos unas 1.700 imágenes con IA, seleccionamos 90 como storyboards para producir unos 500 clips de vídeo, y luego editamos, coordinamos y refinamos meticulosamente el metraje para dar vida a nuestra visión del joven héroe", explicó Yang. "De hecho, aún nos queda un camino técnico por delante antes de poder alcanzar nuestro sueño de crear una película cinematográfica con IA", afirmó, "pero el verdadero valor de la IA es liberar a los creadores de tareas tediosamente repetitivas, permitiéndoles dedicar más tiempo a ideas y a la narrativa. Al fin y al cabo, lo que realmente determina la calidad de una obra sigue siendo la estética, la emoción y el pensamiento del creador".

El equipo de Yang ahora cuenta con 20 miembros, con diversos antecedentes que van desde la interpretación musical y el diseño de productos hasta incluso la mecánica automotriz. "La IA empodera a cualquiera que tenga una historia para perseguir su sueño de hacer películas. Creo que esta es la mejor era para los narradores", dijo. Ella espera que su equipo desarrolle una serie de cortometrajes protagonizados por héroes chinos, como Yue Fei, Xin Qiji y Hua Mulan, que muestren sus historias y la profunda cultura china que aportan al mundo. Aquí pongo el video, que está en idioma chino, pero para apreciar la realización, basta, pues las imágenes hablan por sí solas. Este producto audiovisual puede redefinir la industria, el negocio, la estética y el futuro del cine. ¡Es un fenómeno impresionante!

La creadora, Yang Hanhan


domingo, 29 de marzo de 2026

Deep Learning y LeCun

En una entrada anterior hablé sobre el aprendizaje profundo o "Deep Learning", señalando qué representa y cómo ha ido evolucionando. En principio, es un concepto muy ligado al desarrollo de la inteligencia digital y que consiste en una forma de aprendizaje automático que utiliza redes neuronales artificiales para aprender de datos. Uno de los más destacados investigadores y pioneros en este campo es Yann LeCun, un informático franco-estadounidense especializado en aprendizaje automático, visión por computadora y neurociencia computacional, que además formó parte de la directiva de Meta en algún momento.

El Deep Learning, según LeCun, es un enfoque del aprendizaje automático que utiliza redes neuronales profundas con múltiples capas para aprender representaciones complejas de datos de manera jerárquica, inspiradas en el cerebro humano. Lo describe como modelos computacionales con varias capas de procesamiento que extraen abstracciones progresivas de grandes volúmenes de datos, revolucionando campos como el reconocimiento de imágenes, voz y lenguaje mediante retropropagación. Según este proceso, transforma IA en reconocimiento de objetos, segmentación semántica y más, con impacto en robótica y neurociencia computacional.

Estas propuestas surgen de las redes neuronales convolucionales (CNN, por sus siglas en inglés) son un tipo de red neuronal artificial diseñada para procesar datos estructurados como imágenes, inspiradas en el sistema visual humano. LeCun las desarrolló en la década de 1980, popularizando su uso con el modelo LeNet en 1989 para reconocer dígitos manuscritos mediante convoluciones y retropropagación y la aplicó en convoluciones aprendibles, superando limitaciones previas como el Neocognitron de Fukushima. LeNet-5, su arquitectura icónica de 1998, revolucionó el reconocimiento óptico de caracteres y sentó bases para el deep learning moderno en visión por computadora.

Las redes neuronales convolucionales de LeCun tienen aplicaciones modernas en visión por computadora, diagnóstico médico y vehículos autónomos, entre otros. Estas se basan en arquitecturas como LeNet, evolucionadas a modelos como ResNet y EfficientNet para procesar datos visuales complejos con alta precisión. Esta es una forma de Deep Learning actual usado por los programas de IA. Por ejemplo, en la visión por computadora, que se usa en clasificación de imágenes, detección de objetos y segmentación semántica, como en redes sociales para organizar fotos o en comercio minorista para escanear estanterías. También se aplica para la conducción autónoma, pues detectan señales y peatones en tiempo real para decisiones seguras.

En salud y biomedicina este Deep Learning con CNN se aplica en imágenes médicas, analizan radiografías, mamografías y tomografías para detectar tumores con AUC superior al 0.95, acelerando diagnósticos y planificación de tratamientos. También apoyan descubrimiento de fármacos prediciendo propiedades moleculares desde estructuras químicas.

Este desarrollo es muy importante hoy en día, están también presentes en otras áreas, pues procesan audio para asistentes como Siri o Alexa, reconociendo palabras clave y comandos de voz, o en análisis de video y predicción de comportamientos, como riesgos de enfermedades o patrones de clientes en tiendas, locales y espacios públicos. Estos avances siguen cambiando nuestra forma de vida. 

viernes, 27 de marzo de 2026

Falso esqueleto fósil de Mamut... con IA

A finales de 2024 y principios de 2025, varias imágenes virales afirmaban mostrar el esqueleto perfectamente conservado de un mamut recién excavado en un "importante yacimiento arqueológico de Norteamérica". ¡Falso totalmente! Pura inteligencia artificial.

Ciertos detalles delataban que era un fake de IA. El esqueleto mostraba algo anatómicamente imposible: trompa y orejas formadas por huesos. En los mamuts reales (como en los elefantes modernos), la trompa no contiene ningún hueso, está compuesta únicamente por músculo —más de 40.000 músculos, sorprendentemente—. Las orejas tampoco tienen estructura ósea externa.

Además, en una de las fotos el esqueleto aparecía con tres colas distintas sobresaliendo de su parte trasera, y las costillas tenían ramificaciones extrañas que no corresponden a la anatomía real de un mamut . Otro factor: un esqueleto recién "excavado" no puede mantenerse en pie por sí solo; los museos necesitan complejos soportes metálicos para montar estas estructuras.

Sin duda, hoy más que nunca hay que estar pendientes y atentos, porque lamentablemente con la viralización, todo circula de forma desbocada, gracias a la descontrolada función de "reenviar" en las redes sociales. Por eso, hablar de gobernanza digital en el espectro de las imágenes creadas sintéticamente, es un tema que no puede dejar de ser abordado. 

jueves, 26 de marzo de 2026

Otra nueva visión de la estética digital en las imágenes sintéticas por IA

El análisis de las imágenes logradas con inteligencia artificial, desde la estética digital, permite observar una transición profunda en cómo se producen, perciben y validan las imágenes en la cultura contemporánea. No se trata solo de una herramienta técnica, sino de un cambio de paradigma en la ontología de la imagen. Podemos revisar algunos elementos clave para explorar su aplicación en este campo:

1. La materialidad del "Espacio Latente"

A diferencia de la fotografía tradicional (que captura luz) o el diseño digital (que manipula píxeles), la estética de inteligencia artificial surge del espacio latente. Este es un entorno matemático multidimensional donde todos los conceptos visuales aprendidos por la IA están representados como vectores. Por lo tanto, pasamos de lo físico a lo probabilístico; la imagen ya no es un registro de la realidad, sino una "posibilidad estadística" extraída de un mapa de datos. En casos como el de Stable Diffusion, se incorpora la estética del ruido. El proceso de "difusión" (limpiar el ruido) sugiere que la creación estética hoy consiste en encontrar orden dentro del caos informativo.

2. Iconicidad y complejidad (el enfoque de Abraham Moles)

Desde la teoría de la información, se puede analizar la iconicidad de estas imágenes. Abraham Moles planteaba que el valor estético reside en el equilibrio entre el orden (redundancia) y la novedad (entropía). Así, se busca la reducción de la entropía. El algoritmo de Stable Diffusion, por ejemplo, actúa reduciendo la entropía del ruido inicial hasta alcanzar una estructura icónica que el ojo humano reconoce. Aquí entonces entra el grado de realismo. La IA permite ajustar niveles de detalle que superan la "realidad" (hiperrealismo), lo que plantea preguntas sobre qué tan icónica es una imagen si no tiene un referente real en el mundo físico.

3. La estética de la "Post-Fotografía"

La IA rompe con la naturaleza indexical de la imagen (la idea de que una foto es prueba de que "algo estuvo ahí"); este fenómeno es de remediación. La IA suele remediar o remedar estilos clásicos (el óleo, el grabado, la fotografía de 35mm) para validar su propia estética. No inventa la belleza desde cero, sino que la sintetiza a partir del archivo histórico de la humanidad. Aquí entra el "Prompt" como gesto autoral: el centro del debate estético se desplaza del hacer manual al hacer conceptual. El artista digital se convierte en un curador de conceptos y un arquitecto de instrucciones.

4. Automatización y la Sociedad del Conocimiento

En el contexto de la Sociedad del Conocimiento, la producción visual masiva mediante algoritmos tiene implicaciones sociopolíticas importantes. Una es la Gobernanza Digital. ¿Quién posee la estética si el modelo fue entrenado con millones de imágenes de autores diversos? Surge la duda sobre la propiedad intelectual y la ética de los datos. Otra es la democratización versus la homogeneización. Mientras que más personas pueden crear imágenes complejas, existe el riesgo de que la estética digital se vuelva repetitiva, sujeta a los sesgos de los datos con los que la IA fue entrenada.

Notamos entonces que la estética digital hoy se va haciendo más amplia, compleja e interesante. Ya no es solo el uso de herramientas digitales sino la intervención de programas de inteligencia artifical que trabajan por su cuenta sobre la bases de instrucciones apropiadas, con resultados sorprendentes. Todo un cambio de paradigmas, pues. 

miércoles, 25 de marzo de 2026

Una elfo con Stable Diffusion

Ayer hablé de la herramienta gráfica digital "Stable Diffusion" y sus potencialidades en el campo de la ilustración y la construcción visual.  Aquí pongo hoy una imagen realizada con ese programa, según un prompt escalonado, que termina incorporando los elementos que se requieren a fin de obtener el producto deseado. Una elfo en ciberarte con estética digital. Aqui está el enlace del origen de esa realización:  https://santiartificial.com/stable-diffusion-en-colab/

martes, 24 de marzo de 2026

Stable Diffusion

Stable Diffusion es un modelo de inteligencia artificial de código abierto que genera imágenes a partir de descripciones en texto (aunque también puede hacer ediciones, variaciones y más). Es en realidad una matriz de aprendizaje profundo (deep learning) de código abierto capaz de generar imágenes digitales detalladas a partir de descripciones de texto, un proceso conocido como "text-to-image". Fue lanzado en 2022 por la empresa Stability AI en colaboración con instituciones académicas y destaca por ser uno de los motores más potentes en el ámbito de la inteligencia artificial generativa.

Como es un modelo de difusión latente, toma una descripción de texto (un "prompt"), parte de ruido aleatorio (como estática de televisión) y va desgranando esa imagen paso a paso, guiado por el texto, hasta formar una imagen coherente y detallada. A diferencia de otros, Stable Diffusion utiliza una técnica llamada Modelo de Difusión Latente (LDM). En términos sencillos, el proceso funciona así: uno, añadir ruido; el modelo se entrena tomando una imagen clara y añadiéndole "ruido" (puntos aleatorios como la estática de un televisor) hasta que la imagen original es irreconocible. Invertir el proceso; el núcleo de la IA aprende a "limpiar" ese ruido. Cuando se le da un comando de texto (por ejemplo: "Un astronauta montando un caballo en Marte"), el modelo empieza con un lienzo de puro ruido aleatorio y comienza a eliminarlo paso a paso, guiando los píxeles para que coincidan con tu descripción. 

Sus principales características son su código abierto y gratuito (a diferencia de otros generadores, como Midjourney o DALL-E, su código está disponible públicamente). Puede ser usado en un computador personal si tiene una tarjeta gráfica (GPU) potente, o en plataformas en la nube. El control local. Al ejecutarlo localmente, no tienes censura estricta ni pagas por cada generación. Un ccosistema amplio, ya que existen muchas interfaces gráficas (como Automatic1111 o ComfyUI) que añaden funcionalidades extra: controlar la pose de los personajes, usar imágenes de referencia, mejorar rostros y otras.

Stable Diffusion ha cambiado la forma en que entendemos la materialidad de la imagen. Al ser una herramienta tan flexible, se utiliza no solo para el arte comercial, sino también en la investigación académica sobre la iconicidad, la estética de los algoritmos y la automatización de la producción visual.

lunes, 23 de marzo de 2026

Un pensamiento de Byung-Chul Han

"Transparencia y verdad no son idénticas. El imperativo de la transparencia hace sospechoso todo lo que no se somete a la visibilidad. En eso consiste su violencia". 

Byung-Chul Han, filósofo y escritor surcoreano radicado en Alemania, nacido en Seul en 1959. 

domingo, 22 de marzo de 2026

Un destino frutal en animación Blender 3D

Este es un cortometraje (bastante corto, porque apenas dura un minuto y 24 segundos), está realizado con el programa de animación digital Blender, con una anécdota muy breve e ingeniosa y bien elaborado. "Destino frutal" fue producido en 2024, en Argentina, por un equipo conformado por Nicolas Navarro, Kalil Fiat, Cesar Villasanti y Franco Camargo. Sigue a un viejo mientras conduce su camioneta y pierde una sandía. Está ambientada en la Argentina, pero puede ser en cualquier ruta latinoamericana. 

sábado, 21 de marzo de 2026

Primer equinoccio 2026

El equinoccio es un fenómeno astronómico que ocurre dos veces al año, cuando el Sol se sitúa exactamente sobre el ecuador, lo que provoca que la duración del día y la noche sea igual en todo el mundo. Esto sucede porque el eje de rotación de la Tierra se encuentra perpendicular a la línea que une el centro del Sol con el centro del planeta. Los equinoccios ocurren aproximadamente entre el 20 y el 23 de marzo y entre el 20 y el 23 de septiembre de cada año, y marcan el inicio de la primavera y el otoño en ambos hemisferios. Este año comenzaron el día de ayer y ya hoy es el inicio de todo el período que durará hasta el 21 de junio, que empiezan los solsticios. Estos días astronómicos han sido siempre muy importantes en todas las culturas a lo largo de toda la humanidad y aún ahora, en este mundo digitalizado, se siguen festejando. Por eso es que yo normalmente pongo en esas fechas alguna publicación alusiva, como hoy. En este caso, le pedí a la inteligencia artificial algunas imágenes alusivas a la primavera y el otoño combinados, y entre las que obtuve, están estas tres que me gustaron.