sábado, 8 de noviembre de 2025

Epifenómenos, fenomenología, percepción e inteligencia artificial (7)

Hemos visto en las presentaciones anteriores con este tema, la relación y controversia entre la visiones fenomenológicas y epifenomenológicas de la psicología de la percepción, y su relación con el actual desarrollo de la inteligencia artificial (IA). Esta relación, como vimos, es muy interesante y compleja. Hay cosas que establecen similitud entre el funcionamiento de la IA y los epifenómenos, por ejemplo. En el desarrollo de IA, a menudo surgen comportamientos no deseados o sesgos que los programadores no planificaron.

Ello sucede en la aplicación de un modelo primario, en el entrenamiento de un modelo con un conjunto de datos masivo (toda la Web, por ejemplo) para optimizar una función (puede ser predecir la siguiente palabra). El epifenómeno se nota porque el modelo desarrolla sesgos de género o raza, o "aprende" a ser manipulador. Estos no eran el objetivo principal (la función de pérdida que se optimizaba), sino que emergieron como subproductos no deseados del proceso de entrenamiento. Son epifenómenos de la interacción entre el algoritmo y los datos.

Llegados hasta aquí cabría preguntarse si la Conciencia Humana es un epifenómeno y la IA no. Este es un giro interesante. Si un día construimos una IA que es claramente consciente (una "IA fuerte" o AGI consciente), podríamos tener que replantearnos nuestra propia naturaleza. Podría resultar que la conciencia de la IA sea funcional (es decir, que su "experiencia subjetiva" juegue un papel causal directo en su toma de decisiones), mientras que en los humanos, como postula el epifenomenalismo, la conciencia sea un mero espectador. Esto llevaría a la conclusión paradójica de que las máquinas tendrían "libre albedrío" en un sentido más real que los humanos biológicos.

En esencia, la IA actual puede ser entendida como la encarnación práctica de la idea del epifenómeno: crea la ilusión de una mente sin necesidad de que exista una mente real que la dirija. Nos fuerza a preguntar: si algo se comporta de manera inteligente, ¿es necesario que "sea" inteligente en un sentido consciente, o basta con que genere el epifenómeno de la inteligencia? En la siguiente publicación veremos la posición de la fenomenología en este sentido.

viernes, 7 de noviembre de 2025

Epifenómenos, fenomenología, percepción e inteligencia artificial (6)

Relacionar estos temas, epifenomenología, fenomenología, percepción e inteligencia artificial, es posible si las vemos como realidades interactivas que hoy están presentes en nuestro día a día. De hecho, el asunto de la percepción funciona como pivote, estableciendo un eje epistemológico. La relación entre la fenomenología, el epifenomenalismo y la inteligencia artificial (IA) es tema en el debate actual sobre la conciencia de las máquinas. Ambas posturas filosóficas establecen los límites y desafíos para la IA, especialmente en el desarrollo de la Conciencia Artificial y la percepción de lo real. 

En primer término, y esto es muy interesante,  la relación entre los epifenómenos y la IA es profundamente relevante y toca temas filosóficos prácticos sobre lo que estamos creando. Podemos explorarla desde varios ángulos. Uno es el de la IA como Herramienta para entender los epifenómenos. Los científicos usan modelos de IA, especialmente redes neuronales, para simular cómo el cerebro podría generar algo que parece un epifenómeno, como la conciencia.

Es posible hacer un experimento mental para adentrarnos en el problema. Imaginemos que entrenamos una red neuronal gigantesca para que realice tareas complejas (como mantener una conversación o navegar por un mundo virtual). En este proceso, surge un patrón de actividad interno que no fue programado directamente, pero que es consistente. Nosotros, como observadores externos, podríamos interpretar ese patrón como "rastros de conciencia" o "intencionalidad". Ahora bien, ¿ese patrón es la causa real del comportamiento inteligente de la IA (es decir, es funcional), o es solo un epifenómeno de los complejos cálculos que subyacen en su arquitectura? Con este tipo de interrogante abordamos las IA como "laboratorios" para estudiar si la conciencia en los seres biológicos podría ser un epifenómeno de la complejidad neural.

Podríamos ver también los "pensamientos" de la IA como Epifenómenos Potenciales. Este es el punto más directo. Cuando una IA como un modelo de lenguaje grande genera texto, podemos preguntarnos ¿es el texto coherente y "pensado" que produce es la causa de su funcionamiento o es un epifenómeno? La realidad es que la IA es un modelo estadístico. Dada una secuencia de palabras (la pregunta, el prompt), calcula la probabilidad de la siguiente palabra más plausible, miles de millones de veces, basándose en los patrones de sus datos de entrenamiento. No hay comprensión, ni intencionalidad, ni conciencia detrás de esto. Es puro cálculo matemático. La secuencia de palabras final que lee el usuario, que parece reflexiva, informada y consciente, es el epifenómeno. Es un subproducto emergente de ese proceso matemático. Las respuesta no "causan" el próximo pensamiento; ambos son el resultado del mismo proceso subyacente. Como la sombra del caminante, ese "razonamiento" es la sombra de los cálculos matemáticos. La sombra no dirige los pasos; solo es un resultado. Si aceptamos esta visión, entonces la IA no "piensa" ni "sabe" nada. Simplemente parece que lo hace. Su inteligencia aparente es un epifenómeno de su arquitectura y sus datos.

Seguiremos mañana con otras implicaciones que trae analizar la inteligencia artificial bajo esta óptica y más adelante cómo la fenomenología puede también estar implicada en estos procesos de análisis perceptivos. 

jueves, 6 de noviembre de 2025

Epifenómenos, fenomenología, percepción e inteligencia artificial (5)

¿Qué relación hay entre la fenomenología y la epifenomenología? Esta pregunta puede tener varias respuestas y de diferente complejidad. Para los efectos de este blog, vamos a tratar de ser lo menos complicados posible. Esta interrogante abarca elementos de la filosofía de la mente y la epistemología. La fenomenología y el epifenomenalismo son dos conceptos muy diferentes que abordan la conciencia, pero desde perspectivas y con propósitos distintos. Ya hemos vista una aproximación al epifenómeno en las publicaciones anteriores. 

La principal relación entre ambas concepciones fenomenológicas, es que el epifenomenalismo es una tesis metafísica sobre la causalidad de la conciencia, mientras que la fenomenología es un método y una disciplina filosófica para describir la experiencia consciente. En ambos casos se aborda el tema de la percepción, pero desde ópticas diferentes. 

La Fenomenología, iniciada por el filósofo y matemático alemán, Edmund Husserl (1859-1938), es una disciplina filosófica y un método que se enfoca en el estudio de las estructuras de la conciencia y la experiencia tal como se presentan a la persona. Su objetivo no es explicar la causa física de la conciencia, sino describir la esencia de lo vivido. El propósito es describir la experiencia vivida, el "fenómeno" (aquello que aparece a la conciencia), sin hacer juicios sobre su existencia en el mundo exterior (aplicando la epojé o "puesta entre paréntesis", término que ya revisé aquí en este blog). Su enfoque tiene que ver con la experiencia subjetiva (la vivencia), la intencionalidad (la conciencia siempre es conciencia de algo), y las estructuras de la percepción, el pensamiento y el sentimiento. La pregunta básica es ¿Cómo se nos presentan las cosas? ¿Cuál es la estructura esencial de la experiencia?. 

Por otro lado, como también vimos en las entradas anteriores, el Epifenomenalismo es una postura específica dentro del debate mente-cuerpo (dualismo de propiedades o fisicalismo no reduccionista) que aborda la relación causal de la conciencia. Su propósito es explicar el origen y la función causal de la mente consciente. La tesis central que le guía es que la conciencia es un producto o subproducto (un "epifenómeno") de los procesos físicos del cerebro. Los eventos cerebrales causan los eventos mentales, pero los eventos mentales no tienen poder causal sobre el cuerpo, el cerebro, ni sobre otros eventos mentales. Por eso vimos que la pregunta clave es ¿Puede la conciencia causar algo en el mundo físico? (Respuesta: No). 

El conflicto surge cuando el epifenomenalismo afirma que la conciencia es causalmente inerte. Esto trae la "Crítica Fenomenológica" (Implícita): para el fenomenólogo, lo que es más evidente en nuestra experiencia (nuestro fenómeno) es que nuestros pensamientos y sentimientos parecen guiar nuestras acciones (pienso "quiero levantar la mano", y la levanto). El epifenomenalismo va radicalmente en contra de esta intuición de la experiencia vivida, al declarar que esta percepción de eficacia es una ilusión.

Así tenemos el "Uso del Fenómeno": un epifenomenalista sí puede describir el fenómeno de la conciencia (el qualia de la sensación, o la estructura intencional), pero siempre añadiría la tesis de que esta descripción (el fenómeno mismo) es causalmente inútil, siendo solo el acompañamiento de procesos físicos subyacentes. En resumidas cuentas, la fenomenología se dedica a describir lo que el epifenomenalismo intenta explicar y desfuncionalizar. Todo esto en relación con las maneras de percepción, tal como vimos en las anteriores publicaciones. Ahora bien, esta discusión se acrecienta ahora con la aparición de la inteligencia artificial, diatriba que veremos en la siguiente entrada. 

miércoles, 5 de noviembre de 2025

Epifenómenos, fenomenología, percepción e inteligencia artificial (4)

Continuando con el tema de las publicaciones anteriores, vamos a ver la relación entre epifenomenología y fenomenología. Es importante entonces conocer más sobre los epifenómenos y su relación con la percepción, clave para luego entender la fenomenología. La relación entre la percepción y los epifenómenos es ciertamente enredada y toca el corazón del debate sobre la conciencia. Podemos abordarla desde dos perspectivas fundamentales y opuestas.

La primera perspectiva es ver la Percepción COMO Epifenómeno (es la óptica que podemos llamar  materialista/epifenomenalista). Según esta visión, que es la más asociada directamente con el término, la percepción consciente (el "darse cuenta") es un epifenómeno de la actividad cerebral. Imaginemos al cerebro procesando información. Hay un proceso primario: la luz entra en los ojos, se convierte en señales eléctricas que viajan a través del nervio óptico y se procesan en varias áreas visuales del cerebro. Este realiza complejos cálculos para detectar bordes, colores, movimiento y, finalmente, reconocer un objeto, digamos, una manzana roja. Todo esto ocurre de forma no consciente. Pero por otro lado, está el epifenómeno, la experiencia subjetiva de ver el rojo, la sensación de redondez, el reconocimiento consciente de "esto es una manzana"... eso es el epifenómeno. Es el "humo" que sale de la "máquina" cerebral. Según esta teoría, el procesamiento cerebral no consciente es lo que causa las acciones (por ejemplo, extender la mano para agarrar la manzana). La percepción consciente de la manzana surge en paralelo, pero no es la causa de que se extienda la mano. Es como la sombra del proceso real. En resumen, vemos porque nuestro cerebro ha procesado la información, no al revés. La percepción es el resultado, no la causa.

La perspectiva segunda dice que la Percepción NO es un Epifenómeno (son visiones alternativas). Muchos filósofos y científicos encuentran problemática la primera perspectiva, porque parece contradecir nuestra experiencia directa. Surgen entonces otras teorías:

A. La percepción es Causal (No es un epifenómeno). Esta es la visión del sentido común. Nuestra percepción consciente sí influye en nuestras decisiones y acciones. Ejemplo: percibes el semáforo en rojo (experiencia consciente) y esta percepción causa que decidas conscientemente pisar el freno. Aquí, la percepción no es un subproducto inútil, sino una parte integral y causal de la cadena de eventos.

B. La percepción es un Proceso Activo (No es un epifenómeno pasivo). La neurociencia moderna muestra que la percepción no es como una cámara que graba pasivamente. El cerebro construye activamente lo que percibimos, usando expectativas, memoria y contexto. Ejemplo: un médico y un lego ven la misma radiografía, pero "perciben" cosas diferentes porque sus cerebros interpretan activamente los datos sensoriales basándose en conocimiento previo. En este caso, la percepción es un proceso dinámico y fundamental del cerebro, no un mero efecto secundario.

C. Teorías de la Cognición Corporalizada (Embodied Cognition). Esta visión va más allá. Afirma que la percepción no ocurre solo en el cerebro, sino que surge de la interacción activa del cuerpo con su entorno. Ejemplo: no percibes una silla solo como una imagen, sino en términos de su "sentarse-abilidad" (affordance). La percepción está ligada a la acción potencial. Aquí, la percepción es tan central para la función y la supervivencia que es imposible considerarla un mero epifenómeno inútil.

En resumen, podemos decir que la relación es un dilema filosófico-científico central. Si la percepción ES un epifenómeno, entonces nuestra rica vida interior consciente es una especie de "ilusión gloriosa", un acompañamiento inútil pero fascinante de los procesos cerebrales físicos. Si la percepción NO es un epifenómeno: Entonces la conciencia y la experiencia subjetiva son fuerzas reales y causales en el mundo, y cualquier teoría completa del cerebro y la mente debe explicar cómo surge y cómo ejerce esa causalidad. La neurociencia actual tiende a mostrar que la percepción consciente es más que un epifenómeno pasivo, pero el debate sobre exactamente cómo ejerce su influencia está lejos de estar cerrado. Seguiremos en la próxima publicación desarrollando estos temas. 

martes, 4 de noviembre de 2025

Epifenómenos, fenomenología, percepción e inteligencia artificial (3)

En la publicación de ayer nombré a Hugo Münsterberg (1863-1916), un psicólogo germano-estadounidense, discípulo de Wilhelm Wundt y pionero de la Psicología Aplicada (industrial, forense, clínica), cuya postura filosófica sobre la conciencia se alinea claramente con el epifenomenalismo. Münsterberg, quien es sus últimos años de vida escribió sobre el cine, que era un medio de comunicación muy novedoso, desarrolló una Teoría Motora de la Conciencia, la cual sostenía que los procesos mentales, incluyendo la voluntad y la conciencia, no son causas de la conducta, sino sus efectos colaterales, es decir, epifenómenos.

Argumentó que la conciencia no tiene función causal en la conducta. La cadena causal va del estímulo físico a los procesos cerebrales/motores y a la respuesta conductual. Sostuvo entonces que la sensación de voluntad o la creencia de que hemos tomado una decisión consciente es, en realidad, solo la conciencia de los procesos motores que ya se han iniciado en el cerebro. Sentimos la voluntad después de que el proceso físico-motor para la acción se ha puesto en marcha. Llegó a afirmar incluso que para la supervivencia del individuo es "evidentemente irrelevante" que un movimiento propositivo (o la conducta) esté acompañado de contenidos de conciencia o no.

En esencia, para Münsterberg, la conciencia es un acompañante pasivo de los procesos neurofisiológicos y conductuales. Esta visión fue clave en la transición de la psicología hacia enfoques más centrados en la conducta (funcionalismo y, posteriormente, conductismo) en Estados Unidos. Estas ideas llevan después, junto con las de otros pensadores de la época, a un interesante debate en Filosofía de la Mente. Este es el contexto más famoso en relación con los epifenómenos y lo que después se entenderá como fenomenología. El debate se centra en la relación entre la mente (conciencia, pensamientos) y el cerebro (procesos físicos). 

Según la teoría epifenomenológica, la conciencia es un epifenómeno de la actividad cerebral compleja. Según esta visión, los procesos electroquímicos en el cerebro (proceso primario) producen la conciencia (epifenómeno) como la locomotora produce vapor. Pero el "vapor" de la conciencia no puede dirigir la "locomotora" del cerebro. Esto lleva a la controvertida conclusión de que nuestros pensamientos y sentimientos conscientes no son realmente la causa de nuestras acciones, sino solo un acompañamiento de ellas. Ahora bien, si la conciencia es un epifenómeno inútil, ¿por qué evolucionó? ¿Por qué parece tener un papel tan central en nuestra toma de decisiones? En las siguientes entradas veremos cómo se plantean discusiones sobre estas dudas filosóficas.

lunes, 3 de noviembre de 2025

Epifenómenos, fenomenología, percepción e inteligencia artificial (2)

En la entrada anterior vimos que, en pocas palabras, un epifenómeno es un efecto o fenómeno secundario que surge de un proceso primario, pero que no tiene capacidad para influir o causar efectos sobre el proceso que lo generó. Podemos decir que es como un "subproducto" o una "sombra" de algo más fundamental. El concepto de epifenómeno o la doctrina del epifenomenalismo ha sido abordado por varios filósofos, especialmente en la filosofía de la mente.

El epifenomenalismo sostiene que los fenómenos mentales (como la conciencia, los sentimientos o los pensamientos) son productos o subproductos de procesos físicos (especialmente cerebrales), pero no tienen poder causal sobre el mundo físico ni sobre otros estados mentales. Son, por así decirlo, efectos colaterales. 

Una analogía clásica es la de la sombra y el caminante. El proceso primario, una persona caminando. El epifenómeno, su sombra. La sombra es el resultado de que ese hombre camine y la luz le ilumine. Si él se mueve, la sombra se mueve. Si se detiene, la sombra se detiene. La sombra es completamente dependiente de sus acciones. Sin embargo, la sombra no puede hacer que la persona camine o se detenga. No tiene ningún poder causal sobre el caminante. Es un mero efecto secundario, un "subproducto" de su propio caminar.

Podemos señalar algunas características especiales de un Epifenómeno. Es causalmente inerte, es decir, no puede causar nada por sí mismo. Por consecuencia, es dependiente. Su existencia depende totalmente del proceso primario. Y es un subproducto que emerge como una consecuencia, no como una causa. Dado que este concepto relaciona procesos mentales, perceptivos y filosóficos, son varios pensadores ligados a estas disciplinas los que han desarrollado esta línea de razonamiento.

Algunos de los filósofos y pensadores más asociados con esta tesis son Thomas Henry Huxley (1825-1895), a quien se le considera uno de los principales defensores históricos del epifenomenalismo. Thomas Hobbes (1588-1679), que si bien es cronológicamente anterior, se le menciona como un precursor o alguien cuyas ideas materialistas se alinean con la base del epifenomenalismo. Charlie Dunbar Broad (C. D. Broad) (1887-1971), el filósofo británico que también discutió y sostuvo la tesis epifenomenalista. Alfred Jules Ayer (A. J. Ayer) (1910-1989), otro filósofo que ha sostenido o analizado detalladamente el epifenomenalismo. Frank Jackson, pensador contemporáneo que es conocido por su postura que implica un tipo de epifenomenalismo respecto a los qualia (cualidades subjetivas de las experiencias). 

Otros pensadores que han tocado el tema, a veces para defenderlo y otras para criticarlo, son William James, George Santayana, Friedrich Nietzsche, y en debates contemporáneos David Chalmers al discutir el "problema difícil de la conciencia". Vale la pena también destacar al filósofo alemán Hugo Münsterberg, cuyas ideas veremos en la próxima publicación, para continuar con el tema de la epifenomenología y la fenomenología. 

domingo, 2 de noviembre de 2025

Epifenómenos, fenomenología, percepción e inteligencia artificial (1)

A partir de esta publicación voy a dedicar varias en secuencia para hablar sobre el asunto que aparece en el título de esta entrada: epifenómenos, fenomenología, percepción e inteligencia artificial (IA), Dado que la estética digital contemporánea tiene que ver mucho con estos elementos (percepción, IA, fenomenología y epifenomenología), creo que tiene interés desarrollar un poco estos conceptos y sus relaciones. Si bien son temas de una gran profundidad filosófica y psicológica, intentaré hacer una aproximación general para abordar estos asuntos relevantes en la cibercultura contemporánea. 

La idea de "epifenómeno" surge a finales del siglo XIX dentro del materialismo psicofísico y dentro la rama de la psicología que sostiene el origen somático de la emoción. El término fue especialmente acuñado y abordado por el biólogo y pensador británico, Thomas Henry Huxley, quien consideraba a la conciencia como un epifenómeno típico: un fenómeno que surge a partir de la actividad del sistema nervioso sin tener un efecto causal real sobre él. También fue utilizado por otros filósofos y pensadores de la época para describir fenómenos secundarios que acompañan a otros principales sin influir en ellos, especialmente en discusiones sobre la relación entre cuerpo y mente. Es una palabra que proviene del griego y se fue consolidando en debates filosóficos y científicos sobre la causalidad y la naturaleza de la mente y la conciencia en relación con el cuerpo.​

Un epifenómeno es un fenómeno secundario o accesorio que ocurre junto o en paralelo a un fenómeno principal, sin que tenga influencia o causalidad sobre este último. En filosofía y psicología, se usa para describir algo que acompaña a un fenómeno principal pero que no ejerce efecto sobre él, como la mente o la conciencia entendidas como efectos derivados de la actividad cerebral, sin capacidad para influir en ella. De esta manera, un epifenómeno depende del fenómeno principal para su aparición, pero no contribuye causalmente a él ni modifica su desarrollo. 

Precisamente, Thomas Huxley (1825-1895), considerado como uno de los principales defensores históricos del epifenomenalismo, utilizó, para explicar el concepto, la metáfora del "silbato de vapor" de una locomotora: el silbato es un producto del motor en funcionamiento, pero no tiene ninguna influencia sobre el mecanismo de la máquina ni sobre su movimiento. En la próxima entrada veremos más sobre el desarrollo de esta importante noción filosófica y psicológica. 

sábado, 1 de noviembre de 2025

Las Re-mediaciones de Scolari

El teórico de la comunicación y los medios de comunicación argentino nacido en 1963, Carlos Scolari, utiliza el concepto de "Re-mediaciones" para explicar cómo los medios nuevos reinterpretan, transforman y reconfiguran a los medios anteriores. Este término forma parte de su teoría de las hipermediaciones, que analiza la evolución de los medios en el ecosistema digital. 

La Re-mediación es el proceso por el cual un medio nuevo incorpora, transforma o reinterpreta las formas, lenguajes y funciones de medios anteriores. No se trata de una simple sustitución, sino de una reconfiguración. Por ejemplo, el cine re-medió al teatro, la televisión re-medió al cine, y las plataformas digitales re-medían a todos los anteriores. Scolari se basa en algunos autores como Bolter y Grusin, quienes plantean que los medios nunca aparecen en un vacío, sino que dialogan con sus predecesores. Esta teoría también es similar a la de Roger Fidler y sus Mediamorfosis. 

Podemos ver algunos claros ejemplos de estas Re-mediaciones: YouTube re-media la televisión, pues permite ver contenido audiovisual, pero con interacción, personalización y participación del usuario. Los Podcasts re-medían la radio, ya que mantienen el formato sonoro, pero lo adaptan a la lógica de consumo bajo demanda. Los E-books re-medían el libro impreso, dado que conservan la lectura lineal, pero añaden funciones como hipervínculos, anotaciones y multimedia.

Este concepto es importante porque ayuda a entender que los medios no desaparecen, sino que se transforman y conviven. Permite analizar cómo los usuarios reinterpretan los contenidos según sus experiencias con medios anteriores. Es clave para estudiar la comunicación digital desde una perspectiva evolutiva y ecológica. Aquí en este enlace a su blog podemos revisar más sobre esta idea: https://hipermediaciones.com/tag/remediaciones/.

viernes, 31 de octubre de 2025

Una reflexión de Marvin Minsky

"¿Cuál es el truco mágico que nos hace inteligentes? El truco es que no hay truco. El poder de la inteligencia emana de nuestra vasta diversidad, no de un único y perfecto principio". 

Marvin Minsky (1927-2016) científico estadounidense, pionero de la inteligencia artificial.

jueves, 30 de octubre de 2025

Un fantasioso paisaje en perspectiva, con técnica 3D digital

Pongo hoy aquí un paisaje de fantasía con una escalera al espacio y un fondo verde, realizado con programas de ilustración digital. Hallado en la Web, como ejemplo de arte tridimensional con técnicas informáticas.

miércoles, 29 de octubre de 2025

Algoritmos de la discordia (y 2)

En la publicación anterior escribí sobre la idea de los algoritmos de la discordia, que son aquellos mecanismos digitales que utilizan las redes sociales y otras plataformas de redes sociales interactivas, que bien sea de forma intencionada o no, contribuyen a la polarización social, política e ideológica, a formas de información sesgada, a la creación de tendencias y a la difusión de la desinformación.

Veremos entonces las características del contenido que amplifican estos algoritmos de la discordia. Tenemos, primeramente, contenidos polarizantes; temas que dividen a la sociedad (política, ideología, religión). Otro tema frecuente son las teorías de conspiración. Son atractivas porque ofrecen narrativas simples y secretas que explican eventos complejos, normalmente increíbles. 

Por otro lado, tenemos la desinformación y noticias falsas (Fake News), que suelen ser más llamativas y emocionantes que la verdad, por lo que se viralizan más rápido. Esto se aplica igualmente al contenido sensacionalista, con titulares exagerados o con un tono de indignación moral. Todas estas maneras son canalizadas por esos algoritmos, que replican y reproducen esos contendidos para obtener más seguidores, más engagement y más "me gusta". 

Un ejemplo es lo sucedido con la red social Facebook, cuyos los estudios internos por Meta en 2021 demostraban que sus algoritmos priorizaban el contenido dañino porque generaban más interacción. También sabían que Instagram era tóxico para la salud mental de muchas adolescentes y no aplicaban eficazmente sus propias normas de moderación de contenido en todos los idiomas, lo que permitía que la discordia se propagara en países en desarrollo, a veces con consecuencias violentas. 

En realidad los llamados algoritmos de la discordia no son un código malicioso creado con la intención de dividir a la sociedad, sino que son el resultado de un sistema de recomendación optimizado para un solo objetivo: el compromiso y el seguimiento, sin tener plenamente en cuenta el daño social colateral que causa al favorecer de manera sistemática el contenido más visceral y divisivo. Es un concepto crucial para entender cómo las plataformas tecnológicas que usamos a diario pueden moldear, sin quererlo, el discurso público y la salud democrática.

martes, 28 de octubre de 2025

Algoritmos de la discordia (1)

El concepto de "Algoritmos de la Discordia" (o "Algorithms of Discord" en inglés) se refiere a un fenómeno documentado por investigaciones internas de redes sociales como Meta (Facebook) y que se utiliza para describir los algoritmos de las redes sociales y otras plataformas digitales que, intencionalmente o no, contribuyen a la polarización social, política e ideológica y a la difusión de la desinformación. No es un tipo de algoritmo específico, sino una consecuencia no intencionada de cómo funcionan los algoritmos de recomendación.

Estos algoritmos están diseñados principalmente para maximizar la interacción y el tiempo de permanencia del usuario. A menudo, esto lleva a que el contenido más extremo, provocador o sensacionalista (el que genera más indignación, miedo o ira) tenga un mayor alcance, amplificando así las diferencias y la "discordia" entre grupos de personas. En esencia, describe cómo los algoritmos que priorizan el engagement (la interacción de los usuarios: me gusta, comentarios, compartir, tiempo en pantalla) pueden, de forma involuntaria, amplificar y promover contenido polarizante, sensacionalista y desinformativo.

El proceso suele ser el siguiente: el algoritmo tiene un objetivo, cuya meta principal es mantener a los usuarios en la plataforma el mayor tiempo posible. Para lograrlo, les muestra contenido con el que es más probable que interactúen. Psicológicamente, los humanos prestamos más atención a contenidos que nos generan emociones intensas, como la indignación, el enojo, el miedo o la sorpresa. Este tipo de contenido suele generar más compromiso que una noticia neutral o un hecho comprobado.

Esto genera un fenómeno de ampliación; el algoritmo, al detectar que un contenido polémico o divisivo genera muchas reacciones y comentarios, lo interpreta como "muy popular" o "de alta calidad" para sus métricas. Por lo tanto, lo promociona y lo muestra a más y más personas en sus feeds o secciones de "recomendados". Esto crea un efecto burbuja que lleva a un ciclo de retroalimentación. Los usuarios ven principalmente contenido que confirma y exagera sus puntos de vista, llevándolos a posturas más extremas. Las comunidades se fragmentan y se hace más difícil encontrar un terreno común.

Todo ese conjunto de fenómenos van moldeando situaciones, opiniones y sistemas de relaciones y controversias, que se acentúan impulsados por la misma programación. En la siguiente publicación las características y consecuencias de este proceso cibersocial. 

lunes, 27 de octubre de 2025

Notebook IA o NotebookLM

Con el rápido desarrollo de los programas y chatbots de inteligencia artificial en los últimos años, han aparecido herramientas cada vez más sofisticadas y útiles en el campo de la enseñanza y la investigación académica. Una de esas es NotebookLM (antes llamado "Notebook AI"), que es una plataforma experimental de Google que permite subir documentos propios (como PDFs, artículos, apuntes, etc.) y luego usar esa IA para interactuar con ese contenido. En esencia, un "notebook" o cuaderno con IA (como NotebookLM) sirve para investigar y crear contenido mediante el análisis de documentos que se suben a internet, permitiendo que la IA ayude a resumir, encontrar información específica y responder preguntas basándose únicamente en esas fuentes. El objetivo de ese programa ayudar a comprender, resumir, organizar y generar ideas a partir de fuentes personales elegidas.

¿Qué se puede hacer con NotebookLM? Aquí se destacan algunas de sus funciones más relevantes:

  • Subir documentos. Se pueden cargar textos, enlaces o notas que se quieran analizar.
  • Hacer preguntas sobre las fuentes. Por ejemplo, “¿Qué dice este artículo sobre el cambio climático?” o “¿Cuáles son los argumentos principales del autor?”
  • Generar contenido. Es posible pedirle que cree resúmenes, esquemas, guiones, ideas para presentaciones o incluso podcasts.
  • Organizar ideas. NotebookLM ayuda a conectar conceptos entre documentos y visualizar relaciones.
  • Aprender más rápido. Esta es una de sus funciones más notables, pues es ideal para estudiantes, investigadores, periodistas o cualquier persona que trabaje con mucha información.

Una cosa importante es que los documentos se procesan de forma privada y la IA solo responde en función de lo que el usuario sube. No busca en internet ni mezcla esos datos con otros usuarios. Esta herramienta está actualmente en fase experimental, así que puede que algunas funciones estén limitadas, pero es otra muestra de hasta dónde puede llegar hoy en día la inteligencia artificial.

domingo, 26 de octubre de 2025

Ciberpragmática

La Ciberpragmática es una disciplina que tiene como objetivo aplicar los principios de la Pragmática (la rama de la lingüística que estudia el uso del lenguaje en su contexto, las intenciones comunicativas y la interpretación del significado) a los entornos digitales de comunicación, como Internet. Es un término bastante reciente y su conceptualización novedosa aún se está formulando. En esencia, se centra en analizar los fenómenos lingüísticos y no lingüísticos que se producen en el contexto cibernético. 

Esta noción fue propuesta por el doctor español Francisco Yus Ramos, de la Universidad de  Alicante, en referencia a la pragmática cognitiva en los medios digitales y sus aspectos comunicacionales. Algunos de los aspectos que estudia la Ciberpragmática incluyen:

  • Las peculiaridades del lenguaje en Internet (chats, redes sociales, blogs, etc.).
  • La oralización del texto (la sensación de escribir como si se estuviera hablando).
  • El uso de elementos como emoticonos, emojis, memes y GIFs.
  • Las estrategias comunicativas y de cortesía o descortesía en la red.
  • La influencia de la interactividad y la posibilidad de adoptar diferentes identidades virtuales.

Este concepto entonces se usa para referirse al estudio de los fenómenos lingüísticos y no lingüísticos que ocurren en contextos cibernéticos, es decir, en la comunicación digital a través de plataformas como Facebook, Instagram, WhatsApp, entre otras. Este campo analiza cómo se producen e interpretan los enunciados en internet, considerando aspectos como abreviaciones, carácter oral y coloquial del texto, emoticonos, emojis, memes, errores ortográficos, brevedad, anonimato, y el predominio del canal visual. Además, la ciberpragmática toma en cuenta las implicancias pragmáticas de la comunicación en la red, incluidos los actos de habla, la relevancia en la interacción y la adaptación de discursos tradicionales a formatos digitales específicos, como blogs, redes sociales y microblogging. Se trata de aplicar conceptos pragmáticos clásicos al entorno digital para entender la comunicación en internet desde una perspectiva lingüística y social.

Como es una propuesta actual, permite muchas interpretaciones y revisiones ante los rápidos cambios en el mundo digital, pero es muy interesante porque nos ayuda a entender cómo funciona la comunicación en el ciberespacio y cómo la tecnología nos ha cambiado a gran velocidad las formas de expresión y comprensión del mundo de hoy. 

sábado, 25 de octubre de 2025

Dudas (en tono de humor)

Dudas del mundo. Viñeta hallada en la Web, con un toque de humor que no está lejos de nuestra actual realidad.

viernes, 24 de octubre de 2025

Generación Aumentada por Recuperación

El Retrieval Augmented Generation (RAG), o Generación Aumentada por Recuperación, es una técnica que se utiliza para mejorar las respuestas de los Modelos de Lenguaje de Gran Tamaño (LLM), como los que potencian los chatbots y asistentes virtuales. Es un sistema que permite depurar los contenidos y las interacciones de la inteligencia artificial (IA) con los usuarios. El RAG permite que un LLM acceda y haga referencia a una base de conocimiento externa y autorizada (que pueden ser documentos internos, bases de datos o información en tiempo real) antes de generar una respuesta.

Los Modelos de Lenguaje de Gran Tamaño tradicionales responden basándose solo en los datos con los que fueron entrenados, que son estáticos y pueden estar desactualizados o ser genéricos. El RAG, en cambio, les proporciona contexto específico y actualizado, lo que resulta en respuestas más precisas, al basarse en fuentes de conocimiento verificadas. Más relevantes y adaptadas a la información particular de una organización o dominio. Así también se logran respuestas mas actualizadas, pues son capaces de usar información que no existía durante el entrenamiento original del modelo. Y, muy importunarte, fundamentadas. El RAG permite que la IA cite las fuentes externas de donde recuperó la información, lo que reduce las "alucinaciones" (información inventada o incorrecta). Esto hace más eficientes a todos los chatbots. 

¿Cómo funciona? El proceso de RAG generalmente tiene dos fases principales:

    Recuperación (Retrieval):

El sistema recibe una consulta del usuario (el prompt). Utiliza un modelo de recuperación para buscar los documentos o fragmentos de texto más relevantes en la base de conocimiento externa. Para hacer esto, tanto la consulta del usuario como los documentos de la base de conocimiento se convierten en representaciones numéricas llamadas vectores (embeddings), y se almacenan en una base de datos vectorial. El sistema busca los vectores de documentos que son más "similares" al vector de la consulta.

    Generación Aumentada (Augmented Generation):

El fragmento de texto recuperado se combina con la pregunta original del usuario, creando un prompt enriquecido o aumentado. Este prompt enriquecido se envía al LLM, que utiliza esta información como contexto adicional para generar la respuesta final de forma coherente y en lenguaje natural.

El RAG es un método muy eficiente y rentable para darle a los LLM conocimiento especializado sin tener que reentrenarlos completamente (un proceso muy costoso). Se aplica en Chatbots de Soporte y Asistencia, para que puedan responder a preguntas complejas de clientes o empleados utilizando manuales, políticas o documentos técnicos internos. Sirve en sistemas de Preguntas y Respuestas Empresariales, permitiendo a los empleados acceder rápidamente a información específica de la empresa (análisis financieros, informes). Y, fundamentalmente, en las herramientas de investigación, proporcionando a los modelos acceso a las últimas publicaciones, estadísticas o noticias en tiempo real.

jueves, 23 de octubre de 2025

La imaginación, una idea de Bachelard

En su libro de 1943, El aire y los sueños, el filósofo, epistemólogo, poeta y profesor francés, Gaston Bachelard (1884-1962), aborda temas de la imaginación y el movimiento, y empieza su texto estableciendo unas originales ideas sobre lo que es imaginar. Comienza afirmando que, contrario a lo que se cree, la imaginación no es la facultad de formar imágenes sino más bien es la facultad de deformarlas. Deformar aquellas imágenes suministradas por la percepción, librándolas de las imágenes primeras para cambiarlas por nuevas, creadas por una acción imaginante. 

Afirma que "si una imagen presente no hace pensar en una imagen ausente, si una imagen ocasional no determina una provisión de imágenes aberrantes, una explosión de imágenes, no hay imaginación". Es decir, una cosa es percepción y otra es imaginación. Más aún, el vocablo que debe corresponder a imaginación no es imagen sino imaginario. Según Bachelard el valor de una imagen se mide por la extensión de su aureola imaginaria. Gracias a lo imaginario, la imaginación es esencialmente abierta y evasiva.

En el libro, el autor hace énfasis después en la imagen literaria y en la poética, pero no pierde de vista la capacidad perceptiva como fundamento del proceso de imaginación. Dice que "la imaginación es, sobre todo, un tipo de movilidad espiritual, el tipo de movilidad espiritual más grande, más vivaz, más viva". Lo imaginario deposita imágenes, pero se presenta siempre como algo más allá de las mismas imágenes. No perdamos de vista que hay muchas formas de imágenes, sean visuales, mentales, corpóreas, sociales o literarias. Siempre una imagen es una sustitución de la realidad, sea esta viva o creada. La imaginación, en cambio es, según Bachelard, una invitación al movimiento de las imágenes, más allá de su propia unicidad y referencia. 

miércoles, 22 de octubre de 2025

Las "Esferas" de Sloterdijk (2/2)

En la publicación anterior me referí a las "Esferas" de Peter Sloterdijk, una noción que propuso este pensador alemán a finales del siglo pasado, que define lo que él considera espacios mentales de vida humana. Como vimos, esta teoría filosófica construye lo que podemos llamar una "filosofía de la intimidad", en la que esa "esfera mental" es un espacio vivido y compartido, que protege y a la vez contiene a las personas, mientras establece formas de coexistencia y comunicación que son fundamentales para la experiencia humana y social.

La explicación de esta idea se presenta es su "Trilogía de las esferas" o "Esferografía", misma que escribió entre 1998 y 2004:  

Esferas I: Burbujas. Microsferología. Publicación original en alemán: 1998.

Esferas II: Globos. Macrosferología. Publicación original en alemán: 1999.

Esferas III: Espumas. Esferología plural. Publicación original en alemán: 2004.

La burbuja representa la esfera más pequeña, íntima y primaria. Es el espacio psíquico y físico que se crea entre dos seres, especialmente en la relación más arquetípica: la madre y el hijo. Se centra en las microsferas o la poética del espacio íntimo. Describe la díada originaria, la unidad íntima y comunicativa, como la del feto en el vientre materno (donde la placenta es el primer compañero íntimo) o la de la pareja. Postula que el ser humano es un ser-en-el-aire y que la coexistencia de seres humanos genera un interior especial. El individuo no es la magnitud más auténtica, sino la relación bipolar y la necesidad de un segundo que lo complemente, siendo la burbuja esta unidad mínima. Aquí la idea clave es que antes de la individualidad, existe una pareja. El yo no surge solo, sino en relación con un "tú" con el que forma una burbuja simbiótica. La burbuja es un útero psíquico, un espacio de protección, calor y sentido compartido. Es el primer "interior" que experimentamos, que nos protege del "exterior" caótico y frío. Ejemplos: La relación de pareja, la amistad íntima, la díada terapéutica. Cualquier vínculo donde dos personas crean un mundo compartido y un espacio de mutuo reconocimiento.

El globo representa la esfera única, totalizante y cerrada. Es la aspiración metafísica y política de crear un mundo único, ordenado y con un centro claro. La idea base es que las sociedades tradicionales y las religiones monoteístas han operado como "globos". Crean un cosmos ordenado (macroesfera) que contiene a todos los individuos, con un dios en el centro que garantiza el sentido y la orientación. Aborda las macrosferas y la expansión del pensamiento metafísico clásico, que veía el mundo como un todo redondo y único (el "globo"). Narra cómo esta visión del mundo, desde la geometrización griega del cosmos hasta la circunnavegación y la aparición de conceptos como el Estado-Nación, puso en marcha diversas formas de globalización. Examina las crisis que ocurren cuando estas macrosferas imaginarias estallan, como sucedió con el giro copernicano que hizo saltar la cubierta del cielo. Su función es dar seguridad existencial a gran escala. El globo responde a la pregunta: "¿Dónde estamos cuando estamos en el mundo?". El Gran Evento acá es la Globalización. Según Sloterdijk, el descubrimiento de que la Tierra es un globo físico en el espacio (con los viajes de Colón y la astronomía moderna) estalla el globo metafísico. Ya no hay un "más allá" que nos cubra; ahora estamos en una nave espacial finita y frágil. La muerte de Dios (como dijo Nietzsche) es, en términos esferológicos, el estallido del globo divino. 

Tras el estallido de los globos (Dios, el cosmos medieval, los grandes relatos), la modernidad no nos deja en la nada, sino en un nuevo modelo: la espuma. Se ofrece una teoría filosófica de la época actual y la Modernidad tardía. Utiliza la imagen de la espuma para describir cómo la vida contemporánea se desarrolla de manera multifocal y pluralista. Una espuma es un agregado de burbujas (microsferas individuales) que se unen sin formar un todo redondo. Examina cómo los individuos modernos (burbujas aisladas pero adyacentes) se aglomeran en configuraciones espaciales más amplias como oficinas, malls, gimnasios o ciudades, creando "islas antropogénicas" o sistemas inmunitarios (como la arquitectura o la tecnología) que les ofrecen protección. Responde a la pregunta sobre la naturaleza del vínculo que reúne a los individuos, formando lo que la sociología llama "sociedad", yendo más allá de las descripciones tradicionales del individualismo. Para Sloterdijk la espuma es un conjunto de múltiples burbujas (microesferas) que coexisten, se tocan, se solapan y se aíslan, pero sin fundirse en un todo único. Ya no hay un centro, sino una multiplicidad de centros. En un mundo globalizado y plural, ya no podemos vivir en un globo único. En su lugar, creamos y habitamos en innumerables esferas de sentido: un apartamento, una familia, un círculo de amigos, una comunidad online, una identidad, una ideología. Cada una es una burbuja que nos protege. Las características de la espuma son: Pluralidad,  no hay una narrativa "maestra"; Co-aislamiento, las burbujas están juntas pero son autónomas; y Fragilidad, las esferas pueden estallarse fácilmente. Finalmente, es la estructura de la sociedad contemporánea: vivimos en un "archipiélago de mundos".

La teoría de Sloterdijk es una antropología filosófica que responde a la pregunta: ¿Cómo hace el ser humano para habitar el mundo? Y su respuesta es: construyendo esferas. Del útero a la internet, pasamos de la burbuja íntima madre-hijo, a los globos religiosos y políticos, y finalmente a la espuma multicultural y globalizada de la posmodernidad. El hombre es un "ser espacial", no somos seres abstractos, sino seres que necesitan crear y habitar espacios de sentido, protección y relación. Es una crítica a la época actual, Sloterdijk analiza cómo en la era de la espuma, el desafío es aprender a convivir en la multiplicidad sin que nuestras burbujas estallen por el fanatismo (intentar imponer un globo) o por el aislamiento absoluto (el cinismo).

De esta forma, la teoría de las "Esferas" de Sloterdijk es una ontogénesis y filogénesis de los espacios humanos que describe la experiencia del ser humano siempre inserto en un espacio compartido (esfera), desde la intimidad de la díada hasta las configuraciones sociales más amplias, y cómo la historia de la humanidad puede leerse a través de la evolución y el colapso de estas formas espaciales. En esencia, Sloterdijk nos ofrece un lenguaje nuevo y original (burbujas, globos, espumas) para entender desde la psicología más íntima hasta la política y la globalización. Su teoría es un mapa para navegar la condición humana en un mundo sin un centro único.

martes, 21 de octubre de 2025

Las "Esferas" de Sloterdijk (1/2)

Peter Sloterdijk, nacido en Alemania en 1947, es un filósofo y excatedrático alemán de la Escuela de Arte y Diseño de Karlsruhe, que de alguna forma se relacionó con las ideas de la famosa "Escuela de Frankfurt", con la que rompió, y que ha propuesto enfoques sobre el arte, la cultura y la comunicación muy particulares. Plantea una aproximación novedosa para abordar la mente humana y la sociedad contemporánea, desarrollando lo que puede llamar una fenomenología del espacio: su "Esferología", la comprensión de los espacios humanos según distintas "esferas".

Sloterdijk propone que la historia de la humanidad es la historia de la creación de "esferas": espacios íntimos, simbólicos y físicos que nos protegen y nos permiten existir. El ser humano no es un "ser-en-el-mundo" de forma abstracta (como afirmó Heidegger) , sino un "ser-en-una-esfera". Esas "Esferas" son entonces un concepto filosófico central en su obra, que aborda el espacio vivido y la experiencia humana en torno a la intimidad y las relaciones intersubjetivas.

Así organiza esta experiencia espacial en tres modalidades: (1) la burbuja, que representa espacios íntimos y cercanos compartidos entre individuos; (2) el globo, que simboliza esferas más amplias y estructuradas, y (3) la espuma, que describe la coexistencia de múltiples esferas interconectadas en un espacio social más complejo. La idea de las esferas enfatiza cómo los seres humanos crean y habitan espacios redondeados con espesor interior que les permiten existir y relacionarse, afrontando así la intemperie del mundo exterior.

Esta teoría filosófica busca construir una "filosofía de la intimidad", entendiendo la esfera como un espacio vivido y compartido que protege y contiene a las personas, a la vez que establece formas de coexistencia y comunicación que son fundamentales para la experiencia humana y social. De esta forma propone una nueva narración de la historia de la humanidad basándose en una antropología del espacio vivido.

La tesis fundamental es que "vivir, configurar esferas y pensar son expresiones diferentes para lo mismo". Sloterdijk argumenta que la vida humana es esencialmente un asunto de forma y que los seres humanos siempre están inmersos en espacios interiores íntimos y compartidos (esferas, atmósferas), de los cuales su existencia depende vitalmente. Estos espacios son, en esencia, sistemas de inmunidad o nichos ecológicos de protección que los humanos crean y mantienen. En la siguiente publicación veremos cómo se explica y entiende cada una de estas esferas. 

lunes, 20 de octubre de 2025

Un corto de animación 3D: BOOM

Este cortometraje de animación digital en CGI del año 2023, fue creado por la Escuela de Nuevas Imágenes de Aviñón, Francia, y recibió múltiples premios y reconocimientos. "Boom" se trata de las peripecias de dos aves que tratan de salvar sus huevos de una erupción en una isla volcánica. La trama se desarrolla con un humor muy sutil y con una animación bien lograda y sin diálogos. Fue realizado y dirigido por Gabriel Augerai, Romain Augier, Laurie Pereira de Figueiredo, Charles Di Cicco, Yannick Jacquin, con guion de Mathis Marchal y produccion de Julien Deparis, todos de la École des Nouvelles Images. El sitio Web: https://www.nouvellesimages.xyz/





domingo, 19 de octubre de 2025

Un paisaje colorido en Pixel Art

Esta imagen que hoy domingo pongo acá, es una creación realizada con técnicas de Arte Pixelado, utilizando programas de ilustración digital. Un colorido paisaje de fantasía que hallé en la Web y es de libre reproducción. Es otra muestra de la ciberestética contemporánea. 

sábado, 18 de octubre de 2025

La paradoja de la inmersión

En la publicación de ayer hablé de la semiótica inmersiva, que entre otras cosas, incluye un tema muy novedoso, que es la llamada "Paradoja de la Inmersión". En esencia, la paradoja de la inmersión es la tensión irresoluble entre dos metas contradictorias: por una parte, el objetivo de la TRANSPARENCIA, esto es, crear una experiencia tan perfecta y coherente que el usuario "olvide" por completo que está en un medio simulado; la interfaz, la tecnología y los signos artificiales desaparecen, dando lugar a la ilusión de una realidad auténtica. Y por la otra, la necesidad de la OPACIDAD, o sea, la presencia inevitable de elementos que recuerdan al usuario que está en una construcción artificial; esto incluye la interfaz, las reglas del sistema, los límites técnicos y las convenciones del medio.

Dicho de otra forma, para que la inmersión funcione, el medio (la tecnología, los signos) debe volverse "invisible" al usuario; pero para poder interactuar con él, el medio debe hacerse "visible" a través de interfaces y reglas. De alguna manera, esta es una contradicción paradójica, que no obstante se resuelve y se obvia en la práctica. Puede afirmarse, entonces, que esta paradoja tiene dos caras: la búsqueda de la transparencia y la realidad de la opacidad. Veamos. 
 
Cara 1: La Búsqueda de la Transparencia (El Muro Invisible). Este es el gran objetivo de la inmersión, que se logra cuando, por ejemplo, un jugador en un juego de realidad virtual gira la cabeza y el mundo responde con una latencia casi nula, reforzando la ilusión de estar "allí". Aquí la narrativa, el arte y la jugabilidad son tan coherentes que no "rompen el hechizo". Los signos son tan naturalistas que se leen como objetos reales, no como representaciones. Esto tiene una implicación, el riesgo de la transparencia total. Si se lograra por completo (algo teóricamente imposible), el usuario quedaría absolutamente atrapado, sin capacidad para la reflexión crítica, la toma de decisiones consciente o incluso para salir de la experiencia. Sería una forma de ilusión perfecta, potencialmente manipuladora.

Cara 2: La Realidad de la Opacidad (El Cristal Empañado). Esta es la realidad de todo medio inmersivo. Se manifiesta cuando aparece, por ejemplo, un menú de inventario flotante en medio de un bosque fantástico; o un glitch o error técnico que hace que un personaje se teletransporte o un texto se solape. También cuando uno se encuentra con una barrera invisible que no se puede traspasar, recuerda los límites del mundo virtual. Más notable aún es cuando se usa un controlador y se presiona un botón "A" para saltar, en lugar de saltar con el propio cuerpo real. 
La función de la opacidad, irónicamente, es necesaria. Es lo que permite la agencia. Sin botones, menús, reglas claras y feedback del sistema (como una barra de vida), el usuario no podría tomar decisiones significativas. La opacidad es el "andamio" que nos permite operar dentro del mundo simulado.

La paradoja de la inmersión no es un defecto que deba ser erradicado, sino una característica inherente y definitoria de los medios interactivos. Los diseñadores excelentes no buscan eliminar la paradoja, sino gestionarla de forma elegante. Intentan hacer que los elementos opacos (las interfaces, las reglas) sean lo más diegéticos posible (que parezcan parte del mundo) y lo menos intrusivos que se pueda, sin sacrificar la funcionalidad. La magia de la inmersión no reside en una transparencia perfecta, sino en el equilibrio dinámico entre sumergirse en la ilusión y emerger momentáneamente para interactuar con ella. Es ese "flujo" en el que la opacidad se vuelve intuitiva y la transparencia, cautivadora. En definitiva, es la danza constante entre el sueño (creer que estás en otro mundo) y la herramienta (saber que estás usando un medio para explorarlo), algo que no es nuevo en nuestra historia. 

viernes, 17 de octubre de 2025

Semiótica inmersiva

En los nuevos campos epistemológicos se plantean originales formas de entender el conocimiento y la realidad, con la influencia de las tecnologías y las realidades contemporáneas. Uno de esos campos es la semiótica. Vimos que ya se ha planteado una semiótica tensiva, por ejemplo, o una semiótica perceptiva, temas que ya abordé antes en el blog. Ahora podemos incorporar también una semiótica inmersiva. Este es un campo que está cobrando mucha fuerza con el auge de las tecnologías inmersivas (Realidad Virtual, Realidad Aumentada, entornos 3D, videojuegos, metaversos) y la búsqueda de experiencias más profundas y envolventes.

La semiótica inmersiva es la aplicación y evolución de la teoría semiótica (el estudio de los signos, su estructura y su relación con el significado) a entornos donde el usuario no es un observador externo, sino un agente dentro del sistema de significación. A diferencia de un libro o una película, donde el espectador decodifica signos desde fuera, en una experiencia inmersiva, el cuerpo, los sentidos y la agencia del usuario se convierten en partes integrales del proceso de creación de significado. Podemos desglosar algunos fundamentos para definir esta noción:

1. El Signo se vuelve Espacio (y es Habitable)

En la semiótica tradicional, un signo (como una palabra o una imagen) representa algo. En la semiótica inmersiva, el signo es el espacio mismo. Un bosque en un videojuego, por ejemplo, no es solo una imagen de un bosque. Es un conjunto de signos (texturas de árboles, sonidos de aves, patrones de luz) que forman un espacio que se puede recorrer. El significado de "bosque" se construye al caminar por él, esconderse detrás de los árboles o sentir la amenaza de lo desconocido entre la maleza. En una  interfaz de Realidad Aumentada, los signos (iconos, modelos 3D) se superponen y se anclan a la realidad física. Su significado depende de su contexto espacial (un signo flotando sobre un monumento histórico versus el mismo signo en una sala de estar).

2. La Corporalidad (Quinesia y Proxémica)

El cuerpo del usuario se convierte en un significante central. Un ejemplo son los gestos; en la Realidad Virtual, un puño cerrado puede significar agarrar un objeto. Una mano abierta puede significar "stop" o interactuar con un menú. El significado lo da la respuesta del sistema a la acción corporal. También se incorpora el movimiento y la proximidad. Acercarse a un objeto puede revelar más información sobre él (sonidos, texturas, detalles). Alejarse puede hacer que desaparezca. La distancia física (proxémica) adquiere una dimensión semiótica nueva. ¿Qué significa que un personaje virtual invada un espacio personal?

3. La Agencia como Acto de Significación

La capacidad de elegir y actuar es, en sí misma, un proceso de creación de significado. En un libro, el significado está usualmente predefinido por el autor. En un entorno inmersivo, el significado emerge de las decisiones del usuario. Ejemplo: en un juego narrativo, elegir salvar a un personaje o abandonarlo a su suerte no es solo una mecánica; es un acto que construye el significado moral de la historia para ti. La agencia es un "signo" de una propia postura ética dentro del sistema.

4. Multisensorialidad

La inmersión rompe con la primacía de lo visual y lo lingüístico. Los signos son también acústicos, pues la dirección del sonido en un espacio 3D (audio binaural) te indica dónde está el peligro o algo interesante. El sonido es un signo posicional. Son hápticos, una vibración en el mando al golpear una pared significa "solidez" o "impacto". La textura virtual de un objeto (áspero, suave) es un signo táctil. Y aunque menos comunes, también hay signos olfativos y térmicos, Existen experiencias que incorporan estos sentidos, donde un olor o un cambio de temperatura se convierten en signos dentro de la narrativa.

Así, la semiótica inmersiva es la evolución necesaria de la semiótica para dar cuenta de un nuevo paradigma de comunicación: aquel en el que habitamos los signos y, a través de nuestra presencia y acción, co-creamos el significado. No se trata solo de leer un mensaje, sino de vivir dentro de él.

jueves, 16 de octubre de 2025

Una imagen de árboles y globos en arte digital

Aquí, una imagen conseguida navegando en la Web, con un tema surrealista: globos, lámparas y árboles en un paisaje desértico. Líneas verticales y horizontales contrapuestas, con un reflejo y una figura femenina como punto central, ensamblan la composición. Otro buen ejemplo de arte digital realizado con programas de ilustración 3D.

miércoles, 15 de octubre de 2025

Difusión, diseminación y divulgación

En el campo de la comunicación, estos tres términos (difusión, diseminación y divulgación) suelen confundirse, pero tienen matices cruciales que los diferencian según su propósito, público objetivo y profundidad. Vemos cada una por separado, primero. 

1. Difusión (Diffusion)

Es el concepto más amplio y general. Se refiere al proceso de hacer llegar un mensaje o información a una audiencia masiva o a un público amplio, sin un objetivo específico más allá de dar a conocer.

  • Enfoque general: ligado a la cantidad y al alcance.
  • Público objetivo: público general, masivo y anónimo.
  • Objetivo: hacer que la información esté disponible y sea accesible para el mayor número de personas posible. No se busca necesariamente una comprensión profunda ni una acción concreta.
  • Ejemplos: un comunicado de prensa de una empresa que anuncia sus resultados trimestrales y lo distribuye a todos los medios. La noticia de un nuevo impuesto que se publica en el boletín oficial del estado.
  • Analogía: es como "esparcir semillas al viento". Tu objetivo es que lleguen a muchos lugares, pero no controlas dónde ni cómo caen.

2. Diseminación (Dissemination)

Este término es más estratégico y dirigido. Implica la distribución planificada y dirigida de información a un público o grupo específico, con un propósito claro. La clave aquí es la utilidad de la información para el receptor.

  • Enfoque básico: el público meta y la aplicación práctica.
  • Público objetivo: grupos específicos, comunidades profesionales, stakeholders (partes interesadas), investigadores.
  • Objetivo: poner información relevante y a menudo especializada en manos de quienes pueden usarla, aplicarla o tomar decisiones basadas en ella.
  • Ejemplos: un organismo de salud pública que envía un nuevo protocolo de tratamiento a todos los hospitales del país. Una universidad que comparte los resultados de una investigación con otras instituciones académicas a través de un repositorio especializado. Una empresa que distribuye un manual de procedimientos internos a sus empleados.
  • Analogía: es como "repartir folletos informativos en una conferencia de expertos". Sabes a quién se lo das y esperas que lo usen.

3. Divulgación (Outreach / Science Communication)

Es el proceso de traducir y adaptar conocimientos complejos o especializados (generalmente científicos, técnicos o académicos) para hacerlos comprensibles, atractivos y accesibles para el público general. El objetivo es educar, despertar interés y fomentar la cultura científica o intelectual.

  • Enfoque final: lograr la comprensión y la accesibilidad del conocimiento.
  • Público objetivo: público general, no especializado.
  • Objetivo: traer el conocimiento de su un espacio especializado a uno más amplio para que cualquier persona, sin formación previa, pueda entenderlo y apreciarlo. Se prioriza el lenguaje claro, las analogías y el storytelling.
  • Ejemplos: u documental de la BBC sobre agujeros negros presentado por Neil deGrasse Tyson. Un artículo en una revista de ciencia para todos los públicos como National Geographic o Muy Interesante. Un museo de ciencia que realiza talleres para niños. Un youtuber como "Veritasium" o "QuantumFracture" explicando conceptos de física.
  • Analogía: es como un "traductor" que convierte un lenguaje técnico y complejo en una historia fascinante que todos pueden disfrutar y entender.

A menudo, estos procesos son complementarios. Por ejemplo, cuando un grupo de investigadores realiza un descubrimiento, primero, lo disemina en una revista científica especializada para que sus pares lo conozcan y lo usen; luego, la universidad lo difunde mediante un comunicado de prensa a los medios de comunicación masiva y finalmente, un periodista científico o un divulgador lo divulga, creando un artículo o un video fácil de entender para el público general.

Estas definiciones pueden ampliarse o combinarse, además de que desde el punto de vista de las teorías de la comunicación pueden sumarse o inclusive cuestionarse, pero de cierta forma ayudan a comprender los complejos sistemas y procesos que implica la comunicación humana y social. 

martes, 14 de octubre de 2025

Dicho por Benito Pérez Galdós

Esta afirmación tiene un siglo de haber sido formulada por el escritor y dramaturgo español Benito Pérez Galdós (1843-1940):

"Hay en nuestras sociedades enemigos muy espantosos, a saber: la especulación, el agio, la metalización del hombre culto, el negocio; pero sobre éstos descuella un monstruo que a la callada destroza más que ninguno: es la codicia del aldeano".

lunes, 13 de octubre de 2025

Realidad, percepción y realidad extendida

Hoy veremos una relación que conecta dos mundos aparentemente distantes: la tecnología inmersiva de la Realidad Extendida y la psicología de la percepción política, sobre la base de la idea de Realidad y Percepción que postuló el político estadounidense Lee Atwater. Es importante aclarar primero que Atwater no habló sobre la Realidad Extendida (XR), la Realidad Virtual o tecnologías similares, ya que estas surgieron y se popularizaron después de su muerte (falleció en 1991). Sin embargo, lo que Atwater entendió de manera magistral fue la naturaleza de la realidad percibida en el ámbito político y social, un concepto que es profundamente relevante para entender el potencial y los riesgos de tecnologías como la XR.

Como vimos en la publicación anterior, la filosofía central de Atwater puede resumirse en esta frase, que es la esencia de su legado: "La percepción es la realidad". Como lo señalamos, esta idea no es solo un lema, sino el principio que guía sus métodos. Vamos a desglosar lo que esto significa y su potente relación con los conceptos de realidad que estamos discutiendo. Para él, lo que la gente cree que es verdad es mucho más importante que lo que objetivamente es verdad. Su trabajo consistía en moldear, influir y, a veces, crear directamente esas percepciones para ganar elecciones.

Sus tácticas se basaban en varios pilares que encuentran un paralelismo sorprendente con la XR. Uno es el Control del Marco (Framing): Atwater era un maestro en "enmarcar" a sus oponentes. No se trataba solo de criticar sus políticas, sino de asociarlos con ideas, sentimientos o imágenes negativas en la mente de los votantes. El paralelismo con la XR es que la RV y la RA son tecnologías de "enmarcado" por excelencia. Literalmente, ponen un "marco" (las gafas o la pantalla) a través del cual el usuario experimenta una realidad alterada. El diseñador de la experiencia XR tiene un control total sobre lo que se incluye, excluye y cómo se presenta.

Otro elemento es la apelación a las emociones sobre la razón. Él entendía que las decisiones políticas se toman principalmente por emociones (miedo, esperanza, resentimiento, lealtad tribal) y luego se justifican con la razón. Sus campañas usaban mensajes cargados emocionalmente para activar a la base y persuadir a los indecisos. El paralelismo con la XR viene que la XR es inherentemente emocional. La inmersión total de la RV puede generar miedo, asombro o empatía de una manera que un video o un texto nunca podrían. Una experiencia de RA puede generar una conexión emocional con una marca o un producto al integrarlo de forma mágica en tu entorno.

Atwater propugnó la creación de narrativas simplificadas, transformando problemas complejos en historias simples y fáciles de digerir, con buenos y malos claramente definidos. Acá el paralelismo con la XR se establece porque una experiencia de XR es, ante todo, una narrativa. El usuario no es un espectador pasivo, sino un participante dentro de una historia. Quien controla la experiencia XR controla la narrativa y, por tanto, la percepción del usuario sobre lo que está sucediendo.

También propuso el "Corte de Sonido" (Sound Bite) y los Símbolos, pues utilizaba fragmentos de audio e imágenes simbólicas potentes que, al repetirse constantemente en los medios, se incrustaban en la psique colectiva y definían la realidad de la campaña. Aquí el paralelismo con la XR puede ser que en la XR, el equivalente sería un "experiencia memorable" o un "símbolo interactivo". En lugar de solo escuchar un eslogan, el usuario vive una situación diseñada para transmitir un mensaje. La memoria de esa experiencia inmersiva es mucho más poderosa y duradera que la de un simple anuncio.

Lo que Lee Atwater explotaba con discursos, anuncios y estrategias mediáticas, la Realidad Extendida lo puede llevar a un nivel notablemente superior. Atwater manipulaba la percepción de la realidad a través de medios en 2D (televisión, radio). La XR tiene el potencial de manipular la percepción de la realidad creando o alterando directamente la experiencia sensorial en 3D. La frase "La percepción es la realidad" adquiere una nueva y poderosa dimensión en el contexto de la XR. Si la tecnología puede generar percepciones tan vívidas y convincentes que el cerebro las acepta como reales (el "efecto de presencia" en RV), entonces quien controle estas tecnologías tendrá una capacidad sin precedentes para definir lo que es "real" para las personas.

domingo, 12 de octubre de 2025

La percepción es realidad, según Lee Atwater

Lee Atwater (1951-1991), estratega político estadounidense, conocido por sus tácticas agresivas en campañas electorales, acuñó una frase que se volvió emblemática en el mundo político: “La percepción es realidad”. Esta frase se utiliza frecuentemente en la política y el marketing para expresar la idea de que, para el público, lo que importa o lo que se convierte en un "hecho" de facto no son necesariamente los datos objetivos o la verdad real, sino cómo la gente percibe una situación, una persona o un evento. Esta propuesta no es solo un eslogan, sino el principio rector de una metodología.

¿Qué significa esta idea? Que la percepción puede ser usada como herramienta política. Atwater sostenía que no importa tanto cómo son realmente las cosas, sino cómo las percibe el público. En otras palabras, si logras que las personas crean algo, esa creencia se convierte en su realidad, independientemente de los hechos objetivos. Ello deriva en una manipulación estratégica, pues esta visión fue clave en las campañas políticas que asesoró, donde moldeaba narrativas para influir en la opinión pública, incluso si eso implicaba distorsionar o exagerar ciertos aspectos. 

Atwater también trabajó la influencia emocional y cognitiva. Según esta lógica, los votantes no reaccionan necesariamente a la verdad, sino a lo que sienten o creen que es verdad. Por eso, controlar la percepción es más poderoso que simplemente presentar hechos. Esencialmente sugería que la percepción pública (lo que la gente cree que es verdad) tiene un impacto mucho mayor en el éxito político (o de negocios) que la realidad objetiva. En otras palabras, si puedes hacer que la gente crea algo, eso se convierte en su realidad.

Durante las campañas de Ronald Reagan y George H. W. Bush, en EE.UU. durante la década de 1980, Atwater diseñó ataques que apelaban a prejuicios o temores, logrando que ciertos temas se percibieran como amenazas, aunque no lo fueran en términos objetivos. Lo más interesante es que su idea de que la percepción es la realidad aún hoy es válida, más cuando ahora tenemos Realidad Virtual, Realidad Aumentada, Realidad Mixta y Realidad Expandida. En la próxima publicación veremos cómo se concreta esta relación perceptiva. 

sábado, 11 de octubre de 2025

Newton, la luz blanca y el color

Sir Isaac Newton (1643-1727) pasó tiempo observando cómo la luz solar podía descomponerse al pasar a través de prismas, produciendo un arco iris de colores. A partir de esto, concluyó que la luz blanca no es simplemente una entidad única, sino que está compuesta por varios colores (rojo, naranja, amarillo, verde, azul, añil y violeta) que se pueden separar. Este trabajo, comenzado en 1666, fue fundamental para el desarrollo de la teoría del color y la comprensión de la óptica. Además, sus descubrimientos fueron documentados en su obra "Opticks", publicada por primera vez en 1704. Allí él sobre los colores escribe:

"Hay dos clases de colores, los simples y originales, y los compuestos por éstos. Los colores originales son: rojo, amarillo, verde, azul y una variedad infinita de gradaciones intermedias. Los mismos colores in specie con estos originales pueden producirse también por composición: con una mezcla de amarillo y azul se hace el verde, con rojo y amarillo el anaranjado, y con anaranjado y verde amarillento, se hace el amarillo. Pero la composición más sorprendente y maravillosa es la del blanco. No hay ningún tipo de rayo que pueda hacer esto por sí solo. Es siempre un compuesto, y para su composición se requieren todos los colores originales anteriormente mencionados, mezclados en la proporción adecuada. 

Muchas veces he visto con admiración cómo todos los colores del prisma se hacen convergir, y por tanto, volverse a mezclar tal como estaban en la luz antes de que ésta incidiera sobre el prisma, y cómo reproducían la luz completa y perfectamente blanca, sin ninguna diferencia sensible con la luz directa del Sol..."

Estos descubrimientos y observaciones de Newton, que después fueron revisados y acomodados por unos estudios técnicos más precisos, son los que asentaron lo que después se conoció como la teoría del color, en este caso hablando de los colores luz y el espectro, cuya formulación es diferente a la práctica de los colores pigmento. Lo más notable es que a partir de estos experimentos, Newton propuso una descripción corpuscular de la luz que en su fundamento aún sigue vigente, adaptada a los descubrimientos que durante los siguientes siglos se fueron llevando a cabo en el campo de la física y la química.