viernes, 7 de noviembre de 2025

Epifenómenos, fenomenología, percepción e inteligencia artificial (6)

Relacionar estos temas, epifenomenología, fenomenología, percepción e inteligencia artificial, es posible si las vemos como realidades interactivas que hoy están presentes en nuestro día a día. De hecho, el asunto de la percepción funciona como pivote, estableciendo un eje epistemológico. La relación entre la fenomenología, el epifenomenalismo y la inteligencia artificial (IA) es tema en el debate actual sobre la conciencia de las máquinas. Ambas posturas filosóficas establecen los límites y desafíos para la IA, especialmente en el desarrollo de la Conciencia Artificial y la percepción de lo real. 

En primer término, y esto es muy interesante,  la relación entre los epifenómenos y la IA es profundamente relevante y toca temas filosóficos prácticos sobre lo que estamos creando. Podemos explorarla desde varios ángulos. Uno es el de la IA como Herramienta para entender los epifenómenos. Los científicos usan modelos de IA, especialmente redes neuronales, para simular cómo el cerebro podría generar algo que parece un epifenómeno, como la conciencia.

Es posible hacer un experimento mental para adentrarnos en el problema. Imaginemos que entrenamos una red neuronal gigantesca para que realice tareas complejas (como mantener una conversación o navegar por un mundo virtual). En este proceso, surge un patrón de actividad interno que no fue programado directamente, pero que es consistente. Nosotros, como observadores externos, podríamos interpretar ese patrón como "rastros de conciencia" o "intencionalidad". Ahora bien, ¿ese patrón es la causa real del comportamiento inteligente de la IA (es decir, es funcional), o es solo un epifenómeno de los complejos cálculos que subyacen en su arquitectura? Con este tipo de interrogante abordamos las IA como "laboratorios" para estudiar si la conciencia en los seres biológicos podría ser un epifenómeno de la complejidad neural.

Podríamos ver también los "pensamientos" de la IA como Epifenómenos Potenciales. Este es el punto más directo. Cuando una IA como un modelo de lenguaje grande genera texto, podemos preguntarnos ¿es el texto coherente y "pensado" que produce es la causa de su funcionamiento o es un epifenómeno? La realidad es que la IA es un modelo estadístico. Dada una secuencia de palabras (la pregunta, el prompt), calcula la probabilidad de la siguiente palabra más plausible, miles de millones de veces, basándose en los patrones de sus datos de entrenamiento. No hay comprensión, ni intencionalidad, ni conciencia detrás de esto. Es puro cálculo matemático. La secuencia de palabras final que lee el usuario, que parece reflexiva, informada y consciente, es el epifenómeno. Es un subproducto emergente de ese proceso matemático. Las respuesta no "causan" el próximo pensamiento; ambos son el resultado del mismo proceso subyacente. Como la sombra del caminante, ese "razonamiento" es la sombra de los cálculos matemáticos. La sombra no dirige los pasos; solo es un resultado. Si aceptamos esta visión, entonces la IA no "piensa" ni "sabe" nada. Simplemente parece que lo hace. Su inteligencia aparente es un epifenómeno de su arquitectura y sus datos.

Seguiremos mañana con otras implicaciones que trae analizar la inteligencia artificial bajo esta óptica y más adelante cómo la fenomenología puede también estar implicada en estos procesos de análisis perceptivos. 

jueves, 6 de noviembre de 2025

Epifenómenos, fenomenología, percepción e inteligencia artificial (5)

¿Qué relación hay entre la fenomenología y la epifenomenología? Esta pregunta puede tener varias respuestas y de diferente complejidad. Para los efectos de este blog, vamos a tratar de ser lo menos complicados posible. Esta interrogante abarca elementos de la filosofía de la mente y la epistemología. La fenomenología y el epifenomenalismo son dos conceptos muy diferentes que abordan la conciencia, pero desde perspectivas y con propósitos distintos. Ya hemos vista una aproximación al epifenómeno en las publicaciones anteriores. 

La principal relación entre ambas concepciones fenomenológicas, es que el epifenomenalismo es una tesis metafísica sobre la causalidad de la conciencia, mientras que la fenomenología es un método y una disciplina filosófica para describir la experiencia consciente. En ambos casos se aborda el tema de la percepción, pero desde ópticas diferentes. 

La Fenomenología, iniciada por el filósofo y matemático alemán, Edmund Husserl (1859-1938), es una disciplina filosófica y un método que se enfoca en el estudio de las estructuras de la conciencia y la experiencia tal como se presentan a la persona. Su objetivo no es explicar la causa física de la conciencia, sino describir la esencia de lo vivido. El propósito es describir la experiencia vivida, el "fenómeno" (aquello que aparece a la conciencia), sin hacer juicios sobre su existencia en el mundo exterior (aplicando la epojé o "puesta entre paréntesis", término que ya revisé aquí en este blog). Su enfoque tiene que ver con la experiencia subjetiva (la vivencia), la intencionalidad (la conciencia siempre es conciencia de algo), y las estructuras de la percepción, el pensamiento y el sentimiento. La pregunta básica es ¿Cómo se nos presentan las cosas? ¿Cuál es la estructura esencial de la experiencia?. 

Por otro lado, como también vimos en las entradas anteriores, el Epifenomenalismo es una postura específica dentro del debate mente-cuerpo (dualismo de propiedades o fisicalismo no reduccionista) que aborda la relación causal de la conciencia. Su propósito es explicar el origen y la función causal de la mente consciente. La tesis central que le guía es que la conciencia es un producto o subproducto (un "epifenómeno") de los procesos físicos del cerebro. Los eventos cerebrales causan los eventos mentales, pero los eventos mentales no tienen poder causal sobre el cuerpo, el cerebro, ni sobre otros eventos mentales. Por eso vimos que la pregunta clave es ¿Puede la conciencia causar algo en el mundo físico? (Respuesta: No). 

El conflicto surge cuando el epifenomenalismo afirma que la conciencia es causalmente inerte. Esto trae la "Crítica Fenomenológica" (Implícita): para el fenomenólogo, lo que es más evidente en nuestra experiencia (nuestro fenómeno) es que nuestros pensamientos y sentimientos parecen guiar nuestras acciones (pienso "quiero levantar la mano", y la levanto). El epifenomenalismo va radicalmente en contra de esta intuición de la experiencia vivida, al declarar que esta percepción de eficacia es una ilusión.

Así tenemos el "Uso del Fenómeno": un epifenomenalista sí puede describir el fenómeno de la conciencia (el qualia de la sensación, o la estructura intencional), pero siempre añadiría la tesis de que esta descripción (el fenómeno mismo) es causalmente inútil, siendo solo el acompañamiento de procesos físicos subyacentes. En resumidas cuentas, la fenomenología se dedica a describir lo que el epifenomenalismo intenta explicar y desfuncionalizar. Todo esto en relación con las maneras de percepción, tal como vimos en las anteriores publicaciones. Ahora bien, esta discusión se acrecienta ahora con la aparición de la inteligencia artificial, diatriba que veremos en la siguiente entrada. 

miércoles, 5 de noviembre de 2025

Epifenómenos, fenomenología, percepción e inteligencia artificial (4)

Continuando con el tema de las publicaciones anteriores, vamos a ver la relación entre epifenomenología y fenomenología. Es importante entonces conocer más sobre los epifenómenos y su relación con la percepción, clave para luego entender la fenomenología. La relación entre la percepción y los epifenómenos es ciertamente enredada y toca el corazón del debate sobre la conciencia. Podemos abordarla desde dos perspectivas fundamentales y opuestas.

La primera perspectiva es ver la Percepción COMO Epifenómeno (es la óptica que podemos llamar  materialista/epifenomenalista). Según esta visión, que es la más asociada directamente con el término, la percepción consciente (el "darse cuenta") es un epifenómeno de la actividad cerebral. Imaginemos al cerebro procesando información. Hay un proceso primario: la luz entra en los ojos, se convierte en señales eléctricas que viajan a través del nervio óptico y se procesan en varias áreas visuales del cerebro. Este realiza complejos cálculos para detectar bordes, colores, movimiento y, finalmente, reconocer un objeto, digamos, una manzana roja. Todo esto ocurre de forma no consciente. Pero por otro lado, está el epifenómeno, la experiencia subjetiva de ver el rojo, la sensación de redondez, el reconocimiento consciente de "esto es una manzana"... eso es el epifenómeno. Es el "humo" que sale de la "máquina" cerebral. Según esta teoría, el procesamiento cerebral no consciente es lo que causa las acciones (por ejemplo, extender la mano para agarrar la manzana). La percepción consciente de la manzana surge en paralelo, pero no es la causa de que se extienda la mano. Es como la sombra del proceso real. En resumen, vemos porque nuestro cerebro ha procesado la información, no al revés. La percepción es el resultado, no la causa.

La perspectiva segunda dice que la Percepción NO es un Epifenómeno (son visiones alternativas). Muchos filósofos y científicos encuentran problemática la primera perspectiva, porque parece contradecir nuestra experiencia directa. Surgen entonces otras teorías:

A. La percepción es Causal (No es un epifenómeno). Esta es la visión del sentido común. Nuestra percepción consciente sí influye en nuestras decisiones y acciones. Ejemplo: percibes el semáforo en rojo (experiencia consciente) y esta percepción causa que decidas conscientemente pisar el freno. Aquí, la percepción no es un subproducto inútil, sino una parte integral y causal de la cadena de eventos.

B. La percepción es un Proceso Activo (No es un epifenómeno pasivo). La neurociencia moderna muestra que la percepción no es como una cámara que graba pasivamente. El cerebro construye activamente lo que percibimos, usando expectativas, memoria y contexto. Ejemplo: un médico y un lego ven la misma radiografía, pero "perciben" cosas diferentes porque sus cerebros interpretan activamente los datos sensoriales basándose en conocimiento previo. En este caso, la percepción es un proceso dinámico y fundamental del cerebro, no un mero efecto secundario.

C. Teorías de la Cognición Corporalizada (Embodied Cognition). Esta visión va más allá. Afirma que la percepción no ocurre solo en el cerebro, sino que surge de la interacción activa del cuerpo con su entorno. Ejemplo: no percibes una silla solo como una imagen, sino en términos de su "sentarse-abilidad" (affordance). La percepción está ligada a la acción potencial. Aquí, la percepción es tan central para la función y la supervivencia que es imposible considerarla un mero epifenómeno inútil.

En resumen, podemos decir que la relación es un dilema filosófico-científico central. Si la percepción ES un epifenómeno, entonces nuestra rica vida interior consciente es una especie de "ilusión gloriosa", un acompañamiento inútil pero fascinante de los procesos cerebrales físicos. Si la percepción NO es un epifenómeno: Entonces la conciencia y la experiencia subjetiva son fuerzas reales y causales en el mundo, y cualquier teoría completa del cerebro y la mente debe explicar cómo surge y cómo ejerce esa causalidad. La neurociencia actual tiende a mostrar que la percepción consciente es más que un epifenómeno pasivo, pero el debate sobre exactamente cómo ejerce su influencia está lejos de estar cerrado. Seguiremos en la próxima publicación desarrollando estos temas. 

martes, 4 de noviembre de 2025

Epifenómenos, fenomenología, percepción e inteligencia artificial (3)

En la publicación de ayer nombré a Hugo Münsterberg (1863-1916), un psicólogo germano-estadounidense, discípulo de Wilhelm Wundt y pionero de la Psicología Aplicada (industrial, forense, clínica), cuya postura filosófica sobre la conciencia se alinea claramente con el epifenomenalismo. Münsterberg, quien es sus últimos años de vida escribió sobre el cine, que era un medio de comunicación muy novedoso, desarrolló una Teoría Motora de la Conciencia, la cual sostenía que los procesos mentales, incluyendo la voluntad y la conciencia, no son causas de la conducta, sino sus efectos colaterales, es decir, epifenómenos.

Argumentó que la conciencia no tiene función causal en la conducta. La cadena causal va del estímulo físico a los procesos cerebrales/motores y a la respuesta conductual. Sostuvo entonces que la sensación de voluntad o la creencia de que hemos tomado una decisión consciente es, en realidad, solo la conciencia de los procesos motores que ya se han iniciado en el cerebro. Sentimos la voluntad después de que el proceso físico-motor para la acción se ha puesto en marcha. Llegó a afirmar incluso que para la supervivencia del individuo es "evidentemente irrelevante" que un movimiento propositivo (o la conducta) esté acompañado de contenidos de conciencia o no.

En esencia, para Münsterberg, la conciencia es un acompañante pasivo de los procesos neurofisiológicos y conductuales. Esta visión fue clave en la transición de la psicología hacia enfoques más centrados en la conducta (funcionalismo y, posteriormente, conductismo) en Estados Unidos. Estas ideas llevan después, junto con las de otros pensadores de la época, a un interesante debate en Filosofía de la Mente. Este es el contexto más famoso en relación con los epifenómenos y lo que después se entenderá como fenomenología. El debate se centra en la relación entre la mente (conciencia, pensamientos) y el cerebro (procesos físicos). 

Según la teoría epifenomenológica, la conciencia es un epifenómeno de la actividad cerebral compleja. Según esta visión, los procesos electroquímicos en el cerebro (proceso primario) producen la conciencia (epifenómeno) como la locomotora produce vapor. Pero el "vapor" de la conciencia no puede dirigir la "locomotora" del cerebro. Esto lleva a la controvertida conclusión de que nuestros pensamientos y sentimientos conscientes no son realmente la causa de nuestras acciones, sino solo un acompañamiento de ellas. Ahora bien, si la conciencia es un epifenómeno inútil, ¿por qué evolucionó? ¿Por qué parece tener un papel tan central en nuestra toma de decisiones? En las siguientes entradas veremos cómo se plantean discusiones sobre estas dudas filosóficas.

lunes, 3 de noviembre de 2025

Epifenómenos, fenomenología, percepción e inteligencia artificial (2)

En la entrada anterior vimos que, en pocas palabras, un epifenómeno es un efecto o fenómeno secundario que surge de un proceso primario, pero que no tiene capacidad para influir o causar efectos sobre el proceso que lo generó. Podemos decir que es como un "subproducto" o una "sombra" de algo más fundamental. El concepto de epifenómeno o la doctrina del epifenomenalismo ha sido abordado por varios filósofos, especialmente en la filosofía de la mente.

El epifenomenalismo sostiene que los fenómenos mentales (como la conciencia, los sentimientos o los pensamientos) son productos o subproductos de procesos físicos (especialmente cerebrales), pero no tienen poder causal sobre el mundo físico ni sobre otros estados mentales. Son, por así decirlo, efectos colaterales. 

Una analogía clásica es la de la sombra y el caminante. El proceso primario, una persona caminando. El epifenómeno, su sombra. La sombra es el resultado de que ese hombre camine y la luz le ilumine. Si él se mueve, la sombra se mueve. Si se detiene, la sombra se detiene. La sombra es completamente dependiente de sus acciones. Sin embargo, la sombra no puede hacer que la persona camine o se detenga. No tiene ningún poder causal sobre el caminante. Es un mero efecto secundario, un "subproducto" de su propio caminar.

Podemos señalar algunas características especiales de un Epifenómeno. Es causalmente inerte, es decir, no puede causar nada por sí mismo. Por consecuencia, es dependiente. Su existencia depende totalmente del proceso primario. Y es un subproducto que emerge como una consecuencia, no como una causa. Dado que este concepto relaciona procesos mentales, perceptivos y filosóficos, son varios pensadores ligados a estas disciplinas los que han desarrollado esta línea de razonamiento.

Algunos de los filósofos y pensadores más asociados con esta tesis son Thomas Henry Huxley (1825-1895), a quien se le considera uno de los principales defensores históricos del epifenomenalismo. Thomas Hobbes (1588-1679), que si bien es cronológicamente anterior, se le menciona como un precursor o alguien cuyas ideas materialistas se alinean con la base del epifenomenalismo. Charlie Dunbar Broad (C. D. Broad) (1887-1971), el filósofo británico que también discutió y sostuvo la tesis epifenomenalista. Alfred Jules Ayer (A. J. Ayer) (1910-1989), otro filósofo que ha sostenido o analizado detalladamente el epifenomenalismo. Frank Jackson, pensador contemporáneo que es conocido por su postura que implica un tipo de epifenomenalismo respecto a los qualia (cualidades subjetivas de las experiencias). 

Otros pensadores que han tocado el tema, a veces para defenderlo y otras para criticarlo, son William James, George Santayana, Friedrich Nietzsche, y en debates contemporáneos David Chalmers al discutir el "problema difícil de la conciencia". Vale la pena también destacar al filósofo alemán Hugo Münsterberg, cuyas ideas veremos en la próxima publicación, para continuar con el tema de la epifenomenología y la fenomenología. 

domingo, 2 de noviembre de 2025

Epifenómenos, fenomenología, percepción e inteligencia artificial (1)

A partir de esta publicación voy a dedicar varias en secuencia para hablar sobre el asunto que aparece en el título de esta entrada: epifenómenos, fenomenología, percepción e inteligencia artificial (IA), Dado que la estética digital contemporánea tiene que ver mucho con estos elementos (percepción, IA, fenomenología y epifenomenología), creo que tiene interés desarrollar un poco estos conceptos y sus relaciones. Si bien son temas de una gran profundidad filosófica y psicológica, intentaré hacer una aproximación general para abordar estos asuntos relevantes en la cibercultura contemporánea. 

La idea de "epifenómeno" surge a finales del siglo XIX dentro del materialismo psicofísico y dentro la rama de la psicología que sostiene el origen somático de la emoción. El término fue especialmente acuñado y abordado por el biólogo y pensador británico, Thomas Henry Huxley, quien consideraba a la conciencia como un epifenómeno típico: un fenómeno que surge a partir de la actividad del sistema nervioso sin tener un efecto causal real sobre él. También fue utilizado por otros filósofos y pensadores de la época para describir fenómenos secundarios que acompañan a otros principales sin influir en ellos, especialmente en discusiones sobre la relación entre cuerpo y mente. Es una palabra que proviene del griego y se fue consolidando en debates filosóficos y científicos sobre la causalidad y la naturaleza de la mente y la conciencia en relación con el cuerpo.​

Un epifenómeno es un fenómeno secundario o accesorio que ocurre junto o en paralelo a un fenómeno principal, sin que tenga influencia o causalidad sobre este último. En filosofía y psicología, se usa para describir algo que acompaña a un fenómeno principal pero que no ejerce efecto sobre él, como la mente o la conciencia entendidas como efectos derivados de la actividad cerebral, sin capacidad para influir en ella. De esta manera, un epifenómeno depende del fenómeno principal para su aparición, pero no contribuye causalmente a él ni modifica su desarrollo. 

Precisamente, Thomas Huxley (1825-1895), considerado como uno de los principales defensores históricos del epifenomenalismo, utilizó, para explicar el concepto, la metáfora del "silbato de vapor" de una locomotora: el silbato es un producto del motor en funcionamiento, pero no tiene ninguna influencia sobre el mecanismo de la máquina ni sobre su movimiento. En la próxima entrada veremos más sobre el desarrollo de esta importante noción filosófica y psicológica. 

sábado, 1 de noviembre de 2025

Las Re-mediaciones de Scolari

El teórico de la comunicación y los medios de comunicación argentino nacido en 1963, Carlos Scolari, utiliza el concepto de "Re-mediaciones" para explicar cómo los medios nuevos reinterpretan, transforman y reconfiguran a los medios anteriores. Este término forma parte de su teoría de las hipermediaciones, que analiza la evolución de los medios en el ecosistema digital. 

La Re-mediación es el proceso por el cual un medio nuevo incorpora, transforma o reinterpreta las formas, lenguajes y funciones de medios anteriores. No se trata de una simple sustitución, sino de una reconfiguración. Por ejemplo, el cine re-medió al teatro, la televisión re-medió al cine, y las plataformas digitales re-medían a todos los anteriores. Scolari se basa en algunos autores como Bolter y Grusin, quienes plantean que los medios nunca aparecen en un vacío, sino que dialogan con sus predecesores. Esta teoría también es similar a la de Roger Fidler y sus Mediamorfosis. 

Podemos ver algunos claros ejemplos de estas Re-mediaciones: YouTube re-media la televisión, pues permite ver contenido audiovisual, pero con interacción, personalización y participación del usuario. Los Podcasts re-medían la radio, ya que mantienen el formato sonoro, pero lo adaptan a la lógica de consumo bajo demanda. Los E-books re-medían el libro impreso, dado que conservan la lectura lineal, pero añaden funciones como hipervínculos, anotaciones y multimedia.

Este concepto es importante porque ayuda a entender que los medios no desaparecen, sino que se transforman y conviven. Permite analizar cómo los usuarios reinterpretan los contenidos según sus experiencias con medios anteriores. Es clave para estudiar la comunicación digital desde una perspectiva evolutiva y ecológica. Aquí en este enlace a su blog podemos revisar más sobre esta idea: https://hipermediaciones.com/tag/remediaciones/.

viernes, 31 de octubre de 2025

Una reflexión de Marvin Minsky

"¿Cuál es el truco mágico que nos hace inteligentes? El truco es que no hay truco. El poder de la inteligencia emana de nuestra vasta diversidad, no de un único y perfecto principio". 

Marvin Minsky (1927-2016) científico estadounidense, pionero de la inteligencia artificial.

jueves, 30 de octubre de 2025

Un fantasioso paisaje en perspectiva, con técnica 3D digital

Pongo hoy aquí un paisaje de fantasía con una escalera al espacio y un fondo verde, realizado con programas de ilustración digital. Hallado en la Web, como ejemplo de arte tridimensional con técnicas informáticas.

miércoles, 29 de octubre de 2025

Algoritmos de la discordia (y 2)

En la publicación anterior escribí sobre la idea de los algoritmos de la discordia, que son aquellos mecanismos digitales que utilizan las redes sociales y otras plataformas de redes sociales interactivas, que bien sea de forma intencionada o no, contribuyen a la polarización social, política e ideológica, a formas de información sesgada, a la creación de tendencias y a la difusión de la desinformación.

Veremos entonces las características del contenido que amplifican estos algoritmos de la discordia. Tenemos, primeramente, contenidos polarizantes; temas que dividen a la sociedad (política, ideología, religión). Otro tema frecuente son las teorías de conspiración. Son atractivas porque ofrecen narrativas simples y secretas que explican eventos complejos, normalmente increíbles. 

Por otro lado, tenemos la desinformación y noticias falsas (Fake News), que suelen ser más llamativas y emocionantes que la verdad, por lo que se viralizan más rápido. Esto se aplica igualmente al contenido sensacionalista, con titulares exagerados o con un tono de indignación moral. Todas estas maneras son canalizadas por esos algoritmos, que replican y reproducen esos contendidos para obtener más seguidores, más engagement y más "me gusta". 

Un ejemplo es lo sucedido con la red social Facebook, cuyos los estudios internos por Meta en 2021 demostraban que sus algoritmos priorizaban el contenido dañino porque generaban más interacción. También sabían que Instagram era tóxico para la salud mental de muchas adolescentes y no aplicaban eficazmente sus propias normas de moderación de contenido en todos los idiomas, lo que permitía que la discordia se propagara en países en desarrollo, a veces con consecuencias violentas. 

En realidad los llamados algoritmos de la discordia no son un código malicioso creado con la intención de dividir a la sociedad, sino que son el resultado de un sistema de recomendación optimizado para un solo objetivo: el compromiso y el seguimiento, sin tener plenamente en cuenta el daño social colateral que causa al favorecer de manera sistemática el contenido más visceral y divisivo. Es un concepto crucial para entender cómo las plataformas tecnológicas que usamos a diario pueden moldear, sin quererlo, el discurso público y la salud democrática.

martes, 28 de octubre de 2025

Algoritmos de la discordia (1)

El concepto de "Algoritmos de la Discordia" (o "Algorithms of Discord" en inglés) se refiere a un fenómeno documentado por investigaciones internas de redes sociales como Meta (Facebook) y que se utiliza para describir los algoritmos de las redes sociales y otras plataformas digitales que, intencionalmente o no, contribuyen a la polarización social, política e ideológica y a la difusión de la desinformación. No es un tipo de algoritmo específico, sino una consecuencia no intencionada de cómo funcionan los algoritmos de recomendación.

Estos algoritmos están diseñados principalmente para maximizar la interacción y el tiempo de permanencia del usuario. A menudo, esto lleva a que el contenido más extremo, provocador o sensacionalista (el que genera más indignación, miedo o ira) tenga un mayor alcance, amplificando así las diferencias y la "discordia" entre grupos de personas. En esencia, describe cómo los algoritmos que priorizan el engagement (la interacción de los usuarios: me gusta, comentarios, compartir, tiempo en pantalla) pueden, de forma involuntaria, amplificar y promover contenido polarizante, sensacionalista y desinformativo.

El proceso suele ser el siguiente: el algoritmo tiene un objetivo, cuya meta principal es mantener a los usuarios en la plataforma el mayor tiempo posible. Para lograrlo, les muestra contenido con el que es más probable que interactúen. Psicológicamente, los humanos prestamos más atención a contenidos que nos generan emociones intensas, como la indignación, el enojo, el miedo o la sorpresa. Este tipo de contenido suele generar más compromiso que una noticia neutral o un hecho comprobado.

Esto genera un fenómeno de ampliación; el algoritmo, al detectar que un contenido polémico o divisivo genera muchas reacciones y comentarios, lo interpreta como "muy popular" o "de alta calidad" para sus métricas. Por lo tanto, lo promociona y lo muestra a más y más personas en sus feeds o secciones de "recomendados". Esto crea un efecto burbuja que lleva a un ciclo de retroalimentación. Los usuarios ven principalmente contenido que confirma y exagera sus puntos de vista, llevándolos a posturas más extremas. Las comunidades se fragmentan y se hace más difícil encontrar un terreno común.

Todo ese conjunto de fenómenos van moldeando situaciones, opiniones y sistemas de relaciones y controversias, que se acentúan impulsados por la misma programación. En la siguiente publicación las características y consecuencias de este proceso cibersocial. 

lunes, 27 de octubre de 2025

Notebook IA o NotebookLM

Con el rápido desarrollo de los programas y chatbots de inteligencia artificial en los últimos años, han aparecido herramientas cada vez más sofisticadas y útiles en el campo de la enseñanza y la investigación académica. Una de esas es NotebookLM (antes llamado "Notebook AI"), que es una plataforma experimental de Google que permite subir documentos propios (como PDFs, artículos, apuntes, etc.) y luego usar esa IA para interactuar con ese contenido. En esencia, un "notebook" o cuaderno con IA (como NotebookLM) sirve para investigar y crear contenido mediante el análisis de documentos que se suben a internet, permitiendo que la IA ayude a resumir, encontrar información específica y responder preguntas basándose únicamente en esas fuentes. El objetivo de ese programa ayudar a comprender, resumir, organizar y generar ideas a partir de fuentes personales elegidas.

¿Qué se puede hacer con NotebookLM? Aquí se destacan algunas de sus funciones más relevantes:

  • Subir documentos. Se pueden cargar textos, enlaces o notas que se quieran analizar.
  • Hacer preguntas sobre las fuentes. Por ejemplo, “¿Qué dice este artículo sobre el cambio climático?” o “¿Cuáles son los argumentos principales del autor?”
  • Generar contenido. Es posible pedirle que cree resúmenes, esquemas, guiones, ideas para presentaciones o incluso podcasts.
  • Organizar ideas. NotebookLM ayuda a conectar conceptos entre documentos y visualizar relaciones.
  • Aprender más rápido. Esta es una de sus funciones más notables, pues es ideal para estudiantes, investigadores, periodistas o cualquier persona que trabaje con mucha información.

Una cosa importante es que los documentos se procesan de forma privada y la IA solo responde en función de lo que el usuario sube. No busca en internet ni mezcla esos datos con otros usuarios. Esta herramienta está actualmente en fase experimental, así que puede que algunas funciones estén limitadas, pero es otra muestra de hasta dónde puede llegar hoy en día la inteligencia artificial.

domingo, 26 de octubre de 2025

Ciberpragmática

La Ciberpragmática es una disciplina que tiene como objetivo aplicar los principios de la Pragmática (la rama de la lingüística que estudia el uso del lenguaje en su contexto, las intenciones comunicativas y la interpretación del significado) a los entornos digitales de comunicación, como Internet. Es un término bastante reciente y su conceptualización novedosa aún se está formulando. En esencia, se centra en analizar los fenómenos lingüísticos y no lingüísticos que se producen en el contexto cibernético. 

Esta noción fue propuesta por el doctor español Francisco Yus Ramos, de la Universidad de  Alicante, en referencia a la pragmática cognitiva en los medios digitales y sus aspectos comunicacionales. Algunos de los aspectos que estudia la Ciberpragmática incluyen:

  • Las peculiaridades del lenguaje en Internet (chats, redes sociales, blogs, etc.).
  • La oralización del texto (la sensación de escribir como si se estuviera hablando).
  • El uso de elementos como emoticonos, emojis, memes y GIFs.
  • Las estrategias comunicativas y de cortesía o descortesía en la red.
  • La influencia de la interactividad y la posibilidad de adoptar diferentes identidades virtuales.

Este concepto entonces se usa para referirse al estudio de los fenómenos lingüísticos y no lingüísticos que ocurren en contextos cibernéticos, es decir, en la comunicación digital a través de plataformas como Facebook, Instagram, WhatsApp, entre otras. Este campo analiza cómo se producen e interpretan los enunciados en internet, considerando aspectos como abreviaciones, carácter oral y coloquial del texto, emoticonos, emojis, memes, errores ortográficos, brevedad, anonimato, y el predominio del canal visual. Además, la ciberpragmática toma en cuenta las implicancias pragmáticas de la comunicación en la red, incluidos los actos de habla, la relevancia en la interacción y la adaptación de discursos tradicionales a formatos digitales específicos, como blogs, redes sociales y microblogging. Se trata de aplicar conceptos pragmáticos clásicos al entorno digital para entender la comunicación en internet desde una perspectiva lingüística y social.

Como es una propuesta actual, permite muchas interpretaciones y revisiones ante los rápidos cambios en el mundo digital, pero es muy interesante porque nos ayuda a entender cómo funciona la comunicación en el ciberespacio y cómo la tecnología nos ha cambiado a gran velocidad las formas de expresión y comprensión del mundo de hoy. 

sábado, 25 de octubre de 2025

Dudas (en tono de humor)

Dudas del mundo. Viñeta hallada en la Web, con un toque de humor que no está lejos de nuestra actual realidad.

viernes, 24 de octubre de 2025

Generación Aumentada por Recuperación

El Retrieval Augmented Generation (RAG), o Generación Aumentada por Recuperación, es una técnica que se utiliza para mejorar las respuestas de los Modelos de Lenguaje de Gran Tamaño (LLM), como los que potencian los chatbots y asistentes virtuales. Es un sistema que permite depurar los contenidos y las interacciones de la inteligencia artificial (IA) con los usuarios. El RAG permite que un LLM acceda y haga referencia a una base de conocimiento externa y autorizada (que pueden ser documentos internos, bases de datos o información en tiempo real) antes de generar una respuesta.

Los Modelos de Lenguaje de Gran Tamaño tradicionales responden basándose solo en los datos con los que fueron entrenados, que son estáticos y pueden estar desactualizados o ser genéricos. El RAG, en cambio, les proporciona contexto específico y actualizado, lo que resulta en respuestas más precisas, al basarse en fuentes de conocimiento verificadas. Más relevantes y adaptadas a la información particular de una organización o dominio. Así también se logran respuestas mas actualizadas, pues son capaces de usar información que no existía durante el entrenamiento original del modelo. Y, muy importunarte, fundamentadas. El RAG permite que la IA cite las fuentes externas de donde recuperó la información, lo que reduce las "alucinaciones" (información inventada o incorrecta). Esto hace más eficientes a todos los chatbots. 

¿Cómo funciona? El proceso de RAG generalmente tiene dos fases principales:

    Recuperación (Retrieval):

El sistema recibe una consulta del usuario (el prompt). Utiliza un modelo de recuperación para buscar los documentos o fragmentos de texto más relevantes en la base de conocimiento externa. Para hacer esto, tanto la consulta del usuario como los documentos de la base de conocimiento se convierten en representaciones numéricas llamadas vectores (embeddings), y se almacenan en una base de datos vectorial. El sistema busca los vectores de documentos que son más "similares" al vector de la consulta.

    Generación Aumentada (Augmented Generation):

El fragmento de texto recuperado se combina con la pregunta original del usuario, creando un prompt enriquecido o aumentado. Este prompt enriquecido se envía al LLM, que utiliza esta información como contexto adicional para generar la respuesta final de forma coherente y en lenguaje natural.

El RAG es un método muy eficiente y rentable para darle a los LLM conocimiento especializado sin tener que reentrenarlos completamente (un proceso muy costoso). Se aplica en Chatbots de Soporte y Asistencia, para que puedan responder a preguntas complejas de clientes o empleados utilizando manuales, políticas o documentos técnicos internos. Sirve en sistemas de Preguntas y Respuestas Empresariales, permitiendo a los empleados acceder rápidamente a información específica de la empresa (análisis financieros, informes). Y, fundamentalmente, en las herramientas de investigación, proporcionando a los modelos acceso a las últimas publicaciones, estadísticas o noticias en tiempo real.