miércoles, 3 de octubre de 2018

Entropía y Neguentropía (1)

La entropía es una magnitud física para un sistema termodinámico en equilibrio, que mide el grado de organización de un sistema, que es también la razón de un incremento entre energía interna frente a un incremento de temperatura del sistema. La función de la entropía es clave para el segundo principio de la termodinámica y puede interpretarse como una medida de la distribución aleatoria en un sistema cerrado. Es un concepto que se ha extrapolado a otras disciplinas, y se entiende como la tendencia al desorden, siendo clave también en la cibernética. En informática se dice que entropía es la medida de la incertidumbre existente ante un conjunto de mensajes, del cual se va a recibir (y decodificar) uno solo.

El reconocido matemático, ingeniero eléctrico y criptógrafo estadounidense Claude Shannon (1916-2001), recordado como "el padre de la teoría de la información", aplicó esa idea de entropía al campo de la comunicación para explicar el parámetro que ​mide la incertidumbre de una fuente de información. La entropía se puede considerar entonces como la cantidad de información promedio que contienen los símbolos usados y cómo se ordenan. Los símbolos con menor uso o frecuencia  son los que aportan mayor información, en tanto los más usuales son menos densos; por ejemplo, si se considera como sistema de símbolos a las palabras en un texto, palabras frecuentes como «que», «el», «de» aportan poca información, mientras que palabras menos usuales como «aplicar», «humano», «libertad» aportan más información. Si de un texto dado se elimina un «que», seguramente no afectará a la comprensión y se sobreentenderá, no siendo así si se borra la palabra «libre» del mismo texto original. En todo caso, el volumen de datos e información, de no ser organizado adecuadamente, va a tender siempre al desorden. 

Siendo así, la entropía, concebida como una "medida del desorden", puede entenderse como la "peculiaridad de ciertas combinaciones", la cual hace que un sistema sea complejo. Pero a esa idea de entropía se ha contrapuesto la noción de Neguentropía, entendiendo que los sistemas pueden ser abiertos y cerrados, y que al aplicarse el concepto de desorden a los fenómenos sociales, humanos o de la vida, debe ser entendido bajo otra perspectiva, como veremos en la próxima publicación. 

3 comentarios:

  1. Me pareció muy interesante este artículo y si lo permites Alejandro me gustaría republicarlo en mi blog con su respectiva cita del autor y de la fuente original.
    Aunque no soy comunicador social, sigo tu blog con mucho interés por la calidad y riqueza del contenido que tienes a bien publicar por esta vía.

    Recibe un afectuoso abrazo recordado compañero y por favor hazle llegar un cordial saludo a tu honorable padre, mi querido Profesor y vecino de Montalbán Rubén Darío Terenzani, por quién guardo una gran admiración y afecto.
    Saludos agustinianos Alejandro.

    ResponderEliminar
    Respuestas
    1. Hola, Victor, seguro lo puedes publicar, es un gusto para mi. Le daré saludos a mi padre en tu nombre. Un abrazo agustiniano.

      Eliminar
  2. Muchas gracias Alejandro, recibe un afectuoso abrazo agustiniano y muchas bendiciones estimado amigo.
    Saludos.

    ResponderEliminar