Portada » Español » Funciones del Lenguaje y Teoría de la Información
El lenguaje es un código fuente porque puede producir un número infinito de mensajes. Cada lengua (español, inglés, francés, etc.) posee un inventario cerrado de fonemas. Por ejemplo, ciertas secuencias como «ngts» (en inglés) o «tscml» y «tzt» (en alemán) no existen en español. También es un código de transmisión, un sistema artificial que transforma mensajes ya estructurados mediante reglas implícitas. Un mismo contenido mental puede expresarse con diferentes secuencias. Por ejemplo: «no puede ser», «¿Qué dices?», o «no hablar».
Un mensaje con significado y uno sin sentido pueden tener la misma información. La información depende de la probabilidad de aparición del mensaje. La fuente selecciona un mensaje de un conjunto de mensajes o símbolos. Ejemplo: Un dado (6 mensajes) tiene la misma probabilidad de que aparezca cada cara (1/6). En una baraja de 40 cartas, la probabilidad de cada carta es (1/40), por lo que cualquier carta tiene más información que una cara del dado.
La información es medible mediante el cálculo de probabilidades. Un bit es la cantidad de información en un mensaje binario (cara/cruz, niño/niña, on/off, sí/no). El grado de información se relaciona con lo inesperado o la sorpresa. En sentido técnico, la información no se relaciona con la veracidad. Ejemplo: «El Papa condena el aborto» / «Ha aterrizado un ovni en Madrid».