Definición de información

1. Información se refiere a los objetos transmitidos y procesados ​​a través de sistemas de audio, mensajes y comunicación, y en general se refiere a todos los contenidos difundidos en la sociedad humana. Las personas pueden comprender y transformar el mundo obteniendo e identificando diferente información de la naturaleza y la sociedad para distinguir diferentes cosas. La información es una forma común de comunicación en todos los sistemas de comunicación y control.

2. La palabra "información" significa "información" en inglés, francés, alemán y español, "información" en japonés, "información" en la provincia china de Taiwán e "información" en la antigua China. . "noticias". Como término científico, apareció por primera vez en el artículo "Transmisión de información" escrito por Hatle en 1928. La expresión representativa es la siguiente:

Shannon, el fundador de la información, creía que "la información se utiliza para eliminar la incertidumbre aleatoria", lo que se considera una definición clásica y la gente la cita.

Norbert Wiener, el fundador de la cibernética, creía que "la información es el contenido y el nombre que se intercambia con el mundo exterior en el proceso de adaptación de las personas al mundo exterior y de hacer que esta adaptación reaccione en el mundo exterior". También fue citado por la definición clásica.

Los expertos en gestión económica creen que “la información son datos eficaces para la toma de decisiones”.

Datos extendidos:

La información tiene las siguientes características:

1. Cuanto mayor es la probabilidad P(x) del mensaje Cuanto menor es la probabilidad, mayor es la probabilidad. cantidad de información. Se puede ver que la cantidad de información (usamos I para representarla) es inversamente proporcional a la probabilidad de que ocurra el mensaje.

2. Cuando la probabilidad es 1, todos saben todo lo que pasó, por lo que la cantidad de información es 0.

3. Cuando un mensaje consta de varios mensajes pequeños independientes, la información contenida en este mensaje debe ser igual a la suma de la información contenida en cada mensaje pequeño.

De acuerdo con estas características, si se representa mediante una función matemática logarítmica, puede expresar la relación entre la cantidad de información y la probabilidad de ocurrencia del mensaje: I=-loga(P(x)). ¿De esta forma no se puede cuantificar la información? Dado que la información se puede cuantificar, entonces debemos darle una unidad, ¿verdad? El peso de una persona se mide en kilogramos y la altura de una persona se mide en metros. Entonces, ¿en qué unidad se debe medir la cantidad de información? Normalmente, la cantidad de información se mide en bits, lo cual es más conveniente porque la cantidad de información en una forma de onda binaria es exactamente igual a 1 bit.

Materiales de referencia:

Enciclopedia-Información de Baidu