conceptos básicos de la teoría introducida en los años cuarenta del siglo XX, Shannon.Teoría de la información - es el estudio de los procesos de transmisión, almacenamiento y recuperación de datos en los sistemas naturales, técnicas y sociales.Muchos campos científicos aplicados, tales como la informática, la lingüística, la criptografía, teoría de control, procesamiento de imágenes, la genética, la psicología, la economía, la organización de los métodos de producción se utilizan esta ciencia.
En las condiciones modernas de la teoría de la información es muy estrechamente vinculada a la teoría de codificación, se analizan los problemas más comunes de la correspondencia entre la señal y el mensaje y la teoría de procesamiento de señales, que estudia la cuantificación y restaurar las señales, así como el análisis espectral y correlación de los mismos.
examina el concepto básico de la "información" en su mayor parte cuantitativamente, sin tener en cuenta su valor, ya veces los sentidos.Con este enfoque, la página de texto contendrá aproximadamente la misma cantidad de datos se determina sólo por el número de signos y símbolos, y no depende del hecho de que, estrictamente hablando, no se imprime, incluso si es absolutamente conjunto sin sentido y caótica de algunos símbolos.
Este enfoque se justifica, pero sólo para la simulación de sistemas de comunicación, ya que tienen que transmitir correctamente la información a través de los canales de comunicación que pueden ser representados por cualquier conjunto de caracteres y símbolos.Entonces, cuando es necesario tener en cuenta el valor y el significado de los datos, un enfoque cuantitativo es inaceptable.Tales circunstancias imponen restricciones significativas en las áreas de posible aplicación de esta teoría.
Fundamentos de la teoría de la información implica la consideración de diversos temas, entre ellos los directamente relacionados con la transmisión y recepción de datos.El esquema básico de la comunicación, que se ve en las enseñanzas, de la siguiente manera.Teoría de la Información y Codificación cree que estos son la fuente de los mensajes, que es una palabra o conjunto de palabras, ciertas letras del alfabeto escrito.La fuente del mensaje puede ser texto en cualquier idioma naturales o artificiales, el habla humana, base de datos y algunos modelos matemáticos, la creación de una secuencia de letras.El transmisor convierte el mensaje en una señal correspondiente a la naturaleza física del canal de comunicación - un medio para la transmisión de la señal.Durante el paso de tal, está sujeto a la interferencia, que introducen distorsiones en el valor de los parámetros de información.El receptor se recupera el mensaje original de la señal distorsionada recibida.Mensaje en una forma reducida viene al destinatario - alguna persona o dispositivos técnicos.
Fuente publica una naturaleza estadística, es decir, el aspecto de cada mensaje está determinada por una cierta probabilidad.Teoría de la información de Shannon cree que si la probabilidad de que el mensaje es la unidad, es decir, su aspecto de manera significativa, y no hay incertidumbre, consideran que no lleva ninguna información.
Uno de los problemas importantes de la teoría de la información considera la coordinación del canal de comunicación y las propiedades de la fuente de los mensajes de información.El rendimiento se define en la unidad de 1 bit por segundo.
Un problema con los sistemas de comunicación son la interferencia a la trayectoria de la señal deseada.Shannon, por desgracia, no nos da métodos específicos para tratar con aquellos.El método más fácil de eliminar, lo que se repite muchas veces los mensajes no son muy eficaces porque requiere mucho tiempo para transferir información.Mucho mayor eficiencia permite el uso de códigos que le permiten detectar y corregir la información errores de transmisión.