Les concepts de base de la théorie introduite dans les années quarante du vingtième siècle, Shannon.Théorie de l'information - est l'étude des processus de transmission, le stockage et la récupération des données dans les systèmes naturels, techniques et sociales.De nombreux domaines scientifiques appliquées telles que l'informatique, la linguistique, la cryptographie, théorie du contrôle, traitement de l'image, la génétique, la psychologie, l'économie, l'organisation des méthodes de production sont utilisés cette science.
Dans les conditions modernes de la théorie de l'information est très étroitement liée à la théorie du codage, traite les problèmes les plus communs de la correspondance entre le signal et le message et la théorie de traitement du signal, qui étudie la quantification et la restauration des signaux, ainsi que l'analyse spectrale et la corrélation de celui-ci.
examine le concept de base de «renseignements» pour la plupart, quantitativement, sans tenir compte de sa valeur, et parfois de sens.Avec cette approche, la page de texte contient approximativement la même quantité de données est déterminée uniquement par le nombre de signes et de symboles, et ne dépend pas du fait que, à proprement parler, il est imprimé, même si elle est absolument ensemble insensée et chaotique de certains symboles.
Cette approche est justifiée, mais seulement pour la simulation de systèmes de communication, car ils ont de transmettre correctement les informations via des canaux de communication qui peuvent être représentés par un ensemble de caractères et de symboles.Puis, quand il est nécessaire de prendre en compte la valeur et la signification des données, une approche quantitative est inacceptable.Ces circonstances imposent des restrictions importantes sur les domaines d'application possible de cette théorie.
Principes de la théorie de l'information porte sur l'examen de diverses questions, y compris ceux qui sont directement liés à la transmission et la réception des données.Le régime de base de la communication, qui est vu dans les enseignements, comme suit.Théorie de l'information et de codification estime que ceux-ci sont la source des messages, qui est un mot ou groupe de mots, certaines lettres de l'alphabet écrit.La source du message peut être du texte dans toutes les langues naturelles ou artificielles, de la parole humaine, et la base de données des modèles mathématiques, la création d'une séquence de lettres.L'émetteur convertit le message en un signal correspondant à la nature physique de la voie de communication - un moyen pour la transmission de signaux.Pendant le passage de tel, il est soumis à des interférences, qui introduisent des distorsions dans la valeur des paramètres d'information.Le récepteur récupère le message d'origine à partir du signal reçu déformée.Message dans une forme réduite vient au destinataire - une personne ou des dispositifs techniques.
Source affiche un caractère statistique, à savoir l'apparition de chaque message est déterminé par une certaine probabilité.Théorie de l'information de Shannon croit que si la probabilité du message est l'unité, qui est, de façon significative son apparition, et il n'y a aucune incertitude, estiment qu'il ne comporte aucune information.
L'un des problèmes importants de la théorie de l'information estime la coordination de la voie de communication et les propriétés de la source de messages d'information.Le débit est défini dans l'unité de 1 bit par seconde.
Un problème avec les systèmes de communication sont à l'interférence du trajet de signal souhaité.Shannon, malheureusement, ne nous donne pas des méthodes spécifiques pour faire face à ceux-ci.La méthode la plus simple pour éliminer, ce qui est répété plusieurs fois les messages ne sont pas très efficaces parce que de temps pour transférer des informations.Une plus grande efficacité permet l'utilisation de codes qui vous permettent de détecter et de corriger des informations sur les erreurs de transmission.