Informazioni Teoria

concetti di base della teoria introdotta negli anni Quaranta del Novecento, Shannon.Informazioni Teoria - è lo studio dei processi di trasporto, stoccaggio e recupero dei dati nei sistemi naturali, tecnici e sociali.Molti campi scientifici applicati come l'informatica, la linguistica, la crittografia, teoria del controllo, l'elaborazione delle immagini, la genetica, psicologia, economia, organizzazione di metodi di produzione vengono utilizzate questa scienza.

In condizioni moderne teoria dell'informazione è molto strettamente legata alla teoria dei codici, discute i problemi più comuni della corrispondenza tra il segnale e il messaggio e la teoria di elaborazione del segnale, che studia la quantizzazione e ripristino segnali, nonché analisi spettrale e la correlazione stessa.

Teoria esamina il concetto di base di "informazioni" per la maggior parte quantitativamente, senza tener conto del suo valore, e, a volte senso.Con questo approccio, la pagina di testo conterrà approssimativamente la stessa quantità di dati viene determinata solo dal numero di segni e simboli, e non dipende dal fatto che, a rigore, non è stampato, anche se assolutamente set insensato e caotico di alcuni simboli.

Questo approccio è giustificato, ma solo per la simulazione di sistemi di comunicazione, in quanto hanno per trasmettere correttamente informazioni attraverso canali di comunicazione che possono essere rappresentati da qualsiasi insieme di caratteri e simboli.Poi, quando è necessario tener conto del valore e significato dei dati, un approccio quantitativo è inaccettabile.Tali circostanze impongono restrizioni significative sulle aree di possibile applicazione di questa teoria.

Fondamenti di teoria dell'informazione comporta esame di varie questioni, comprese quelle direttamente legate alla trasmissione e ricezione dei dati.Lo schema di base di comunicazione, che si vede negli insegnamenti, come segue.Teoria e di codificazione ritiene che questi sono la fonte di messaggi, che è una parola o un insieme di parole, certe lettere dell'alfabeto scritte.La fonte del messaggio può essere testo in tutte le lingue naturali o artificiali, voce umana, database e alcuni modelli matematici, creando una sequenza di lettere.Il trasmettitore converte il messaggio in un segnale corrispondente alla natura fisica del canale di comunicazione - un mezzo per la trasmissione del segnale.Durante il passaggio di tale è soggetta a interferenze che introducono distorsioni nel valore dei parametri di informazione.Il ricevitore recupera il messaggio originale dal segnale distorto ricevuto.Messaggio in una forma ridotta arriva al destinatario - qualche persona o dispositivi tecnici.

sorgente posta un carattere statistico, ossia l'aspetto di ogni messaggio viene determinato da una certa probabilità.Teoria Shannon ritiene che se la probabilità che il messaggio è l'unità, cioè il suo aspetto significativo, e non vi è incertezza, ritengono che non porta alcuna informazione.

Uno dei problemi più importanti della teoria dell'informazione considera il coordinamento del canale di comunicazione e le proprietà della sorgente di messaggi informativi.Throughput è definito in unità di 1 bit per secondo.

Un problema con i sistemi di comunicazione sono interferenze al percorso del segnale desiderata.Shannon, purtroppo, non ci dà metodi specifici per trattare con quelli.Il metodo più semplice per eliminare, che si ripete molte volte messaggi non sono molto efficaci perché richiede tempo per trasferire informazioni.Maggiore efficienza permette l'utilizzo di codici che consentono di rilevare e correggere le informazioni errori di trasmissione.