Table des matières:
Définition - Que signifie la loi de Shannon?
La loi de Shannon est une théorie mathématique pour coder l'information en lui appliquant une valeur (0 ou 1). Cette formulation est considérée comme le fondement des communications numériques. La loi de Shannon a été conçue par le mathématicien Claude Shannon, qui a démontré que les mathématiques pouvaient être utilisées pour calculer la plus grande quantité théorique d'informations transmises par un système de communication basé sur les lois physiques de la thermodynamique. La loi de Shannon stipule que la vitesse maximale sans erreur des données, en bits par seconde (bps), est fonction du rapport signal / bruit et de la bande passante.
Techopedia explique la loi de Shannon
La loi de Shannon est indiquée comme indiqué ci-dessous: C = B log2 <(1 + S / N) où: C est la vitesse de données sans erreur la plus élevée possible en bps qui peut être gérée par un canal de communication. B est la bande passante du canal en hertz. S est la puissance moyenne du signal reçue sur la bande passante calculée en watts (ou volts carrés). N est la puissance d'interférence moyenne ou le bruit sur la bande passante calculée en watts (ou volts carrés) S / N est le rapport signal / bruit (SNR) du signal de communication sur l'interférence de bruit gaussienne représentée comme le rapport de puissance linéaire. La fonction log2 signifie le logarithme en base 2. Tous les logarithmes sont des exposants. En supposant que x et y sont deux nombres, le logarithme en base 2 de x est y, à condition que 2y = x. L'explication de Shannon sur l'information pour les réseaux de communication aide à identifier les relations importantes entre plusieurs éléments du réseau. Les équations de Shannon aident les ingénieurs à déterminer la quantité d'informations qui pourraient être acheminées sur les canaux associés à un système idéal. Shannon est toujours la base pour les ingénieurs et les scientifiques de la communication dans leur quête sans fin de systèmes de communication plus rapides, plus robustes et plus économes en énergie. Il a montré les principes de compression des données mathématiquement et a également montré comment les taux d'erreur contrôlés peuvent être utilisés pour assurer l'intégrité lorsque l'information est transportée sur des canaux bruyants. Des systèmes de communication pratiques pouvant être exploités près de la limite de vitesse théorique décrite par la loi de Shannon n'ont pas encore été conçus. Certains systèmes qui utilisent un codage et un décodage avancés peuvent atteindre 50% de la limite spécifiée par le Shannon pour un canal avec un rapport signal / bruit et une bande passante fixes.