Le théorème de Shannon-Hartley dit que la limite du taux d’information fiable (taux de données excluant les codes correcteurs d’erreurs) d’un canal dépend de la bande passante et du rapport signal/bruit selon:
I < B log 2 ( 1 + S N ) {\displaystyle I<B\log _{2}\left(1+{\frac {S}{N}}\right)}.
où
I est le taux d’information en bits par seconde à l’exclusion des codes correcteurs d’erreurs ; B est la largeur de bande du canal en hertz ; S est la puissance totale du signal (équivalente à la puissance de la porteuse C) ; et N est la puissance totale du bruit dans la largeur de bande.
Cette équation peut être utilisée pour établir une borne sur Eb/N0 pour tout système réalisant une communication fiable, en considérant un débit binaire brut R égal au débit binaire net I et donc une énergie moyenne par bit de Eb = S/R, avec une densité spectrale de bruit de N0 = N/B. Pour ce calcul, il est conventionnel de définir un débit normalisé Rl = R/2B, un paramètre d’utilisation de la largeur de bande en bits par seconde par demi-hertz, ou bits par dimension (un signal de largeur de bande B peut être codé avec 2B dimensions, selon le théorème d’échantillonnage de Nyquist-Shannon). En effectuant les substitutions appropriées, la limite de Shannon est :
R B = 2 R l < log 2 ( 1 + 2 R l E b N 0 ) {\displaystyle {R \over B}=2R_{l}<\log _{2}\left(1+2R_{l}{\frac {E_{\text{b}}{N_{0}}\right)}.
Qui peut être résolu pour obtenir la limite de Shannon sur Eb/N0 :
E b N 0 > 2 2 R l – 1 2 R l {\displaystyle {\frac {E_{\text{b}}}{N_{0}}>{\frac {2^{2R_{l}}-1}{2R_{l}}}}}
Lorsque le débit est faible par rapport à la bande passante, de sorte que Rl est proche de zéro, la limite, parfois appelée limite ultime de Shannon, est :
E b N 0 >ln ( 2 ) {\displaystyle {\frac {E_{\text{b}}{N_{0}}>\ln(2)}