Das Shannon-Hartley-Theorem besagt, dass der Grenzwert der zuverlässigen Informationsrate (Datenrate ohne Fehlerkorrekturcodes) eines Kanals von der Bandbreite und dem Signal-Rausch-Verhältnis abhängt gemäß:
I < B log 2 ( 1 + S N ) {\displaystyle I<B\log _{2}\left(1+{\frac {S}{N}}\right)}
wobei
I die Informationsrate in Bits pro Sekunde ohne Fehlerkorrekturcodes, B die Bandbreite des Kanals in Hertz, S die Gesamtsignalleistung (äquivalent zur Trägerleistung C) und N die Gesamtrauschleistung in der Bandbreite ist.
Diese Gleichung kann verwendet werden, um eine Grenze für Eb/N0 für jedes System festzulegen, das eine zuverlässige Kommunikation erreicht, indem eine Bruttobitrate R gleich der Nettobitrate I und somit eine durchschnittliche Energie pro Bit von Eb = S/R mit einer Rauschspektraldichte von N0 = N/B berücksichtigt wird. Für diese Berechnung ist es üblich, eine normierte Rate Rl = R/2B zu definieren, einen Parameter für die Bandbreitennutzung von Bits pro Sekunde pro halbes Hertz oder Bits pro Dimension (ein Signal der Bandbreite B kann nach dem Nyquist-Shannon-Abtasttheorem mit 2B Dimensionen kodiert werden). Durch geeignete Substitutionen ergibt sich der Shannon-Grenzwert:
R B = 2 R l < log 2 ( 1 + 2 R l E b N 0 ) {\displaystyle {R \über B}=2R_{l}<\log _{2}\left(1+2R_{l}{\frac {E_{\text{b}}{N_{0}}}\right)}
Dies kann gelöst werden, um die Shannon-Grenze für Eb/N0 zu erhalten:
E b N 0 > 2 2 R l – 1 2 R l {\displaystyle {\frac {E_{\text{b}}}{N_{0}}}>{\frac {2^{2R_{l}}-1}{2R_{l}}}}
Wenn die Datenrate im Vergleich zur Bandbreite klein ist, so dass Rl nahe Null ist, ist die Grenze, die manchmal als ultimative Shannon-Grenze bezeichnet wird, die folgende:
E b N 0 > ln ( 2 ) {\displaystyle {\frac {E_{\text{b}}{N_{0}}}>\ln(2)}