Shannon-Hartley-sætningen siger, at grænsen for pålidelig informationshastighed (datahastighed eksklusive fejlkorrigerende koder) for en kanal afhænger af båndbredde og signal/støjforhold i henhold til:
I < B log 2 ( 1 + S N ) {\displaystyle I<B\log _{2}\left(1+{{\frac {S}{N}}\right)}
hvor
I er informationshastigheden i bits pr. sekund eksklusive fejlkorrigerende koder; B er kanalens båndbredde i hertz; S er den samlede signaleffekt (svarende til bæreeffekten C); og N er den samlede støjeffekt i båndbredden.
Denne ligning kan anvendes til at opstille en grænse for Eb/N0 for ethvert system, der opnår pålidelig kommunikation, ved at betragte en bruttobithastighed R lig med nettobithastigheden I og derfor en gennemsnitlig energi pr. bit på Eb = S/R med en støjspektraltæthed på N0 = N/B. Til denne beregning er det almindeligt at definere en normaliseret hastighed Rl = R/2B, en parameter for udnyttelse af båndbredden på bit pr. sekund pr. halv hertz eller bit pr. dimension (et signal med båndbredde B kan kodes med 2B dimensioner i henhold til Nyquist-Shannon-samplingteoremet). Ved at foretage passende substitutioner er Shannon-grænsen:
R B = 2 R l < log 2 ( 1 + 2 R l E b N 0 ) {\displaystyle {R \over B}=2R_{l}<\log _{2}\left(1+2R_{l}{\frac {E_{{{text{b}}}}{N_{0}}}}\right)}
Hvilket kan løses for at få Shannon-grænsegrænsen for Eb/N0:
E b N 0 > 2 2 2 R l – 1 2 R l {\displaystyle {\frac {\frac {E_{{\text{b}}}}{N_{0}}}}>{\frac {2^{2R_{l}}}-1}{2R_{l}}}}
Når datahastigheden er lille i forhold til båndbredden, således at Rl er tæt på nul, er grænsen, der nogle gange kaldes den ultimative Shannon-grænse, følgende:
E b N 0 > ln ( 2 ) {\displaystyle {\frac {\frac {E_{{\text{b}}}{N_{0}}}}>\ln(2)}