Il teorema di Shannon-Hartley dice che il limite del tasso di informazione affidabile (tasso di dati al netto dei codici di correzione degli errori) di un canale dipende dalla larghezza di banda e dal rapporto segnale-rumore secondo:
I < B log 2 ( 1 + S N ) {\displaystyle I<B\log _{2}\left(1+{frac {S}{N}}\right)}
dove
I è il tasso di informazione in bit al secondo esclusi i codici di correzione degli errori; B è la larghezza di banda del canale in hertz; S è la potenza totale del segnale (equivalente alla potenza portante C); e N è la potenza totale del rumore nella banda.
Questa equazione può essere usata per stabilire un limite su Eb/N0 per qualsiasi sistema che raggiunga una comunicazione affidabile, considerando un bit rate lordo R uguale al bit rate netto I e quindi un’energia media per bit di Eb = S/R, con densità spettrale di rumore di N0 = N/B. Per questo calcolo, è convenzionale definire un tasso normalizzato Rl = R/2B, un parametro di utilizzo della banda di bit al secondo per mezzo hertz, o bit per dimensione (un segnale di banda B può essere codificato con 2B dimensioni, secondo il teorema del campionamento di Nyquist-Shannon). Facendo le opportune sostituzioni, il limite di Shannon è:
R B = 2 R l < log 2 ( 1 + 2 R l E b N 0 ) {\displaystyle {R \over B}=2R_{l}<log _{2}\left(1+2R_{l}{frac {E_{\text{b}}}{N_{0}}}right)}
che può essere risolto per ottenere il limite di Shannon su Eb/N0:
E b N 0 > 2 2 R l – 1 2 R l {\displaystyle {\frac {E_{{\testo{b}}}{N_{0}}}>{\frac {2^{2R_{l}}-1}{2R_{l}}}}
Quando la velocità dei dati è piccola rispetto alla larghezza di banda, così che Rl è vicina allo zero, il limite, talvolta chiamato limite ultimo di Shannon, è:
E b N 0 > ln ( 2 ) {\displaystyle {\frac {E_{\text{b}}}{N_{0}}}>\ln(2)}