O teorema de Shannon-Hartley diz que o limite da taxa de informação confiável (taxa de dados exclusiva de códigos de correção de erros) de um canal depende da largura de banda e da relação sinal/ruído de acordo com:
I < B log 2 ( 1 + S N ) {\i1}displaystyle I<B\log _{\2}{\i1+{\i}esquerda(1+{\i}{\i}{\i}{N}}direita)}
where
I é a taxa de informação em bits por segundo excluindo códigos de correção de erros; B é a largura de banda do canal em hertz; S é a potência total do sinal (equivalente à potência da portadora C); e N é a potência total de ruído na largura de banda.
Esta equação pode ser usada para estabelecer um limite em Eb/N0 para qualquer sistema que alcance uma comunicação confiável, considerando uma taxa bruta de bits R igual à taxa líquida de bits I e portanto uma energia média por bit de Eb = S/R, com densidade espectral de ruído de N0 = N/B. Para este cálculo, é convencional definir uma taxa normalizada Rl = R/2B, um parâmetro de utilização de largura de banda de bits por segundo por meio hertz, ou bits por dimensão (um sinal de largura de banda B pode ser codificado com dimensões 2B, de acordo com o teorema de amostragem Nyquist-Shannon). Fazendo substituições apropriadas, o limite de Shannon é:
R B = 2 R l < log 2 ( 1 + 2 R l E b N 0 ) {\i1}{R {\i1}sobre B}=2R_{\i}<{\i}log _{\i}{\i}{\i1+2R_{\i}{\i1}frac {\i}{N_{\i}{\i1}direita)}
>
que pode ser resolvido para ter o limite Shannon ligado em Eb/N0:
E b N 0 > 2 2 R l – 1 2 R l {\i1}displaystyle {\i}{E_{\i1}{N_{\i}}>{\i}frac {2^{2R_{l}}-1}{2R_{l}}}}
Quando a taxa de dados é pequena em comparação com a largura de banda, de modo que Rl está próximo de zero, o limite, às vezes chamado de limite final Shannon, é:
E b N 0 > ln ( 2 ) {\i1}displaystyle {\i} {E_{\i}}{N_{\i}}>ln(2)}