El teorema de Shannon-Hartley dice que el límite de la tasa de información fiable (tasa de datos excluyendo los códigos de corrección de errores) de un canal depende del ancho de banda y de la relación señal/ruido según:
I < B log 2 ( 1 + S N ) {displaystyle I<B\log _{2}\left(1+{frac {S}{N}\right)}
donde
I es la tasa de información en bits por segundo excluyendo los códigos de corrección de errores; B es el ancho de banda del canal en hertzios; S es la potencia total de la señal (equivalente a la potencia de la portadora C); y N es la potencia total del ruido en el ancho de banda.
Esta ecuación puede utilizarse para establecer un límite de Eb/N0 para cualquier sistema que logre una comunicación fiable, considerando una tasa de bits bruta R igual a la tasa de bits neta I y, por tanto, una energía media por bit de Eb = S/R, con una densidad espectral de ruido de N0 = N/B. Para este cálculo, es convencional definir una tasa normalizada Rl = R/2B, un parámetro de utilización del ancho de banda de bits por segundo por medio hercio, o bits por dimensión (una señal de ancho de banda B puede codificarse con 2B dimensiones, según el teorema de muestreo de Nyquist-Shannon). Haciendo las sustituciones apropiadas, el límite de Shannon es:
R B = 2 R l < log 2 ( 1 + 2 R l E b N 0 ) {\displaystyle {R |sobre B}=2R_{l}<\log _{2}\left(1+2R_{l}{frac {E_{text{b}}{N_{0}}right)}
Lo cual puede resolverse para obtener el límite de Shannon en Eb/N0:
E b N 0 > 2 2 R l – 1 2 R l {\displaystyle {\frac {E_{text{b}}{N_{0}}>{frac {2^{2R_{l}}-1}{2R_{l}}}}
Cuando la velocidad de datos es pequeña en comparación con el ancho de banda, de modo que Rl es cercano a cero, el límite, a veces llamado límite último de Shannon, es:
E b N 0 > ln ( 2 ) {\displaystyle {\frac {E_{text{b}}{N_{0}}>\ln(2)}