domingo, 5 de marzo de 2017

Formula Capacidad del canal.








En Ingeniería Electrónica y Teoría de la Información, la capacidad de canal es la cantidad de información que puede ser relativamente transmitida sobre canales de comunicación.


La capacidad del canal se mide en bits por segundo (bps) y depende de su ancho de banda y de la relación S/N (Relación señal/ruido). La capacidad del canal limita la cantidad de información (se denomina régimen binario y se mide en bits por segundo, bps) que puede trasmitir la señal que se envía a través de él.


La capacidad máxima de un canal viene dada por la fórmula:
El régimen binario de una señal que se propaga por un canal no puede ser mayor que la capacidad del canal y depende del número de niveles o estados que se usan para codificar la información. 
Régimen binario de la señal =
donde: 


n es el número de bits por cada elemento de la señal. 
m es el conjunto de elementos diferentes que puede adoptar la señal. 
C es la capacidad del canal según el teorema de Nyquist. 

La capacidad del canal depende de la naturaleza del soporta, es decir, de los portadores canales de gran ancho de banda, como la fibra óptica, su capacidad siempre tiene un límite. Nyquist demostró la existencia de ese límite cuando se envían señales digitales por canales analógicos. 

La teoría de la información, desarrollada por Claude E. Shannon durante la Segunda Guerra Mundial, define la noción de la capacidad del canal y provee un modelo matemático con el que se puede calcular. La cifra que resulta del estado de capacidad del canal, se define como la máxima de la información mutua entre la entrada y la salida del canal. Donde el punto máximo se encuentra en la entrada de la distribución.
Al igual que todos los tipos de comunicación, mantener un diálogo con otro sistema necesita un medio físico para transmitir los datos. En el caso de la Arquitectura de Redes, a ese medio se le denomina canal.




La X representa el espacio entre las señales que puede ser transmitidas y la Y el espacio de señales recibidas, durante un bloque de tiempo sobre el canal.
Con esta fórmula obtenemos la distribución condicional de la función de Y sobre X. Tratando el canal como un sistema estático conocido, pY | X(y | x), esto es una propiedad inherente del canal de comunicación (que representa la naturaleza del ruido en él). Entonces la distribución conjunta de X e Y esta completamente determinada por el canal y por la elección de la distribución marginal de las señales que nosotros elegimos enviar sobre el canal: 

La distribución conjunta puede ser recuperada usando la identidad: 
Sobre estas limitaciones, se debe después maximizar la cantidad de información, o de mensaje, que uno puede comunicar sobre el canal. La medida apropiada para esto es la información mutua I(X;Y), y esta máxima información mutua es el llamado canal de capacidad y viene dado por: 

La eficiencia E de un canal de comunicación, es la relación entre su capacidad y su ancho de banda e indica el número de bits por segundo de información que se puede transmitir por cada herzio de su ancho de banda: 

La eficiencia de un canal está establecida por el número máximo de estados distintos que puede adoptar la señal que se transmite por él para codificar la información. La capacidad de un canal de ancho de banda determinado podría elevarse a infinito utilizando señales con un número infinito de niveles. Pero esto solo se puede obtener con un canal ideal, sin ruidos ni distorsión alguna, los cuales no existen en el mundo real. Por tanto, el número de estados posibles está limitado por la sensibilidad y la capacidad de resolución del propio receptor para diferenciar entre niveles contiguos de la señal que recibe junto con el ruido. 



No hay comentarios:

Publicar un comentario