jueves, 13 de octubre de 2011

Teoria de la Informacion

La teoría matemática de lacomunicación es una propuesta teóricapresentada por Claude E.Shannon y Warren Weaver a finales de la década de los 40. Esta teoría estárelacionada con las leyes matemáticas que rigen la transmisión y elprocesamiento de la información y se ocupa de la medición de la información yde la representación de la misma como asì también de la capacidad de lossistemas de comunicación para transmitir y procesar información.

El modelopropuesto por Shannon es un sistema general de la comunicación que parte de una fuente de información desde la cual, a través de un transmisor, se emite una señal, la cual viaja por un canal, pero a lo largo de su viaje puede serinterferida por algún ruido. La señal sale delcanal, llega a un receptor que decodifica la información convirtiéndolaposteriormente en mensaje que pasa a un destinatario.
Con el modelo de la teoría de la información se tratade llegar a determinar la forma más económica, rápida y segura de codificar unmensaje, sin que la presencia de algún ruido complique su transmisión. Paraesto, el destinatario debe comprender la señal correctamente, el problema esque aunque exista un mismo código de por medio, esto no significa que eldestinatario va captar el significado que el emisor le quiso dar al mensaje.

Elementos de lainformación

Fuente
Una fuente es todo aquello que emite mensajes. Por ejemplo,una fuente puede ser una computadora y mensajes sus archivos, una fuente puedeser un dispositivo de transmisión de datos y mensajes los datos enviados, etc.

Tipo de Fuentes

Existen varios tipos de fuentes. Para la teoría de lainformación interesan las fuentes aleatorias y estructuradas. Una fuente esaleatoria cuando no es posible predecir cuál es el próximo mensaje a emitir porla misma. Una fuente es estructurada cuando posee un cierto nivel deredundancia, una fuente no estructurada o de información pura es aquella en quetodos los mensajes son absolutamente aleatorios sin relación alguna ni sentidoaparente, este tipo de fuente emite mensajes que no se pueden comprimir, unmensaje para poder ser comprimido debe poseer un cierto nivel de redundancia,la información pura no puede ser comprimida sin que haya una pérdida deconocimiento sobre el mensaje.

Mensaje

Un mensaje es un conjunto de ceros y unos. Un archivo, unpaquete de datos que viaja por una red y cualquier cosa que tenga unarepresentación binaria puede considerarse un mensaje.

Código

Un código es un conjunto de unos y ceros que se usan pararepresentar a un cierto mensaje de acuerdo a reglas o convencionespreestablecidas. Por ejemplo al mensaje 0010 lo podemos representar con elcódigo 1101 usando para codificar la función (NOT)

Información

La información contenida en un mensaje es proporcional a lacantidad de bits que se requieren como mínimo para representar al mensaje.
Calculo
Considerando todas las posibles técnicas decodificación de niveles múltiples y polifásicas, el teorema de Shannon-Hartleyindica que la capacidad delcanal C es:
Descripción:  C =  B \log_2 \left( 1+\frac{S}{N} \right)
donde:
§ B es el ancho de banda del canal.
§ C es la capacidad del canal (tasa de bits deinformación bit/s)
§ S es la potencia de la señal útil, que puedeestar expresada en vatios, milivatios, etc., (W, mW, etc.)
§ N es la potencia del ruido presente en el canal,(mW, μW, etc.) que trata de enmascarar a la señal útil.



No hay comentarios:

Publicar un comentario