Claude Elwood Shannon

Biografía:


Claude Elwood Shannon, nacido en EEUU el año 1916. Desde joven, Shannon demostró una inclinación hacia las cosas mecánicas. Se graduó en ingeniería por la Universidad de Michigan en 1936, cuatro años más tarde obtuvo un doctorado de matemáticas. La investigación de Shannon se basaba en el problema de la transmisión eficiente de la información. En 1940 le fue concedido el Premio a ingenieros americanos del Instituto Americano Alfred Nobel de Estados Unidos, una concesión dada cada año a una persona de no más de treinta años. En 1948, desarrolló un método para expresar la información deforma cualitativa. Sus publicaciones en 1949 demostraron cómo se podía analizar dicha cuantificación mediante métodos estrictamente matemáticos. También postuló el teorema del muestreo, que sostiene que una señal debe ser muestreada al doble de su frecuencia natural. En 1956 ingresó como profesor en el Massachusetts Institute of Technology. La rama de las matemáticas inaugurada por Shannon se denominó teoría de la información y resultó ser extremadamente útil. En 1940 estudió una maestría en ingeniería eléctrica y se doctoró en filosofía matemática. Shannon pasó quince años en los laboratorios Bell, una asociación muy fructífera con muchos matemáticos y científicos de primera línea.Shannon falleció el 24 de febrero del año 2001, a la edad de 84 años,después de una larga lucha en contra la enfermedad de Alzheimer.


Contexto general y histórico-científico:

Influencia de la CIBERNÉTICA:
Estudio de los procesos de comunicación y control tanto en los seres vivos y como en los sistemas automáticos.
CIBERNÉTICA: Cómo un estímulo exterior se transforma en información (INPUT) y cómo el sistema receptor reacciona con una respuesta (OUTPUT).
Bajo la influencia de la cibernética se desarrolla la psicología cognitiva.
Su objetivo es conseguir la actividad humana (Feedback).

Ámbito de estudio:
Se centra en la transmisión eficaz de los mensajes.“Máxima información-mínimas interferencias-máxima economía de tiempo y energía”.

Tres niveles de problemas:
1)Problema técnico: ¿con qué transmisión pueden transmitirse los símbolos de comunicación?
2)Problema semántico: ¿con qué precisión los símbolos son recibidos con el significado deseado?3)Problema de efectividad: ¿cómo afecta el significado a la conducta del receptor?Primero hay que resolver los problemas técnicos.


Teoría y modelo de Shannon:

Shannon es uno de los padres del código binario, base de toda la informática de hoy día. A partir de sus estudios, que establecen las bases para unificar toda la información en un código de transmisión único, surgirá su teoría matemática de la comunicación.
Shannon estudia el flujo de las ondas electromagnéticas a través de un circuito. Y entiende que a través del código binario se puede homogeneizar todo tipo de información (textos, sonidos, imágenes...). Distingue claramente entre mensaje y el medio por el que éste se transmite. Al tiempo, analiza cómo medir la eficacia de un canal de comunicación a través del concepto de entropía, tomado de la segunda ley de la termodinámica. La entropía mide las pérdidas derivadas de los ‘ruidos’ en la transmisión de información de un mensaje, y, al tiempo, la posibilidad de eliminar las mermas, la incertidumbre, mediante la redundancia y la codificación numérica en el origen del proceso de comunicación y su descodificación en la fase de recepción. Al cabo de más de medio siglo de sus hallazgos se sigue considerando el trabajo de Shannon la pieza clave en el desarrollo que lleva a que la comunicación adquiera un carácter de centralidad en la sociedad actual. Asimismo, sienta los fundamentos matemáticos de la revolución tecnológica de la segunda mitad del siglo XX.
Desde el estudio del álgebra 'booleana' teoriza acerca del código binario, la base del lenguaje digital, a partir de unidades básicas de información, definidas por dos estados: el ‘si’ y el ‘no’, el 0 y el 1, abierto/cerrado, verdadero/falso, blanco/negro. El 0 y el 1 aparecen como el átomo de la información, como la base constructiva del mensaje. Una información compleja es una sucesión de unidades básicas, de unos y ceros. Más allá de la formulación teórica, Shannon construyó circuitos y máquinas basadas en los flujos binarios de información, mediante interruptores y relés en las que se anticipaban los embriones de muchos de los desarrollos de las décadas posteriores.
La información es tratada como magnitud física y para caracterizar la información de una secuencia de símbolos se utiliza la Entropía. Se parte de la idea de que los canales no son ideales, aunque muchas veces se idealicen las no linealidades, para estudiar diversos métodos para enviar información o la cantidad de información útil que se puede enviar a través de un canal.

La información así tratada adquiere una dimensión física, cuantificable y mesurable, independientemente del contenido, de los emisores y de los receptores. Equis páginas de un libro tienen la misma información que una cantidad igual de otro, independientemente de sus autores y la calidad de sus contenidos... La base matemática de la teoría radica en su cuantificación, en la descripción del concepto técnico de canal, en la codificación y descodificación de las señales; esto es, un concepto de la información distinto al conocido hasta entonces en los ámbitos de las ciencias sociales. Las aportaciones del veterano Warren Weaver a la concepción de Shannon son importantes, en la medida que da alcances que sobrepasan el mero ámbito de la escena técnica. Bajo la firma de ambos se publica el texto central de la teoría matemática (The Mathematical Theory of Communication, Universidad de Illinois, 1949), que ejercerá una influencia en distintas áreas disciplinares y corrientes de pensamiento orientadas hacia el estudio de la comunicación.










Basandose en la entropía Shannon estudia la capacidad de los canales de transmisión para transmitir un mensaje incompleto y que a pesar de ello las partes que se reciban sean descodificables de forma independiente. También investiga el ruido de cualquier mensaje y como lo afecta según el canal por el que se transmite.

Todos los cambios en la señal original pueden llamarse “ruido”. Cuando la señal es recibida por el receptor se lleva a cabo la operación inversa a la del transmisor reconstruyendo el mensaje a partir de la señal.

Entropía: El concepto de entropía, magnitud que proviene de la termodinámica y mida el grado de desorden molecular de un sistema es recogido también por la teoría matemática. De la misma manera que la entropía es una medida de desorganización, la información suministrada por un grupo de mensajes es una medida de organización.
Se define a la Entropía como el paso de un estado de orden previsible a un estado de desorden aleatorio.

Cap comentari:

Publica un comentari a l'entrada