Resumen: "La información", de James Gleick (2011)
Ver el resumen original y actualizado en:http://evpitasociologia.blogspot.com/2012/08/la-informacion-de-james-gleick-2011.html
Sociología, sociología de la comunicación, teoría de la información
Razones para recomendar este libro:
Gleick hace un detallado resumen de la historia de la informática y la teoría de la información. Es especialmente interesante el proyecto fallido de Charles Babbage y la condesa Ada Byron para hacer un ordenador en el siglo XIX o de cómo se implantó el telégrafo o el test de Alan Turing. También es emocionante la historia de Shannon, el teórico de la información. Lo que más sorprende es una de las especulaciones del libro: la transmisión de "memes" (una idea de Dawkins) a través del ADN, los seres vivos serían el envoltorio a través del cual se replica un mensaje continuamente, de generación en generación.
Resumen, comentarios y anotaciones por E.V.Pita, licenciado en Derecho y Sociología
....................................................................................................
Título: "La información"
subtitulo: Historia y realidad
Titulo original: "The information: a History, a Theory, a Flood"
Autor:James Gleick
Fecha de publicación: 2011
Indice:
1. Tambores que hablan
2. La persistencia de la palabra
3. Dos vocabularios
4. Volcar los poderes del pensamiento en un dispositivo mecánico
5. Un sistema nervioso para la Tierra
6. Nuevos cables, nueva lógica
7. La teoría de la información
8. El giro internacional
9. La entropía y sus demonios
10. El código de la vida
11. En el acervo de memes
12. El sentido de aletoriedad
13. La información es física
14. Tras el diluvio
15. Noticias nuevas todos los días
Texto de la contraportada:
"Vivimos en el mundo de la información y el conocimiento, pero, aunque manejamos cotidianamente móviles y ordenadores, no entendemos del todo lo que esto significa. En un libro ambicioso y apasionante, James Gleick comienza contándonos una historia que ha cambiado la naturaleza de la conciencia humana, desde los tambores africanos o la invención de la ordenación alfabética de las palabras hasta los avances mas recientes de la tecnología informática. Examina después como se desarrollaron las ideas en que se ha basado este avance llevándonos, dice el profesor Geoffrey Nunberg, " del demonio de Maxwell al teorema de Gödel, de los agujeros negros a los genes egoístas", explicando con claridad los más complejos principios e ilustrándolos con las vidas de sus protagonistas, de Charles Babbage a Alan Turing o a Claude Shannon. Y concluye analizando lo que representa para nuestras vidas la agobiadora inundación de informaciones que nos rodea. Como ha dicho Josh Rothman, este es "un libro bellamente escrito y muy documentado que consigue sorprendernos continuamente".
Introducción al autor: Gleick (Nueva York, 1954) es el autor de Caos, finalista del US National Book Award, traducido a 25 idiomas. También escribió las biografías de Richard Feynman e Isaac Newton, seleccionadas para el premio Pulitzer.
RESUMEN
Introducción
En las primeras páginas, Gleick menciona dos descubrimientos en los laboratorios de Bell que fueron trascendentales para la era del chip y la informática: el transistor y la definición de un "bit" como unidad mínima de información. La teoría de la informacion de Shannon dice que la información se puede medir como bits ( uno o cero). Esto daría lugar a la comprensión del ADN genético como un almacén de información, plantearía problemas sobre la mecanica cuantica y la teoría de partículas, el caos, la entropía y la fuga de información de un agujero negro, así como la transmisión cultural a través de memes (el equivalente cultural del gen). Gleick dice que, tras Shannon, el hombre empezó a sospechar que el universo funcionaba como un gigantesco procesador de información. [nota del lector: algunos físicos mencionan la posibilidad de que formemos parte de un videojuego a gran escala y con infinitas variedades y combinaciones].
CAPÍTULO 1
Gleick empieza su historia de la información con los tambores africanos que daban noticias a mayor rapidez antes de que el telégrafo funcionase en Europa. El tan-tan se basaba en los tonos de las palabras y para evitar confusiones o ruidos usaban la redundancia: para evitar confundir una palabra como Luna con otra los tambores decían: Luna que mira a la Tierra de forma que no quedase duda al oyente o receptor.
CAPÍTULO 2
Gleick examina las culturas orales y la irrupción de la escritura como "un trueno" en la historia. Empieza con la Ilíada, poema escrito con una estructura redundante para poder ser recordada oralmente, y su transcripción al papel. Gleick examina el cambio de mentalidad que supuso la escritura y sobre todo el alfabeto, que desarrolló con Aristóteles un sistema para clasificar todo en categorías y definiciones y después para estructurarlo en una lógica, lo que a su vez daría lugar a paradojas del lenguaje. Lo que viene a decir Gleick es que la escritura permitió acumular conocimientos a lo largo del tiempo como demuestran las tablillas cuneiformes sumerias de Uruk que contienen ecuaciones de segundo grado, algoritmos o números pitagóricos antes de Pitágoras.
Gleick también hace referencia a la idea de McLuhan de que la era electrónica es una era de cultura oral con múltiples canales de participación de los sentidos ( oído, vista) frente a los medios escritos, que son canales unifireccionales. Frente a esto, Hobbes decía que la cultura oral solo transmitía conocimientos obtenidos mediante prueba y ensayo, como las plantas medicinales, y nada más.
Tras este debate entre cultura oral y escrita, que empezó con Platón, surge la idea de que si a alguien le dicen que piense en una palabra busca algo cercano que tenga a la vista pero no va a buscar la palabra al diccionario.
CAPÍTULO 3
Gleick relata la evolución del diccionario en lengua inglesa desde que un sacerdote recopiló en 1604 una lista de 2.500 palabras hasta el gran diccionario OED que agrupa todas las palabras conocidas (que tengan una referencia bibliográfica)y actualiza los neologismos como "To Google".
CAPÍTULO 4
Este capítulo explica los esfuerzos de Charles Babbage y la condesa Ada Byron para construir una Máquina Analítica y luego Máquina Diferencial, la primera supercomputadora del siglo XIX que no pasó del papel.
Una de las claves son los libros de tablas de números triangulares (puede hallarse mediante este algoritmo: multiplicando n por n+1 y dividiendo por dos; por ejemplo, 6x7/2=21, número triangular de Joncourt 6) o los logaritmos de Napier (0,1,2,3,4,5 (logaritmos en base 2) y 1,2,4,8,16,32 (números naturales)) para facilitar los cálculos.
Entre las anécdotas de Barbbage está el haber fundado en la universidad de Cambridge el Club de Fantasmas, dedicado a reunir pruebas a favor y en contra de los espíritus ocultos. Con otro grupo fundó Los Extractores, para resolver las efusiones de sensatez o de cordura según una serie de acontecimientos. Y por último, la Sociedad Analítica (integrada por los matemáticos Babbage,Herschel y Peacok; estos alquilaban una habitación para leer artículos y publicar sus "Transacciones" y en el que Baggage pensó en hacer una máquina que calculase las tablas y ejecutase logaritmos "al vapor" (steam)).
La máquina diferencial (ideada entorno a 1820) se basa en cálcular las diferencias entre varios grupos de números y el siguiente y permite reducir cualquier función polinómica. La idea es que la máquina, en vez de sustracciones repetidas para hallar las diferencias, generará secuencias de números mediante una cascada de sumas mediante un sistema de ruedas de cifras marcadas con los números del 0 al 9 colocadas a lo largo del eje para representar los dígitos decimales de una cantidad: decenas, centenas,. El movimiento de la máquina transmitía información. El siguiente problema fue que la máquina calculase más deprisa que la mente humana mediante procesos paralelos para que las ruedas de numeros sumasen toda una fila a la vez, aunque esto dejaba un problema sin resolver: el acarreo (sería la primera máquina con memoria).
La Máquina Diferencial nunca llegó a ser construida (por problemas técnicos con la precisión de las piezas que standarizó el torno de Clement) pero fue un éxito a nivel teórico. En los planos, la máquina medía 60 cm de altura y luego más.
Para dar instrucciones a la máquina, Babbage inventó en 1826 una notación mecánica (lenguaje de signos).
En 1842, el gobierno de Robert Peel suspendió el proyecto que financiaba el Tesoro al entender que la máquina era inútil.
En los siguientes años, Barbbage, tras ver un telar de Jacquard que era programada con tarjetas perforadas, ideó la Máquina Analítica. En la programación le ayudó Ada Byron, condesa de Lovelace e hija del poeta Lord Byron, y matemática autodidacta. La Maquina Analítica se basaba en que si sumabna diferencias no podía computar cualquier clase de número ni resolver ningun problema matemático. Se trataba de codificar dibujos y pasarlos de un medio a otro. Extraía información de un sustrato físico y extraía grados más altos (variables en lugar de números que se almacenaban en niveles más altos). La informacion se almacenaba en tarjetas de variables y tarjetas de operaciones. La máquina encarnaba las leyes y las tarjetas comunicaban esas leyes. La creación de un lenguaje de símbolos en el que pudiera ser codificada la solución. Ada Byron jugaba al Solitario cuando descubrió que el juego tenía una solución formal. [Nota del lector: probablemente Ada no estaba muy bien de la cabeza, decía que tenía una misión matemática que cumplir y que tenía poderes y sentidos que otros no tenían y que estaban ocultos a ellos].
En todo caso, ambos programaron una máquina virtual que no solo calculaba sino que hacía operaciones (por ejemplo, composiciones musicales). No era una máquina de números sino una máquina de información. Una prueba de programación que ideó Ada fue la elaboración de los números de Bernoulli (la suma de cualquier número, desde 1 a n, elevado a potencias integrales, aunque no hay una fórmula directa que los genere. Pero el problema es caía en bucle, su algoritmo era recursivo y se repetía cíclicamente.
Otra idea de la máquina era la variable (componentes mecanicos o hardware, las columnas de discos de la máquina y tarjetas variables o software).
Gleick dice que nadie entendió la máquina, ni siquiera Barbbage, porque el verdadero objeto de la investigación era la información: el envío de mensajes, la codificación y el procesamiento.
POr ello, Barbbage inventó señales de códigos para faros, etc....y hasta una teoría sobre las tormentas. Por fin, empezó a hacer un uso práctico.
La máquina que calculaba tablas se quedó obsoleta y la analítica, olvidada por adelantarse a su tiempo. Ada Byron murió de un cancer soñando que dirigiría un "ejército de números" que desfilaban ante ella, su reina. Y añadió: "Pero ¿qué son esos números? Es un enigma". [Nota del lector: tras leer los fragmentos de cartas de Ada Byron que reproduce Gleick uno se pregunta si ella podría tener algún trastorno que sufren algunos expertos en matemáticas, por ejemplo, hay un joven que ve un árbol y en seguida saltan en su mente cifras, supongo que con datos de la altura del árbol, etc... Si le ponen a multiplicar dos números largos "ve" la solución en su mente y la escribe en menos de un segundo].
CAPÍTULO 5
En este capítulo, se abordan los intentos para crear un telégrafo y la primera red global. El primer ensayo fue les télégraphes, inventados por Chappe en la Revolucion Francesa. Luego, Napoleón adoptaría otro sistema mediante torres y señales y en 1799 ya enviaba mensajes por toda Francia en 12 minutos (la señal).
El siguiente intento fue con agujas movidas por señales eléctricas (galvanómetro) e inventaron un sistema de codificación con vocales hasta que Morse/Vail y Cooke/Wheatstone redujeron el alfabeto a dos únicos signos: encendido y apagado, punto y ralla. Vail redujo toda la maquinaria necesara a una palanca con muelle (tecla) para abrir y cerrar el circuito y en el otro extremo la corriente controlada y el electroimán. Enviaban mensajes a una velocidad de centenares por minuto. En 1844 empezaron a operar y fue un éxito a partir del segundo año. Además de la rapidez en las comunicaciones, el telégrafo eléctrico permitió comparar el tiempo en distintas zonas a la vez y descubrir los movimientos de masas (nubes, anticiclones...). Por primera vez, se comprendió que el mensaje era inmaterial y no un objeto físico. El otro cambio fue que el paisaje se llenó de postes e hilos y conformó una red global.
Otra de las curiosidades es que para ahorrar, el código Morse contaba con abreviaturas de palabras y luego de frases enteras; button: el mercado está tranquilo y los precios son más asequibles), que luego eran sustituidos por números (se publicaban en libros de códigos).
De aquí surge la moderna criptografía.
Wilkins en 1641 descubrió un código binario (a y b) para representar todas las letras del alfabeto en 5 posiciones (3 elevado a 3=27).
De Morgan, en 1840,( amigo de Barbbage y Ada Byron (su tutor) y catedrático del University College de Londres) trabajó junto a Boole en las proposiciones lógicas (matemáticas sin números, una versión simbólica con frases vaciadas de significado).
CAPÍTULO 6
Este capítulo está dedicado al teléfono y a Claude Shannon, el padre de la teoría de la información.
Como anécdota, cuando se inventó el teléfono, los granjeros usaron el alambre de espino de sus vallados como transmisor y formaron cooperativas para su disfrute gratuito.
Aquí se cita la novela de Edgar Allan Poe, Escarabajo de oro, establece un código para encontrar el tesoro y que hay que desencriptar.
En 1936, el MIT fichó a Shannon para trabajar en un Analizador Diferencial (de Bush y que no debía nada a los prototipos de Babbage). Esta máquina era analógica (y no digital) y no trabajaba con números sino con cantidades, generaba curvas para representar el futuro de un sistema dinámico. Resolvía ecuaciones diferenciales de segundo orden (que expresan índices de cambio: de posición a velocidad y a aceleración).
Funcionaba con relés que se abrían o cerraban en un circuito y eso, según vio Shannon, en su tesis doctoral, era traducible a signos en ecuaciones. Como había dicho Boole, solo se necesitan dos números: 0 (circuito cerrado) y 1 (abierto). Esta tesis doctoral dio paso a los circuitos lógicos y la aritmética binaria, que fue clave para la revolución informática. Incluso habló, por primera vez, de "formulas géneticas" para representar a una persona mediante las posiciones de cinco letras.
Añade que todos los sistemas de comunicación pueden incluirse en esta fórmula:
f1 (t) - T - F(t) - R - f2(t)
T y R son transmisor y receptor
f(t) es la función de tiempo
Lo demas es informacion a transmitir (input), la señal y el producto final.
Además hay ruido.
Gleick luego explica los trabajos de Russel y Whitehead sobre el racionalismo y la lógica, así como el simbolismo, con la idea de que la perfección del razonamiento podía llegar con la codificación perfecta del pensamiento. El problema eran las paradojas (p.e., lo que digo es falso) ahasta que Kurl Gödel propuso usar números para todos sus signos (cualquier fórmula dada, siguiendo las reglas,genera un número y cualquier número produce la fórmula). Símbolos que no constituyen una fórmula: "0====" ni son demostrables. Las afirmaciones paradógicas de Russel (las autorreferencias) existían pero eran indemostrables y estaban dentro de los PM (Principios matemáticos). POr tanto, según Gödel, un sistema formal coherente tenía que ser incompleto: no podía existir ningún sistema completo y coherente. Los números podían codificar todo el razonamiento y representar cualquier forma de conocimiento. John Von Neumann se dio cuenta de la importancia: la incompletud era real.
Tras este avance, Shannon empezó a trabajar en la comunicación de órdenes a los cañones antiaéreos automatizados para afinar el tiro y controlar el fuego. Shannon tenía que convertir ecuaciones diferenciales de segundo orden en movimiento mecánico.
Gleick hace un repaso del éxito del teléfono en 1880 y en 1914 ya tenía 10 millones de usuarios. Para eliminar el ruido, los matemáticos y físicos empezaron a estudiar la señal mientras otros se centraban en la conmutación, numeración y lógica (eso dio lugar a las centralitas y las guías telefónicas).
Como anécdota, cuenta que las primeras centralitas contrataban repartidores de telégrafo adolescentes pero estos perdían el tiempo en peleas o bromas, por lo que contrataron a mujeres, más serias.
El ruido se resolvió gracias al movimiento browniano de Einstein (movimiento aleatorio de partículas microscópicas suspendidas en un fluido descubiertas por Leeuwenhoek). Con Nyquist surgió el concepto de cantidad transmitida por un ancho de banda y la velocidad de transmisión de datos (intelligence). El teorema de Hartley amplía esta idea: la mayor cantidad de información que puede ser transmitida en un momento dado es proporcional a la gama de frecuencia disponible. Algunos símbolos transmitían más información que otros (un punto tiene menos información que una letra). Ecuación: H = nlogs; H es cantidad de información, n es el número de símbolos transmitidos y s la dimension del alfabeto.
CAPÍTULO 7
Este capítulo se dedica a la teoría de la información de Shannon.
Este y Alan Turing trabajaron en proyectos secretos para el gobierno durante la Segunda Guerra Mundial. Shannon encriptaba las conversaciones del presidente Roosevelt. Turing había trabajado en una teórica máquina computacional y luego desencriptó el código Enigma alemán.
Turing planteó en 1940 o antes si las máquinas pueden pensar.
Además, intentó contestar a las 3 preguntas de Hilbert:
1) ¿Son completas las matemáticas?
2)¿Son consistentes las matemáticas?
Gödel demostró que no podían ser completas y consistentes a la vez.
3)¿Son decidibles las matemáticas?
Turing hizo una cuarta pregunta:
4)¿Son computables todos los números?
Para ello ideó una máquina ideal que imprimía números en casillas en una cinta infinita. A su vez, la máquina de Turing (U, de Universal) podía ser representada con un número. Tanto datos como instrucciones eran números.
Y por tanto contesta a si todas las proposiciones son decidibles. Pues resulta que un número no computable es una proposición indecidible.
Cualquier procedimiento mecánico para generar fórmulas es en esencia una máquina de Turing y cualquier sistema formal debe tener proposiciones indecidibles. La incompletitud se produce por la incomputabilidad.
Turing trabajó en descifrar el código de la máquina Enigma alemana mediante una máquina desencriptadora llamada Bombe. Turing observo en los mensajes desencriptados que algunos hechos eran más probables que otros y los llamo "ban".
Mientras, Shannon estudió la redundancia en los mensajes y llegó al concepto de bit (el mínimo de información posible que representa una probabilidad entre dos: cara o cruz). Tambien desarrollo un diagrama de la comunicación encriptada y su cifrado cuyo objetivo era el mensaje. Creó un sstema para comprobar la seguridad de los mensajes. Descubrió que la redundancia ayudaba a identificar un idioma; por ejemplo, el inglés tenía el 25% de sus palabras y letras redundantes. Y la redundancia sirve para corregir errores. Vuelve al relé como almacenador de bits y pensó en la capacidad de almacenamiento de bits: Un disco de vinilo contenía 300.000 bits.
CAPÍTULO 8
Estudia las aportaciones de Weimar (gurú de la cibernética o de la unión de hombre y máquina) y Shannon a la teoría de la información a partir de 1948.
La teoría de la información abrió nuevas posibilidades a la teoría psicológica como la psicología cognitiva.
Shannon ideó un ratón electrónico (una varilla) que recorría un laberinto y memorizaba el recorrido y la salida. Sin embargo, si se alteraba el recorrido, el ratón se quedaba atascado o repetía el recorrido memorizado por sus relés. En definitiva, el ratón electrónico no "pensaba" sobre lo aprendido.
CAPÍTULO 9
Habla sobre la entropía entendida como aquella "no energía" o el "agotamiento de la energía disponible en un sistema" y que se evapora por el calor. Un experimento lo explica: una cámara doble contiene partículas frías y calientes; cuando se mezclan, la temperatura se uniformiza. De ahí surge el concepto del demonio de Maxwell, un pequeño ingenio mecánico que separa en dos cámaras las partículas frías de las calientes, a un tipo no las deja pasar y a otro sí, para que no se mezclan (si lo hacen, su temperatura tiende a unificarse y llegar a un estado térmico estable). Por tanto, para reducir la entropía hace falta información (saber qué partículas están calientes y cuales frías para que no se junten).
CAPÍTULO 10
En este capítulo se estudia el código genético como almacenamiento de información encapsulada en los genes y el ADN. Un teórico, tiempo antes de que Watson y Crick descubriesen el ADN, dedujo que el código de la vida debería tener como mínimo 10 elevado a 5 bits y como máximo 10 elevado a 12. Alguien supuso que esa información debería estar almacenada con la intervención de las proteínas, que eran estables.
`
(seguirá el resumen)
Valoración del lector: el libro, además de ameno y documentado, está muy bien escrito porque explica de forma clara cómo se ha avanzado paso a paso en la teoría de la información hasta llegar al concepto de bit o de las letras del código genético.
No hay comentarios:
Publicar un comentario