Ciencia 15

Comentarios intrascendentes a noticias científicas y técnicas de los últimos quince días (más o menos)
Archivos
<Marzo 2015
Lu Ma Mi Ju Vi Sa Do
            1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31          

Documentos

Blogalia

Blogalia


El proyecto SETI de NASA ha muerto (escrito en 1994) 2015-03-25

El proyecto SETI de NASA ha muerto

Publicado en la revista de los radioaficionados de San Sebastián en 1994. Grupo: SSDX group.

Cuando apenas contaba con un año de vida, el proyecto SETI de búsqueda de vida extraterrestre se ha quedado sin presupuesto.

Félix Ares

QSL con los extraterrestres.

¿No te gustaría tener un contacto con seres de otras estrellas o de otras galaxias?

Claro que sí. ¡Menuda QSL!

Lógicamente tendríamos que recibirla por radio-fax pues todavía no funciona el correo con las estrellas.

Prácticamente desde que se inventó la radio ha habido intentos de contactar con los posibles habitantes de otros planetas a través de las ondas.

Nikola Tesla, el pionero.

El primer intento que yo conozco, es el del ingeniero Nikola Tesla. En la década de los 1890 decía que era capaz de enviar ondas de radio a todo el mundo y a los planetas. Cuando uno lee como era la torre de comunicaciones que empezó a construir en 1901 en Long Island, llega a la conclusión no sólo de que no iba a lograr comunicarse con los planetas, sino de que no entendía bien qué era la radio.

Pero no debemos engañarnos, Tesla no era un idiota. Era un magnífico ingeniero que hizo grandes contribuciones al desarrollo de la electricidad. Por ejemplo, en contra de lo que se estaba haciendo, defendió que para el transporte era mucho mejor la corriente alterna que la continua. Esto le causó la enemistad con Edison por lo que buscó en Westinghouse un colaborador. Con él desarrolló un generador de corriente alterna trifásica, motores también de corriente alterna que no necesitaban escobillas como sus contrapartidas de corriente continúa, y transformadores que le permitían transportar la electricidad a alto voltaje (con menos pérdidas) y bajarlo en el lugar de consumo.

En 1912 la Academia Sueca quiso dar el Premio Nobel en conjunto a Edison y a Tesla, pero este último se negó a que su nombre apareciera al lado del de su enemigo por lo que el premio recayó en un inventor sueco de menos mérito que ellos.

1961, proyecto Ozma.

En 1961 se realizó otro intento de comunicación con los planetas, el proyecto OZMA, que pretendía tanto la escucha como el envío de mensajes desde el radiotelescopio de Arecibo en Puerto Rico. Durante el tiempo que estuvo funcionando no se obtuvo ningún resultado.

Las revistas de radioaficionados de la época dieron mucha importancia al hecho. Si no recuerdo mal, y no estoy dispuesto a ir a mirar mis archivos para verificarlo, la revista de la Unión de Radioaficionados Españoles (URE) publicó un artículo sobre el proyecto Ozma en el que se describían con todo detalle el mensaje que se enviaba a las estrellas, la frecuencia usada, etc.


SETI. La búsqueda de Inteligencia extraterrestre de NASA.

A lo largo de la pasada década, NASA desarrolló el más avanzado receptor del mundo para la búsqueda de inteligencia extraterrestre (Search for ExtraTerrestrial Intelligence: SETI).

SETI no pretende transmitir. Únicamente se pone a “orejear” lo que puedan decir los transmisores de las estrellas.

Tras vencer una enorme cantidad de obstáculos tecnológicos y políticos, el 12 de Octubre de 1992, coincidiendo con el 500 aniversario del descubrimiento de América, NASA ponía en marcha oficialmente el proyecto.

Un año después, el Congreso de los Estados Unidos lo cancelaba. O mejor dicho, le quitaba el presupuesto, aunque los aparatos ahí están y pueden usarse.

Detrás de la eliminación está Richard Bryan, senador de Nevada, que siempre se opuso a la financiación del proyecto.

La idea subyacente a SETI es muy sencilla: nos ponemos a la escucha de ondas de radio que puedan haber sido emitidas por inteligencias extraterrestres. Si las recibié­ramos confirmaríamos su existencia.

Aunque la idea es simple su realización práctica es muy compleja. En primer lugar, no sabemos hacia dónde apuntar nuestras antenas pues la señal inteligente puede venir de cualquier parte del cielo. En segundo lugar, no sabemos en qué frecuencia buscar. En tercer lugar se nos presenta la dificultad de cómo saber si una señal recibida de las estrellas lleva información inteligente o no.

La enorme tarea realizada por NASA en el Ames Research Center y en el Jet Propulsion Laboratory (JPL) había sido diseñar unos equipos automatizados capaces de explorar en una década todo el espectro electromagnético entre 1 y 10 GHz.

¿Por qué ese rango de frecuencias y no otro? La razón es que esta parte del espectro electromagnético es la que tiene menos cantidad de ruido natural.

¿Cómo saber si una señal es inteligente? Puede haber pautas de emisión muy sencillas que indiquen que se trata de una emisión inteligente; por ejemplo, en el número de enero de 1994 de la revistaNational Geographic, una de las responsables de SETI, Jill Tarter, decía que “sería bonito si ellos enviaran algo obvio, como los dígitos de pi”. Aparentemente sería muy bonito, pero enseguida surgen las dudas. ¿Cómo enviarían los dígitos? ¿Modulando en amplitud? Tal vez fuera lo más obvio; pero al modular en amplitud la mitad de la energía se nos va en la portadora; además, hay muchos fenómenos naturales que modulan en amplitud y que producen secuencias a primera vista inteligentes: pulsares, estrellas de rayos X, quasares, etc. Quizá los alienígenas pensasen que para evitar confusiones lo mejor sería emitir en algo “más evidentemente artificial”, ¿no sería mejor modular en frecuencia? Por otro lado, teniendo en cuenta las enormes distancias estelares, cada intercambio de mensajes llevará varias decenas de años, ¿no es mejor enviar un mensaje mucho más complejo e informativo que la obviedad del número pi?

Podríamos seguir haciendo miles de hipótesis, todas ellas absolutamente razonables. Demasiadas. Tantas que casi cualquier cosa que se recibiera podría ser candidata a encerrar un mensaje inteligente. Estamos casi como al principio, ¿cómo podemos saber si hay un mensaje inteligente o no? Muy difícilmente. No hay respuestas sencillas.

Quizá la única suposición fundada es que el mensaje, por ser inteligente, tiene un cierta estructura gramatical. No sabemos qué estructura, pero por suerte, una gramática implica una disminución de la entropía (en el sentido de la Teoría de la Información) que en ciertas circunstancias puede medirse mediante programas de computador. En mi opinión, ese sería el modo correcto de atacar el problema.

Personalmente soy de los que piensan que la posibilidad de inteligencias ex­tra­te­rres­tres es muy remota; no obstante, creo que el proyecto SETI merecía la pena y me gustaría que no hubiera sido cancelado. Mis razones para ello son:

1. No era muy costoso. Tenía un presupuesto de sólo diez millones de dólares al año.
2. Los mayores costos, los de desarrollo de los equipos, ya estaban hechos.
3. La prueba de que existen inteligencias extraterrestres cambiaría enor­me­mente nuestro modo de ver el universo.
4. Estoy absolutamente seguro de que durante los diez años de búsqueda surgi­rían cosas, al margen de las inteligencias extraterrestres, que mere­cerían la pena. Obviamente no se cuáles. (Ver recuadro sobre pulsares)
5. Cada vez el espacio está radioeléctricamente más sucio. Cada vez hay más satélites que emiten en el intervalo de frecuencias que se iban a usar en el proyecto. Dentro de unos años las interferencias serán tan fuertes que SETI será imposible, al menos desde la Tierra.

[*Recuadro

Pulsares*]

Estrellas de neutrones que emiten pulsos periódicos con gran regularidad. Cuando se descubrieron, algunos científicos pensaron que eran mensajes de seres extraterrestres.

Como ejemplo de lo difícil que puede llegar a ser discernir si una señal es inteligente o no, quiero recordar una historia que ocurrió en el año 1964.

Anthony Hewish, S. Jocelyn Bell y sus colaboradores del Observatorio de la Universidad de Cambridge empezaron a trabajar con un radiotelescopio buscando fuentes de microondas. Muy pronto detectaron un punto a medio camino entre Vega y Altair que emitía breves impulsos. La duración del pulso era de 1/30 de se­gundo y se repetían con una regularidad cronométrica cada 1 1/3 de segundo.

Ni Hewish ni sus colaboradores eran capaces de explicar qué era aquello que transmitía pulsos tan potentes y con tanta precisión. Incluso llegaron a especu­lar con la posibilidad de que fueran radiofaros de una civilización alienígena. Radiofaros para orientar a las naves interestelares en los tramos difíciles del viaje y evitar accidentes.

Cuando en febrero de 1968 Hewish dio a conocer su descubrimiento, la prensa po­pular enseguida se hizo eco de esa idea. ¡Por fin se tenía la prueba de la existencia de inteligencias extraterrestres!

Recuerdo haber leído que esa era la confirmación de la existencia de los Little Green Men -nota 1-. La energía de los pulsos era tan grande que no podía pensarse que los emitiera una civilización tan atrasada como la terrestre. Enseguida surgieron unos "sabios" ru­sos -nota 2- que explicaron que había cuatro niveles de civilización de acuerdo con su capa­cidad de producir energía. Más o menos la división era algo así como: 1) civilizacio­nes sin energía atómica, 2) con energía atómica, 3) capaz de producir la energía de una estrella y, por fin, 4) aquellos capaces de producir la energía de una galaxia.

A partir del anuncio del descubrimiento de Hewish y Jocelyn, otros científicos se pusieron a explorar y muy pronto se descubrieron cientos de estrellas pulsantes (pulsares) y no sólo en el espectro de las microondas. Cuando en 1970 la NASA lanzó el satélite Uhuru, también se descubrieron estrellas que emitían pulsos simila­res pero en las frecuencias de los rayos X. A los pocos meses de su lanzamiento, Uhuru reveló la existencia de muchas de estas fuentes, entre las más extrañas estaban Centauro X-3 que emitía un pulso cada 4,84 segundos, y Hércules X-1 que emitía sus pul­sos cada 1,2 segundos.

Para desesperación de ufólogos y otros feligreses del extraterrestre, muy pronto los teóricos encontraron la explicación de los pulsares de microondas. Se trata de estre­llas de neutrones girando a muy alta velocidad y con un fortísimo campo magnético que crea dos polos en la estrella. En cada polo se producen dos fuertes “haces” de radiación de microondas. Si en su giro uno de los haces se orienta en dirección a la Tierra, recibimos un fuerte pulso cada vez que la estrella da una vuelta completa. Las estrellas de neutrones giran a una enorme ve­locidad. En algunos casos se han llegado a constatar períodos de tan sólo 1,6 milise­gundos, como ocurre, por ejemplo, con el pulsar PSR 1937+21.

(I^3)

Nota 1: Little Green Men. Hombrecillos verdes. El nombre se hizo muy popular en las revistas norteamericanas tanto que muchas veces hablaban simplemente de LGM.
Nota 2: Recordad que la Unión Soviética todavía existía y que en nuestro país decir sabio ruso era algo muy importante.

[*Recuadro

Otros proyectos de búsqueda de inteligencias extraterrestres todavía en marcha*]

SERENDIP III. Estas son las siglas de Search for Extraterrestrial Radio Emissions from Nearby Developed Intelligent Populations, proyecto de la Universidad de California en Berkeley que trabaja con el radiotelescopio de Arecibo, bajo la dirección del astrónomo C. Stuart Bowyer. Parte de su financiación procedía del proyecto SETI de NASA; están buscando financiación alternativa.

SETI - Ohio. La Universidad del Estado de Ohio continúa con su programa, que es el que lleva más tiempo funcionando en el mundo. Lo dirigen los radioastrónomos John Kraus y Robert Dixon. Parte de su financiación procedía del proyecto SETI de NASA; están buscando financiación alternativa.

META I y II. Estas son las siglas para Megachannel Extraterrestrial Assay. Son dos proyectos financiados totalmente por los fondos privados de la Planetary Society. Fueron diseñados por el físico de Harvard Paul Horowitz y funcionan META I en Massachusetts y META II en Argentina.

BETA. Estas son las siglas para (Quarter-Billion channel Extraterrestrial Assay. Es la continuación de los proyectos META. También ha sido diseñado por Paul Horowitz. El problema está en que parte de su financiación procedía del proyecto SETI de NASA. Lo más probable es que se retrase por falta de fondos.

SETI Institute. SETI Institute de Mountain View (California) es una sociedad privada que espera conseguir siete millones de dólares para continuar con el proyec­to SETI de NASA. Ellos esperan poder usar los equipos desarrollados por el Ames Research Center. Parece ser que hay claras indicaciones de NASA de que dejará usar sus equipos si consiguen la financiación.

(F. Ares. Con algunos datos procedentes del artículo de Thomas R. McDonough titulado “NASA’s SETI Project Killed”, publicado en el número de diciembre de 1993 del boletín del CSICOP: Skeptical Briefs.)


Enviado por flexarorion a las 15:43 | 0 Comentarios | Enlace


Lucy en el cielo con diamantes (Escrito en 2005) 2015-03-23

Publicado en el Diario Vasco. Columna Big Bang el 7 de julio de 2005

Nota para maquetación: Poner siempre Australopithecus afarensis en cursiva (es un convenio científico).

Añadido: el artículo se publicó sin cursivas pues, según me dijo el maquetador, es muy difíl ponerlas con el editor que usa el periódico.

Lucy en el cielo con diamantes

(Nota posterior: el título para el periódico fue tan solo Lucy con diamantes, pues no me permitían seis palabras en el título)

Hace unos días ha muerto de un cáncer Lucy, la niña que inspiró a John Lennon la canción «Lucy in the Sky with Diamonds» (Lucy con diamantes en el cielo).

Algunos pensaban que la letra se refería al LSD, pero Lennon siempre defendió que no, que era una niña real, una amiga de su hijo Julián, que a los cuatro años había hecho un dibujo de su amiga Lucy con algunas estrellas en el cielo, y le puso el título de: Lucy con diamantes en el cielo.

Lucy es el nombre que dieron a un esqueleto muy completo de Australopithecus afarensis, que vivió hace 3,5 millones de años. Era una hembra de aproximadamente un metro, pesaba unos 27 kilos y tenía una edad próxima a los veinte años. Tenía un cráneo diminuto, de tan sólo 400 centímetros cúbicos, pero la forma específica de su pelvis indicaba que andaba sobre sus piernas, al menos en algunas ocasiones; es decir, era un bípedo, lo que representaba un paso esencial en la evolución de nuestra especie.

Junto con ella, en Etiopía, se encontraron otros cinco o seis individuos, dos de ellos niños de unos cinco años, pero el más completo era el de Lucy, del que se conservan 52 piezas.
¿Y por qué se le llamó Lucy? El esqueleto apareció el domingo 14 de noviembre de 1974, en unas excavaciones dirigidas por el profesor Donald Johanson. Fue un estudiante de nombre Tom Gray quien lo encontró. Al darse cuenta de su hallazgo grito: ¡Lo hemos encontrado!¡Un esqueleto casi completo!

El descubrimiento era tan importante que cuando regresaron al campo base -que estaba en Sidi Hakoma- todo el mundo, incluyendo investigadores, becarios y obreros festejaron con champán el hallazgo y alguien puso en el pequeño magnetófono del campamento Lucy con diamantes en el cielo. Todos estuvieron de acuerdo en llamar Lucy a aquel extraordinario descubrimiento.

Enviado por flexarorion a las 18:49 | 0 Comentarios | Enlace


Los colores del vestido 2015-03-23

Los colores del vestido
Publicado en Diario Vasco. Big Bang el 04 de marzo de 2015

Autor: Félix Ares

[/¿El famoso vestido de internet es blanco y dorado o azul y negro?*]


Fulminantemente la foto de un vestido se ha hecho viral en la red. Es un vestido con bandas horizontales de dos colores que vamos a llamar claro y oscuro. La sorpresa surge cuando el 70% de los que lo ven dicen que las bandas claras son blancas y las oscuras doradas y un 30% nos dice que las bandas claras son azules y las oscuras negras. No se trata de unas diferencias de matiz, son diferencias brutales: de blanco brillante se pasa a azul oscuro y de dorado luminoso a negro oscuro.

Que cada persona ve las cosas de un modo ligeramente diferente es un fenómeno perfectamente conocido. Un ejemplo claro son los daltónicos, que ven el mundo de forma distinta.

Lo novedoso de este caso, es que no hay ninguna enfermedad por medio, ni ningún daltonismo, ni nada por el estilo; es algo mucho más sutil y complejo. Para entenderlo, debemos pensar que nuestra visión de los colores evolucionó en un mundo de luz cambiante. De hecho, vivimos en un mundo con luz cambiante. Por la mañana y al atardecer la luz que nos llega del sol contiene más rojos que al mediodía. El simple paso de una nube cambia la escena totalmente.
¿Os habéis preguntado cómo es posible que la página de un libro la veamos blanca con muy distintas iluminaciones? La vemos blanca a la luz del sol, pero también la vemos blanca cuando está a punto de caer la noche, y la vemos blanca con luz fluorescente, y con leds, al amanecer con mucha luz rojiza y al mediodía con mucha luz azul. Sin embargo, si lo medimos con un aparato, o simplemente pensamos un poco, la luz que despiden las tapas negras de un libro a pleno sol es superior a la que despide un papel blanco al anochecer. Si el negro refleja más luz que el blanco, ¿por qué lo vemos negro y no blanco? La respuesta es que el color que percibimos es una elaboración de nuestro cerebro, que a lo largo de la evolución de nuestro sistema visual –ojos más cerebro– ha potenciado la «constancia del color»; un ejemplo, que la página de un libro la veamos siempre blanca con luces muy distintas. La razón parece bastante evidente. Pensemos que vemos predador, un tigre de manchas rojizas, si por pasar una nube lo viéramos azul nos podríamos despistar y creer que es otro animal. Si es otro animal, no es nuestro depredador y termina comiéndonos. Otro tanto podemos decir del color de las frutas.

En el sorprendente caso del vestido, las correcciones en el color que hace nuestro cerebro, hacen que el 70% de las personas lo veamos de una forma y el 30% de otra.

Añadido: Con el GIMP he cambiado la luminosidad (no el color) y he obtenido esto:

vestido




2713

Enviado por flexarorion a las 18:38 | 0 Comentarios | Enlace


¿Ordenador o computadora? (escrito 2005) 2015-03-19

Publicado en Diario Vasco. Columna Big Bang 6 de julio de 2005

Autor: Félix Ares

¿Ordenador o computadora?

A mediados del siglo pasado a algunas empresas llegaron máquinas que eran capaces de clasificar fichas. Por ejemplo, una cadena de zapaterías. Dentro de cada par de zapatos había una ficha perforada con sus características. Cuando lo vendían enviaban la ficha a las oficinas centrales. Allí, con aquellas máquinas, podían separarlas de acuerdo con diversos criterios, por ejemplo, el color. Se programaba la máquina para dejar en un casillero determinado los zapatos de color marrón, en otro los negros, etc. Estas máquinas que separaban las fichas de acuerdo con diversos criterios recibieron diferentes nombres, por ejemplo lectoclasificadoras cuya etimología está clara: leían las fichas y las clasificaban. En Francia las llamaron ordinateur, cuya etimología también está clara: ordenaban las fichas. De ahí nuestro ordenador. Aunque está claro que los ordenadores hacen muchas más cosas que ordenar fichas.

A finales de la Segunda Guerra Mundial había nuevos cañones, muchos de ellos antiaéreos. Lo más curioso es que el cuello de botella para llevarlos al frente estaba en los cálculos matemáticos que había que hacer. Los cañones no servían de mucho sino iban acompañados de tablas que señalasen los alcances según una serie de parámetros: ángulo de tiro, velocidad y dirección del viento, etc. A esa labor de cálculo se dedicaron fundamentalmente mujeres porque los hombres estaban en el frente. En 1946 se hizo una máquina electrónica, llamada ENIAC, que era tan rápida como cien calculadoras humanas. La llamaron Electronic Computer. En algunos países de habla castellana hemos traducido por Computadora y en otros por Computador.

La mayor parte de los Computers eran mujeres, por lo tanto el nombre que mejor cuadra a nuestros ordenadores es Computadoras.

Enviado por flexarorion a las 03:09 | 0 Comentarios | Enlace


Galeones, hormigas y genes 2015-03-19

{*Galeones, hormigas y genes*]
Publicado en Diario Vasco. Big Bang el 25 de febrero de 2015

Autor: Félix Ares

Estudios genéticos muestran que la hormiga roja y otras plagas viajaron en los galeones españoles


Cada día hay más estudios genéticos que ayudan a entender la historia. Es sumamente gratificante que ciencias distintas se mezclen y se complementen. Trato de imaginar qué podrían pensar los historiadores, antropólogos y arqueólogos cuando en 1953 Watson y Crick descubrieron que el secreto de la herencia de los seres vivos estaba en una doble hélice. Supongo –sin haber hecho un estudio sobre el tema– que para ellos fue un tema marginal y, seguro que muy pocos pensaron que aquello pudiera tener nada que ver con sus estudios. Otro tanto podríamos decir a la inversa, es muy difícil que algún biólogo pensase que la historia les iba a ser de gran ayuda.

Pero estamos en 2015 y nadie pone en duda la colaboración mutua entre ciencias de la historia y biología molecular. En el número del 16 de enero de este año, la revista «Molecular Ecology» publicaba el interesantísimo artículo «Historia de la invasión global de la hormiga de fuego tropical: un polizón en las primeras rutas comerciales mundiales». El autor principal es Dietrich Gotzek.

Estudiaron los genes de la hormiga roja de fuego tropical –'Solenopsis geminata'– que está extendida por las zonas tropicales y subtropicales de todo el mundo, y llegaron a la conclusión de que su origen era el suroeste de México y que su expansión por el mundo debió ocurrir en el siglo XVI. Los genes contaban la historia del comercio español. Recordemos aquel famoso galeón de Manila, que, sin duda, llevó la hormiga roja a Filipinas. Otros barcos las llevaron a Macao, Indonesia, Australia, Acapulco, Cuba, Lima y, como no, también a España…

Estas hormigas a veces se comportan como granívoras y comen las semillas de coles, maíz, sorgo y tomate. Pero no solo se come las semillas, también rodea la planta y mordisquea los tallos, ramas, flores y frutas, con enormes daños para los cultivos. Y no debemos olvidar que pican a los humanos y que sus picaduras no solo son dolorosísimas sino que en caso de alergia producen reacciones muy adversas, que en unos pocos casos puede incluso ser la muerte.

Los barcos del comercio no solo transportaban hormigas y las conocidas ratas; también llevaban multitud de plagas. Cuando una embarcación salía sin carga, necesitaba lastre para navegar adecuadamente. Este, habitualmente, era tierra, que se abandonaba y quedaba depositada –con todo su cargamento de plagas– en tierras lejanas, donde el ecosistema no tenía defensas para los invasores.

Enviado por flexarorion a las 03:03 | 0 Comentarios | Enlace


El dia Pi-jo y el precio de la tableta en maravedís 2015-03-15

Ayer fue el llamado día PI en el mundo anglosajón. Ya saben ustedes que los anglos tiene la estúpida e incoherente costumbre de poner la fecha como Mes/día/año y que, por tanto, el 14 de marzo de 2015 se puede escribir como 3/14/15, que se aproxima al valor de PI.

A mi me resulta racional poner la fecha como día/mes/año, pues vas de lo más concreto --el día-- a los más extenso --el año--. Habitualmente, uso como nombre de mis ficheros, la nomenclatura al revés; es decir, año/mes/día, pues de ese modo los archivos quedan ordenador cronológicamente cuando se listan alfabéticamente, como hacen la mayor parte de los Sistemas Operativos.

Pero el Mes/día/año me parece un sinsentido: ni crece, ni disminuye. Es un batiburrillo.

Pero parece que un sistema obsoleto, que se restringe a un puñado de países que se resisten a la modernidad, se sobrepone a todos los demás. Pero, además, para vergüenza de los Pi-jos, es que existe un estándar universal, nada menos que la norma ISO que dice que hay que usar año/mes/día. Es decir, que el 14 de marzo de 2015, es, según las normas ISO: 20150314, que se parece a Pi lo que una lechuga a un conejo. (Los conejos comen lechugas).

No entiendo esa manía de países que somos lógicos y usamos sistemas estándares como el Sistema Métrico Decimal y las normas ISO, de utilizar gilipolleces obsoletas y poco útiles como las medidas anglosajonas y los sistemas de escritura obsoleta anglosajona. (NOTA: USA fue el primer país que firmo el Sistema Métrico Decimal y uno de los primeros en firmar las normas ISO, pero sus ciudadanos se niegan a usarlos. Pues que les den... No entiendo que debamos imitar las horribles conductas de esos ciudadanos que nos retrotraen varios siglos).

Acabo de ver que la nueva tableta con sistema operativo Ubuntu saldrá en una versión de 10,5 pulgadas. Lógicamente, para ser coherentes, si usamos como medida de la pantalla la pulgada, deberíamos usar como medida monetaria el maravedí. Dicho sea de paso, esa tableta costaría aproximadamente 22 maravedís, si tenemos en cuenta el poder adquisitivo del maravedí.

Decir el tamaño de las pantallas en pulgadas --que casi nadie intuye lo que es--, la gilipollez del día Pi, me pone tan de mal humor como los "hispster" --antes pijos-- que dicen que tienen un disco duro de 200 "yigas". ¿Alguna vez han pasado por el bachillerato y han leído que el prefijo Giga del Sistema Métrico Decimal significa mil millones. Escrito así: giga, y como es castellano, pronunciado así: jiga?.


Enviado por flexarorion a las 10:00 | 0 Comentarios | Enlace


1995: OS/2-HOME: EL SISTEMA OPERATIVO PARA EL SIGLO XXI 2015-03-09

1995: OS/2-HOME: EL SISTEMA OPERATIVO PARA EL SIGLO XXI

Tal como había indicado en el post NIDOS, en 1995 IBM hizo un concurso para que los usuarios escribieran cómo querían que fuera un sistema operativo para el hogar. En las bases decían que no podía tener más de cinco páginas. Escribí esté cuentecillo intrascendente.

OS/2-HOME: EL SISTEMA OPERATIVO PARA EL SIGLO XXI

—Mari Carmen, ¿puedes ayudarme a escribir un artículo?
—Si vienes a la cocina puedo hablar contigo; pero no puedo ir a tu cuarto pues estoy preparando un besugo en el horno. ¿De qué se trata?
—Pues mira: acabo de recibir una información de IBM en la que dan unos importantes premios para varias cosas relacionadas con los Computadores Per­so­nales. Una de ellas es crear un eslogan en siete palabras o menos en las que re­su­mas por qué tienes o desearías tener un PC en casa. Recuerdo que hace un par de años enviaste un eslogan a una revista y ganaste, ¿no es así?
—Sí, cuando nos fuimos una semana a Málaga.
—Pues si te parece podíamos enviar algún slogan. Además, hay otros premios, uno de programación, otro de multimedia... y sobre todo hay uno de periodismo que me parece interesantísimo. Se trata de escribir cuál es nuestra idea de los PCs o del sistema operativo del siglo XXI.
—Bueno, yo te puedo ayudar en lo del eslogan; pero poco puedo hacer en lo del sistema operativo. Eso es lo tuyo.
—No te creas. Yo como experto lo veo todo desde el punto de vista técnico; y quizá sea mucho más interesante ver tu opinión como usuaria del mismo. Tú utilizas el PC para hacer cartas y escribir tus informes. Quizá tu visión de lo que echas en falta y lo que te gustaría que tuviera pueda ayudar a definir lo que debe hacer el sistema operativo de los PCs del próximo siglo.
—¡Guauuu!, me acabo de quemar. Maldito horno. ¿Sabes lo que debería hacer el PC?: debería guisar, o al menos ayudarnos a guisar. Así no me quemaría.
—¡Ummm! No sé. Eso más bien forma parte de la robótica. Tú quieres un robot que guise por nosotros. Pero eso no es un PC en el sentido estricto.
—¿Ah, no? ¿Entonces qué es lo que controla al robot? ¿No es un PC con un Sistema Operativo especializado?
—Sí, en el fondo sí; pero me da la sensación de que IBM lo que pretende es que hablemos del Sistema Operativo del Computador Personal de sobremesa.
—Lo que tú quieras; pero si tengo que dar mi opinión, lo que a mi más me gustaría es que el PC guisara. Y eso no me lo vas a quitar de la cabeza. Y si se trata de un Computador Personal doméstico, todavía con más razón. A ver, veamos, ¿qué es lo más pesado de las tareas del hogar?, ¿escribir cartas?, ¿que los niños jueguen a marcianos?, ¿que escriban los deberes de clase con el procesador de texto? Pues claro que no. Lo más pesado es hacer las camas, guisar, lavar la ropa, apagar la televisión a la hora que los niños deben acostarse, encender la calefacción por la mañana, apagarla, y cosas por el estilo. ¡Eso es lo que debería hacer el Sistema Operativo de un Computador doméstico. Además, debería hacerlo automáticamente sin programarle de nin­guna manera: ni tan siquiera diciéndoselo. Tendría que aprender de la experiencia.
—A ver, explícate más.
—Pues muy sencillo. Por la mañana, al levantarnos, sería muy interesante que a cada uno de nosotros nos llamase, con una alarma, encendiendo la radio y las luces. Sin molestar a los demás.
Si estuviéramos en invierno; pre­via­mente debería haber calentado la habitación hasta los 18º para levantarnos a gusto, sin pereza. Y no sólo la habi­tación, también el cuarto de baño.
No creo que eso sea muy difícil. Se trata simplemente de que lleve un reloj, un calendario y unas acciones a efectuar.
—Quizá lleves razón. La verdad es que todo lo que has dicho hasta ahora es fácil y existe. Hay interruptores controlados por el PC y hay productos que lan­zan procesos en momentos determinados. Quizá lo más difícil sea normalizar los interfaces y que todos los fabricantes se pongan de acuerdo en tener conectores y protocolos estándares. Pero eso es muy difícil.
—Por supuesto que es difícil; pero estamos hablando de IBM y del PC del futuro. Pienso que una gran empresa como IBM debería plantear esos estándares y tratar de que los aceptaran la mayor parte de fabricantes posibles.
—Sí, la estandarización es fundamental. La historia de los PCs nos ha demostrado que cuando hay estandarización, hay un gran mercado, los fabricantes de software y de hardware hacen muchas cosas, hay competencia y los precios bajan y se hacen accesibles a todo el mundo.
Creo que tu idea no es mala. Voy apuntando, ideas, luego las daré forma.
Veamos: 1) El PC del futuro debe tener un conector «hogareño» que permita apagar y encender interruptores. Lo del calendario es muy sencillo, cualquiera de las agendas actuales da funcionalidades más que suficientes para ello.
—Lo que ya no veo tan claro es lo de hacer las camas. Mejor no pongo nada de esto, pues se trataría de robots. Ni lo de guisar.
—En lo de guisar, no estoy de acuerdo. Fíjate en lo que estoy haciendo. Se trata de asar un besugo. Hay unas acciones muy claras y muy definidas: una vez limpio, cortado y preparado en una bandeja, lo pongo en el horno. El horno de microondas debe estar 10 minutos funcionado. Luego hay que abrir y echar un sofrito de ajos con vinagre. Después hay que ponerlo otros diez minutos con el grill encendido para que se dore.
Lo que diferencia a un buen cocinero de uno malo, no es tanto el besugo, como las salsas que echa, los momentos en los que lo hace y los tiempos de duración de cada cosa.
Quizá lo que tenemos que hacer no es tratar de adaptar el PC al horno, sino lo contrario: adaptar el horno al PC. Pensemos en un horno que tenga cuatro o cinco compartimentos externos que permiten introducir ciertas salsas, líquidos o especias; por ejemplo, aceite, vinagre o pimienta. Estos compartimentos tienen unas válvulas que los abren cuando lo ordena el programa. Con ello tendríamos resueltas la mayor parte de las acciones de los asados normales y, otra vez, estamos ante interruptores y una buena agenda que defina con precisión los tiempos en los que ocurren las cosas. ¡Nada más!
Lo que tendríamos que lograr es un interfaz para «horno» que permita abrir y cerrar válvulas, que encienda y apague el microondas y/o el grill.
—Quizá estás simplificando demasiado lo que hace un buen cocinero.
— Sí, llevas razón. El buen cocinero también hace las salsas y de vez en cuando agita las cazuelas y los tiempos de cada acción los calcula de acuerdo con el peso, las calidades de los productos y con lo que va ocurriendo, para lo cual hace catas periódicas.
Pues bien, pongamos en el horno un agitador, un termómetro interno y hagamos a los cocineros editores de programas.
—¿Cómo dices?
—Me explico. Si ahora quieres probar una comida de Karlos Arguiñano, tienes que ir a su restaurante. Veamos lo que puede ocurrir con la nueva situación. Tenemos un horno que dispone de cinco tolvas donde se pueden depositar diferentes salsas, un grill, un microondas, un termómetro y un agitador.
Arguiñano podía hacer las salsas y un programa —sistema experto— que hiciera todas las temporizaciones.
Los fabricantes de sopas en sobre, venderían las salsas junto con el diskette para manejar el horno. Volvamos al caso del besugo: nosotros lo único que tendríamos que hacer es comprar el besugo, limpiarlo, ponerlo en el horno y echar en los compartimentos de salsas lo que nos vende el fabricante: sobre 1 en compartimento 1; sobre 2 en compartimento 2, etc. El diskette se lo pondríamos al PC que nos podría hacer algunas preguntas, como, por ejemplo, ¿cuánto pesa el besugo?, ¿cómo lo quiere: muy tostado o poco?, ¿muy picante?, ¿está a régimen?, ¿puede tomar sal?... y de acuerdo con nuestras respuestas iría abriendo y cerrando válvulas en los momentos oportunos, encendiendo el grill, midiendo la temperatura, agitando la cazuela, etc.
Sería curiosísimo: los cocineros se convertirían en editores.
—Pues visto así, quizá la idea no sea tan mala y una vez más lo que hay que hacer es poner de acuerdo a los fabricantes en un estándar común.
—Apunto: 2) estándar de hornos.
—¿Por qué otro estándar?, ¿no sería lógico que el fuera el mismo que el «hogareño» del que hemos hablado antes.
—Claro. Ya lo empiezo a ver: llevas razón. Se trata de estandarizar un interfaz para el PC y ciertos electrodomésticos.
—Y de fabricar los electrodomésticos sabiendo que en todas las casas hay un PC capaz de controlarlos. Por supuesto, los equipos deberían ser del tipo de «conectar y trabajar». El propio PC debería ser capaz de reconocer el dispositivo y configurarse para maniobrar con él directamente; sin instalaciones complicadas. Al PC deberían poderse conectar varias docenas de dispositivos.
—Obviamente, el sistema operativo debería ser multitarea preemtiva: mientras está encendiendo la calefacción, simultáneamente tendría que llamar a Verónica y empezar a encender las luces, poco a poco, para no sobresaltarla. Todas las tareas debe hacerlas a la vez y ninguna debería adueñarse por entero del PC.
—También sería muy interesante que cuando te despertara por la mañana te dijera qué tiempo hace. Por ejemplo: «Buenos días Verónica. Te pongo el último disco de Sergio Dalma. Abrígate al salir y lleva paraguas, hace siete grados y llueve».
—Cada pocos minutos debería ser capaz de tomar datos de lo que ocurre en el exterior. Para todo ello es imprescindible una magnífica gestión de multitarea que permita realizar cientos de funciones simultáneamente y dando prioridad a lo más urgente.
—Lógicamente, también debería contestar al teléfono y dar mensajes. Debía er un contestador automático inteligente y, por supuesto, debería hacer de fax y de correo vocal.
—¿Qué quieres decir contestador inteligente?
—Pues que no se limite a dar un simple mensaje y grabar lo que le digan. Debe hacer más cosas; por ejemplo, la presentación debe variar dependiendo de la hora, día de la semana y del año que sea. Incluso tendría que conocer las voces de los de casa y los amigos y familiares más próximos para actuar de modo diferencial. Por ejemplo, si llama mamá, le podría dar un mensaje que hubiéramos dejado específicamente para ella. Si llamase alguien desconocido le podríamos dar dos o tres opciones y según su contestación grabarlo en un sitio o en otro. Por ejemplo, podría preguntar: ¿para quién es la llamada? De acuerdo con su respuesta ponerla en el buzón de Álvaro, en el de Verónica en el tuyo o en mío. Cada uno de nosotros debería poder acceder a su buzón desde cualquier teléfono.
—Lógicamente debería ser un Sistema Operativo muy robusto, resistente a los apagones; que se reinicializase solo; que no perdiera el reloj y que estuviera protegido de sus propios errores. Todos sabemos que es imposible hacer un sistema operativo sin «bugs»; pero tendría que tener muy buenos sistemas de recuperación, de modo que si se quedase colgado se reinicializase rápidamente él solo. Por ejemplo, debería estar tomado muestras de la temperatura y humedad externas cada minuto. Si en dos minutos no ha tomado ninguna muestra es que algo pasa. En ese caso, el Sistema Operativo debería lanzar unas rutinas de recuperación; incluso debería tener previsto fallos en las mismas y establecer un sistema de «percolation» para recuperar a las «recuperadoras» si fuera necesario. También debería tener ciertas funciones muy mezcladas con el propio hardware, tal vez el propio procesador o la BIOS, que fueran capaces de rearrancar cuando ninguno de los intentos anteriores fueran fructíferos.
—Mari Carmen, ¿sabes una cosa? Todo lo que hemos dicho hasta ahora no es ciencia ficción. Todo se puede hacer con la tecnología actual. Lo único difícil es que un grupo grande de fabricantes admita las normas. No hemos hablado de nada mágico, ni hemos utilizado funciones avanzadas. Simplemente hemos hablado de un sistema operativo robusto multitarea y de unos interfaces normalizados con los equipos electrodomésticos que son un poco especiales, pero dentro de lo sencillo de fabricar.
—Me alegro. Escríbelo. ¡Se me olvidaba!, apunta también que debíamos tener una Red de Área Local. Ya estoy harta de que Álvaro y Verónica se peguen por el PC. ¡Y tu también te quejas a veces de que te están usando la máquina! Cada uno deberíamos tener nuestro propio PC, y que nos permitiera trabajar de modo cooperativo. Por ejemplo, tú, desde tu PC deberías poder verificar que Álvaro estaba haciendo bien sus deberes de matemáticas y yo debería ser capaz de ver si Verónica hace bien su trabajo de Lengua.
—También sería muy interesante que la potencia de cálculo de todos los PCs se pudiera compartir. Sería absurdo que tú hubieras lanzado una de esas cosas que haces, que tardan dos o tres horas con el computador al 100% y que no pudieras trabajar, desde tu pantalla, estando el PC de Verónica casi desocupado: dedicándose a una tarea muy sencilla. El Sistema Operativo debería tener en cuenta que hay cuatro Computadores Personales en la Red y distribuir las cargas de trabajo entre todos ellos.
—Muy buena idea. La voy a apuntar: 3) Sistema Operativo multimáquina. Pero, ¿sabes una cosa?
—¿Cuál?
—Que en el concurso hablaban de cinco páginas y todo esto va a ser muy difícil meterlo en tan poco espacio. Fíjate que nos falta hablar de funciones avanzadas de reconocimiento de voz para controlar el contestador, para abrir las puertas y las luces. Nos falta hablar de técnicas para controlar los vídeos, o incluso para que la propia Red sea un equipo de vídeo capaz de grabar o reproducir varios canales a la vez, de la televisión de banda ancha, de petición de películas a la demanda, de hacer compras, de videoconferencia, de trabajo a distancia o de ver la tele desde el PC.
—Y no te olvides de que deben ser programas autodiscentes, que aprendan de su propia experiencia. ¡Ese debe ser su modo fundamental de programarse: por la experiencia! A lo sumo nosotros deberíamos introducir premios cuando acierta y castigos cuando se equivoca.
—Pues lo siento; pero eso no lo voy a poder poner pues el espacio se acabó.

Félix Ares

Enviado por flexarorion a las 03:48 | 0 Comentarios | Enlace


Segundo intercalar 2015-03-09

Segundo intercalar
Publicado en Diario Vasco. Big Bang el 18 de febrero de 2015

Autor: Félix Ares

El año 2015 durará un segundo más que lo hizo 2014

Hemos creado máquinas cada vez más precisas para medir el tiempo, aunque el veredicto final sobre la hora civil lo da la astronomía; es decir, es la rotación de la Tierra la que marca la duración de un día: 24 horas. Lo que tarda la Tierra en dar una vuelta sobre sí misma no es siempre igual; de hecho, hay una disminución de la velocidad de giro que se puede medir, aunque no es uniforme. El factor principal se debe a las mareas, pero nos es único, la velocidad también se ve afectada por las corrientes de aire y de agua, por los seísmos, por los tsunamis e incluso por el choque de meteoritos. Si la disminución por las mareas es bastante estable, todo lo demás depende del azar, no podemos predecirlo. Todo ello significa que nuestro gran reloj, la Tierra, no es demasiado bueno para los estándares actuales. Era excelente para los siglos anteriores al XX, pero ya no lo es.

Si nos vamos 400 millones años hacia atrás, el año duraba 400 días, lo que nos dice claramente que cada día duraba bastante menos que hoy. ¿Y cómo lo sabemos? Hay varias formas pero la más sencilla se basa en el crecimiento de los corales, que lo hacen en anillos donde se distinguen perfectamente los anillos diarios y los anillos anuales. Nos basta contar los diarios entre dos anillos anuales para saber el número de días que tenía el año cuando aquel coral vivía. Este dato nos dice que el día duraba 21,9 horas. Otra forma de datación, la radiométrica –que no voy a contar– nos dice que era de 22 horas. Las dos medidas se refuerzan.

Cuando se inventaron los relojes atómicos, resultó que tenían una precisión mucho mayor que la Tierra. Esos relojes eran muy útiles para mantener la hora en las redes de telecomunicaciones, o en las redes de ordenadores, pero había un conflicto con hora civil que se basaba en la astronomía –en el giro de la Tierra–. Para sincronizar las dos horas lo que se hace es que cuando la diferencia entre los dos tiempos supera los 0,7 segundos se añade o se resta ese segundo de los relojes atómicos. Desde 1972, que fue cuando se implantó el sistema, siempre se ha «sumado» un segundo a los relojes atómicos pero se podría haber dado el efecto contrario; por ejemplo, con un gran terremoto que acelerase el giro de la Tierra y obligase a «restar» un segundo, aunque esto no se ha dado.

Ya hemos llegado a los 0,7 segundos de diferencia y el día 30 de junio de 2015 se añadirá un segundo a los relojes atómicos, así que 2015 durará un segundo más que lo hizo 2014.

Enviado por flexarorion a las 03:24 | 0 Comentarios | Enlace


NIDOS 2015-03-07

NIDOS
New Intelligent Domestic Operating System:
Sistema Operativo de Computadores para el Hogar.

En 1995, IBM España lanzo un concurso para que los usuarios dijeran qué esperaban de un Sistema Operativo para el hogar. En las bases decía que podía escribirse como una historia. Yo escribí este cuento. La entrega de premios iba a celebrarse en el Palacio de Congresos de Madrid. Unos días antes del evento, el Palacio se incendió y nunca volví a saber nada del concurso. Supongo que los originales ardieron, o algo similar. O le han dado el premio a otra persona y yo no me enteré. En fin, he aquí mi cuentecillo. Téngase en cuenta que está escrito en 1995.

F. Ares

Trabajo en casa. La mayoría de la gente diría que soy un «ama de casa», aunque me considero mucho más. Bien es verdad que cuido de la casa y de los niños, pero también hago labores de secretaria para mi marido: voy a la biblioteca a tomar notas, con el PC familiar doy forma final a sus artículos, colaboro filantrópicamente con varios grupos de ayuda humanitaria a los que he hecho varias aplicaciones informáticas de correspondencia y control de cuotas.
Hace unos días, recibimos en casa una publicidad de IBM en la que se nos invitaba a escribir de modo libre sobre lo que nos gustaría que tuviera el computador doméstico del futuro.
La verdad es que no me sentía capacitada para exponer mis ideas, hasta hace un rato. He ido a unos grandes almacenes a hacer la compra para varios días, y he llegado a casa como siempre, es decir: cargada con cinco o seis paquetes en equilibrio inestable. Para entrar, lo primero que he tenido que hacer es buscar la llave, he intentado hacerlo sin dejar los paquetes en el suelo y el resultado ha sido desastroso. Se me han caído todos. Sólo se han roto unos pocos huevos, el resto de la compra está intacto; pero de todos modos me he enfadado bastante. En mitad de mi furia he pensado en el PC del futuro. ¡Lo que tendría que haber hecho era abrirme la puerta! Al verme llegar con las bolsas tendría que haberme abierto las puertas.
Ya, ya sé que la tecnología actual no permite que un PC reconozca caras; y mucho menos si ésta está escondida detrás de un montón de bolsas; pero estamos hablando del futuro. En cualquier caso lo que sí es posible con la tecnología actual es que el PC reconozca una voz. ¿Por qué no la podríamos usar como llave? En la puerta habría un micrófono conectado al PC. Cuando yo llegase le diría algo así como: ¡Sésamo ábrete! Y él, obediente, como un fiel sirviente, abriría la puerta.
Ya era de noche y tras abrir la puerta se me planteó otro problema: ¿Cómo encender las luces? Otra vez estaba cargada de paquetes y los conmutadores estaban poco accesibles. Recordé que en el supermercado había visto unos interruptores que se activaban por el ruido y pensé: el que ahora chillando o dando un golpe el suelo con el pié se encendiera la luz del hall sería muy interesante; pero lo sería mucho más si yo dijera: ¡Hágase la Luz! Y que la luz se hiciera.
No, no quiero jugar a ser dios. Quiero algo mucho más sencillo. Una vez más, habría un micrófono y yo habría "educado" a mi computador para que al oír mi voz pronunciando la palabra luz, encendiera la bombilla más próxima.
El PC es un elemento inteligente, por tanto, al ir avanzando por la casa, debería de ir encendiendo las nuevas luces, y —lo que es muy importante para la factura mensual de electricidad— apagar aquellas zonas en las que ya no se necesitasen.
Hablando de facturas, tenemos calefacción eléctrica. Al llegar, la casa estaba completamente fría porque los radiadores estaban apagados. Bien es verdad que tienen programadores; pero son chismes absolutamente estúpidos: lo único que hacen es repetir todos los días lo mismo. Sería sumamente interesante que el PC controlase la calefacción de un modo mucho más inteligente. En primer lugar debería de tener en cuenta los diferentes días de la semana y los horarios de cada uno de los miembros de la familia. Y no sólo eso, también debería de contar con el calor y la humedad pues todos sabemos que la sensación de confort depende de ellos. Y tendría que aprender de la experiencia. Esto último es muy importante. De algún modo nosotros podríamos haberle introducido unas pautas de programación iniciales: los días laborables enciendes la calefacción del cuarto de baño a las 7h de la mañana, siempre y cuando el índice de confort sea inferior a siete. Enciendes la calefacción de la niña a las 7h 30’. La del niño a las 8h. El salón lo enciendes a las 11h de la mañana... los festivos enciendes la tele a las 12h... Es evidente que por muy bien que lo hubiéramos programado siempre habría días en los que las pautas de comportamiento serían diferentes. Sería absurdo que se encendiera la calefacción del cuarto del niño si él se hubiera ido de excursión con el colegio. Por lo tanto, el programa básico debería de tener inteligencia suficiente para no hacer cosas absurdas. Por ejemplo, si no se ha encendido la luz en ningún momento en las nueve horas anteriores, no encender la calefacción, aunque lo diga la agenda. Además, poco a poco las costumbres cambian. El niño, que por ser pequeño entra en el colegio a las nueve, el año que viene será “mayor” y entrará a las ocho. Sería absurdo y complicado que tuviéramos que reprogramar cada cambio de costumbres familiares. Lo lógico es que cuando el PC viera un comportamiento repetitivo diferente, se ajustase a él.
En el párrafo anterior he hablado de índice de confort, ustedes se preguntarán: ¿qué demonios es eso? Pues la verdad es que no lo sé muy bien; pero tengo una vaga idea de lo que quiero. Es evidente que la sensación de estar “a gusto” depende de muchas cosas, por un lado de la propia persona, por otro de la temperatura, de la humedad y del movimiento del viento. Suponemos que dentro de nuestra casa no hay corrientes de aire y que la calefacción propaga el calor por convección. Estoy segura de que existe un índice de confort, que liga la temperatura y la humedad “ideales” para diversas situaciones: cuando se está vestido; cuando se está desnudo para entrar en la ducha, cuando se sale de la misma mojado, etc. Mi experiencia me dice que también un factor subjetivo; por ejemplo, en mi caso, cuando la temperatura es de veinte grados a mi me parece que hace frío y, sin embargo, mi marido se queja de calor.
Por eso, el computador debe ser personalizable y nos debe de preguntar cuál es el valor del índice confort de cada miembro de la familia. Y actuar en consecuencia. Es decir, cuando encienda la calefacción del cuarto de baño porque se levanta mi marido basta con un índice siete, mientras que cuando lo haga para la niña deberá poner un ocho.
Realmente, algo muy diferente de los estúpidos “programadores” de los radiadores actuales.
Otro jaleo es el de la temperatura del agua. ¡Qué difícil es acertar con la posición ideal del grifo! Supongo que será debido a que las presiónes del gas y del agua varían a lo largo del día; pero en cualquier caso esun lío: en mi casa tenemos grifos monomando, unos días para bañarse agradablemente hay que tenerlo todo hacia la izquierda, es decir hacía el agua caliente; otros días hacia la derecha; otros hacía el centro. ¡Qué barullo! Cuando entro en la bañera algunas veces me quemo y otras me congelo.
Sería una gran contribución a la humanidad que fuera el Sistema Operativo del PC quien controlase el grifo. Supongamos que soy yo la que voy a ducharme. Entraría en el baño (que estaría a la temperatura que a mí me gusta porque así me lo habría puesto NIDOS); le diría: abre el agua y él pondría la presión y la temperatura que sabe que me gustan y, pasase lo que pasase con el gas o con la presión del agua, él mantendría mis preferencias. ¡Qué gusto daría bañarse así!

Me parece que me he alejado mucho de lo que estaba contándoles: mi entrada triunfal en casa esta tarde. Retomo el hilo, tras dejar las bolsas en la cocina, me dirigí al salón a ver si había algo en el contestador o en el fax.
Miré y vi que había tres llamadas. Las escuché. Una era para mi marido, otra para el niño y otra para la niña. Ninguna era para mí. ¿No podríamos hacer que el PC fuera un contestador y que no sólo dijera que había tres llamadas; sino cuántas había para cada una de las personas de la casa? Para ello, el PC debería encargarse de coger el teléfono y de enviar el primer mensaje: "Soy el contestador de la familia Gómez, ¿a quién quieres dejar un mensaje?" El PC se quedaría a la espera de la respuesta, si el que llama dijera "para Diego" situaría el mensaje en el "buzón" de Diego, si dijera "para Elena" lo dejaría en el suyo. Cada miembro de la familia debería tener un buzón y el Computador debería ser capaz de identificar sus nombres. Ya sé que es difícil que los computadores entiendan a cualquier hablante, pero sólo se trata de identificar cuatro nombres. Creo que con la tecnología actual es perfectamente posible. En último extremo, si no lo entendiera, lo podía dejar en un buzón de “"inidentificados".
—No, no hablo de ovnis; sino de “mensajes cuyo destino no ha podido identificarse”.
Al mirar en el fax, lo vi lleno de publicidad. Eran temas que yo no había pedido y que no me interesaban en absoluto. ¡Es una vergüenza! ¡Utilizan Mi línea y mi papel para enviarme SU publicidad! ¡Qué hastío! ¡Qué atentado a la intimidad! Pero, lamentablemente, no hay una ley que lo impida.
Quizá el PC pudiera ser una solución parcial. Si fuera él quien recibiera el fax, al menos lo pondría en el disco duro y yo lo podría ver por pantalla. El publicitario seguiría usando mis equipos y mi línea; pero no gastaría mi papel. ¡Algo es algo! También pienso que se podría hacer más. El PC podría tener una lista de empresas indeseables. En cuanto el PC identificara al remitente al leer la cabecera y fuera una de esas empresas, podría colgar y cortar la comunicación.
Es más, se me ocurre que alguna asociación de consumidores o algo así podría enviar periódicamente un diskette con las empresas indeseables, para cortarles la comunicación.
—¿Indeseables? Esta palabra la he dicho en el párrafo anterior. Sí, ya sé que es un poco cacofónico; pero no es eso lo que me preocupa; el caso es que me suena antigua, o a sermón: “ese malandrín es un indeseable”; estoy tratando de buscar una palabra más moderna; mi hijo utiliza una, que tengo en la punta de la lengua... A ver...¡Ya se!: impresentable. Sí, impresentables. ¡Superguay!
Claro que, ¿qué ocurre si el fax es anónimo, es decir, si no tiene identificador de remitente? Pues, pensándolo bien, no hago mucho caso de los "anónimos" por lo tanto si no hay número remitente, el PC debería cortar la comunicación; ¡si alguien se quiere comunicar con nuestro fax que se identifique!
De momento, el teléfono normal no envía identificación de remitente, pero en las nuevas líneas RDSI sí que lo hace. Cuando esté generalizado su uso —y no hay que olvidar que estamos hablando del PC del futuro— podríamos hacer lo mismo con el teléfono: si no hay remitente, no se coge la llamada, y si el remitente es una de las empresas impresentables que dan la paliza a las personas honradas, también debería de colgar. ¡Qué gran labor podrían hacer las asociaciones de consumidores enviando listas de empresas y vendedores que abusan de nuestra línea telefónica!
La verdad es que estoy cansada. Voy a cortar aquí el artículo; me voy a ver la televisión y continúo luego...
[Un rato después]
He tenido mala suerte. Resulta que había una película muy interesante, una con tres óscares, que no había visto, pero he llegado cuando ya llevaba media hora. ¡Si lo hubiera sabido la habría grabado! Aunque eso es más fácil de decir que de hacer; entre las televisiones “normales”, más los canales de los satélites Astra, Hispasat Eutelsat,... más la televisión por cable, resulta que hoy tenemos 150 canales y dentro de poco tendremos 300 o más. ¿Cómo puede una estar al tanto de lo que van a emitir? Pienso que el PC me debería ayudar. Se me ocurre que la programación de las diversas emisoras podrían publicarse en diskette, con una serie de palabras clave para poder identificar temas. Dándole el diskette al PC debería no sólo ver lo que hay sobre diversos temas, sino también decirle que me los grabara. Un ejemplo, yo le diría: grabar todos los documentales sobre dinosaurios. NIDOS debería controlar el vídeo para hacerlo. Si hubiera coincidencia de horario me lo advertiría para poder hacer una selección manual.
Ahora que lo pienso: lo que acabo de decir es tecnología de ahora y no tecnología de futuro. ¿Por qué no podemos pensar que el propio PC sea un vídeo multicanal capaz de grabar varios espacios simultáneamente? Ya sé que para ello se necesita una velocidad de proceso varias veces la actual y que las capacidades en disco hay que multiplicarlas por 1.000; ¡pero estamos hablando del futuro! Con el ritmo vertiginoso que llevan estas tecnologías en menos de diez años deberá ser posible.
Acabo de recordar una cosa que me contó mi marido hace unos días. Me decía que el Concorde tarda poco más de dos horas en volar desde París a Nueva York. También me decía que la evolución de los microprocesadores ha sido tan espectacular que si comparásemos aquel primer PC que sacó al mercado IBM en 1981 con el avión Concorde; la velocidad de los nuevos microprocesadores, por ejemplo el PowerPC de la gama alta —¿se llama 620?—, es tal que un avión equivalente haría el viaje de París a Nueva York en dos minuto. ¡No está mal!
¿Y la capacidad en disco? Todavía recuerdo que el primer PC que compré, en 1984, tenía dos disketteras de 180 Kb. Hoy el disco duro más pequeño que se puede comprar es de 260 Mb con un precio similar al de una de aquéllas. Es decir, en 10 años la capacidad la hemos multiplicado por 1.500. Si la evolución sigue el mismo ritmo, dentro de otros 10 años la capacidad del disco duro más pequeño que se podrá adquirir será de: 390.000.000.000 Bytes, lo que con unas buenas técnicas de compresión seguro que permitirán guardar seis o siete horas de películas y mucho más si los algoritmos siguen avanzando. Tengo una cierta fascinación por la compresión fractal. Estoy casi segura de que con potencia de cálculo suficiente ese tipo de compresión permitirá meter en ese disco duro una o dos semanas de grabación. Además, nadie nos dice que el PC tenga que tener el disco más pequeño del mercado, o que tenga uno solo. ¿Por qué no dos, tres o media docena?
Al hablar del futuro debemos pensar en otros tipos de almacenamiento, pediría a mi PC que tuviera un cargador automático de cartuchos de vídeo con grabación helicoidal digital (similares a los actuales pero en digital) que tuvieran un almacenamiento de unos diez cartuchos y que en cada uno de ellos permitiera capturar cinco o seis canales simultáneamente; con ello deberíamos tener capacidad para cien o más horas de programación.
Estoy totalmente segura de que en el intervalo de diez a quince años las tecnologías de grabación habrán evolucionado vertiginosamente. Las tecnologías magnétoresistiva, óptica o magnetoópticas que hoy nos parecen el “no va más”, las consideraremos ridículas. ¿Cuánto se podrá almacenar en un cristal holográfico? ¿Y en una memoria “biológica” que utilice algo similar al ADN para guardar información? ¿Qué os parecería la bacteriorodopsina? ¿Que qué es esa palabrota? Muy sencillo es una proteína bacteriana de color rojo —de ahí lo de bacterio y rodo1— que se ha utilizado experimentalmente como memoria de los ordenadores. ¡Y funciona! Sería divertido: en vez de grandes fabricas para manufacturar chips tendríamos bacterias reproduciéndose.
Por tanto, pido a mi PC del futuro que sea capaz de seleccionar y grabar para mí mis programas favoritos.
También me gustaría que escribiera mis informes simplemente dictándoselos; pero que lo hiciera de un modo inteligente: que ponga las comas y los puntos donde sean necesarios, que señale usos incorrectos o poco actuales de las palabras, que me muestre errores sintácticos, que me informe cuando haya cacofonías o repeticiones, que me sugiera otro modo de escribir una frase, etc. ¡Ah!, también me gustaría que él mismo fuera capaz de buscar un dato que me faltase. Ahora tengo que investigar entre cientos de librotes. ¡Cuánto me gustaría que mi PC accediera a los fondos de las bibliotecas publicas y me trajera los datos que necesitase!

Estoy un poco cansada de escribir este trabajo. Me voy a acostar y continuaré mañana. ¡Ufffff! Ahora recuerdo que me fui sin hacer la cama y antes de acostarme tendré que hacerla. ¡Qué aburrimiento! ¡Cuánto me gustaría que mi PC me hiciera las camas! Y pensándolo bien, ¿por qué sólo hacer las camas? ¡Cuánto me gustaría que lavase la ropa, los platos, que cocinara...!
Pero mucho me temo que para ello todavía tendré que esperar veinte años, en cuyo caso ya habré cumplido los ... ¡Ummm! Mejor me voy a la cama.
Un abrazo a todos

Enviado por flexarorion a las 10:13 | 0 Comentarios | Enlace


BITS Y SOCIEDAD 2015-03-06

BITS Y SOCIEDAD


Dr. Félix Ares de Blas
Director de Miramón. KutxaEspacio de la Ciencia
UIMP, Santander 29 de agosto 2000

Conferencia pronunciada en la Universidad Intenacional Menéndez Pelayo el 29 de agosto de 2000

Señoras y señores: ¡Muy buenas tardes!

Quiero empezar, como todos los ponentes que me han precedido, agradeciendo a los organizadores el que hayan contado conmigo para dirigirme a un público tan interesado por la cultura científica como son ustedes. Mis más sinceras gracias a Juan Antonio Ortega y Díaz-Ambrona y a Pedro Miguel Echenique Landiríbar por su invitación.

La verdad es que las magníficas conferencias de esta mañana me obligan a cambiar totalmente mi intervención. El motivo es muy claro, los ponentes anteriores han desvelado lo que yo quería que fuera una sorpresa final.

Había pensado mi intervención con un poco de «suspense». Quería empezar llegando a un consenso con ustedes en que los computadores están presentes en casi todas las actividades que realizamos. Al final, tras intentar mostrarles cómo la informática ha influido en el desarrollo social del siglo XX, quería darles mi opinión sobre su contribución más importante. Esa quería ser mi sorpresa que, inocente de mí, pensaba que podría ser inesperada. Lo que ha sido inesperado para mí es que los ponentes anteriores ya lo hayan dicho, más o menos explícitamente: la mayor contribución social que han hecho los ordenadores ha sido revolucionar el modo en el que se hace la ciencia. Han facilitado enormemente la investigación y con ello han revolucionado la sociedad.

Esta mañana hemos visto que para el estudio de las proteínas o del genoma humano se han necesitado, y se seguirán necesitando, computadores cada vez más potentes. Carlos Martínez nos señalaba la imperiosa necesidad de bioinformáticos [Nota final 1]. La informática ya es una parte imprescindible de la investigación biológica.

Sin embargo, quisiera señalar un aspecto que, sin duda por falta de tiempo, mis predecesores no han mencionado. También necesitamos nuevos enfoques. A veces, no es necesario aumentar la potencia del ordenador sino darle un nuevo enfoque. Voy a ponerles una experiencia que yo mismo he vivido. A principios de los años 70, en el IBM Madrid Scientific Center, donde, a finales de la década trabajó el premio Nóbel Heinrich Rohrer, que nos honró con su presencia, yo formaba parte de un equipo de investigación que trataba de saber si un enfermo que llegaba a un hospital totalmente inconsciente puede oír, ver y sentir. Los médicos nos decían que saberlo es muy importante para tratar a los pacientes adecuadamente. Añadían que tan importante como saberlo era saberlo rápidamente.

Los neurólogos eran capaces de hacerlo manualmente. La idea que había tras de ello es muy sencilla. Se trata de la detección de los llamados «potenciales evocados». Explicado muy brevemente, si a una persona capaz de ver, le aplicamos un foco luminoso que se apaga y se enciende treinta veces por segundo, en su electroencefalograma, superpuesta a la señal básica, aparece otra con ese mismo ritmo de repetición. Lo mismo ocurre si en vez de un foco es un tambor o si son pinchazos.

Tal como decíamos más arriba, la idea es sencilla. Lo que ya no es sencillo ni rápido es conseguirlo. En primer lugar se necesita una muestra bastante grande del electroencefalograma del individuo, a continuación se necesita un neurólogo con experiencia, al que le lleva bastante tiempo decidir si existen o no los potenciales evocados a las frecuencias que se buscan.

En la práctica diaria hospitalaria el tema se complica aún más, lo habitual es que el enfermo en estado de shock llegue al servicio de urgencias, donde no siempre pueden acudir a un neurólogo especializado en detectar potenciales evocados.

Analizar señales, saber si dentro del electroencefalograma están presentes los potenciales evocados, aunque éstos sean muy débiles es fácil para un computador. Basta calcular la transformada de Fourier del electroencefalograma y ver si en el espectro de frecuencias aparecen las correspondientes a las estimulaciones externas a las que hemos sometido al paciente.

El problema fundamental en aquel momento era que calcular una transformada de Fourier, en aquel ordenador, nos costaba más de 25 minutos; si lo hacíamos para tres tipos de estímulos nos íbamos a 75 minutos. Demasiado lento.

Para resolver el problema, en lo primero que pensamos fue en ampliar la potencia del ordenador. Sin embargo, la solución vino de un sitio totalmente diferente: de los matemáticos. No hacía mucho que habían publicado un nuevo sistema para calcular de un modo rápido la transformada de Fourier y funciones relacionadas (Cooley-65, Cooley-67) e incluso se habían publicado los algoritmos correspondientes (Brenner-67). A aquel método le dieron el nombre de Transformada de Fourier Digital. El método, era menos preciso que el anterior; por ejemplo, si la frecuencia real era de 30 Hz, la TFD podía equivocarse en 1 Hz. Este error, para detectar los potenciales evocados, es totalmente aceptable.

El hecho a destacar es que la solución no fue aumentar la potencia del ordenador, fue aplicar nuevos algoritmos desarrollados por los matemáticos.

Permítanme ahora hacerles una pregunta: ¿Cuántos Computadores hay en la Sala?

(Se levantan sólo unas pocas manos)

La verdad es que esta respuesta es la que me esperaba. La razón es que cuando hablamos de ordenadores casi automáticamente pensamos en los grandes ordenadores de investigación o en los ordenadores personales. Quisiera llamar su atención sobre el hecho de que en los teléfonos móviles digitales hay uno o dos computadores (primero es el teléfono, el segundo la tarjeta SIM[Nota final 2]). Si ustedes llevan en su bolsillo una tarjeta inteligente [Nota final 3], es posible que también lleven un ordenador dentro de ella.

Puedo repetir la pregunta de un modo un poco diferente: ¿Cuántos de ustedes han usado hoy los servicios de un computador?

(Se levantan todas las manos)

Efectivamente, para empezar, las visuales que han utilizado los conferenciantes anteriores están hechas por computador. Pero no sólo es eso. Con toda seguridad que alguno de ustedes o ha utilizado una llave de plástico con agujeros para entrar o salir del hotel. Todo el sistema cerraduras está controlado por ordenador. Si han pagado algo con una tarjeta de crédito han utilizado los servicios de un computador. Si han llamado por teléfono la duración y costo de la llamada ha entrado en un computador. Pero quisiera ir más lejos, si ustedes han comprado algo en una de las máquinas de «vending» de la universidad y lo han hecho con monedas, también han utilizado un computador, puesto que la identificación de su valor y si son o no falsas, desde hace mucho tiempo las hace un microprocesador. Si ha leído el periódico, éste ha sido escrito y maquetado por ordenador. Si han oído la radio, lo más probable es que hayan escuchado a un ordenador; hace mucho tiempo que los anuncios se graban en disco duro y eso permite que un programa de ámbito nacional dé tanto anuncios nacionales como locales...

Con los ejemplos anteriores he querido llevar a su ánimo que los computadores están presentes en todos los ámbitos de nuestra vida. A pesar de ello, también quiero señalar que muchas de las pretensiones que se expresan sobre los computadores son exageradas. Por ejemplo, se dice que ha sido la tecnología de más rápida evolución, de crecimiento más rápido en toda la historia de la humanidad, que ha cambiado los ritmos de penetración de la tecnología en la sociedad... en mi opinión, que voy a tratar de justificar a continuación, eso no es verdad.


Para empezar, me gustaría que ustedes se fijasen en el siguiente gráfico:

(Falta gráfico)

Gráfico 1
Evolución del número de automóviles y de teléfonos en USA [Fischer-1992]

En él vemos que las evoluciones del número de teléfonos y de automóviles en Estados Unidos, sigue una progresión casi geométrica. Más acusada en el caso de los automóviles.

En ambos casos se observa una importante caída coincidiendo con la crisis económica del 29. No obstante, quisiera señalar el hecho de que disminuyen más los teléfonos que los automóviles. Me atrevo a señalar que en el caso de los teléfonos no sólo influye la crisis económica; también lo hace el despegue de una nueva tecnología de comunicación: la radio. En aquel momento, gran parte de los agricultores tenían teléfono para escuchar diariamente las informaciones meteorológicas, veterinarias y fitosanitarias preparadas para ellos. La radio les daba lo mismo a un precio mucho más económico [Fischer-92].

He querido señalarles este caso porque algo similar puede ocurrir con Internet. Gran parte de los servicios que nos proponen en Internet, ya se suministra de otro modo o serán suministrados por otras tecnologías más cómodas -y posiblemente más baratas- para el usuario. Normalmente, en las previsiones que se hacen sobre la red, nunca se tienen en cuenta las reacciones de las viejas tecnologías ni de las nuevas que puedan surgir.

He tratado de hacer una curva, similar a la de coches-teléfono, para los computadores pero me ha resultado mucho más difícil. La razón fundamental es que el censo norteamericano reflejaba el número de teléfonos y el de automóviles, sin embargo no hacía lo mismo con los computadores. Por otro lado tenemos el problema de definir qué es un computador. Antes hemos visto que los teléfonos móviles e incluso muchos relojes deben ser considerados computadores.

Al principio de la era de los computadores no existía ese problema, pero existía otro: los computadores estaban sometidos al secreto militar, por lo que saber su número no es tarea fácil.

Consideremos la fecha de nacimiento del computador 1946[Nota final 4]. En 1955 había unos 250 computadores en todo el mundo. En 1965 podemos estimar 31.000. En 1970 habría unos 70.000. En 1976, primer año de éxito de los "minicomputadores" había unos 200.000 de ellos. En 1980 había unos 10 millones en todo el mundo (datos de Winston-98). Llamamos computador sólo a los mainframes, miniordenadores y ordenadores personales ¿Es esta la "inimaginable revolución" de la que nos hablan?

Si la comparamos con el automóvil, vemos que la velocidad de introducción del computador ha sido muy modesta.

(Falta gráfico)

Gráfico 2.
Comparación del crecimiento de número de automóviles y de computadores. En el eje X el número de años transcurridos desde su invención. En el eje Y el número de millones de ejemplares existentes.

A los 35 años de su invención sólo en USA había 23 millones de automóviles. A los 35 años después de su invención había menos de 10 millones de computadores en todo el mundo.

En contra de la historia recibida, la «revolución» de los computadores ha sido modesta. Siempre mucho menor de lo que se había predicho. Por ejemplo, en 1970 se dijo que en 1980 habría 20 millones de microcomputadores en el mundo. La realidad es que no llegaron a los 10 [Winston-1992].

La penetración de los computadores ha sido modesta comparada con el teléfono, el automóvil o la televisión. Su curva de penetración es parecida a la del fax. El electrodoméstico de más rápida penetración ha sido el magnetoscopio (vídeo) que, en todo el mundo, ha crecido a una velocidad doble a la del PC. En nuestro país todavía la diferencia es mayor, debido a que tenemos una mayor proporción per cápita de magnetoscopios y menos ordenadores personales que el resto de los países occidentales avanzados.

Sin embargo, rara vez se menciona la «revolución del vídeo».

La necesidad social para el desarrollo de nuevas tecnologías


Para que una tecnología se desarrolle no basta inventarla y que sea más o menos poderosa; es preciso que una necesidad social empuje a su desarrollo. En la historia de la ciencia hay infinidad de ejemplos de tecnologías que se inventaron y casi se olvidaron –o, al menos, no se desarrollaron—porque no había una necesidad social de las mismas. Como botón de muestra baste señalar las máquinas de vapor de Herón de Alejandría, o las transmisiones «telegráficas» hecha con botellas de Leyden en la segunda mitad del siglo XVIII entre Madrid y Aranjuez, que sólo se utilizó una vez (Correos-2000).


El telégrafo eléctrico se desarrolla en simultaneidad con el ferrocarril. La necesidad que lo produce es bastante obvia. Hay una sola vía por la que circulan trenes en ambos sentidos. Para coordinar y evitar choques el telégrafo es imprescindible. De hecho, las historias del telégrafo y del ferrocarril son paralelas durante muchos años. La necesidad social que hizo evolucionar el telégrafo fue la de garantizar la seguridad de los viajes en tren.

La radio empieza a ser una necesidad imperiosa con la aparición de los barcos acorazados. La necesidad de comunicarse entre grupos de barcos siempre ha existido y se ha resuelto satisfactoriamente. Por ejemplo, con los códigos de banderas. Con barcos de madera, las distancias de seguridad son tan cortas que se pueden transmitir mensajes con banderas. Sin embargo, con los acorazados esas distancias tienen que aumentar. Al hacerlo, aquel modo de transmitir información deja de ser útil. Hay que inventar algo que permita hacerlo a mayor distancia. La solución es la radio. Potencialmente, la radio podía haberse desarrollado bastante antes; pero no hacía falta hasta que surge la necesidad militar. Podemos decir que la necesidad social que hizo desarrollarse la radio es la invención de los barcos acorazados.


Cuando Graham Bell inventa el teléfono, está pensando en una ayuda para los sordos; a lo sumo, en una conversación privada entre unas pocas personas. El desarrollo del mismo como elemento de comunicación entre muchas personas, utilizando como conmutador entre ellas a una " telefonista", ocurre cuando aparece la organización de la empresa moderna. La motivación del desarrollo del teléfono es la empresa moderna.


¿Cuál es la motivación social que hacen desarrollarse el ordenador? Antecedentes al ordenador hay muchos, por citar sólo algunos de los más conocidos, recordemos la máquina analítica de Babbage y las máquinas desarrolladas en Estados Unidos por Atanasoff y en Alemania por Zuse.

Durante la Segunda Guerra Mundial, la flota inglesa sufre enormes pérdidas debido a los precisos ataques de los submarinos alemanes. Los servicios de inteligencia saben que tanta exactitud sólo puede significar que en los submarinos están enterados de los planes de viaje de los barcos ingleses. También saben que dichos mensajes deben transmitirse por radio. Sus servicios de escucha reciben los mensajes alemanes; pero son muy difíciles de descifrar debido a que éstos utilizan una máquina para criptografiar automáticamente. Esa máquina se llama Enigma. Los ingleses lograron descifrar muchos de los mensajes de la máquina Enigma. Pero dicha máquina no fue única. Fue evolucionando a lo largo de la contienda, resultando cada vez más difícil descifrar sus códigos.

El alto estado mayor llega a la conclusión de que la única solución para descifrar los mensajes es crear una máquina electrónica capaz de explorar rápidamente los millones de posibles combinaciones.

Crearon un equipo de investigación, dirigido por Alan Turing, y le dotan de buenos investigadores, equipos y dinero. El resultado no se hace esperar. Unos meses después, han fabricado un computador especializado en descifrar los mensajes alemanes. Se trataba de un calculador completamente electrónico, con 2.400 válvulas. Su nombre era Colossus. La máquina fue muy eficaz. Tanto que hay analistas que piensan que jugó un papel decisivo en la victoria aliada contra los alemanes.

La motivación de los ingleses para desarrollar el calculador electrónico fue descifrar los mensajes alemanes producidos por la máquina Enigma.

En Estados Unidos también tienen un problema relacionado con la guerra y la necesidad de cálculos. Cada nuevo cañón exige nuevas tablas de fuego. Tablas que utilizan los soldados en el campo de batalla. La realización de esas tablas corría a cargo de un grupo de personas a las que llamaban «computers». Mayoritariamente eran chicas.

En plena guerra, la necesidad de crear tablas es tan enorme que los «computers» están desbordados. Surge la necesidad de fabricar una máquina que lo resuelva automáticamente.

Acabó la guerra sin haber terminado la máquina. Pero unos meses después fue terminada. Su nombre fue ENIAC y tenía 18.000 válvulas. Dado que sustituía a los «computers» humanos, se le llamó «electronic computer». De ahí deriva el nombre que hoy damos a sus sucesores. Hay una cierta discrepancia en cuanto al género. Nosotros solemos hablar de los computadores, en masculino; mientras que en Sudamérica es habitual hablar de las computadoras, en femenino. ¿Quién lleva razón? Si tenemos en cuenta que la mayor parte de los «computers» eran chicas, creo que la versión sudamericana es más correcta. Incluso, e informalmente, la potencia de la máquina se medía en chicas. ENIAC tenía una potencia aproximada de 10.000 chicas. Es decir, era capaz de hacer el trabajo de ese número de personas.

Inicialmente, la motivación social tras la invención del computador norteamericano estuvo la necesidad de hacer tablas balísticas. Pero hemos indicado que realmente ENIAC se terminó de construir en 1946, ya acabada la Segunda Guerra Mundial. Aparentemente ya había acabado la motivación social. No era así. Tras la finalización de la segunda Guerra mundial, empieza la Guerra Fría. Los norteamericanos estaban atemorizados con la posibilidad de que los rusos pudieran hacer un la bomba atómica. Sus temores no eran infundados, pues muy pronto la hicieron. Entre las secuelas de este miedo, hay algunas francamente curiosas. Para detectar las posibles explosiones atómicas, entre otras cosas, pusieron grandes globos estratosféricos con micrófonos. Por supuesto secretos. Dos de las historias que dieron origen al mito de los ovnis, están relacionadas con estos globos (caso Mantell y el incidente en Roswell).

Los norteamericanos querían tener un arma más potente que la bomba atómica: la bomba de hidrógeno. Un problema arduo, que requería mucho cálculo, era saber qué pasaba con la implosión que comprimía el hidrógeno y que utilizaba la explosión de una bomba atómica convencional. ENIAC era la máquina ideal para hacer dichos cálculos. Por eso, su destino inmediato fue ir al laboratorio de Los Álamos.

La segunda motivación para el computador norteamericano fue la fabricación de la bomba de hidrógeno.

Durante muchísimo tiempo las únicas motivaciones sociales para desarrollar los computadores electrónicos fueron las militares. Podríamos decir que, salvo para los militares, el computador era una solución en busca de un problema.

Un ejemplo significativo es que Thomas J. Watson, presidente de IBM, a finales de los años 40, sigue creyendo que los calculadores electrónicos únicamente son para militares.

Pero no nos creamos que eso eran sólo cosas de los años 40; en 1966 nada menos que el Wall Street Journal, en su edición del 4 de junio, predecía que en el año 2.000 habría 220.000 computadores en Estados Unidos [Oslin-92]. Ni que decir tiene que hay muchas decenas de millones.

En 1952, Kendrew utiliza un computador para ver la estructura tridimensional de una proteína, siendo, casi con seguridad, la primera aplicación de los mismos a la biología, iniciando así la era de la bioinformática [Iurc-68].

Por suerte para la industria informática, en 1954 aparece el computador ERA nº 13, rebautizado como UNIVAC 1101 (obsérvese que 1101 es la forma de representar 13 en binario). Este computador es importante para la informática en España pues con él se formaron las primeras generaciones de «científicos de la computación». Pero, además, por primera vez, una empresa privada, John Plain Cº de Chicago, compra uno y lo utiliza para la gestión de inventarios. Con ello se convierte en la primera empresa que se da cuenta de la utilidad de estos equipos en campos ajenos a lo militar y crea la necesidad social que impulsaría el desarrollo de los mismos [Winston-98].

En 1957 la empresa británica J. Lyons, que se dedica al catering, utiliza un computador para resolver los problemas de almacenamiento y nóminas.

A principios de los años 60 hay muchas empresas que disponen de «lectoclasificadoras», es decir, máquinas que son capaces de ordenar por diversos campos fichas perforadas. Los campos que hay que ordenar se deciden por un programa cableado: hay que cambiar las conexiones de la máquina para hacerlo. Así surgen los primeros «programadores» de las empresas. Esa sencilla labor significaba un enorme ahorro de trabajo. Por eso, no es raro que muchas empresas, incluyendo las españolas, tuvieran equipos de este tipo en sus oficinas. Por ejemplo, «Calzados la Imperial» de Madrid, usaba lectoclasificadoras en su gestión diaria. Cabe señalar el hecho de que, como su tarea principal era ordenar, en Francia se les dio el nombre de «ordinateur» de donde deriva nuestra palabra «ordenador».

Si computador deriva de cálculo y refleja muy mal la idea de «máquina que manipula símbolos», la de «ordenador» todavía es más restrictiva. Ambos nombres son malos. Quizá un derivado de algoritmo, algo así como «algoritmador», fuera mucho más correcto; pero la verdad es que suena mal. Es una palabra fea.

A finales de los años 60, grandes empresas de transporte, bancos y seguros, disponen de computadores para ayudarles en sus tareas administrativas. En el caso de las empresas de transporte, RENFE e Iberia, surge un fenómeno nuevo: la venta de billetes se hace mediante terminales conectados a través de líneas telefónicas a un ordenador central, lo que se llama teleproceso.

En el primer caso, el de ayuda a la administración, los computadores facilitan las tareas repetitivas que se hacían antes. El teleproceso implica un nuevo concepto: se hacen procesos empresariales imposibles sin las redes de terminales y computadores.

A principios de los 70 las redes de teleproceso bancarias y de compañías de seguros son habituales. Cabe destacar que en esos campos nuestro país no sólo no va a la zaga sino que es pionero. Iberia desarrolla su propia red, sus propios nodos de conmutación, sus modems –se da la situación aberrante de que los modems Iberia están en muchos países, pero no en España donde el monopolio de Telefónica lo impide—y crean una red de transmisión de paquetes, anterior a Internet y que resuelve muchos de los problemas que posteriormente tuvo dicha red. Telefónica crea una red de transmisión de paquetes y que tiene muchos más clientes que las redes ARPA/DARPA, antecedentes de Internet. Es sin duda un magnífico precedente de la tecnología española que, por desgracia, no supo desarrollarse y se ahogó.

Cajas de ahorros y bancos crean sus propias redes de interconexión de computadores que permiten sacar dinero de los cajeros automáticos situados en cualquier lugar de España.

Todo lo dicho se hace sólo en grandes empresas y –probablemente-- sometidas a un sistema de regulación que les permite invertir en tecnología sin ser excesivamente quisquillosos a la hora de su rentabilidad. La regulación limitaba su capacidad de hacer cosas pero garantizaba unas ganancias.

Bancos, Cajas, RENFE, Iberia y Compañías de Seguros llegan tanto al público como a otras empresas, con lo que la idea de que existen los grandes computadores se va popularizando. Muy pronto, los grandes facturadores empiezan a hacer llegar sus recibos calculados e impresos por computador: Telefónica, Eléctricas, Gas...

Todo ello hace que los computadores dejen de ser algo exótico para entrar a formar parte de nuestra vida cotidiana. Aparecen nuevas profesiones: programador, analista, perforista, operador; y otras desaparecen o cambian drásticamente su significado, por ejemplo, ayudantes de contabilidad o empleados de ventanilla de banca. Hacer muchas operaciones aritméticas con rapidez antes era importantísimo, ahora todo eso lo hace el computador. Casi, casi, me atrevo a decir que otro tanto ocurre con las ingenierías y con la ciencia: el ser capaz de operar rápidamente deja de ser tan fundamental como era antes. Manejar la regla de cálculo pasa a ser una añoranza del pasado. Es más, comprender exactamente la teoría detrás de muchos procedimientos de cálculo, también deja de ser fundamental: hay programas informáticos que los «saben», el científico sólo debe aprender a usarlos. Ni que decir tiene, que ello provoca una fuerte motivación social para seguir investigando para aumentar la potencia y bajar los precios de estas máquinas.

El abaratamiento de los computadores hace que cada vez más empresas vayan aplicándolos. La aparición del ordenador personal y los modems de bajo precio, producen una rápida penetración.

Así llegamos al día de hoy, los computadores están en todos los ámbitos de nuestra vida. Lo curioso, al menos para mí, es que han entrado poco a poco, como de rondón, y, casi sin darnos cuenta, han alcanzado la enorme penetración de hoy en día.

Hitos importantes

En mi opinión, el primer hito importante No tanto para el desarrollo de los primeros ordenadores como para las aplicaciones multimedia actuales, es un importante artículo de Nyquist [Nyquist-28] en el que establece la equivalencia entre el mundo analógico y el mundo digital. En 27 páginas Nyquist demuestra que las muestras de una señal analógica, si se hace con la frecuencia adecuada, tienen la misma información que la señal original. Subrayo lo de misma información: ni menos, ni más: la misma. Hoy en día no tiene demasiado sentido leer su artículo, pues emplea 27 páginas en demostrar lo que hoy se considera una propiedad elemental de la transformada de Fourier [Nota final 5]. Los sistemas de demostración han cambiado. Las matemáticas han cambiado.

En 1930, se produce otro importante hito. Alan Turing concibe por primera vez a las máquinas electrónicas como manipuladores de símbolos en vez de como meros calculadores.

Nada más acabar la segunda Guerra mundial, Wilkes da un paso para mí importante: construye el primer ordenador para trabajar en un problema matemático. Hasta entonces simplemente se habían utilizado para hacer tablas u operaciones muy elementales.

1952. Se crea el primer lenguaje de programación (Autocode). Su importancia no estriba tanto en el lenguaje en sí, como en la demostración de que se empieza a pensar en las calculadoras electrónicas como máquinas de utilización general. Cuando se utilizan para un único programa, los lenguajes de programación no tienen excesiva importancia; pero si queremos utilizarlo para la resolución de muchos problemas diferentes, disponer de un lenguaje de programación es importantísimo.

1953. Será un paso más en la elaboración de lenguajes de programación: se crea el Assembler.

1957. Será otro paso decisivo, al crearse FORTRAN. Un lenguaje para utilización técnica y científica que ha durado hasta nuestros días. Muchos consideran que es una pieza de museo, obsoleta, sin embargo, cabe destacar que muchísimos supercomputadores siguen trabajando en Fortran. Cabe destacar que en este lenguaje ya se encuentran incipientes muchísimas de las ideas de los lenguajes modernos actuales.

1959. Se da un paso más y se crea el lenguaje CODASYL para la máquina de IBM 7090. El 7090 fue el primer computador que estuvo a disposición de los alumnos universitarios españoles. Yo disfruté de este privilegio.

En 1960 se crea el lenguaje ALGOL, quizá uno de los lenguajes mejor estructurados construidos nunca. En el año 68 se presentaron varias propuestas para la nueva versión de ALGOL. Triunfó una de las propuestas; sin embargo hubo una persona que no lo aceptó y, con pequeños cambios, la presentó con el nombre de PASCAL, que tuvo mucho éxito y ahogó al ALGOL. De hecho, hasta el triunfo del PASCAL, todos los algoritmos teóricos se escribían en ALGOL. Era el lenguaje teórico por excelencia.

En 1964, IBM lanza al mercado una «familia» de computadores. Se trata de la familia S/360. Lo importante de este hecho es que IBM se da cuenta de que tan importante como la máquina es la programación. Hasta este momento, cada máquina tenía su propio lenguaje. Aunque el lenguaje tuviera el mismo nombre, su sintaxis no era igual en cada máquina. Cuando una máquina se dedicaba a un único problema a esto no era importante; pero desde el momento que las máquinas van a las empresas es impensable que un cambio de máquina obligue a cambiar todos los programas. Debemos tener en cuenta que a los pocos años de tener un computador, una empresa normal tiene un capital enorme invertido en sus programas. Con el concepto de «familia» los programas se escriben una sola vez para cualquier máquina de la «familia». De hecho se escriben para un ordenador teórico que no tiene por qué coincidir con ninguna máquina real. Esta serie tuvo tanto éxito que IBM se constituyó prácticamente en un monopolio. Cabe destacar que los grandes ordenadores de IBM de hoy en día, siguen entendiendo los programas escritos para las máquinas de 1964.

En 1969, la empresa Intel crea el primer computador en un chip: el llamado 4004. Con él se inicia la saga que nos llevará a años después al ordenador personal y cuya arquitectura básica sigue estando presente en la mayoría de los PCs actuales.

En 1970, la empresa Digital lanza al mercado su producto PDP-8. Se trata de un ordenador pequeño y con un precio que cabe en los presupuestos de los departamentos universitarios. Rompe con la tendencia de los grandes ordenadores que había impuesto IBM. Estos son ordenadores con menos posibilidades pero mucho más baratos. Rápidamente se difunden por los departamentos de investigación, contribuyendo, sin duda, a cambiar la mentalidad sobre lo que significaba hacer ciencia.

En 1972 Intel saca al mercado el microprocesador 8008, con el que la empresa Atari crea el primer computador pequeño, es decir, personal. Su nombre fue Pong.

En 1974 Intel saca al mercado el procesador 8080, con el que se fabrica el ordenador personal Altair, que se difundió muchísimo más que su precedente. Tuve el privilegio de «jugar» con él.

En 1975 la editorial McGraw Hill lanza al mercado la primera revista de gran tirada dedicada a los ordenadores: Byte. Me interesa resaltar el hecho de que dicha editorial considerase que el tema que ya era lo suficientemente popular como para merecer una revista aparte.

En 1976, el Apple I. Su mayor importancia es que dio origen al Apple II que, sin duda, fue el primer ordenador personal ampliamente difundido. Ya hemos comentado más arriba que en estos momentos IBM actúa casi como un monopolio. Tanto que su orgullo se siente herido por la difusión de este pequeño computador. El hecho en sí era insignificante para su cuenta de resultados; pero no lo era para su orgullo con tendencias monopolistas. Por eso, se sienten obligados a crear un ordenador personal del tamaño del Apple y a un precio parecido. Lo hacen deprisa, muy deprisa. Para ello, en contra de lo que era habitual en la empresa, lo hace utilizando los elementos of the shelf que había en el mercado. De este modo, nació, en 1981, el ordenador personal de IBM. Automáticamente, decir ordenador personal y decir ordenador personal similar al de IBM se hicieron equivalentes. Si IBM hubieran seguido su política tradicional y no hubiera utilizado elementos estándares de mercado, hoy la historia de los computadores sería radicalmente diferente.

El ordenador personal no solamente cabe en el presupuesto de un departamento universitario, cabe en el presupuesto de una persona. Eso hace que su proliferación sea explosiva. A modo de ejemplo, si pensamos en la universidad, los ordenadores empiezan a utilizarse para hacer análisis matemáticos de los datos obtenidos de los experimentos. Quizá esto era totalmente esperable. Lo que ya era menos previsible es lo que pasó a continuación. Fundamentalmente de la mano de un sucesor de Apple, el MacIntosh [Nota al final 6], los profesores universitarios descubrieron un modo excelente de hacer apuntes, listas de alumnos, visuales y gráficos para apoyar las clases, ... es decir, fundamentalmente su utilización es para editar textos y gráficos. El computador personal se había convertido en una «máquina de escribir» sofisticada.

De la universidad pasó primero a la empresa y luego a las personas particulares. Fue esa idea y «máquina de escribir sofisticada» la que impulsó al mercado a desarrollar programas para escribir, impresoras, correctores ortográficos...


En 1979 aparece el primer servicio comercial basado en «Internet». Se trata de la red Compuserve. Esta red fue un magnífico lugar para que los científicos de todo el mundo aprendieran la importancia de comunicarse rápidamente. Tenía infinidad de defectos, entre otros que los mensajes no podían llevar caracteres acentuados. No obstante, demostró la enorme importancia de la mensajería electrónica para el mundo científico.

En 1992, basándose en las ideas desarrolladas en el laboratorio de física de partículas en Ginebra por Tim Barners-Lee y Robert Caillieau, aparece el primer servicio World Wide Web (WWW) que, sin duda, es lo que más ha contribuido al desarrollo de Internet.



De la «Mecanización» a la «Empresa Virtual»

Cuando las empresas pioneras introducen los computadores, lo hacen para hacer de un modo «mecánico» lo que antes se hacía a mano. Por eso, a los departamentos de computación, se les da el nombre de «mecanización». Bajo esta idea, pocas dudas había de que lo primero que se «mecanizó» fueron aquellas tareas que implicaban muchos cálculos repetitivos. Por ejemplo, la rutina de la contabilidad, facturación, pago de nóminas, seguimiento de almacenes, balances...

Se crean nuevas profesiones y otras pierden contenido y se hacen aburridas. Entre las nuevas profesiones, ya hemos mencionado mucho más arriba las de operador, programador, analista, analista funcional, ... entre las que pierden contenido, debemos señalar por ejemplo las de contabilidad. Pensemos un momento en la persona que atiende a un cliente en una ventanilla bancaria. Para poder hacer los cuadres de fin de día, es imprescindible que sepa realizar cálculos aritméticos con rapidez; debe atender al cliente de acuerdo con las normas de la empresa, pero en caso necesario se las puede saltar. Tras la mecanización y el teleproceso, ya no necesita saber calcular y, prácticamente, no puede saltarse las normas. Las normas están implícitas en el programa que maneja y no se las puede saltar porque no se lo permite el programa. Las normas forman parte del programa. Al cliente se le trata de modo uniforme y siempre dentro de las políticas decididas en cada momento por la empresa; incluso, dichas políticas pueden cambiar de un día para otro. ¿Quién no ha oído a la persona que te atiende y teclea algo parecido a «lo siento, pero el ordenador no me deja hacerlo»? Eso puede ser bueno para el cliente y la empresa pero pocas dudas caben de que ese puesto de trabajo ha perdido calidad, se ha hecho más aburrido, más rutinario, mucho más estresante.

Quiero señalar que a partir de este momento la informática se va haciendo sentir en el cuerpo social de un modo mucho más profundo que en el mero recibir unas facturas impresas por ordenador. Aquí aparecen nuevas profesiones, se destruyen otras, y otras pierden calidad. Las consultas de psicólogos y psiquiatras se llenan de personas con trabajos relacionados con la informática.

En cualquier caso, su impacto todavía es pequeño para lo que vino después. El siguiente paso podríamos llamarlo el de la «reingeniería». Una vez transcurrida la etapa de «mecanización», las empresas se dan cuenta de que limitarse a apoyar con máquinas los procesos que se hacían manualmente es muy poco. Los computadores y las redes permiten ir más lejos: permiten concebir los procesos de otro modo. Un modo en el que se parte de la existencia de dichas máquinas.

Un ejemplo puede ser el de los códigos de barras en los supermercados. Cuando se decide que los productos lleven un código de barras y se implantan lectores de los mismos, éstos se conectan a un ordenador que hace las sumas y las facturas para el cliente, alimenta la contabilidad, la aplicación de almacén y la de pedidos. Todo a la vez. Esto era imposible sin la existencia de los ordenadores. Ni que decir tiene que los cajeros de los supermercados dejan de tener la necesidad de saber sumar y que las funciones del contable, almacenero y compras se ven seriamente limitadas. Los computadores asumen muchas de las tareas que antes hacían ellos. Además, todas las funciones mencionadas forman parte de un único nuevo proceso integrado.

En este momento surge un nuevo fenómeno, hay empresas que se adaptan y proceden a repensar sus procesos teniendo en cuenta que existen los computadores. Ahorran costos, se hacen más competitivas y terminan desplazando del mercado a las que no lo han hecho. Las consecuencias sociales todos las conocemos. Del lado positivo, se obtienen mejores productos a mejores precios. Del lado negativo quizá la más dramática sea la desaparición de muchos puestos de trabajo y, en el peor de los casos, la desaparición de muchas empresas. Hay pensadores que incluso dicen que la caída de la URSS está relacionada con la incapacidad de asimilar las nuevas tecnologías informáticas [Castells-98]. En mi opinión la obra de Castells es floja y llena de errores; pero es posible que en este aspecto concreto lleve parte de razón.

Otro fenómeno ya maduro a finales de la década de los 80 es la utilización de la red telefónica y los ordenadores como un ingrediente más de los procesos empresariales. Veamos un ejemplo, durante mucho tiempo las sucursales bancarias actuaban como un banco en pequeño. Disponían –en pequeño- de todos los servicios que tenían las oficinas centrales; por ejemplo, tenían su contabilidad, la correspondencia con sus clientes, el almacenamiento y actualización de movimientos y saldos, etc. Con la aparición de las redes de computadores, que el cliente esté en las oficinas centrales o en una sucursal a 600 km de distancia no tiene importancia. Por lo tanto, se pueden centralizar temas como contabilidad, correspondencia, saldos, movimientos, facturación... las sucursales se hacen más pequeñas y el cliente puede realizar sus operaciones desde cualquier sitio.

A principios de los años 90 madura una idea que ya llevaba bastante tiempo en el mundo del automóvil. Es una vuelta de tuerca más a los procesos en red. Se trata de lo que algunos autores han llamado «empresas virtuales». La idea fundamental es que varias empresas colaboran en proporcionar un producto o un servicio. Trataré de poner un ejemplo. Supongamos que una empresa X fabrica un producto que tiene tres piezas, que pide a las fábricas B y C. Con el concepto de empresa con procesos en red, la empresa X se comunica, a través del ordenador y de la línea telefónica, con las fábricas B y C indicándole el número de piezas que necesita y cuándo las necesita. La idea de las «empresas virtuales» va más allá. La empresa X pone a disposición de las fábricas B y C sus datos de producción para que ellas sean las que decidan qué número de piezas se necesitan y cuándo deben estar en la empresa X. No sólo se intercambian mensajes. Se permite el acceso a los datos de producción para que otras empresas tomen decisiones basándose en ellos.

Una consecuencia directa de este modo de proceder es que las empresas cada vez son más especializadas. Se dedican a un tema muy concreto y todo lo demás lo «subcontratan» con otras empresas. Se crean redes de empresas que colaboran en la fabricación de un producto o en proporcionar un servicio. Por ejemplo, antes, cada empresa realizaba sus procesos informáticos. Eran procesos cerrados, aunque pudieran comunicarse con otras empresas. Ahora el proceso comenzado en una empresa puede ir por varias empresas antes de su finalización. El proceso de una empresa lleva implícito que otras empresas realicen parte del proceso.

Otro ejemplo. Pensemos en la carta con los extractos bancarios que recibimos en nuestra casa. Uno de los movimientos es haber sacado dinero de un cajero en otra ciudad mientras estaba de viaje. Ese movimiento se imprime en las oficinas centrales y se envía por correo al cliente. Esto lo permitía la empresa con «procesos en red» y así ha sido en los bancos desde hace muchos años. Lo que exigía que cada banco tuviera sus propios sistemas de impresión. La nueva idea consiste en crear grandes centros de impresión que realizan ese servicio para muchas empresas. Estos grandes centros de impresión son una nueva empresa especializada en imprimir. Al hacerlo en gran dimensión se obtienen economías de escala. La empresa especializada en impresión, obtiene los datos directamente, a través de una conexión telefónica, de los ficheros de su empresa cliente. El proceso de impresión se inicia al sacar dinero en una ciudad, continúa en otra ciudad en los edificios centrales de la misma empresa, y termina en otra empresa especializada en la realización de cartas.

Ni que decir tiene que la cadena se alarga, la empresa que envía el papel a esta empresa ve los datos de hojas impresas para decidir cuando enviar más papel, la empresa fabricante del papel ve los datos del distribuidor y compra más pulpa de celulosa...

Las redes de empresas virtuales están cambiando el concepto de empresa, que cada vez tiene menos que ver con la geografía. Un proceso iniciado en el país A, puede acabar en el país J, tras haber pasado por los países F y D. La supervivencia de la empresa y de los puestos de trabajo cada vez tienen más que ver con la capacidad de competir a escala global. Esto, sin duda, plantea retos tremendos a las empresas, a los trabajadores, a los sindicatos, a los políticos, etc. Resumiendo: produce grandes retos a toda la sociedad.

La Deslocalización

Una de las consecuencias del concepto de empresa virtual es la deslocalización de muchos procesos. Por ejemplo, si para realizar un programa, el país más eficaz es India, allí se hará.

Incluso puede llegar a ocurrir que no sepamos la ubicación de las empresas que realizan parte de nuestros procesos.

Retos y oportunidades que están cambiando de arriba a abajo nuestras estructuras sociales.


Filosofía de cambio

Hoy se trabaja de modo diferente a como se hacía ayer y muy diferente a como se hará mañana.

Nuestros bisabuelos estaban acostumbrados a la estabilidad. Probablemente su vida no fuera muy diferente a la de sus padres. Hoy la situación casi es la contraria. La única cosa segura es que nuestro trabajo será diferente al de nuestros padres.

He dicho trabajo, pero también puedo decir modo de divertirse, modo de mantener relaciones sentimentales, ... En nuestra sociedad se ha implantado una cultura de cambio. Todo cambia.

Ciencia

Como decíamos al principio, las Nuevas Tecnologías de la información han cambiado el modo de hacer ciencia en todas sus fases. Simplemente por mencionar algunos aspectos, la obtención y el análisis de datos se hace con ayuda de computadores y de redes de comunicación; lo mismo ocurre en la comunicación entre los científicos, en la que Internet ya es una necesidad imperiosa; simulaciones y modelos informáticos forman parte de la cotidianidad de cualquier investigación. En muchos casos, como puede ser el estudio del genoma, la fabricación de nuevas medicinas, el estudio de los plegados de las proteínas, el descubrimiento de nuevas partículas u objetos celestes, la informática es el núcleo sine qua non.

Hay un aspecto de la revolución informática, en mi opinión no suficientemente valorado ni estudiado. Se trata del hecho de que los computadores ponen a disposición de los científicos e ingenieros procesos completos. Veamos un ejemplo, antes he hablado de la detección de los potenciales evocados y la transformada de Fourier. Antes de los computadores, si el ingeniero quería calcular la transformada de Fourier, debía hacerlo a mano siguiendo unos métodos que le habían explicado y que, normalmente, implicaban entender hasta el mínimo detalle las matemáticas que había por detrás. Con el computador todo cambia. Basta introducir la señal y el computador da la transformada. El que utiliza el programa no necesita conocer sus entresijos, ni siquiera los detalles matemáticos. Basta con que conozca el significado de los resultados.

El computador pone a disposición de cualquier persona el proceso de cálculo de la transformada de Fourier. No sólo facilita el hacer dicha transformada; también la hace asequible a personas que por el método tradicional jamás llegarían a usarla, primero porque no sabrían hacer los cálculos y segundo porque nunca llegarían a entender sus entresijos matemáticos. El computador, al almacenar procesos, democratiza las matemáticas. Un ejemplo significativo lo tenemos en ciertos programas de análisis como el SPSS[Nota fin de texto 7] que puso en manos de los sociólogos, psicólogos, criminólogos, etc, potentes herramientas estadísticas. Ellos sólo necesitaban entender lo que significaban los resultados, no los procedimientos para obtenerlos –las matemáticas escondidas detrás del programa.

El computador hace asequible a cualquier investigador procesos matemáticos de gran envergadura.

No quiero acabar este punto sin resaltar las diferencias entre la imprenta y el computador. Los libros –la imprenta—ponían a disposición de los usuarios los conocimientos para hacer los procesos. Por ejemplo, un libro sobre ecuaciones diferenciales, explicaba cómo se debían resolver dichas ecuaciones. El computador las resuelve. En ese sentido, el computador está mucho más cerca del astrolabio o de la regla de cálculo que del libro. Podríamos decir que el astrolabio y la regla de cálculo también almacenaban procesos; pero eran muy pocos, muy especializados. El computador, asistido por robots y otros dispositivos especializados, generaliza el almacenamiento de cualquier tipo de procesos. El computador es la suma del almacenamiento de conocimientos (libros) más el almacenamiento y realización de procesos.

Con los libros se acumulaba el conocimiento, con los computadores se acumula tanto el conocimiento como los procesos. Por ejemplo, dentro de mil años seguiremos pudiendo utilizar los procesos de resolución de ecuaciones integro-diferenciales programados hoy en día, aunque no haya nadie en el mundo capaz de entender sus algoritmos.

Si el libro causó la enorme revolución que nos llevó a la industrialización y al mundo moderno, no me cabe ninguna duda de que los computadores, producirán otra revolución de mayor calado. Debemos tener en cuenta que los computadores son capaces de hacer lo mismo que los libros, añadiendo una enorme capacidad de almacenamiento y de búsqueda desde cualquier lugar (bibliotecas electrónicas + buscadores + Internet) más el almacenamiento y realización de procesos.

Conclusiones

Las nuevas tecnologías de la información afectan a toda la sociedad en casi todos sus aspectos.

Han cambiado la concepción el mundo. Se ha pasado de un mundo en el que lo importante era lo físico (lo material), a otro en el que es más importante la información.

El modo de hacer ciencia se ha cambiado en tres aspectos fundamentales: 1) almacenamiento y búsqueda de datos y de información. 2) intercomunicación entre científicos. 3) almacenamiento de procesos. Todo ello está produciendo una revolución científica. Como todas las revoluciones, nadie puede prever dónde nos llevará.

Revolución científica = revolución social. Esto significa que estamos inmersos en una enorme revolución social, en mi opinión, la más grande que ha tenido nunca la humanidad. ¿Adónde nos llevará? Nadie lo sabe: el futuro siempre es imprevisible.

NOTAS FINALES:

1. Existe una Sociedad Española de Informática de la Salud (SEIS), cuya web es: www.seis.es. También existen departamentos de bioinformática en algunas universidades españolas, por ejemplo, en la Universidad Politécnica de Valencia. El correo de contacto es: jamaldo@upvnet.upv.es . También en la Universidad Politécnica de Madrid (http://www.infomed.dia.fi.upm.es). Hay una unidad de bioinformática en el Instituto de Salud Carlos II (http://biotic.isciii.es), etc.

2. Subscriber Identity Module. Es la tarjeta personalizada que lleva las claves, los mensajes, y el procesador criptográfico.

3. Por ejemplo, monederos electrónicos, billetes de autobús en tarjeta chip, …

4. Se suele considerar este año como el origen de los computadores, debido a que se puso en marcha la máquina ENAC, de la que hablaremos más adelante.

5. La convolución de una función cualquiera por una función peine (“comb”), repite el espectro infinitas veces.

6. Entre el Apple II y el MacIntosh hay una máquina intermedia que fue un gran fracaso: Liza.

7. Un paquete de análisis estadísticos que nació en 1968 para grandes computadores. En 1984 salió al mercado la versión para PCs. (www.spss.com)
 
BIBLIOGRAFÍA

[Brenner-67] Brenner, N. M. Three Fortran Programs That Performs the Cooley-Tukey Fourier Transform, Mass. Inst. Technol., Lincoln Lab. TN-1967-2, July 28, 1967.
[Castells-98] Castells, Manuel. La era de la información: economía, sociedad y cultura. Alianza Editorial. Madrid 1998.
[Cooley-65] Cooley, J. W. and J. W. Tukey: An Algorithm for the Machine Computation of Complex Fourier Series. Math. Comp. 19:297-301 (April 1965)
[Cooley-67] Cooley, J. W., P. Lewis, and P. Welch. Applications of the Fast Fourier Transform to Computation of Fourier Integrals, Fourier Series, and Convolution Integrals. IEEE Trans. Audio, 15 (2): 79-84 (June 1967).
[Correos-2000] Museo Postal y Telegráfico. Palacio de Telecomunicaciones de Madrid. Calle Montalban s/n. Sala Telegrafía. Puede verse la descripción en el apartado museo de: www.correos.es.
[Fischer-92] Fischer, Claude S. America Calling. A social history of the telephone to 1940. University of California Press. Berkeley. USA. 1992.
[Iurc-68] John Cowdary Kendrew (1917-1997).IUCr Newsletter (1998). 6(1), 18.
[Winston-98] Winston, Brian. Media Technology and Society. A history From the Telegraph to the Internet. Routledge. London 1998.
[Oslin-92] George P. Oslin. The Story of Telecommunications. Mercer University Press. Macon. Georgia, 1992.
[Nyquist-28] Nyquist, H. Certain Topics in Telegraph Transmission Theory. In AIEE Transactions (1928), S. 617-644.

[NOTA: Debido a mi ignorancia de la gramática de Blogalia o he sido capaz de incluir lo gráficos. La conferencia entera, en formato pdf, con dibujos y todo podíes descargarla de aquí: UIMP-bits-y-sociedad-2000

Enviado por flexarorion a las 12:53 | 0 Comentarios | Enlace


1995: TELEFÓNICA VA A INSTALAR EL PRIMER CA­BLE SUBMARINO EUROPEO CON AMPLIFICA­DORES TOTALMENTE ÓPTICOS 2015-03-06

En esta extraña y deprimente labor en la que me he embarcado de hacer arqueología de mis propios escritos, de vez en cuando encuentro cosas, que hoy me sorprenden. Por ejemplo, esta de la que me ocupo hoy. En 1995, Telefónica fue la pionera en Europa en tender un cable submarino con amplificadores totalmente ópticos.

¿Se acuerdan de cuándo España era pionera en algo que no fuera el paro o los índices de desigualdad?

He de confesar que aquello de amplificar luz con luz y un láser de bombeo lo entendía a medias. Pero eso no impidió que cuando formé parte del equipo de "Retevisión", que fue la primera competencia a Telefónica, propusiera y diseñase una red de transporte para toda la península Ibérica en la que utilizaba repetidores/amplificadores digitales totalmente ópticos. Su precio era más o menos el mismo de convertir la luz a electricidad, amplificar la electricidad y luego convertirla otra vez a luz. Pero me parecía mucho más limpio: luz amplifica luz. Y, además, tuve que aprender qué era aquello del ERBIO y aquellas nociones de fotón que tan útiles me han sido después.

amplificador óptico

Fueron días esplendidos. Días dorados. Pero de aquellos conservo un problema en las manos. Catorce horas diarias de tecleo no perdonan: hojas excel, intentos de minimizar rutas de transporte,... Artrosis, calambres, tubel carpiano... Pero de eso mejor olvidarme.

Nada más acabar el proyecto de "Retevisión" creé un boletín de noticias que se llamaba Tempus Legi: Tiempo para leer y en el comenté la noticia de Telefónica. No comenté que yo usé sistemas similares para la red de "Retevisión" por mi contrato de confidencialidad, que tantos años después espero que no surta efectos.

La nota decía así:

1995: TELEFÓNICA VA A INSTALAR EL PRIMER CA­BLE SUBMARINO EUROPEO CON AMPLIFICA­DORES TOTALMENTE ÓPTICOS

Los cables submarinos surgieron de la necesidad de establecer comunicaciones telegráficas y telefónicas de un modo fiable entre continentes. El primer cable tele­gráfico submarino entre Europa y América se inauguró el 28 de agosto de 1858. Du­rante muchos años, fueron lo que su nombre indica: un conjunto de cables de cobre por el que circulaban las señales telegráficas o telefónicas. Hoy en día no es así; hoy, dentro de un cable submarino lo que hay es un paquete de fibras ópticas que transmiten luz. Las fibras ópticas son hilos de plástico muy finos y muy transparen­tes, tanto que pueden transportar la luz a varios cientos de kilómetros sin que la lu­minosidad se haya perdido. Sobre el rayo de luz se superponen (se modulan) miles de conversaciones telefónicas o decenas de emisiones de televisión. El resultado es un cable submarino mucho más fino y con mucha más capacidad que un cable conven­cional.

La fibra óptica es increíblemente transparente. Para hacernos una idea, pensemos que siete metros del vidrio normal hacen que la luminosidad haya dismi­nuido a la mitad; sin embargo, en una moderna fibra óptica se necesitan decenas de kilómetros para la misma disminución.

A pesar de la fantástica transparencia, la luz no puede ir desde Europa hasta América. Sencillamente, el cable no es suficientemente transparente y la luminosi­dad se va atenuando. Por ello, cada cierto número de kilómetros, hay que regenerar la luz, amplificar la luminosidad de algún modo. Hasta ahora para realizar este pro­ceso la luz llegaba a unos regeneradores, allí se convertía en electricidad, la electri­cidad se amplificaba y se volvía a convertir en luz. Al salir del equipo la luz era más brillante, pero la amplificación se había hecho electrónicamente.

Muy recientemente se han desarrollado técnicas que permiten amplificar la señal luminosa también con luz, sin necesidad de convertirla a electricidad. La regenera­ción de la señal luminosa se hace mediante un láser que la amplifica bombeando energía.
Es un técnica muy moderna, que ha tardado muy poco en pasar de los laborato­rios a la aplicación comercial.

Actualmente Telefónica participa en la construcción de un nuevo cable subma­rino, llamado Rioja, que unirá España con el Reino Unido, Bélgica y Holan­da. Será el primer cable submarino Europeo que utilicé los amplificadores ópticos de bombeo láser. Tendrá una longitud de 1.867 kilómetros una capacidad inicial de 61.440 con­versaciones telefónicas simultáneas; en una segunda fase se ampliarán al doble.

Enviado por flexarorion a las 10:48 | 0 Comentarios | Enlace


¿Fraude Lunar? 2015-03-05

Y hablando de la Luna... Aquel cuadragésimo aniversario de la llegado a la Luna, me hizo intervenir en, al menos, una docena de programas de radio y televisón. De uno de aquello programas, surgió esta columna, que fue publicada en "El Diario Vasco" el 7 de julio de 2009.

¿Fraude Lunar?

Autor: Prof. Dr. Félix Ares de Blas
 
Esta mañana he estado grabando cinco programas de televisión. El cámara ha resultado ser un apersona muy culta. Uno de los programas trataba sobre el descubrimiento del wolframio en el Real Seminario de Bergara. Uno de los objetos de wolframio que he mostrado ha sido una bombilla de 15 kW que utilizó la NASA para iluminar los lanzamientos nocturnos.
 
El cámara me ha dicho. «¡Ya, como si hubieran llegado a la Luna!» Que una persona no crea que hemos llegado a la Luna me parece comprensible, pero que haya un alto porcentaje de personas que lo pongan en duda me preocupa.
 
¿En qué se basan para negarlo? Una de las razones dice que se veía la bandera ondulando al viento, «lo que es imposible pues en la Luna no hay aire». La realidad es muy sencilla. La parte superior de la bandera era un cable metálico. Neil Armstrong lo dobló para dar la sensación de ondulación y, además, antes de empezar a filmar le dio un golpe al mástil para que todo el conjunto oscilase. De ese modo se logró la sensación de ondear.
 
El segundo gran argumento es que en las fotografías de la Luna no se ven las estrellas. Nos dicen que al no haber atmósfera no hay refracción, que es la que tapa las estrellas. Ellos nos dicen que en la Luna el cielo tiene que verse negro y por tanto deben verse las estrellas. Todo es cierto menos que deben verse las estrellas. Las estrellas son puntos que emiten muy poca luz. La luz reflejada por el suelo era muy fuerte. La cámara se debe ajustar a una velocidad muy rápida para que la superficie lunar no parezca sobre expuesta (quemada). A dicha velocidad, las estrellas no tienen brillo suficiente para dejar su huella. Mejor dicho «casi no tienen brillo», si vamos a Photoshop, recortamos una parte del cielo oscura y ampliamos el margen de luminosidad, allí aparecen las estrellas.
 
Otro argumento es que las sombras que debían ser paralelas no lo son. En la Tierra, cuando sacamos fotografías de dos personas alejadas unas de otras sus sombras no tienen porque ser paralelas, por dos motivos: uno es el efecto de la perspectiva y el otro es que en un terreno ondulado la sombra se inclina de acuerdo con la pendiente del terreno, por lo que una sombra puede apuntar hacia un sito y la otra hacia otro separado muchos grados.
 
Cuando vemos el cochecito lunar corretear, siempre nos da la sensación de que es demasiado grande para caber en el módulo lunar. La explicación, de nuevo, es tan simple que da vergüenza tener que defenderla: el cochecito viajó plegado.
 
Es imposible explicar más temas en tan poco espacio. Os aconsejo que leáis un libro que acaba de salir, aún está «calentito», se trata de «La conspiración lunar, ¡vaya timo!» De Eugenio Manuel Fernández Aguilar. Merece la pena leerlo.
 
 Libro de Eugenio

Enviado por flexarorion a las 09:18 | 0 Comentarios | Enlace


Mi llegada a la Luna 2015-03-05


En 2009, como conmemoración de la llegada del ser humano a la Luna varios medios de información me pidieron que les escribiera lo que fue "Mi llegada a la Luna". Escribí lo que vais a leer. Es muy corto, pero es todo el espacio que daban. Esto mismo lo dije --con las variaciones correspondientes-- en ocho intervenciones en radio.

No estoy seguro de dónde se publicó pero creo que uno de los sitios fue Consumer de Eroski. Pero no estoy seguro. Mis notas no dan esos detalles. Simplemente tengo copia de lo que escribí.

Mi llegada a la Luna
 
Hoy quiero hablarles de mi experiencia aquel día 20 de julio de 1969 en el que Neil Armstrong ponía su pie en nuestro satélite.
 
Estaba haciendo las milicias universitarias en el Campamento de El Robledo, a 5 km de La Granja de San Ildefonso. Mis días, como la de los demás «caballeros aspirantes», transcurrían entre gimnasia, instrucción, marchas a «La Atalaya» y unas tediosas clases bastante aburridas. Vivíamos en tiendas de campaña, por lo que no teníamos electricidad. En cada tienda había unas diez personas. En mi tienda estaba Jorge que era pariente de Neil Armstrong. Ese parentesco nos permitió que aquella noche nos permitieran poner una televisión con baterías [Nota 2015: en aquella época una tele de baterías era una "rara avis"]. La pusimos y nos pasamos la noche entera viendo cómo Armstrong daba los primeros pasos en la Luna. Se nos añadieron un par de tenientes y otro par de capitanes.
 
Era aficionado al tema de la astronáutica. Había visitado la base de espacio profundo de NASA en Robledo de Chavela y la de la Agencia Espacial Europea en Villafranca del Castillo –cerca de La Granja– y tenía ideas bastante claras de lo que estaban haciendo. Inocentemente fui haciendo comentarios: «Sólo hay tres antenas de recepción en el mundo, una en Camberra (Australia), otra el Goldstone (California) y la tercera en Robledo de Chavela (Madrid), que, por cierto, en su construcción intervino mi padre». «Lo que ha llegado a la Luna es el módulo lunar Eagle». «En órbita Lunar se ha quedado Mike Collins». «Tan solo pisarán la Luna Neil Armstrong y Buzz Aldrin. Debe ser terrible para Mike estar tan cerca y no pisarla».
 
Yo no di ninguna importancia a aquellos comentarios, pero cambiaron mi vida. Al menos cambiaron mi «mili». Al día siguiente, uno de los capitanes –no el mío– que había estado en la tienda me preguntó que si podría contar a su compañía lo que había sido el viaje a la Luna, las dificultades, y lo que podíamos esperar. Así empezó me «carrera» de «conferenciante militar». Recorrí todas las compañías del campamento y en algunas di varias charlas sobre diversos temas.
 
Así, de charla en charla, fueron transcurriendo mis últimas semanas de campamento. El último día, el previo a la «jura de la bandera», un teniente me pidió que fuera a verlos a su área. Al llegar me encontré con la sorpresa de que todos los «caballeros aspirantes» estaban formados. Uno de ellos se acercó con un banderín y me lo regaló. Su capitán dijo algo de «gracias...». Todos me saludaron. Yo acabé la fase de campamento de mi mili con un grato recuerdo.
 
Mi capitán me recomendó para las prácticas en el servicio de telecomunicaciones de Prado del Rey, donde me dediqué a hacer investigación sobre transmisión troposcattering, pero esa es otra historia.

[Nota 2015. El 3 de marzo hace un año que murió mi padre, que no solo fue uno de los que colaboraron en la construcción de las antenas de Robledo de Chavela, también me inspiró a conocer la ciencia.

Enviado por flexarorion a las 09:07 | 0 Comentarios | Enlace


Primitivas manos para herramientas 2015-03-05

Primitivas manos para herramientas
Publicado en el Diario Vasco. Big Bang el 11 de febrero de 2015

Autor: Prof. Dr. Félix Ares

Huesos fósiles sugieren que empezamos a usar herramientas hace 3.2 millones de años

Las primeras herramientas de piedra asociadas a nuestros antepasados homínidos, se sitúan aproximadamente hace 2,6 millones de años. Este descubrimiento ha hecho pensar a muchos científicos que el uso de las herramientas comenzó aproximadamente en esa época, un poco antes, pero solamente un poco. Sin embargo, un reciente estudio publicado en la revista científica «Science», en el mes de enero, sugiere que empezamos a usar herramientas al menos 600 000 años antes.
En algún momento de nuestra evolución, los antecesores de los humanos dejaron de saltar de rama en rama, o lo hicieron en menor medida, y empezaron a usar herramientas. No sabemos cuándo ocurrió, pero el Dr. Tracy Kivell, de la universidad de Kent, ha comenzado a utilizar la zona esponjosa de los huesos que llamamos «trabéculas» para tratar de descubrir esa fecha. Las trabéculas son similares a la Torre Eiffel de París, no por casualidad, sino porque fue en ellas en las que se inspiró el ingeniero. Estas trabéculas no tienen una forma fija, evolucionan a lo largo de la vida y se adapta al tipo de trabajo que hacen. Por ejemplo, las zonas de mayor resistencia surgen en las zonas que sufren una mayor presión. El girar una llave para abrir una puerta o agarrar fuertemente un martillo para golpear con precisión, producen estructuras oseas, principalmente en el pulgar y en la palma de la mano, muy características y muy diferentes de las de los chimpancés.
No se trata tan solo de tener un pulgar oponible, que también lo tienen los chimpancés, sino que la estructura esponjosa del hueso es muy distinta si saltamos de rama en rama que si habitualmente usamos herramientas para hacer trabajos de precisión. Las posturas que somos capaces de adoptar los humanos para coger cosas con las manos no las pueden adoptar los chimpancés, gorilas, orangutanes u otros primates
El Dr. Kivell ha demostrado que nuestro antecesor «Australopitecus africanus», que vivió entre tres y dos millones de años, ya utilizaba herramientas.
En el estudio de «Science», que tiene como autor principal a Matthew Skinner, y varios coautores entre los que se cuenta el Dr. Kivell, se han comparado los huesos de las manos de antecesores humanos de hace 3,2 millones de años con los de los chimpancés actuales y se ve claramente que son diferentes. Las trabéculas de las manos de los homínidos reflejan que se usaban para asir herramientas. Este hecho hace que su uso sea, como mínimo, medio millón de años anterior a lo que se pensaba.

Enviado por flexarorion a las 08:54 | 0 Comentarios | Enlace


1993: EL FAX, UNA VENERABLE NUEVA TECNOLOGÍA QUE el 27 de noviembre de este año cumple su 150 Aniversario 2015-03-05

1993: EL FAX, UNA VENERABLE NUEVA TECNOLOGÍA QUE el 27 de noviembre de este año cumple su 150 Aniversario

Publicado en el boletín de SSDX-Group. Radioaficionados de Donostia San Sebastián en 1993.

El FAX fue patentado en 1843, antes que el telégrafo, que lo fue en 1848.

El primer servicio comercial de fax fue inaugurado en 1865, cubría el trayecto París-Lyon.



Prof. Dr. Félix Ares

¿Qué es el fax?

En los últimos años todos hemos visto como proliferaban las máquinas que llama­mos fax. Su función viene perfectamente definida por su nombre técnico: telefac­símil. Lo que hacen los estos aparatos es enviar a distancia (tele) una copia idéntica (facsímil) a la imagen original. Observen que fonética­mente el facs de facsímil suena igual que fax.

El funcionamiento habitual es introducir una hoja de tamaño A-4 en el emisor, marcar el número del equipo al que queremos mandar las imágenes conteni­das en la hoja y esperar a que el proceso acabe, aproximadamente un minuto después. El resultado será que el receptor remoto, situado en cualquier lugar del mundo, tendrá una copia de las imágenes contenidas en nuestra hoja. Por eso también se le ha lla­mado telecopia, es decir, copia a distancia.

Está muy extendida la idea de que se trata de un invento sumamente moderno, una de esas invenciones que podemos llamar Nuevas Tecnologías, en las que englobamos cosas como los ordenadores, los satélites artificiales o la ingeniería genética. No sólo el pueblo llano piensa así; recientemente, en una conocidísima revista de divul­gación científica, en un número extraordinario dedicado a describir los cien inventos más importantes de este siglo, señalaban al fax como una de las grandes invencio­nes de la pasada década de los 80.

Breve historia del fax

Lo sorprendente es que este año, 1993, el fax cumple su ciento cincuenta aniversario, con lo que se convierte en una de las tecnologías de la información más venerables, anterior al telégrafo y al teléfono. Aunque hay que hacer alguna precisión, el fax es, sin duda, anterior al teléfono, pero respecto al telégrafo no es totalmente cierto. La patente del fax es anterior a la patente del telégrafo, sin embargo esto no refleja la verdad del uso de los aparatos. Normalmente se considera a Samuel Morse como el inventor del telégrafo. Hizo una demostración de su dispositivo al presidente de los Estados Unidos, Martin Van Buren, en 1838, aunque no lo patentó hasta 1848. El caso del fax es un poco diferente, Alexander Bain obtuvo la patente del mismo el 27 de noviembre de 1843, pero era un diseño teórico que no se había construido en la práctica. La primera transmisión pública auténtica no se hizo hasta 1851, en el transcurso de la Feria de Londres, donde Frederick Blackwell hizo una demostración con su equipo que era muy diferente del de Bain.
Pero esto no debe engañarnos, no se trató de un simple experimento de chalados que quedó relegado al olvido. Aquel invento se ha estado usando sin interrupción desde que en 1865 Giovanni Casselli inaugurase el primer servicio comercial de fax, que unía las ciudades de Lyon y de París. Muy poco después, el servicio se extendió a otras ciudades francesas. Entre las figuras que acompañan a este trabajo está la repro­ducción de uno de los primeros faxes transmitidos por el servicio de Casselli, en el que su calidad es sorprendente.

En 1906 se inauguró un servicio de transmisión de fotos a distancia entre las ciu­dades de Munich y Berlín. Poco después, el mismo sistema, el de Korn, unía las ciu­dades de Londres, París y Montecarlo. Normalmente los usuarios eran los periódicos que lo empleaban para recibir fotos de sus corresponsales de un modo rápido. La transmisión de una página del tamaño aproximado de una cuartilla, con calidad foto­gráfica, duraba doce minutos.

El tipo de señales para transmitir fax era el mismo que el que se usaba en telegrafía por lo que el desarrollo del uno estuvo muy ligado al del otro. Así que no es extraño constatar que en los albores de nuestro siglo, en cuanto se pusieron en servicio las primeras estaciones comerciales de telegrafía sin hilos, rápidamente apareció el radiofax o la transmisión de dibujos por radio.
En 1915 se desarrolló el repetidor telefónico, con lo que la transmisión de voz a grandes distancias se hizo posible y muy rápidamente el fax se aprovecha de ello y empieza la era del fax transmitido por línea telefónica.

En 1926 la empresa RCA inauguraba un servicio de transmisión de imágenes entre Estados Unidos y Londres que en 1936 se extendió por varias ciudades europeas y sudamericanas.
En 1939 la empresa Western Union también se unía al carro de la transmisión de fotos e inauguraba su servicio con Londres. La primera foto recibida fue la del amaraje en Southampton (Inglaterra) del primer vuelo transatlántico del Yankee Clipper, que fue publicada en muchos periódicos de Estados Unidos.

El presente del fax.

Hasta este momento la transmisión de imágenes a distancia se hacía con equipos muy caros y líneas muy especiales. En 1948 se da un salto definitivo, se pone a la venta en Estados Unidos el equipo de Western Union llamado Desk-Fax, cuyo nombre significa fax de sobremesa, que funcionaba a través de cualquier línea telefónica. Su pequeño tamaño, su precio razonable y el hecho de que se pudiera conectar a cualquier sitio donde hubiera una línea telefónica, hizo que en unos pocos años se estuvieran usando 38.000 de estas máquinas. Equipos similares han estado empleándose sin apenas variación hasta la década de los 80. Es a mediados de esa década cuando ocurre una nueva revolución; de la mano de los japoneses aparece en el mercado un nuevo tipo de faxes con dos características muy importantes. La primera es que en vez de tardar veinte minutos en transmitir una hoja A-4 tardan algo menos de un minuto. La segunda es el precio; si los equipos anteriores costaban algo más de un millón de pesetas, los actuales tan sólo cuestan un poco más de 50.000. Estas dos características hacen que el fax se haya convertido en un elemento que está en todas las empresas, y poco a poco va entrando en los hogares como un electrodoméstico más. La enorme rapidez de transmisión significa que es más barato enviar un fax a Barcelona que una carta.

La enorme ubicuidad, el precio del equipo y el precio de la transmisión de una hoja hacen que el fax sea un fabuloso medio de comunicación. Ahora nos empezamos a dar cuenta de las innumerables aplicaciones que pueden tener estos equipos. Como botón de muestra os voy a pedir que penséis en una pequeña empresa que quiere hacer un pedido reducido a una tienda de California, donde muchos productos están a mitad de precio. Esta empresa se encuentra con dos problemas. El primero es el idioma, no es fácil tener una secretaria que hable el inglés con suficiente fluidez como para mantener una conversación con California. El segundo problema es el del horario; es muy difícil que a las horas que esté abierta la oficina de San Sebastián coincida con las horas de apertura en California. La solución a estos dos problemas es el fax. En primer lugar, es muy fácil tener una secretaria con los pocos conocimientos de inglés necesarios para hacer un pedido por escrito, y en segundo lugar, el fax se envía en cualquier momento. El fax rompe la barrera idiomática y la barrera del tiempo.
De hecho, el fax unido a las tarjetas de crédito internacionales, que facilitan el pago a distancia, y los medios de transporte rápidos internacionales que ponen un paquete en cualquier ciudad del mundo en menos de 48 horas después de entregarlo, por un precio aproximado a las 8.000 pesetas el kilo, han revolucionado el mercado mundial y han contribuido a hacer que nuestro mundo sea la aldea global de la que hablaba McLuhan.

El futuro del fax.

El fax está irremediablemente unido a la evolución de la telefonía. Por ejemplo, recientemente algunas compañías aéreas han empezado a ofrecer la posibilidad de hacer llamadas telefónicas desde un avión en vuelo, naturalmente también ofrecen servicio de fax. El pasado mes de junio Telefónica inauguró lo que se llama RDSI (Red Digital de Servicios Integrados). Se trata de una evolución del teléfono convencional, y cuyo precio de abono no es muy superior al mismo. Sin embargo sus posibilidades son muy grandes. Refiriéndonos al tema que nos ocupa, al teléfono RDSI se pueden conectar máquinas de fax muy avanzadas de fax que permiten, por ejemplo, la transmisión de diez páginas en menos de un minuto y la transmisión de textos y fotos en color.

Para terminar quisiera señalar que a pesar de que el fax acaba de cumplir 150 años, todavía es una tecnología en plena evolución y a la que la sociedad aún no ha sacado todo el jugo posible. Cuando se inventó el teléfono nadie pensó que sería un electrodoméstico imprescindible y se tardaron muchos años en ver gran parte de sus posibilidades; de hecho cada día se descubren nuevas aplicaciones para el mismo. Con el fax creo que ocurrirá otro tanto, poco a poco nos iremos dando cuenta de las múltiples aplicaciones que tiene, y en muy poco tiempo, será un electrodoméstico imprescindible en todos nuestros hogares.

Mi querido fax: ¡cumpleaños feliz!


FECHAS IMPORTANTES EN EL DESARROLLO DEL FAX.


1838 Samuel Morse hace la demostración del Telégrafo ante el presidente de Esta­dos Unidos.
1843 Alexander Bain obtiene la primera patente de una máquina de fax (Inglaterra)
1848 Frederick Blakewell obtiene la patente de otra máquina de fax (Inglaterra)
1851 Frederick Blakewell realiza las primeras demostraciones públicas en la Feria de Londres.
1865 Giovanni Casselli une mediante fax las ciudades de París y Lyon, siendo el primer servicio comercial de este tipo que se instala en el mundo.
1906 Korn inaugura un servicio comercial de transmisión de fotos de Munich a Ber­lín.
1948 La empresa Western Union comienza a vender el Desk-Fax. (Usa)
1965 La empresa Xerox empieza a vender sus Telecopiadoras. (Usa)
años 80 Se popularizan los faxes baratos con transmisión rápida. (Japón)

Recuadro opcional. Publicar o no dependiendo del espacio

LOS FORMIDABLES RETOS QUE TUVIERON QUE RESOLVER LOS INVENTORES DEL FAX.


Es casi inconcebible que incluso antes de inventarse el teléfono ya hubiera unas personas capaces de transmitir dibujos por medio de la corriente eléctrica.

Como botones de muestra de la ingente tarea que tuvieron que desarrollar voy a señalar algunos de los problemas fundamentales que fueron capaces de resolver:

El barrido de la imagen. Debemos recordar que no había sensores que fueran capaces de detectar la luz y que las cámaras fotográficas acababan de nacer. La solución adoptada fue que un estilete fuera haciendo un barrido del dibujo, línea a línea, de un modo parecido a la televisión actual. El dibujo se había hecho con un material conductor de la electricidad, de tal modo que cuando el estilete lo tocaba se cerraba el circuito y cuando iba por una zona sin dibujo el circuito permanecía abierto.

El grabado de la imagen. Se hace con un papel electrolítico que normalmente es de color azul, pero que se decolora al paso de la electricidad.

La fuerza para que el estilete hiciera su barrido. El estilete debía recorrer todo el dibujo de arriba hacia abajo y de un lado al otro. Debemos recordar que no existían los motores eléctricos. La solución adoptada fue la de utilizar sistemas de pesas, como las de los relojes, y hacer uso de la gravedad.

Sincronización. Supongamos que vamos a transmitir un dibujo tamaño A-8 (21 x 14,85 cm.) y que para ello utilizamos una resolución muy baja, de 100 líneas. El estilete debe recorrer 21 x 14.85 x 100 = 31.185 cm. es decir, casi 312 metros. Durante todo ese tiempo y distancia, el emisor y el receptor deben estar sincronizados, es decir, el estilete del receptor debe estar en el mismo sitio que el estilete del receptor, con una precisión milimétrica, so pena de obtener un dibujo totalmente deformado. Tenían que conseguir esta proeza con unas rudimentarias pesas y un péndulo. Lo sorprendente es que lo lograron, y que el recurso que usaron para ello, posteriormente se usó en el télex e incluso en la televisión y en Internet. Se trata de no sincronizar toda la imagen sino sólo cada una de las líneas. Al principio de cada una de ellas se lanza una señalar de Principio (Start).

Canal de comunicación. Debemos pensar que lo único de lo que disponían era de una burda línea telegráfica de un sólo hilo, el retorno (el cierre del circuito) se hacía por tierra.

Me resulta maravilloso el ingenio desplegado y los resultados conseguidos.

[Aquí falta el dibujo]











Desk Fax de la empresa Western Union. Fue el primer fax cuya pretensión era su venta masiva a las empresas, para su uso desde cualquier sitio que hubiera un teléfono.






[Falta dibujp]






En esta foto se ve al avión Yankee Clipper, a su llegada a Southampton, el 4 de abril de 1939, tras su primer vuelo transatlántico. La foto fue transmitida a Nueva a Nueva York por cable y publicada horas después por muchos periódicos estadounidenses.



[Falta dibujo]







Varios entusiastas de los hidroaviones se reunieron en Mónaco en marzo de 1912. Esta fotografía se transmitió por fax a París.



Patente de telégrafo de Bains 1843

[Falta dibujo]


[Nota 2015]: Es curioso lo obsoleto que resulta este artículo. Hoy el Fax es un chisme casi olvidado.
El motivo de no poner las imágenes es por mi ignorancia de la gramática de Blogalia. Pero si tenéis interés, podéis ver el artículo en formato pdf con las imágenes aquí:


Historia-fax

Enviado por flexarorion a las 08:30 | 0 Comentarios | Enlace


Huellas de koala 2015-03-03

Probablemente publicado en la columna Big Bang del diario Vasco el 30 de junio de 2009

Autor: Félix Ares

Huellas de koala
 
Las huellas digitales de cada ser humano son diferentes y no hay dos personas con las mismas huellas, ni siquiera la de los hermanos gemelos univitelinos.
 
Nuestros parientes más próximos, los orangutanes, gorilas y chimpancés, tienen huellas dactilares similares a las nuestras. Similares, pero lo suficientemente distintas para no confundir a ningún especialista. Sin embargo, hay un animal, muy alejado evolutivamente de nosotros, cuyas huellas son idénticas. Se trata del Koala, que vive en Australia y que se separó de nosotros hace 70 millones de años.
 
Si sorprendente es que koalas y humanos tengan huellas digitales casi idénticas, todavía lo es más el que este hecho no se descubrió hasta 1997 cuando Maciej Hennenberg publicó un artículo sobre este tema en la revista Natural Science. Recientemente Hennenberg ha sonado mucho debido al famoso «hombre de Flores». Pero esa es otra historia.
 
Un animal muy próximo al koala, el wombat de nariz peluda (Lasiorhinus latifronts) no tiene huellas digitales en sus patas. Pero un animal más alejado, Phalanger maculatus, sí que las tiene.
 
Para qué sirven las huellas dactilares siempre ha sido un enigma. Se ha especulado que es para aumentar el rozamiento y que al coger los objetos no resbalen. Pero recientes experimentos demuestran que el rozamiento es mayor con una piel lisa que con huellas dactilares. Tal vez, y tan solo es una posibilidad, esté más relacionado con el agarre a ramas húmedas. Las huellas actúan como canales de desagüe. Lo mismo que hacen los «dibujos» de los neumáticos.
 
¿Qué tienen en común orangutanes, gorilas, chimpancés, koalas, Phalanger maculatus y humanos y en qué se diferencian del wombat de nariz peluda? La respuesta está en su vida arborícola –en el caso de los humanos la de nuestros antepasados–. El wombat no es arborícola.
 
Las huellas dactilares parecen tener su origen en la adaptación a una vida en los árboles; aunque dicha adaptación no es suficiente, como demuestra el hecho de que los canguros arborícolas (Dendrolagus linustus) no las tienen, aunque sí tienen unas verrugas que producen un efecto similar.
 
Cuando dos especies distintas adquieren alguna característica muy similar, por ejemplo, los delfines –mamíferos– adquieren forma de pez, se dice que ha habido una evolución convergente. Otro ejemplo son los osos hormigueros, pangolines, equidnas, etc., que están muy alejados evolutivamente y, sin embargo, todos han desarrollado un hocico alargado y una lengua larga y viscosa que les permite capturar hormigas y termitas.
 
Para mí, aunque sé la explicación, no deja de resultarme sorprendente que el animal que tiene huellas digitales más similares a las mías sea el koala.

Enviado por flexarorion a las 07:12 | 0 Comentarios | Enlace


El cambio climático está acabando con los lagartos 2015-03-02

Publicado en el periódico: Noticias de Guipúzcoa (A veces mi colaboración también salía en las ediciones de Álava y Navarra)
 
Día: 16 de Mayo de 2910
 
Autor: Félix Ares
 
Título
 
El cambio climático está acabando con los lagartos
 
ENTRADILLA
 
El aumento de temperatura de los últimos 30 años ya ha producido la extinción del 12% de las especies de lagartos en México. Si no hacemos nada, en 2080 habrán desaparecido el 20% de las especies de lagartos de todo el mundo.
 
[/FIN ENTRADILLA*]
 
Nuestra amiga, la revista Science, publicada por la Asociación Americana para el Avance de la Ciencia, una organización sin ánimo de lucro, nos ha vuelto a sorprender en su último número –14 de mayo– con un trabajo espectacular en el que se demuestra no solo que el Cambio Climático es un hecho sino que sus efectos ya se están dejando sentir dramáticamente entre las distintas especies de lagartos.
 
El nombre de la Asociación lleva en su nombre Americana y no cabe duda de que en sus orígenes lo era, pero hoy más bien hay que pensar que es una asociación de ámbito mundial. Por ejemplo, durante muchos años su presidente fue el biólogo español Francisco Ayala, al que conocimos en kutxaEspacio (Ver nota pie de página) cuando tuvimos el honor de recibirle. Charlar con él fue una experiencia inolvidable. Pero es más, para dar a conocer este trabajo, la AAAS ha celebrado una rueda de prensa en Madrid, lo que demuestra bien a las claras su internacionalidad. Ha sido en Madrid, no en Washington o Nueva York.
 
Hace un poco más de 30 años el biólogo Jack Sites, de la Universidad Brigham Young de Estados Unidos, se pasó varios veranos coleccionando lagartos en México. Poco se podía imaginar que aquella colección de animales fuera el germen de un estudio mundial que atribuye la extinción de muchas especies de lagartos al Cambio Climático.
 
Quizá pudiéramos pensar que el que se extingan el 12% de los lagartos de México nos afecta muy poco, que podemos vivir sin ellos. Sin duda es un error por varios motivos; el primero es que los lagartos juegan un papel muy importante en la cadena alimenticia de muchas otras especies. Por ejemplo, ellos comen insectos y ratones manteniendo su población a raya. Por otro lado sirven de alimento a muchos pájaros, culebras y otros animales, permitiendo que existan. Además, como vamos a ver a continuación, no se trata tan solo de los lagartos de México, está ocurriendo en todo el mundo.
 
Sites recogió sus muestras de lagartos en diversas localidades a las que retornaban habitualmente los ecólogos mejicanos. Se dieron cuenta de que algunas de las especies que Sites había recogido sin ningún problema, cada año eran más difíciles de encontrar y algunas no se encontraron en absoluto. Estudiando las notas de Sites, el director del actual estudio, de nombre Sinervo, y su equipo encontraron que de las 48 especies de lagartos espinosos (Sceloporus) que había estudiado en 200 lugares, el 12% de las especies habían desaparecido. Los estudios se habían hecho en zonas protegidas, eso significaba que su desaparición no era debida a alteraciones del hábitat. Allí el hábitat estaba intacto. ¿Qué era, pues, lo que estaba acabando con los lagartos? Empezaron a pensar que había una conexión entre el aumento de temperatura debido al Cambio Climático y la desaparición. Algo pasaba en su fisiología que hacía que les afectase el exceso de calor. Por ejemplo, los lagartos, que son de sangre fría, no pueden forrajear cuando sus cuerpos están demasiado calientes pues deben estar en un lugar sombreado. Los investigadores descubrieron que cuando la temperatura aumentaba, el tiempo que tenían que estar a la sombra también aumentaba y con ello disminuía notablemente el tiempo que podían dedicar a buscar comida. Esa disminución de comida no los mataba pero si ocurría en el mes crítico del ciclo reproductivo, los lagartos no tenían energía suficiente para producir una nidada de huevos o embriones. Si esto se repetía varias veces seguidas la especie se extinguía en muy poco tiempo, aunque ningún lagarto muriese directamente por el calor.
 
Pero para ligar un fenómeno al Cambio Climático no basta una verificación local, se necesita una comprobación en el ámbito mundial. Y aquí viene una de las maravillas de Internet y ciertas herramientas como «Google Scholar» y «Google Earth». Sinervo quería encontrar estudios similares que se hubieran hecho en otros lugares del mundo para poder comparar. Se pusieron a buscar en las mencionadas herramientas. Sinervo nos dice: «Nos llevó un tiempo seleccionar los términos de búsqueda adecuados, pero una vez que lo hicimos nos pudimos centrar en ciertas publicaciones de relevancia. Me sorprendió la rapidez con la que los investigadores empezaron a enviarnos datos... Pero así es como ocurre: cuando detectamos un problema, respaldado por evidencia de todo el mundo, los científicos nos unimos». Muy pronto tuvieron los datos de otros investigadores de Chile, Argentina, África, Australia y Europa. Los resultados no dejan lugar a dudas, había ocurrido lo mismo, es decir, desaparición de especies, en 34 grupos distintos de lagartos en cuatro continentes. Esos datos permitían decir que la hipótesis inicial, la de que los lagartos estaban desapareciendo por el Cambio Climático, era correcta.
 
No es la primera vez que los lagartos tienen que lidiar con un cambio de temperatura, pero sí es la primera vez que el cambio es tan rápido. Tanto que no tienen tiempo de evolucionar y las especies desaparecen.
 
Lo siguiente que quisieron hacer fue un modelo que permitiera predecir qué iba a pasar si no se hacía nada por combatir el Cambo Climático. Para ello, entre otras cosas hicieron un modelo físico de lagarto que permitía medir las temperaturas que alcanzaban. Colocaron estos aparatos durante cuatro meses en zonas generosamente soleadas, tanto en puntos donde se había producido la extinción de especies como en los que no había ocurrido. Tal como ya hemos dicho si están demasiado calientes no salen a comer y dejan de reproducirse. Con los datos de todos los lugares lograron hacer un modelo matemático que predecía la desaparición de especies de acuerdo con el aumento de temperatura. Para el pasado, el modelo concordaba con los datos reales, por lo que se supone que también funcionará para el futuro. Así que han podido extrapolar y la conclusión es la siguiente: si sigue el aumento de CO2 al mismo ritmo actual, para el 2050 el 6% de todas las especies de lagartos del mundo habrá desaparecido y para el 2080 lo habrá hecho el 20%. No es ninguna broma. La conclusión es obvia: tenemos que hacer algo. Y no se trata tan solo de ayudar a los lagartos, se trata de ayudarnos a nosotros mismos.
 
 
La negación del Cambio Climático
 
Es curioso y desmoralizador ver que hace siete u ocho años, cuando los datos sobre el Cambio Climático eran escasos, la mayoría de las personas creían que era una realidad y que era debido en su mayor parte a la actividad humana, y sin embargo, hoy, cuando la abundancia de datos que ponen de manifiesto que el Cambio existe es abrumadora, hay una incredulidad creciente en el tema. Hoy hay muchísimas personas que creen que todo lo del Cambio Climático fue un cuento promovido por científicos poco escrupulosos.
 
A todo esto ha venido a unirse la crisis económica. Una reciente encuesta en estados Unidos demuestra que la gente piensa que las medidas propuestas para luchar contra el Cambio Climático van a rebajar su ya menguado nivel de vida y no están dispuestos a asumirlo, por lo que lo rechazan. Rechazan que exista el Cambio Climático y así no tienen que hacer sacrificios. A nosotros nos parece una postura muy similar a la del avestruz: nos tapamos los ojos y dejamos de ver el problema. Es cierto, dejamos de ver el problema, pero el problema sigue existiendo y cada vez es peor. Y lo más grave, estamos muy cerca de un punto de no retorno, de un punto en el que el clima se alterará de tal manera que no seremos capaces de volver atrás.
 
Los lagartos nos están advirtiendo de que los próximos en sufrir bajas podemos ser nosotros, los humanos.
 
 
 
CURIOSIDADES
 
Los lagartos, técnicamente lacertilia, son un suborden de los reptiles que incluyen la mayor parte de los reptiles actuales, tales como lagartijas, iguanas, camaleones o lo que habitualmente llamamos lagartos.
 
Tienen cuatro patas, ojos con párpados y unos oídos que son muy diferentes de los de los mamíferos, normalmente no tienen una oreja externa, no oyen muy bien y son sensibles tan solo a las bajas frecuencias.
 
Los hay que ponen huevos –ovíparos– y los hay que retienen el huevo en su interior hasta que la cría está madura que es cuando salen al exterior –ovovivíparos –. Estos últimos son los que se ven más afectados por el aumento de temperatura.
 
Existen aproximadamente 5 000 especies. Los hay pequeños, de unos pocos centímetros, como por ejemplo los geckos, y los hay enormes, de 3 m de largo como el dragón de Komodo. Entre hace 90 y 65 millones de años existía uno gigantesco, el mosasuario, que medía hasta 20 m de longitud.

------------------------------------------------------------------
 
 Notas 2015: KutxaEspacio era el museo de la ciencia de Donostia-San Sebastián, Guipúzcoa, España.

Enviado por flexarorion a las 21:31 | 0 Comentarios | Enlace


Extremófilos 2015-03-02

Extremófilos

Prof Dr. Félix Ares de Blas

Para revista ON.
Esta revista me exigía que cada artículo tuviera cuatro apartados.

Una entradilla de 350 caracteres
Cuerpo central de 3526
Un recuadro de 937
Otro recuadro con un experimento para que lo hicieran los niños en sus casas.


Este trabajo se publicó en el número del 25 de diciembre de 2010


Extremófilos

Viviendo en el límite

ENTRADILLA

Nuestras ideas de los lugares donde podía haber vida han cambiado drásticamente en los últimos 50 años. Hay microbios que viven en medios ácidos, en fuentes muy calientes, en hielo, en sal... El pasado 5 de diciembre la NASA dio un paso más al demostrar que uno de los elementos que considerábamos esenciales para la vida, el fósforo, no lo es.

FIN ENTRADILLA

Hasta hace aproximadamente cincuenta años considerábamos que la vida era de una delicadeza extrema y que tenía unas exigencias muy rígidas. Por ejemplo, se pensaba que la vida no podía existir en el hielo ni en aguas cuya temperatura estuviera por encima de los 100 ºC. Tampoco podía vivir en medios muy ácidos ni con alta concentración de sal. Tanto los ácidos como la sal se han utilizado para conservar alimentos y evitar que las bacterias proliferen en ellos. Los encurtidos utilizan el ácido –el vinagre– para evitar la proliferación bacteriana. Las momias, o el jamón, que no deja de ser la pata de cerdo momificada, utilizan la sal para evitar los microorganismos ...

La segunda mitad del siglo XX se encargó de demostrar que la vida era mucho más flexible y que podía existir en lugares impensados hasta entonces. Un ejemplo muy interesante es el de Reacción en Cadena por la Polimerasa (PCR) de la que hemos oído hablar mil veces en las series de televisión que como CSI utilizan la ciencia para descubrir delitos. La PCR permite de un modo muy sencillo coger una muestra minúscula de DNA –el código genético– y multiplicarla millones o billones de veces. La clave para hacerlo es una enzima que recibe el nombre de polimerasa. Las palabrejas enzima y polimerasa no deben asustarnos. Las enzimas no son ni más ni menos que catalizadores; es decir, sustancias que aceleran una reacción química pero que no se gastan en ella. Si esto les parece raro, piensen un momento en algo que vemos cotidianamente, el hierro que se oxida. Un trozo de hierro dejado a la intemperie se oxida, al hacerlo crece y se hace blando y friable, ¡que nos lo digan a los que tenemos barandillas en los balcones!; esa reacción necesita un catalizador: el agua. La polimerasa cataliza la replicación de trozos de DNA, pero tiene un problema, a baja temperatura lo hace muy lentamente y a alta temperatura se descompone y deja de funcionar. El Parque Nacional de Yellowstone se caracteriza porque tiene aguas muy calientes y en esas aguas, que serían esterilizantes para la mayor parte de las formas de vida, sin embargo, hay seres vivos. El investigador Kary Mullis, en 1983 pensó que si había seres vivos a alta temperatura, habría polimerasa que resistiera esas altas temperaturas. Buscó la enzima, la encontró y desarrolló el método conocido como PCR en el que la replicación de trozos de DNA se hace muy rápidamente porque se hace a alta temperatura. Dicho sea de paso, esa ha sido la única contribución de Mullis que después ha desaparecido, lo que nos hace pensar más en un golpe de suerte que en un gran investigador. Pero el hecho es que esa polimerasa que resiste el calor ha revolucionado los estudios genéticos y los forenses.

Tras el hallazgo de Yellowstone se encontraron seres vivos en fumarolas oceánicas a temperaturas que sobrepasaban los 100 ºC, en trozos de hielo en la Antártida, en aguas tremendamente ácidas como son las del río Tinto, dentro de rocas a alta presión y casi sin agua, en bloques de sal, etc.

NASA ha dado un paso más y nos ha mostrado bacterias que no tienen fósforo. Siempre se había pensado que el fósforo era imprescindible para la vida. Todos los seres vivos tienen –mejor dicho «tenían»– ATP (Adenosin Trifosfato). La P es el símbolo del fósforo. En la conferencia de prensa NASA mostró bacterias que habían sustituido el fósforo del ATP y de otras moléculas genéticas, como DNA o RNA, por arsénico. Normalmente el arsénico es veneno, pero en este caso la evolución había hecho que las bacterias sustituyeran el fósforo por él.

Actualización 2015. Con posterioridad, parece que no queda claro que exista de verdad la vida donde se sustituye el fósforo por arsénico. En 2012 salieron dos trabajos que contradecían lo dicho por NASA. «La revista Science ha publicado dos trabajos que contradicen la labor de Wolfe-Simon: uno de ellos, llevado a cabo por científicos suizos, muestra que la bacteria sí tolera el arsénico pero no puede crecer en un ambiente sin fosfatos, mientras que el otro, realizado por investigadores de EEUU, señala que dicho organismo no ha añadido el arsénico a su código genético». https://traslaeradeplanck.wordpress.com/tag/astrobiologia/

RECUADRO PRIMERO

¡Que viene el lobo!

La noticia de una bacteria que ha sustituido en su estructura molecular interna el fósforo por arsénico es muy importante para la biología; pero en nuestra opinión NASA se «ha pasado tres pueblos» al darla. Empezaron con que «el jueves» darían a conocer un gran descubrimiento importantísimo «para la vida extraterrestre» y el jueves hablaron de esta extrañísima bacteria que parece tener arsénico en lugar del fósforo en moléculas clave para la vida. Para la biología es una noticia muy importante. Es una prueba más de que la vida es mucho más flexible y adaptable de lo que pensábamos. Es un paso más en el descubrimiento de extraños seres extremófilos, ni siquiera el fósforo es fundamental. Pero, ¿qué tiene que ver esto con la vida extraterrestre? Pensamos que ustedes están abusando de su credibilidad para «sobrevender» una noticia. Nos estamos cansando, y es posible que cuando venga el lobo no les hagamos ningún caso.

Recuadro 2

Experimento

La presión osmótica es fundamental en nuestra vida pues rige muchísimos procesos vitales. Hoy queremos que compruebes dicha presión de un modo muy sencillo: haciendo una ensalada.

Seguro que te has dado cuenta de que cuando se prepara una ensalada de lechuga, si se come nada más hacerla está estupenda, pero que si se guarda, la lechuga adquiere un aspecto lacio y poco apetecible.

Vamos a pedirte que hagas la prueba de un modo controlado. Coge una hoja de lechuga y ponla en un plato. Alíñala con vinagre, un poco de aceite y bastante sal. Déjala reposar unas cuantas horas. ¿Cuál es el resultado? Pues que la lechuga fresca y lozana se ha arrugado y adquirido un aspecto oscuro poco apetecible. La razón es que al tener más concentración de sales el exterior que el interior de la lechuga, su agua interior sale hacia afuera. La lechuga se seca pues su agua pasa al líquido externo.

Eso miso es lo que se hace para hacer jamón o momificar un cadáver.

Enviado por flexarorion a las 20:40 | 0 Comentarios | Enlace


La ciencia transforma el mundo que nos rodea 2015-03-02

Conferencia Vitoria 4 de noviembre de 2011
Impartida en un congreso de ATSS en el Hospital Santiago Apostol
Con posterioridad publicado en su revista

Autor Félix Ares

La ciencia transforma el mundo que nos rodea

Estrictamente hablando la ciencia es un método de conocimiento de la realidad cuyas bases se establecieron en el siglo XVI de la mano de Francis Bacon. El método científico para él consta de cuatro pasos: 1. Observación. Se observa un fenómeno y se toman datos. 2. Elaboración de hipótesis. Se hacen hipótesis que puedan explicar los datos recogidos. 3. Predicciones: a partir de las hipótesis se hacen predicciones sobre lo que va a pasar. 4. Verificación. Se contrasta que la realidad coincide con las predicciones. En este punto muchas veces es necesario hacer experimentos, pues ellos son las predicciones.

El problema con esta definición es que grandes pensadores anteriores como Aristóteles o la Biblioteca de Alejandría que, sin duda, fue el primer centro de investigación en sentido moderno de la historia de la humanidad, pues en ella había científicos pagados para que dedicaran todo su tiempo a desentrañar el funcionamiento de la naturaleza: astrónomos para fijar el calendario y elegir los mejores momentos de realizar las labores agrícolas, jardines botánicos para experimentar con nuevas plantas, centros de disección para conocer mejor la anatomía humana y poder curar mejor, estudios de hidráulica para tener mejores depósitos de agua,...

Sería absurdo no considerar ciencia a ese conjunto de estudios sistemáticos.

Hoy en día somos muy dados a diferenciar ciencia de tecnología como si fueran cosas muy distintas. Se nos dice que la ciencia es el estudio teórico que planta las bases sobre las que se cimenta la tecnología. Primero ciencia, después tecnología. Eso suena muy bonito y muy lineal; solo tiene un problema: que no es cierto. Basta con que nos fijemos en la máquina de vapor, primero hubo máquinas funcionando, máquinas que abrían las puertas de los templos en Alejandría, máquinas que achicaban aguas en las minas españolas e inglesas, máquinas que movían trenes,... y después se creó la teoría de la termodinámica. Después, no antes.

Con la aviación tenemos otro ejemplo palpable. Los hermanos Wright hicieron volar su máquina mucho antes de que se estableciera la ciencia del vuelo. En la radio ocurrió algo parecido, Marconi transmitió desde América a Europa cuando la ciencia decía que no se podía hacer. Y en medicina el hecho es clamoroso, la práctica había encontrado hierbas, procedimientos de actuación que funcionaban mucho antes de que nadie supiera por qué.

Ciencia y Técnica siempre van mezcladas y funcionan enredadas. A veces la ciencia va por delante, otras veces va por detrás. La ciencia influye en la técnica y la técnica influye en la ciencia. Por ejemplo, una nueva herramienta cambia drásticamente el modo de hacer ciencia. El ordenador, un producto mucho más de la técnica que de la ciencia --con matices-- ha cambiado el modo de hacer ciencia de arriba abajo. No ha dejado “títere con cabeza”.

Así que permítanme un enorme salto hacia atrás. Nos vamos como mínimo 2 800 000 años atrás. Es entonces cuando en África aparecen las primeras herramientas de piedra de las que tenemos constancia. Son herramientas muy sencillas que permiten machacar para sacar el tuétano de los huesos, o cortar lo que permiten obtener más carne de las piezas de caza.

Los machacadores más que una elaboración es una selección de la piedra adecuada, algo que también son capaces de hacer los chimpancés, aunque luego veremos que con mucha menor precisión que nosotros. Vamos a fijarnos en los cortadores. Se necesita elegir una piedra y después golpearla del modo adecuado para que se cree un filo. Parece una labor sencilla, sin embargo, si se la encargáramos un chimpancé fracasaría rotundamente; la razón es muy simple, no tienen la maquinaria cerebral adecuada para hacerlo. Estamos muy orgullosos de nuestro neo-córtex y solemos decir que en él se encuentran las mayores diferencias con los chimpancés. Es cierto que nuestro neo-córtex es mayor que el de los chimpancés; pero si nos fijamos en el cerebelo nos llevaremos una tremenda sorpresa: el nuestro no es solo mayor sino que es muy distinto del de los chimpancés. Está formado por unos tres mil millones de neuronas que, entre otras cosas, permiten la realización de movimientos muy precisos con nuestras manos, pies y aparato fonador. Movimientos muy precisos, esa es la frase clave.

Inmediatamente la imaginación nos lleva a aquellas remotas edades, antes de la existencia de cortadores, y pensamos en un antecesor del Homo sapiens, que se da cuenta de que si tuviera una piedra afilada podría sacar mejor la carne de las piezas cazadas. Y lo haría en menos tiempo evitando con ello que otros animales se acercaran. Intenta golpear la piedra con otra para realizar el filo y se encuentra con que sus movimientos son muy torpes. Es muy difícil golpear exactamente donde sus ojos le indican (todavía no se ha desarrollado el nuevo cerebelo). Con mucho esfuerzo y tras años de mejorar la técnica, lo logra. De ese modo consigue sacar más rendimiento a la caza y lo que es más importante, logra alimentar a sus hijos. Entre sus hijos los hay con mejor capacidad de golpear con precisión y los hay con menos. En una situación de alimento abundante ese rasgo no tiene demasiada importancia; pero cuando el alimento escasea, ser capaz de hacer herramientas que favorecen sacar más comida --tuétano y carne-- de la caza se convierte en decisivo. Nuestros antecesores son los que movían las manos con más precisión.

En este momento se inicia la “lucha” evolutiva: empieza a funcionar la selección natural. Y dejan más descendencia aquellos que son capaces de realizar movimientos más precisos. Herramientas y cerebro coevolucionan. Un cerebro capaz de realizar movimientos más precisos permite hacer herramientas mejores que permiten sobrevivir. Mejores herramientas implican un “mejor” cerebro (mejor en el sentido mayor precisión de movimientos). Un mejor cerebro permite hacer mejores herramientas y da facilidades de supervivencia.

Si decimos que las herramientas --la tecnología-- nos hicieron humanos, no estamos hablando tan solo de una metáfora, estamos hablando de una realidad. Nosotros somos el producto de la coevolución entre herramientas y cerebro. Las herramientas no solo cambiaron la sociedad, cambiaron nuestra anatomía.

Esos movimientos precisos propiciaron otra característica muy humana: el lenguaje. Aunque a simple vista no lo parezca, hablar exige la coordinación muy precisa de muchos músculos. Algo que los chimpancés no son capaces de hacer y nosotros sí. Casi con seguridad que esa capacidad de hacer los movimientos finos que se necesitan para hablar la heredamos de los fabricantes de herramientas.

Normalmente cuando hablamos del lenguaje no solemos pensar en que se trata de una tecnología de comunicación inventada por los humanos. Probablemente haya sido la tecnología que más haya influido en la sociedad. El lenguaje ha permitido infinidad de cosas, desde la coordinación para la caza, hasta revolucionar la enseñanza. Los chimpancés aprenden por imitación y los padres pueden enseñar a los hijos cómo hacer una cierta cosa simplemente haciéndola despacio al lado de ellos. Nosotros somos capaces de enseñar sin necesidad de realizar el acto concreto en que queremos formar. Podemos explicar, podemos hacer esquemas, podemos decir que los alumnos se imaginen un escenario... El lenguaje es la mejor herramienta de cohesión social y de enseñanza de la que disponemos.
Creo que pocas dudas hay de que el lenguaje es una de las herramientas que nos hicieron humanos, por lo que no voy a insistir en el tema. Simplemente volver a señalar que el lenguaje es una técnica inventada por nosotros.

Otra de las cosas que propiciaron las herramientas fue el fuego. No se sabe cuándo se logró producir fuego a voluntad, pero algunos arqueólogos --por ejemplo Richard Wrangham-- defienden que fue hace cerca de dos millones de años y que ocurrió en la el este de África, donde abundan las piritas. Las piedras de sílex que usaban para hacer herramientas, al chocar con las piritas producen chispas que se pueden usar para hacer fuego. El fuego permitió cocinar. Muchos productos aumentan enormemente su valor nutritivo cuando se cocinan. Por ejemplo, tubérculos, ciertos vegetales e incluso carne, pues si la comemos asada o cocida evitamos parte del gasto energético para digerir. De hecho, Wrangham nos habla de varios experimentos recientes donde se ve que una dieta de “todo crudo” no es posible para nosotros. Eso significa varias cosas, la más sorprendente es que nuestro intestino es mucho más corto y las mandíbulas más pequeñas que los de otros primates porque cocinamos. También significa que dedicamos menos energía interna a la digestión, que la hacemos más rápidamente y que podemos dedicar más tiempo a la caza o al ocio. No todos los arqueólogos están de acuerdo con Wrangham, de hecho, la mayoría piensa que el cocinar es muy posterior; no me importa demasiado en este momento; simplemente quiero que piensen que si es cierto, de nuevo, una tecnología, la cocina, ha cambiado nuestra anatomía. Quiero insistir en que la tecnología cambia nuestra sociedad e incluso nuestra anatomía.

Los animales de caza emigran de unos lugares a otros, más al sur en invierno, más al norte en verano. De eso sin duda que se dieron cuenta nuestros antepasados y, sin duda, que tuvieron que encontrar formas de saber cuándo ir a cazar a ciertos sitios. Sin duda que se dieron cuenta de que el cielo cambia a lo largo del año y que se repite periódicamente. “Cuando al anochecer se ve la constelación de Tauro en el este es el momento de salir para cazar...”. La astronomía surge no solo como curiosidad sino como una necesidad para la caza.

Hace unos veinte mil años que empezamos a domesticar animales; uno de los primeros fue el perro. Después fue el ganado ovino y bovino y más o menos al mismo tiempo empezaron a domesticarse plantas. La agricultura y la ganadería son tecnologías que también nos han cambiado para siempre. En primer lugar nos hizo sedentarios, la sedentarización dio origen a las ciudades, las ciudades necesitaban de la escritura,... Una tecnología, la agricultura y ganadería, dio origen a otra tecnología: la escritura. Pero de eso ya se ha hablado mucho; hoy --ante ustedes, que están relacionados con la salud-- quiero hacer énfasis en otros temas. El primero es que al convivir con los animales, las enfermedades y los parásitos de ellos en muchas ocasiones pasaron a nosotros. No es lo mismo vivir aislados en pequeños grupos de humanos que en grupos mayores con animales. Sin duda, eso tuvo que producir una evolución de nuestro sistema inmunológico. Tuvimos que hacernos resistentes a los parásitos de muchos animales. El problema es que hasta hace muy poco no podíamos seguir los rastros de la evolución de dicho sistema. Pero estoy seguro de que fue así, nuestro sistema inmunológico evolucionó con la agricultura.

Cuando se domesticaron los cereales --cebada, trigo y avena-- ocurrió algo importantísimo para nosotros. Cambió la dieta. Hasta entonces, nuestro suministro de vitamina D, sobre todo por la caza tanto menor como mayor, era suficiente; pero al pasar a una dieta consistente fundamentalmente en cereales, el aporte de vitamina D no era el suficiente. La falta de vitamina D, como ustedes saben mejor que yo, produce raquitismo. Pero, en nuestro organismo hay proto-vitamina D que se convierte en vitamina D con la radiación ultravioleta del Sol. Al comer alimentos en los que escaseaba la vitamina D se convirtió en decisivo el aporte de luz UV. Las pieles oscuras dejan penetrar menos cantidad de luz UV que las claras; así que surgió una presión evolutiva muy importante para que la piel se aclarase. Si esta hipótesis --que es de Cavalli Sforza-- es correcta, la agricultura nos hizo blancos. Una tecnología --la agricultura-- hizo que nuestra piel cambiara de color.

El ser humano, como la mayoría de primates y mamíferos, utiliza la leche de la madre tan solo en las primeras etapas de la vida; después se hacen intolerantes a la lactosa. Con la domesticación de animales que producen leche --ovejas, cabras, vacas, camellos, yeguas-- ocurrió algo sumamente interesante. Aquellas personas que eran capaces de aprovecharse de la lactosa, tenían alguna ventaja sobre las que no lo eran, por lo que surgió una presión evolutiva para tolerar la lactosa entre los pueblos que pastoreaban con animales que producían leche. Los análisis genéticos demuestran que esa tolerancia a la lactosa se desarrolló tres veces por separado. En los pueblos que nunca pastorearon con ovinos o bovinos --como es el Japón-- no han desarrollado la tolerancia a la lactosa. Otra tecnología --el pastoreo-- ha modificado nuestros genes para hacernos tolerantes a la lactosa.

Es curioso pensar que nuestros genes son los que favorecen nuestro desarrollo cultural y que nuestra cultura modifica nuestros genes. Todo a la vez, cultura y genes enredados.

Con la aparición de la escritura, ocurre algo interesante: lo escrito es capaz de superar las barreras del espacio y del tiempo. Un escrito en Egipto, puede llegar perfectamente a Babilonia. Y las tablillas que escribieron en Nínive hace casi cuatro mil años podemos leerlos hoy en día en cualquier parte del mundo. Además la escritura permite acumular conocimientos. En una cultura oral, muchos conocimientos se pierden cuando mueren los únicos que lo conocían. Por ejemplo, cuál era la mejor forma de actuar ante un tipo de enfermedad. Si se trata de una enfermedad que se repite cada pocos años, hay muchas personas que recuerdan la mejor forma de actuar; pero si es una enfermedad que surge cada dos o tres siglos, cada brote es “nuevo”. Prácticamente nadie lo recuerda, salvo en posibles leyendas. Por esto mismo, en las culturas ágrafas el papel de los abuelos es fundamental, como almacén de conocimientos y en las culturas con escritura ese papel de los abuelos --que no otros-- se ve minimizado.

Hoy en día podemos leer los recuerdos de una gran inundación que ocurrió en Summer hace casi cinco mil años --poema de Gilgamesh. La escritura permite acumular conocimientos. Los conocimientos no se pierden porque se mueran los únicos que lo sabían.

La escritura es la herramienta que nos ha lanzado a la civilización.

La imprenta no es nada más --ni nada menos-- que una nueva vuelta de tuerca al tema de la escritura. La escritura acumulaba conocimientos y permitía su difusión a lo largo del espacio y del tiempo pero entre las pocas personas que sabían leer y que tenían suficiente poder económico para adquirir un libro. Se calcula que una copia de la biblia, por los métodos manuales, costaría el equivalente a tres millones de euros.

La imprenta bajó el precio de las copias. Lo bajó drásticamente. Ahora el saber --la sabiduría acumulada-- estaba a la mano de muchas más personas. Cada vez más y más....

La imprenta --una nueva tecnología-- revolucionó el saber. Revolucionó la sociedad. Antes de la imprenta un nuevo sistema de cultivo, como pudiera ser la rotación y el barbecho tardaba siglos en llegar a todo el mundo; ahora un libro llegaba a todas partes en muy poco tiempo. Recetas para una agricultura más eficaz, o manuales de artesanos tuvieron un gran éxito lo mismo que formas de hacer contabilidad.

Antes de la imprenta las tablas de navegación solo podían ser adquiridas por unos pocos; muchas veces eran secretos de guerra. Con la imprenta, al bajar en precio, cualquier capitán podía tenerlas, y la navegación se hizo mucho más popular y sistemática.

La imprenta inicialmente tenía un sentido religioso --copias de la Biblia-- que muy pronto fue complementado por manuales de artesanos de distintos gremios. La imprenta ayudaba a difundir el saber. El saber se acumulaba y se popularizaba.

Las nuevas ideas científicas/técnicas en muy pocos meses llegaban a todas las esquinas del mundo. Las ideas se discutían, se hibridaban ... [*La ciencia se aceleró* ].

Y quizá de un modo inesperado, la imprenta creo las hojas de noticias. Hojas donde se comentaban los hechos más relevantes para una población. Eran los periódicos locales. En ellos no faltaban las críticas a los gobernantes, o las sugerencias sobre cómo hacer las cosas. Casi sin querer y de una manera espontánea surgió la prensa que muy pronto demostraría ser el elemento crucial de la democracia.

Casi con seguridad que una nueva tecnología --la imprenta-- dio origen a la democracia.

A finales del siglo XIX la ciencia adquiere carta de naturaleza como el motor de bienestar y del cambio para mejor.

Al comprender que muchas enfermedades tenían un origen bacteriano, enseguida llevó a la higiene como consecuencia. Es increíble que Ignaz Semmelweiss fuera vituperado por proponer que para atender a un parto había que lavarse. Muchos creen que han sido los ingenieros de obras públicas, al hacer alcantarillados y canalizaciones de agua potable, los que más muertes han salvado. El conocimiento del origen de muchas enfermedades cambió la estructura de las ciudades, la sociedad y la actitud ante las mismas.

A principios de siglo al extenderse la electricidad --mitad ciencia, mitad técnica-- por las ciudades, produjo un cambio drástico en la iluminación y en las enfermedades pulmonares que los humos de las lámparas antiguas producían. Además la electricidad trajo una consecuencia inesperada: el skyline de las ciudades cambió para siempre. Los rascacielos solo son posibles con ascensores, que se hicieron factibles con la electricidad. [*La electricidad creó los rascacielos y las ciudades compactas* +.

Por la misma época el automóvil desterró a los coches de caballos. Y las ciudades antes infestadas de moscas que se alimentaban de los excrementos de las caballerías desaparecieron.

El automóvil también aportó movilidad y que algunas ciudades crecieran a lo ancho.

La electricidad hizo que las ciudades crecieran a lo alto, el automóvil a lo ancho.

El teléfono trajo muchas consecuencias. Los agricultores podían enterarse del parte meteorológico o del precio en el mercado de sus productos y actuar en consecuencia.

El teléfono permitió relacionar de un modo muy efectivo al productor y al consumidor. Una vez que se extendió el uso del teléfono dejo de ser opcional eran una condición “sine qua non” para hacer negocios.

La radio inicialmente asumió alguno de los papeles del teléfono: parte meteorológico, noticias. Ya no hacía falta llamar, bastaba escuchar. Y aportó entretenimiento. Pero quiero señalar que la radio tuvo un papel decisivo en la transmisión del saber. En una zona concreta, ante una plaga, o una sequía los expertos decían por la radio cómo actuar. La radio era el altavoz que llegaba hasta los lugares más remotos, incluso a sitios donde no llegaba la prensa, o que no lo hacía con la rapidez necesaria.

Teléfono, radio y automóvil cambiaron drásticamente la vida de los agricultores --que era la mayor parte de la población a principios del siglo XX.

En 1928 ocurrió algo sumamente interesante para la sociedad actual, Alexander Fleming descubrió la penicilina. Inicialmente no sirvió para gran cosa, pero al finalizar la Segunda Guerra Mundial, cuando se perfeccionaron los sistemas de fabricación masiva de antibióticos, se revolucionó la medicina para siempre. Muchas de las enfermedades que eran mortales pasaron a curarse.

Nuevas vacunas, nuevos antibióticos... todo fue cambiando la sociedad y la percepción de la enfermedad. Por poner tan solo un ejemplo, tener tuberculosis era una condena a muerte, con los antibióticos era una enfermedad que se curaba; se quitó parte de su aureola de “enfermedad romántica” para ser una enfermedad curable.

La píldora anticonceptiva. En 1960 se empezó a comercializar la píldora anticonceptiva Basada en un estudio científico de primera magnitud: conocer cómo funciona el sistema hormonal que da origen al embarazo. Puede parecer trivial, pero tal vez hay que ver cómo era la vida sexual de las parejas antes y después de la píldora. La píldora permitió planificar la familia. El número de hijos y cuándo llegaban dejó de ser un tema de azar para convertirse en algo planificado. Esa planificación fue una de las razones por las que la mujer se pudo incorporar al mundo empresarial con pleno derecho. Estoy convencido de que la “píldora” ha sido el invento que más ha transformado la sociedad de la segunda mitad del siglo XX.

En 1953 se produce un hito importantísimo: Franklin, Crick y Watson descubren cómo está estructura nuestro código genético. Cambió para siempre las ideas de lo que es la vida. Sus frutos han tardado en llegar, pero ese conocimiento revolucionará el tratamiento de las enfermedades y permitirá solucionar muchos de los problemas de la actual humanidad.

Ordenadores e Internet. He querido dejar casi para el final los ordenadores e Internet pues se trata de las revoluciones en las que estamos inmersos. Nunca, nadie cuando dentro de una revolución se da cuenta de a dónde nos lleva. Puede haber intuiciones de que lo va a cambiar todo, pero no de cómo será el futuro.

Los ordenadores tienen una peculiaridad sumamente interesante: acumular procesos. Me explico, la escritura acumulaba conocimientos. Por ejemplo, un manual de contabilidad nos decía como hacer la contabilidad; manual que cualquiera podría ver en cualquier lugar del mundo en cualquier tiempo futuro. Una gran ventaja. Pero para hacer la contabilidad, había que aprender a hacerla. El libro nos dice cómo, pero la hacemos nosotros. El ordenador no solo nos dice cómo hacerlo, sino que lo hace. Por ejemplo, una hoja de cálculo puede tener programada toda una compleja contabilidad y nosotros no tenemos que tener idea de cómo lo hace. Es el ordenador quien lo hace. El ordenador acumula el conocimiento y el proceso: ¡¡¡¡Lo hace!!!!

Para verlo más claro, imagínese una línea de montaje de coches llena de robots. Los robots no solo saben cómo hacen una parte de un coche sino que lo hacen. Acumulan el proceso. Saben hacerlo.

Esto tan aparentemente simple tiene unas consecuencias inesperadas. Por ejemplo, en investigación, muchas veces hay que hacer complejos cálculos estadísticos para ver si una hipótesis es factible o no. Ahora un investigador no necesita saber estadística; la estadística se la hace el ordenador.

Cómo resolver ecuaciones, sistemas de ecuaciones, cómo hacer análisis, cómo fabricar radios,... hoy ordenadores y robots hacen de todo y lo hacen incansablemente, lo que ha abaratado los productos enormemente.

Por eso el ordenador se ha convertido en un auxiliar de todo. Ha revolucionado cómo se investiga y cómo se trabaja. Es la herramienta universal por excelencia que ha cambiado nuestra vida de arriba abajo.

Internet. Cada vez que ha habido un nuevo sistema de comunicación la sociedad humana ha sufrido grandes revoluciones. Lo fue el habla y después la escritura y la imprenta y el teléfono y la radio y la televisión y el teléfono móvil, ¿y cómo no? Internet.

Internet es un nuevo modo de comunicación que hace accesible toda la información a todo el mundo en tiempo real. Los ritmos de conocimiento se aceleran.

No hay duda alguna de que el mundo post-Internet será tan diferente como lo es hoy de los tiempos de Gutemberg. Lo que no podemos ni imaginar es cómo será.

Esperemos que sea mejor que el actual.

Enviado por flexarorion a las 14:40 | 0 Comentarios | Enlace


Siete colores 2015-03-02

Sigo con mi labor de buceo, He encontrado esta columna publicada en Diario Vasco el 5 de Mayo de 2005. La columna se llamaba y se llama: Big Bang

Autor: Félix Ares

Siete colores

Que digamos que hay siete colores fue una idea de Newton

Todos sabemos que el arco iris tiene siete colores. ¿Seguro? La próxima vez que veas un arco iris trata de contarlos. Lo más probable es que veas nítidamente tan sólo tres: rojo, verde y violeta. La cantidad de colores que se ven depende mucho de nuestro ojo y de la calidad del arco iris, que a su vez depende del tipo de lluvia y del fondo del cielo. Cuando las condiciones son muy buenas podrás distinguir hasta cinco colores: rojo, amarillo, verde, azul y violeta.

Los colores no están perfectamente delimitados. Si el arco iris es excelente y te fijas en las zonas de unión de los colores mencionados, serás capaz de distinguir otros cuatro colores. Entre el rojo y el amarillo verás el anaranjado; entre el amarillo y el verde verás un verde amarillento, entre el verde y el azul verás un verde azulado y entre azul y violeta verás el añil. Cinco colores de antes más cuatro de ahora nos dan nueve. Entonces, ¿por qué decimos que vemos siete? Fue Newton quien dijo que había siete colores, pero no lo defendió siempre sino que fue cambiando de ideas a lo largo del tiempo. En su obra “Óptica” leemos: “«El espectro está coloreado de modo que su parte menos refractada es roja; la parte superior, más refractada, tiene color violeta. En el espacio comprendido entre estos colores extremos se distinguen los colores amarillo, verde y azul claro.» Rojo, violeta a los lados y en medio amarillo, verde y azul claro. En total son cinco colores, no siete.

Como todos sabemos, la escala tonal en el tiempo de Newton era igual que la nuestra, con siete notas: Do, Re, Mi, Fa, Sol, La, Si. Newton pensaba que esa armonía era muy buena y que con la luz tenía que pasar algo parecido; así que se empeñó en que su escala de colores fueran siete, como los sonidos.

Enviado por flexarorion a las 07:20 | 0 Comentarios | Enlace


© 2002 flexarorion