Ciencia 15

Comentarios intrascendentes a noticias científicas y técnicas de los últimos quince días (más o menos)
Archivos
<Octubre 2017
Lu Ma Mi Ju Vi Sa Do
            1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
29 30 31        

Documentos

Blogalia

Blogalia

Inicio > Historias > BITS Y SOCIEDAD
BITS Y SOCIEDAD 2015-03-06

BITS Y SOCIEDAD


Dr. Félix Ares de Blas
Director de Miramón. KutxaEspacio de la Ciencia
UIMP, Santander 29 de agosto 2000

Conferencia pronunciada en la Universidad Intenacional Menéndez Pelayo el 29 de agosto de 2000

Señoras y señores: ¡Muy buenas tardes!

Quiero empezar, como todos los ponentes que me han precedido, agradeciendo a los organizadores el que hayan contado conmigo para dirigirme a un público tan interesado por la cultura científica como son ustedes. Mis más sinceras gracias a Juan Antonio Ortega y Díaz-Ambrona y a Pedro Miguel Echenique Landiríbar por su invitación.

La verdad es que las magníficas conferencias de esta mañana me obligan a cambiar totalmente mi intervención. El motivo es muy claro, los ponentes anteriores han desvelado lo que yo quería que fuera una sorpresa final.

Había pensado mi intervención con un poco de «suspense». Quería empezar llegando a un consenso con ustedes en que los computadores están presentes en casi todas las actividades que realizamos. Al final, tras intentar mostrarles cómo la informática ha influido en el desarrollo social del siglo XX, quería darles mi opinión sobre su contribución más importante. Esa quería ser mi sorpresa que, inocente de mí, pensaba que podría ser inesperada. Lo que ha sido inesperado para mí es que los ponentes anteriores ya lo hayan dicho, más o menos explícitamente: la mayor contribución social que han hecho los ordenadores ha sido revolucionar el modo en el que se hace la ciencia. Han facilitado enormemente la investigación y con ello han revolucionado la sociedad.

Esta mañana hemos visto que para el estudio de las proteínas o del genoma humano se han necesitado, y se seguirán necesitando, computadores cada vez más potentes. Carlos Martínez nos señalaba la imperiosa necesidad de bioinformáticos [Nota final 1]. La informática ya es una parte imprescindible de la investigación biológica.

Sin embargo, quisiera señalar un aspecto que, sin duda por falta de tiempo, mis predecesores no han mencionado. También necesitamos nuevos enfoques. A veces, no es necesario aumentar la potencia del ordenador sino darle un nuevo enfoque. Voy a ponerles una experiencia que yo mismo he vivido. A principios de los años 70, en el IBM Madrid Scientific Center, donde, a finales de la década trabajó el premio Nóbel Heinrich Rohrer, que nos honró con su presencia, yo formaba parte de un equipo de investigación que trataba de saber si un enfermo que llegaba a un hospital totalmente inconsciente puede oír, ver y sentir. Los médicos nos decían que saberlo es muy importante para tratar a los pacientes adecuadamente. Añadían que tan importante como saberlo era saberlo rápidamente.

Los neurólogos eran capaces de hacerlo manualmente. La idea que había tras de ello es muy sencilla. Se trata de la detección de los llamados «potenciales evocados». Explicado muy brevemente, si a una persona capaz de ver, le aplicamos un foco luminoso que se apaga y se enciende treinta veces por segundo, en su electroencefalograma, superpuesta a la señal básica, aparece otra con ese mismo ritmo de repetición. Lo mismo ocurre si en vez de un foco es un tambor o si son pinchazos.

Tal como decíamos más arriba, la idea es sencilla. Lo que ya no es sencillo ni rápido es conseguirlo. En primer lugar se necesita una muestra bastante grande del electroencefalograma del individuo, a continuación se necesita un neurólogo con experiencia, al que le lleva bastante tiempo decidir si existen o no los potenciales evocados a las frecuencias que se buscan.

En la práctica diaria hospitalaria el tema se complica aún más, lo habitual es que el enfermo en estado de shock llegue al servicio de urgencias, donde no siempre pueden acudir a un neurólogo especializado en detectar potenciales evocados.

Analizar señales, saber si dentro del electroencefalograma están presentes los potenciales evocados, aunque éstos sean muy débiles es fácil para un computador. Basta calcular la transformada de Fourier del electroencefalograma y ver si en el espectro de frecuencias aparecen las correspondientes a las estimulaciones externas a las que hemos sometido al paciente.

El problema fundamental en aquel momento era que calcular una transformada de Fourier, en aquel ordenador, nos costaba más de 25 minutos; si lo hacíamos para tres tipos de estímulos nos íbamos a 75 minutos. Demasiado lento.

Para resolver el problema, en lo primero que pensamos fue en ampliar la potencia del ordenador. Sin embargo, la solución vino de un sitio totalmente diferente: de los matemáticos. No hacía mucho que habían publicado un nuevo sistema para calcular de un modo rápido la transformada de Fourier y funciones relacionadas (Cooley-65, Cooley-67) e incluso se habían publicado los algoritmos correspondientes (Brenner-67). A aquel método le dieron el nombre de Transformada de Fourier Digital. El método, era menos preciso que el anterior; por ejemplo, si la frecuencia real era de 30 Hz, la TFD podía equivocarse en 1 Hz. Este error, para detectar los potenciales evocados, es totalmente aceptable.

El hecho a destacar es que la solución no fue aumentar la potencia del ordenador, fue aplicar nuevos algoritmos desarrollados por los matemáticos.

Permítanme ahora hacerles una pregunta: ¿Cuántos Computadores hay en la Sala?

(Se levantan sólo unas pocas manos)

La verdad es que esta respuesta es la que me esperaba. La razón es que cuando hablamos de ordenadores casi automáticamente pensamos en los grandes ordenadores de investigación o en los ordenadores personales. Quisiera llamar su atención sobre el hecho de que en los teléfonos móviles digitales hay uno o dos computadores (primero es el teléfono, el segundo la tarjeta SIM[Nota final 2]). Si ustedes llevan en su bolsillo una tarjeta inteligente [Nota final 3], es posible que también lleven un ordenador dentro de ella.

Puedo repetir la pregunta de un modo un poco diferente: ¿Cuántos de ustedes han usado hoy los servicios de un computador?

(Se levantan todas las manos)

Efectivamente, para empezar, las visuales que han utilizado los conferenciantes anteriores están hechas por computador. Pero no sólo es eso. Con toda seguridad que alguno de ustedes o ha utilizado una llave de plástico con agujeros para entrar o salir del hotel. Todo el sistema cerraduras está controlado por ordenador. Si han pagado algo con una tarjeta de crédito han utilizado los servicios de un computador. Si han llamado por teléfono la duración y costo de la llamada ha entrado en un computador. Pero quisiera ir más lejos, si ustedes han comprado algo en una de las máquinas de «vending» de la universidad y lo han hecho con monedas, también han utilizado un computador, puesto que la identificación de su valor y si son o no falsas, desde hace mucho tiempo las hace un microprocesador. Si ha leído el periódico, éste ha sido escrito y maquetado por ordenador. Si han oído la radio, lo más probable es que hayan escuchado a un ordenador; hace mucho tiempo que los anuncios se graban en disco duro y eso permite que un programa de ámbito nacional dé tanto anuncios nacionales como locales...

Con los ejemplos anteriores he querido llevar a su ánimo que los computadores están presentes en todos los ámbitos de nuestra vida. A pesar de ello, también quiero señalar que muchas de las pretensiones que se expresan sobre los computadores son exageradas. Por ejemplo, se dice que ha sido la tecnología de más rápida evolución, de crecimiento más rápido en toda la historia de la humanidad, que ha cambiado los ritmos de penetración de la tecnología en la sociedad... en mi opinión, que voy a tratar de justificar a continuación, eso no es verdad.


Para empezar, me gustaría que ustedes se fijasen en el siguiente gráfico:

(Falta gráfico)

Gráfico 1
Evolución del número de automóviles y de teléfonos en USA [Fischer-1992]

En él vemos que las evoluciones del número de teléfonos y de automóviles en Estados Unidos, sigue una progresión casi geométrica. Más acusada en el caso de los automóviles.

En ambos casos se observa una importante caída coincidiendo con la crisis económica del 29. No obstante, quisiera señalar el hecho de que disminuyen más los teléfonos que los automóviles. Me atrevo a señalar que en el caso de los teléfonos no sólo influye la crisis económica; también lo hace el despegue de una nueva tecnología de comunicación: la radio. En aquel momento, gran parte de los agricultores tenían teléfono para escuchar diariamente las informaciones meteorológicas, veterinarias y fitosanitarias preparadas para ellos. La radio les daba lo mismo a un precio mucho más económico [Fischer-92].

He querido señalarles este caso porque algo similar puede ocurrir con Internet. Gran parte de los servicios que nos proponen en Internet, ya se suministra de otro modo o serán suministrados por otras tecnologías más cómodas -y posiblemente más baratas- para el usuario. Normalmente, en las previsiones que se hacen sobre la red, nunca se tienen en cuenta las reacciones de las viejas tecnologías ni de las nuevas que puedan surgir.

He tratado de hacer una curva, similar a la de coches-teléfono, para los computadores pero me ha resultado mucho más difícil. La razón fundamental es que el censo norteamericano reflejaba el número de teléfonos y el de automóviles, sin embargo no hacía lo mismo con los computadores. Por otro lado tenemos el problema de definir qué es un computador. Antes hemos visto que los teléfonos móviles e incluso muchos relojes deben ser considerados computadores.

Al principio de la era de los computadores no existía ese problema, pero existía otro: los computadores estaban sometidos al secreto militar, por lo que saber su número no es tarea fácil.

Consideremos la fecha de nacimiento del computador 1946[Nota final 4]. En 1955 había unos 250 computadores en todo el mundo. En 1965 podemos estimar 31.000. En 1970 habría unos 70.000. En 1976, primer año de éxito de los "minicomputadores" había unos 200.000 de ellos. En 1980 había unos 10 millones en todo el mundo (datos de Winston-98). Llamamos computador sólo a los mainframes, miniordenadores y ordenadores personales ¿Es esta la "inimaginable revolución" de la que nos hablan?

Si la comparamos con el automóvil, vemos que la velocidad de introducción del computador ha sido muy modesta.

(Falta gráfico)

Gráfico 2.
Comparación del crecimiento de número de automóviles y de computadores. En el eje X el número de años transcurridos desde su invención. En el eje Y el número de millones de ejemplares existentes.

A los 35 años de su invención sólo en USA había 23 millones de automóviles. A los 35 años después de su invención había menos de 10 millones de computadores en todo el mundo.

En contra de la historia recibida, la «revolución» de los computadores ha sido modesta. Siempre mucho menor de lo que se había predicho. Por ejemplo, en 1970 se dijo que en 1980 habría 20 millones de microcomputadores en el mundo. La realidad es que no llegaron a los 10 [Winston-1992].

La penetración de los computadores ha sido modesta comparada con el teléfono, el automóvil o la televisión. Su curva de penetración es parecida a la del fax. El electrodoméstico de más rápida penetración ha sido el magnetoscopio (vídeo) que, en todo el mundo, ha crecido a una velocidad doble a la del PC. En nuestro país todavía la diferencia es mayor, debido a que tenemos una mayor proporción per cápita de magnetoscopios y menos ordenadores personales que el resto de los países occidentales avanzados.

Sin embargo, rara vez se menciona la «revolución del vídeo».

La necesidad social para el desarrollo de nuevas tecnologías


Para que una tecnología se desarrolle no basta inventarla y que sea más o menos poderosa; es preciso que una necesidad social empuje a su desarrollo. En la historia de la ciencia hay infinidad de ejemplos de tecnologías que se inventaron y casi se olvidaron –o, al menos, no se desarrollaron—porque no había una necesidad social de las mismas. Como botón de muestra baste señalar las máquinas de vapor de Herón de Alejandría, o las transmisiones «telegráficas» hecha con botellas de Leyden en la segunda mitad del siglo XVIII entre Madrid y Aranjuez, que sólo se utilizó una vez (Correos-2000).


El telégrafo eléctrico se desarrolla en simultaneidad con el ferrocarril. La necesidad que lo produce es bastante obvia. Hay una sola vía por la que circulan trenes en ambos sentidos. Para coordinar y evitar choques el telégrafo es imprescindible. De hecho, las historias del telégrafo y del ferrocarril son paralelas durante muchos años. La necesidad social que hizo evolucionar el telégrafo fue la de garantizar la seguridad de los viajes en tren.

La radio empieza a ser una necesidad imperiosa con la aparición de los barcos acorazados. La necesidad de comunicarse entre grupos de barcos siempre ha existido y se ha resuelto satisfactoriamente. Por ejemplo, con los códigos de banderas. Con barcos de madera, las distancias de seguridad son tan cortas que se pueden transmitir mensajes con banderas. Sin embargo, con los acorazados esas distancias tienen que aumentar. Al hacerlo, aquel modo de transmitir información deja de ser útil. Hay que inventar algo que permita hacerlo a mayor distancia. La solución es la radio. Potencialmente, la radio podía haberse desarrollado bastante antes; pero no hacía falta hasta que surge la necesidad militar. Podemos decir que la necesidad social que hizo desarrollarse la radio es la invención de los barcos acorazados.


Cuando Graham Bell inventa el teléfono, está pensando en una ayuda para los sordos; a lo sumo, en una conversación privada entre unas pocas personas. El desarrollo del mismo como elemento de comunicación entre muchas personas, utilizando como conmutador entre ellas a una " telefonista", ocurre cuando aparece la organización de la empresa moderna. La motivación del desarrollo del teléfono es la empresa moderna.


¿Cuál es la motivación social que hacen desarrollarse el ordenador? Antecedentes al ordenador hay muchos, por citar sólo algunos de los más conocidos, recordemos la máquina analítica de Babbage y las máquinas desarrolladas en Estados Unidos por Atanasoff y en Alemania por Zuse.

Durante la Segunda Guerra Mundial, la flota inglesa sufre enormes pérdidas debido a los precisos ataques de los submarinos alemanes. Los servicios de inteligencia saben que tanta exactitud sólo puede significar que en los submarinos están enterados de los planes de viaje de los barcos ingleses. También saben que dichos mensajes deben transmitirse por radio. Sus servicios de escucha reciben los mensajes alemanes; pero son muy difíciles de descifrar debido a que éstos utilizan una máquina para criptografiar automáticamente. Esa máquina se llama Enigma. Los ingleses lograron descifrar muchos de los mensajes de la máquina Enigma. Pero dicha máquina no fue única. Fue evolucionando a lo largo de la contienda, resultando cada vez más difícil descifrar sus códigos.

El alto estado mayor llega a la conclusión de que la única solución para descifrar los mensajes es crear una máquina electrónica capaz de explorar rápidamente los millones de posibles combinaciones.

Crearon un equipo de investigación, dirigido por Alan Turing, y le dotan de buenos investigadores, equipos y dinero. El resultado no se hace esperar. Unos meses después, han fabricado un computador especializado en descifrar los mensajes alemanes. Se trataba de un calculador completamente electrónico, con 2.400 válvulas. Su nombre era Colossus. La máquina fue muy eficaz. Tanto que hay analistas que piensan que jugó un papel decisivo en la victoria aliada contra los alemanes.

La motivación de los ingleses para desarrollar el calculador electrónico fue descifrar los mensajes alemanes producidos por la máquina Enigma.

En Estados Unidos también tienen un problema relacionado con la guerra y la necesidad de cálculos. Cada nuevo cañón exige nuevas tablas de fuego. Tablas que utilizan los soldados en el campo de batalla. La realización de esas tablas corría a cargo de un grupo de personas a las que llamaban «computers». Mayoritariamente eran chicas.

En plena guerra, la necesidad de crear tablas es tan enorme que los «computers» están desbordados. Surge la necesidad de fabricar una máquina que lo resuelva automáticamente.

Acabó la guerra sin haber terminado la máquina. Pero unos meses después fue terminada. Su nombre fue ENIAC y tenía 18.000 válvulas. Dado que sustituía a los «computers» humanos, se le llamó «electronic computer». De ahí deriva el nombre que hoy damos a sus sucesores. Hay una cierta discrepancia en cuanto al género. Nosotros solemos hablar de los computadores, en masculino; mientras que en Sudamérica es habitual hablar de las computadoras, en femenino. ¿Quién lleva razón? Si tenemos en cuenta que la mayor parte de los «computers» eran chicas, creo que la versión sudamericana es más correcta. Incluso, e informalmente, la potencia de la máquina se medía en chicas. ENIAC tenía una potencia aproximada de 10.000 chicas. Es decir, era capaz de hacer el trabajo de ese número de personas.

Inicialmente, la motivación social tras la invención del computador norteamericano estuvo la necesidad de hacer tablas balísticas. Pero hemos indicado que realmente ENIAC se terminó de construir en 1946, ya acabada la Segunda Guerra Mundial. Aparentemente ya había acabado la motivación social. No era así. Tras la finalización de la segunda Guerra mundial, empieza la Guerra Fría. Los norteamericanos estaban atemorizados con la posibilidad de que los rusos pudieran hacer un la bomba atómica. Sus temores no eran infundados, pues muy pronto la hicieron. Entre las secuelas de este miedo, hay algunas francamente curiosas. Para detectar las posibles explosiones atómicas, entre otras cosas, pusieron grandes globos estratosféricos con micrófonos. Por supuesto secretos. Dos de las historias que dieron origen al mito de los ovnis, están relacionadas con estos globos (caso Mantell y el incidente en Roswell).

Los norteamericanos querían tener un arma más potente que la bomba atómica: la bomba de hidrógeno. Un problema arduo, que requería mucho cálculo, era saber qué pasaba con la implosión que comprimía el hidrógeno y que utilizaba la explosión de una bomba atómica convencional. ENIAC era la máquina ideal para hacer dichos cálculos. Por eso, su destino inmediato fue ir al laboratorio de Los Álamos.

La segunda motivación para el computador norteamericano fue la fabricación de la bomba de hidrógeno.

Durante muchísimo tiempo las únicas motivaciones sociales para desarrollar los computadores electrónicos fueron las militares. Podríamos decir que, salvo para los militares, el computador era una solución en busca de un problema.

Un ejemplo significativo es que Thomas J. Watson, presidente de IBM, a finales de los años 40, sigue creyendo que los calculadores electrónicos únicamente son para militares.

Pero no nos creamos que eso eran sólo cosas de los años 40; en 1966 nada menos que el Wall Street Journal, en su edición del 4 de junio, predecía que en el año 2.000 habría 220.000 computadores en Estados Unidos [Oslin-92]. Ni que decir tiene que hay muchas decenas de millones.

En 1952, Kendrew utiliza un computador para ver la estructura tridimensional de una proteína, siendo, casi con seguridad, la primera aplicación de los mismos a la biología, iniciando así la era de la bioinformática [Iurc-68].

Por suerte para la industria informática, en 1954 aparece el computador ERA nº 13, rebautizado como UNIVAC 1101 (obsérvese que 1101 es la forma de representar 13 en binario). Este computador es importante para la informática en España pues con él se formaron las primeras generaciones de «científicos de la computación». Pero, además, por primera vez, una empresa privada, John Plain Cº de Chicago, compra uno y lo utiliza para la gestión de inventarios. Con ello se convierte en la primera empresa que se da cuenta de la utilidad de estos equipos en campos ajenos a lo militar y crea la necesidad social que impulsaría el desarrollo de los mismos [Winston-98].

En 1957 la empresa británica J. Lyons, que se dedica al catering, utiliza un computador para resolver los problemas de almacenamiento y nóminas.

A principios de los años 60 hay muchas empresas que disponen de «lectoclasificadoras», es decir, máquinas que son capaces de ordenar por diversos campos fichas perforadas. Los campos que hay que ordenar se deciden por un programa cableado: hay que cambiar las conexiones de la máquina para hacerlo. Así surgen los primeros «programadores» de las empresas. Esa sencilla labor significaba un enorme ahorro de trabajo. Por eso, no es raro que muchas empresas, incluyendo las españolas, tuvieran equipos de este tipo en sus oficinas. Por ejemplo, «Calzados la Imperial» de Madrid, usaba lectoclasificadoras en su gestión diaria. Cabe señalar el hecho de que, como su tarea principal era ordenar, en Francia se les dio el nombre de «ordinateur» de donde deriva nuestra palabra «ordenador».

Si computador deriva de cálculo y refleja muy mal la idea de «máquina que manipula símbolos», la de «ordenador» todavía es más restrictiva. Ambos nombres son malos. Quizá un derivado de algoritmo, algo así como «algoritmador», fuera mucho más correcto; pero la verdad es que suena mal. Es una palabra fea.

A finales de los años 60, grandes empresas de transporte, bancos y seguros, disponen de computadores para ayudarles en sus tareas administrativas. En el caso de las empresas de transporte, RENFE e Iberia, surge un fenómeno nuevo: la venta de billetes se hace mediante terminales conectados a través de líneas telefónicas a un ordenador central, lo que se llama teleproceso.

En el primer caso, el de ayuda a la administración, los computadores facilitan las tareas repetitivas que se hacían antes. El teleproceso implica un nuevo concepto: se hacen procesos empresariales imposibles sin las redes de terminales y computadores.

A principios de los 70 las redes de teleproceso bancarias y de compañías de seguros son habituales. Cabe destacar que en esos campos nuestro país no sólo no va a la zaga sino que es pionero. Iberia desarrolla su propia red, sus propios nodos de conmutación, sus modems –se da la situación aberrante de que los modems Iberia están en muchos países, pero no en España donde el monopolio de Telefónica lo impide—y crean una red de transmisión de paquetes, anterior a Internet y que resuelve muchos de los problemas que posteriormente tuvo dicha red. Telefónica crea una red de transmisión de paquetes y que tiene muchos más clientes que las redes ARPA/DARPA, antecedentes de Internet. Es sin duda un magnífico precedente de la tecnología española que, por desgracia, no supo desarrollarse y se ahogó.

Cajas de ahorros y bancos crean sus propias redes de interconexión de computadores que permiten sacar dinero de los cajeros automáticos situados en cualquier lugar de España.

Todo lo dicho se hace sólo en grandes empresas y –probablemente-- sometidas a un sistema de regulación que les permite invertir en tecnología sin ser excesivamente quisquillosos a la hora de su rentabilidad. La regulación limitaba su capacidad de hacer cosas pero garantizaba unas ganancias.

Bancos, Cajas, RENFE, Iberia y Compañías de Seguros llegan tanto al público como a otras empresas, con lo que la idea de que existen los grandes computadores se va popularizando. Muy pronto, los grandes facturadores empiezan a hacer llegar sus recibos calculados e impresos por computador: Telefónica, Eléctricas, Gas...

Todo ello hace que los computadores dejen de ser algo exótico para entrar a formar parte de nuestra vida cotidiana. Aparecen nuevas profesiones: programador, analista, perforista, operador; y otras desaparecen o cambian drásticamente su significado, por ejemplo, ayudantes de contabilidad o empleados de ventanilla de banca. Hacer muchas operaciones aritméticas con rapidez antes era importantísimo, ahora todo eso lo hace el computador. Casi, casi, me atrevo a decir que otro tanto ocurre con las ingenierías y con la ciencia: el ser capaz de operar rápidamente deja de ser tan fundamental como era antes. Manejar la regla de cálculo pasa a ser una añoranza del pasado. Es más, comprender exactamente la teoría detrás de muchos procedimientos de cálculo, también deja de ser fundamental: hay programas informáticos que los «saben», el científico sólo debe aprender a usarlos. Ni que decir tiene, que ello provoca una fuerte motivación social para seguir investigando para aumentar la potencia y bajar los precios de estas máquinas.

El abaratamiento de los computadores hace que cada vez más empresas vayan aplicándolos. La aparición del ordenador personal y los modems de bajo precio, producen una rápida penetración.

Así llegamos al día de hoy, los computadores están en todos los ámbitos de nuestra vida. Lo curioso, al menos para mí, es que han entrado poco a poco, como de rondón, y, casi sin darnos cuenta, han alcanzado la enorme penetración de hoy en día.

Hitos importantes

En mi opinión, el primer hito importante No tanto para el desarrollo de los primeros ordenadores como para las aplicaciones multimedia actuales, es un importante artículo de Nyquist [Nyquist-28] en el que establece la equivalencia entre el mundo analógico y el mundo digital. En 27 páginas Nyquist demuestra que las muestras de una señal analógica, si se hace con la frecuencia adecuada, tienen la misma información que la señal original. Subrayo lo de misma información: ni menos, ni más: la misma. Hoy en día no tiene demasiado sentido leer su artículo, pues emplea 27 páginas en demostrar lo que hoy se considera una propiedad elemental de la transformada de Fourier [Nota final 5]. Los sistemas de demostración han cambiado. Las matemáticas han cambiado.

En 1930, se produce otro importante hito. Alan Turing concibe por primera vez a las máquinas electrónicas como manipuladores de símbolos en vez de como meros calculadores.

Nada más acabar la segunda Guerra mundial, Wilkes da un paso para mí importante: construye el primer ordenador para trabajar en un problema matemático. Hasta entonces simplemente se habían utilizado para hacer tablas u operaciones muy elementales.

1952. Se crea el primer lenguaje de programación (Autocode). Su importancia no estriba tanto en el lenguaje en sí, como en la demostración de que se empieza a pensar en las calculadoras electrónicas como máquinas de utilización general. Cuando se utilizan para un único programa, los lenguajes de programación no tienen excesiva importancia; pero si queremos utilizarlo para la resolución de muchos problemas diferentes, disponer de un lenguaje de programación es importantísimo.

1953. Será un paso más en la elaboración de lenguajes de programación: se crea el Assembler.

1957. Será otro paso decisivo, al crearse FORTRAN. Un lenguaje para utilización técnica y científica que ha durado hasta nuestros días. Muchos consideran que es una pieza de museo, obsoleta, sin embargo, cabe destacar que muchísimos supercomputadores siguen trabajando en Fortran. Cabe destacar que en este lenguaje ya se encuentran incipientes muchísimas de las ideas de los lenguajes modernos actuales.

1959. Se da un paso más y se crea el lenguaje CODASYL para la máquina de IBM 7090. El 7090 fue el primer computador que estuvo a disposición de los alumnos universitarios españoles. Yo disfruté de este privilegio.

En 1960 se crea el lenguaje ALGOL, quizá uno de los lenguajes mejor estructurados construidos nunca. En el año 68 se presentaron varias propuestas para la nueva versión de ALGOL. Triunfó una de las propuestas; sin embargo hubo una persona que no lo aceptó y, con pequeños cambios, la presentó con el nombre de PASCAL, que tuvo mucho éxito y ahogó al ALGOL. De hecho, hasta el triunfo del PASCAL, todos los algoritmos teóricos se escribían en ALGOL. Era el lenguaje teórico por excelencia.

En 1964, IBM lanza al mercado una «familia» de computadores. Se trata de la familia S/360. Lo importante de este hecho es que IBM se da cuenta de que tan importante como la máquina es la programación. Hasta este momento, cada máquina tenía su propio lenguaje. Aunque el lenguaje tuviera el mismo nombre, su sintaxis no era igual en cada máquina. Cuando una máquina se dedicaba a un único problema a esto no era importante; pero desde el momento que las máquinas van a las empresas es impensable que un cambio de máquina obligue a cambiar todos los programas. Debemos tener en cuenta que a los pocos años de tener un computador, una empresa normal tiene un capital enorme invertido en sus programas. Con el concepto de «familia» los programas se escriben una sola vez para cualquier máquina de la «familia». De hecho se escriben para un ordenador teórico que no tiene por qué coincidir con ninguna máquina real. Esta serie tuvo tanto éxito que IBM se constituyó prácticamente en un monopolio. Cabe destacar que los grandes ordenadores de IBM de hoy en día, siguen entendiendo los programas escritos para las máquinas de 1964.

En 1969, la empresa Intel crea el primer computador en un chip: el llamado 4004. Con él se inicia la saga que nos llevará a años después al ordenador personal y cuya arquitectura básica sigue estando presente en la mayoría de los PCs actuales.

En 1970, la empresa Digital lanza al mercado su producto PDP-8. Se trata de un ordenador pequeño y con un precio que cabe en los presupuestos de los departamentos universitarios. Rompe con la tendencia de los grandes ordenadores que había impuesto IBM. Estos son ordenadores con menos posibilidades pero mucho más baratos. Rápidamente se difunden por los departamentos de investigación, contribuyendo, sin duda, a cambiar la mentalidad sobre lo que significaba hacer ciencia.

En 1972 Intel saca al mercado el microprocesador 8008, con el que la empresa Atari crea el primer computador pequeño, es decir, personal. Su nombre fue Pong.

En 1974 Intel saca al mercado el procesador 8080, con el que se fabrica el ordenador personal Altair, que se difundió muchísimo más que su precedente. Tuve el privilegio de «jugar» con él.

En 1975 la editorial McGraw Hill lanza al mercado la primera revista de gran tirada dedicada a los ordenadores: Byte. Me interesa resaltar el hecho de que dicha editorial considerase que el tema que ya era lo suficientemente popular como para merecer una revista aparte.

En 1976, el Apple I. Su mayor importancia es que dio origen al Apple II que, sin duda, fue el primer ordenador personal ampliamente difundido. Ya hemos comentado más arriba que en estos momentos IBM actúa casi como un monopolio. Tanto que su orgullo se siente herido por la difusión de este pequeño computador. El hecho en sí era insignificante para su cuenta de resultados; pero no lo era para su orgullo con tendencias monopolistas. Por eso, se sienten obligados a crear un ordenador personal del tamaño del Apple y a un precio parecido. Lo hacen deprisa, muy deprisa. Para ello, en contra de lo que era habitual en la empresa, lo hace utilizando los elementos of the shelf que había en el mercado. De este modo, nació, en 1981, el ordenador personal de IBM. Automáticamente, decir ordenador personal y decir ordenador personal similar al de IBM se hicieron equivalentes. Si IBM hubieran seguido su política tradicional y no hubiera utilizado elementos estándares de mercado, hoy la historia de los computadores sería radicalmente diferente.

El ordenador personal no solamente cabe en el presupuesto de un departamento universitario, cabe en el presupuesto de una persona. Eso hace que su proliferación sea explosiva. A modo de ejemplo, si pensamos en la universidad, los ordenadores empiezan a utilizarse para hacer análisis matemáticos de los datos obtenidos de los experimentos. Quizá esto era totalmente esperable. Lo que ya era menos previsible es lo que pasó a continuación. Fundamentalmente de la mano de un sucesor de Apple, el MacIntosh [Nota al final 6], los profesores universitarios descubrieron un modo excelente de hacer apuntes, listas de alumnos, visuales y gráficos para apoyar las clases, ... es decir, fundamentalmente su utilización es para editar textos y gráficos. El computador personal se había convertido en una «máquina de escribir» sofisticada.

De la universidad pasó primero a la empresa y luego a las personas particulares. Fue esa idea y «máquina de escribir sofisticada» la que impulsó al mercado a desarrollar programas para escribir, impresoras, correctores ortográficos...


En 1979 aparece el primer servicio comercial basado en «Internet». Se trata de la red Compuserve. Esta red fue un magnífico lugar para que los científicos de todo el mundo aprendieran la importancia de comunicarse rápidamente. Tenía infinidad de defectos, entre otros que los mensajes no podían llevar caracteres acentuados. No obstante, demostró la enorme importancia de la mensajería electrónica para el mundo científico.

En 1992, basándose en las ideas desarrolladas en el laboratorio de física de partículas en Ginebra por Tim Barners-Lee y Robert Caillieau, aparece el primer servicio World Wide Web (WWW) que, sin duda, es lo que más ha contribuido al desarrollo de Internet.



De la «Mecanización» a la «Empresa Virtual»

Cuando las empresas pioneras introducen los computadores, lo hacen para hacer de un modo «mecánico» lo que antes se hacía a mano. Por eso, a los departamentos de computación, se les da el nombre de «mecanización». Bajo esta idea, pocas dudas había de que lo primero que se «mecanizó» fueron aquellas tareas que implicaban muchos cálculos repetitivos. Por ejemplo, la rutina de la contabilidad, facturación, pago de nóminas, seguimiento de almacenes, balances...

Se crean nuevas profesiones y otras pierden contenido y se hacen aburridas. Entre las nuevas profesiones, ya hemos mencionado mucho más arriba las de operador, programador, analista, analista funcional, ... entre las que pierden contenido, debemos señalar por ejemplo las de contabilidad. Pensemos un momento en la persona que atiende a un cliente en una ventanilla bancaria. Para poder hacer los cuadres de fin de día, es imprescindible que sepa realizar cálculos aritméticos con rapidez; debe atender al cliente de acuerdo con las normas de la empresa, pero en caso necesario se las puede saltar. Tras la mecanización y el teleproceso, ya no necesita saber calcular y, prácticamente, no puede saltarse las normas. Las normas están implícitas en el programa que maneja y no se las puede saltar porque no se lo permite el programa. Las normas forman parte del programa. Al cliente se le trata de modo uniforme y siempre dentro de las políticas decididas en cada momento por la empresa; incluso, dichas políticas pueden cambiar de un día para otro. ¿Quién no ha oído a la persona que te atiende y teclea algo parecido a «lo siento, pero el ordenador no me deja hacerlo»? Eso puede ser bueno para el cliente y la empresa pero pocas dudas caben de que ese puesto de trabajo ha perdido calidad, se ha hecho más aburrido, más rutinario, mucho más estresante.

Quiero señalar que a partir de este momento la informática se va haciendo sentir en el cuerpo social de un modo mucho más profundo que en el mero recibir unas facturas impresas por ordenador. Aquí aparecen nuevas profesiones, se destruyen otras, y otras pierden calidad. Las consultas de psicólogos y psiquiatras se llenan de personas con trabajos relacionados con la informática.

En cualquier caso, su impacto todavía es pequeño para lo que vino después. El siguiente paso podríamos llamarlo el de la «reingeniería». Una vez transcurrida la etapa de «mecanización», las empresas se dan cuenta de que limitarse a apoyar con máquinas los procesos que se hacían manualmente es muy poco. Los computadores y las redes permiten ir más lejos: permiten concebir los procesos de otro modo. Un modo en el que se parte de la existencia de dichas máquinas.

Un ejemplo puede ser el de los códigos de barras en los supermercados. Cuando se decide que los productos lleven un código de barras y se implantan lectores de los mismos, éstos se conectan a un ordenador que hace las sumas y las facturas para el cliente, alimenta la contabilidad, la aplicación de almacén y la de pedidos. Todo a la vez. Esto era imposible sin la existencia de los ordenadores. Ni que decir tiene que los cajeros de los supermercados dejan de tener la necesidad de saber sumar y que las funciones del contable, almacenero y compras se ven seriamente limitadas. Los computadores asumen muchas de las tareas que antes hacían ellos. Además, todas las funciones mencionadas forman parte de un único nuevo proceso integrado.

En este momento surge un nuevo fenómeno, hay empresas que se adaptan y proceden a repensar sus procesos teniendo en cuenta que existen los computadores. Ahorran costos, se hacen más competitivas y terminan desplazando del mercado a las que no lo han hecho. Las consecuencias sociales todos las conocemos. Del lado positivo, se obtienen mejores productos a mejores precios. Del lado negativo quizá la más dramática sea la desaparición de muchos puestos de trabajo y, en el peor de los casos, la desaparición de muchas empresas. Hay pensadores que incluso dicen que la caída de la URSS está relacionada con la incapacidad de asimilar las nuevas tecnologías informáticas [Castells-98]. En mi opinión la obra de Castells es floja y llena de errores; pero es posible que en este aspecto concreto lleve parte de razón.

Otro fenómeno ya maduro a finales de la década de los 80 es la utilización de la red telefónica y los ordenadores como un ingrediente más de los procesos empresariales. Veamos un ejemplo, durante mucho tiempo las sucursales bancarias actuaban como un banco en pequeño. Disponían –en pequeño- de todos los servicios que tenían las oficinas centrales; por ejemplo, tenían su contabilidad, la correspondencia con sus clientes, el almacenamiento y actualización de movimientos y saldos, etc. Con la aparición de las redes de computadores, que el cliente esté en las oficinas centrales o en una sucursal a 600 km de distancia no tiene importancia. Por lo tanto, se pueden centralizar temas como contabilidad, correspondencia, saldos, movimientos, facturación... las sucursales se hacen más pequeñas y el cliente puede realizar sus operaciones desde cualquier sitio.

A principios de los años 90 madura una idea que ya llevaba bastante tiempo en el mundo del automóvil. Es una vuelta de tuerca más a los procesos en red. Se trata de lo que algunos autores han llamado «empresas virtuales». La idea fundamental es que varias empresas colaboran en proporcionar un producto o un servicio. Trataré de poner un ejemplo. Supongamos que una empresa X fabrica un producto que tiene tres piezas, que pide a las fábricas B y C. Con el concepto de empresa con procesos en red, la empresa X se comunica, a través del ordenador y de la línea telefónica, con las fábricas B y C indicándole el número de piezas que necesita y cuándo las necesita. La idea de las «empresas virtuales» va más allá. La empresa X pone a disposición de las fábricas B y C sus datos de producción para que ellas sean las que decidan qué número de piezas se necesitan y cuándo deben estar en la empresa X. No sólo se intercambian mensajes. Se permite el acceso a los datos de producción para que otras empresas tomen decisiones basándose en ellos.

Una consecuencia directa de este modo de proceder es que las empresas cada vez son más especializadas. Se dedican a un tema muy concreto y todo lo demás lo «subcontratan» con otras empresas. Se crean redes de empresas que colaboran en la fabricación de un producto o en proporcionar un servicio. Por ejemplo, antes, cada empresa realizaba sus procesos informáticos. Eran procesos cerrados, aunque pudieran comunicarse con otras empresas. Ahora el proceso comenzado en una empresa puede ir por varias empresas antes de su finalización. El proceso de una empresa lleva implícito que otras empresas realicen parte del proceso.

Otro ejemplo. Pensemos en la carta con los extractos bancarios que recibimos en nuestra casa. Uno de los movimientos es haber sacado dinero de un cajero en otra ciudad mientras estaba de viaje. Ese movimiento se imprime en las oficinas centrales y se envía por correo al cliente. Esto lo permitía la empresa con «procesos en red» y así ha sido en los bancos desde hace muchos años. Lo que exigía que cada banco tuviera sus propios sistemas de impresión. La nueva idea consiste en crear grandes centros de impresión que realizan ese servicio para muchas empresas. Estos grandes centros de impresión son una nueva empresa especializada en imprimir. Al hacerlo en gran dimensión se obtienen economías de escala. La empresa especializada en impresión, obtiene los datos directamente, a través de una conexión telefónica, de los ficheros de su empresa cliente. El proceso de impresión se inicia al sacar dinero en una ciudad, continúa en otra ciudad en los edificios centrales de la misma empresa, y termina en otra empresa especializada en la realización de cartas.

Ni que decir tiene que la cadena se alarga, la empresa que envía el papel a esta empresa ve los datos de hojas impresas para decidir cuando enviar más papel, la empresa fabricante del papel ve los datos del distribuidor y compra más pulpa de celulosa...

Las redes de empresas virtuales están cambiando el concepto de empresa, que cada vez tiene menos que ver con la geografía. Un proceso iniciado en el país A, puede acabar en el país J, tras haber pasado por los países F y D. La supervivencia de la empresa y de los puestos de trabajo cada vez tienen más que ver con la capacidad de competir a escala global. Esto, sin duda, plantea retos tremendos a las empresas, a los trabajadores, a los sindicatos, a los políticos, etc. Resumiendo: produce grandes retos a toda la sociedad.

La Deslocalización

Una de las consecuencias del concepto de empresa virtual es la deslocalización de muchos procesos. Por ejemplo, si para realizar un programa, el país más eficaz es India, allí se hará.

Incluso puede llegar a ocurrir que no sepamos la ubicación de las empresas que realizan parte de nuestros procesos.

Retos y oportunidades que están cambiando de arriba a abajo nuestras estructuras sociales.


Filosofía de cambio

Hoy se trabaja de modo diferente a como se hacía ayer y muy diferente a como se hará mañana.

Nuestros bisabuelos estaban acostumbrados a la estabilidad. Probablemente su vida no fuera muy diferente a la de sus padres. Hoy la situación casi es la contraria. La única cosa segura es que nuestro trabajo será diferente al de nuestros padres.

He dicho trabajo, pero también puedo decir modo de divertirse, modo de mantener relaciones sentimentales, ... En nuestra sociedad se ha implantado una cultura de cambio. Todo cambia.

Ciencia

Como decíamos al principio, las Nuevas Tecnologías de la información han cambiado el modo de hacer ciencia en todas sus fases. Simplemente por mencionar algunos aspectos, la obtención y el análisis de datos se hace con ayuda de computadores y de redes de comunicación; lo mismo ocurre en la comunicación entre los científicos, en la que Internet ya es una necesidad imperiosa; simulaciones y modelos informáticos forman parte de la cotidianidad de cualquier investigación. En muchos casos, como puede ser el estudio del genoma, la fabricación de nuevas medicinas, el estudio de los plegados de las proteínas, el descubrimiento de nuevas partículas u objetos celestes, la informática es el núcleo sine qua non.

Hay un aspecto de la revolución informática, en mi opinión no suficientemente valorado ni estudiado. Se trata del hecho de que los computadores ponen a disposición de los científicos e ingenieros procesos completos. Veamos un ejemplo, antes he hablado de la detección de los potenciales evocados y la transformada de Fourier. Antes de los computadores, si el ingeniero quería calcular la transformada de Fourier, debía hacerlo a mano siguiendo unos métodos que le habían explicado y que, normalmente, implicaban entender hasta el mínimo detalle las matemáticas que había por detrás. Con el computador todo cambia. Basta introducir la señal y el computador da la transformada. El que utiliza el programa no necesita conocer sus entresijos, ni siquiera los detalles matemáticos. Basta con que conozca el significado de los resultados.

El computador pone a disposición de cualquier persona el proceso de cálculo de la transformada de Fourier. No sólo facilita el hacer dicha transformada; también la hace asequible a personas que por el método tradicional jamás llegarían a usarla, primero porque no sabrían hacer los cálculos y segundo porque nunca llegarían a entender sus entresijos matemáticos. El computador, al almacenar procesos, democratiza las matemáticas. Un ejemplo significativo lo tenemos en ciertos programas de análisis como el SPSS[Nota fin de texto 7] que puso en manos de los sociólogos, psicólogos, criminólogos, etc, potentes herramientas estadísticas. Ellos sólo necesitaban entender lo que significaban los resultados, no los procedimientos para obtenerlos –las matemáticas escondidas detrás del programa.

El computador hace asequible a cualquier investigador procesos matemáticos de gran envergadura.

No quiero acabar este punto sin resaltar las diferencias entre la imprenta y el computador. Los libros –la imprenta—ponían a disposición de los usuarios los conocimientos para hacer los procesos. Por ejemplo, un libro sobre ecuaciones diferenciales, explicaba cómo se debían resolver dichas ecuaciones. El computador las resuelve. En ese sentido, el computador está mucho más cerca del astrolabio o de la regla de cálculo que del libro. Podríamos decir que el astrolabio y la regla de cálculo también almacenaban procesos; pero eran muy pocos, muy especializados. El computador, asistido por robots y otros dispositivos especializados, generaliza el almacenamiento de cualquier tipo de procesos. El computador es la suma del almacenamiento de conocimientos (libros) más el almacenamiento y realización de procesos.

Con los libros se acumulaba el conocimiento, con los computadores se acumula tanto el conocimiento como los procesos. Por ejemplo, dentro de mil años seguiremos pudiendo utilizar los procesos de resolución de ecuaciones integro-diferenciales programados hoy en día, aunque no haya nadie en el mundo capaz de entender sus algoritmos.

Si el libro causó la enorme revolución que nos llevó a la industrialización y al mundo moderno, no me cabe ninguna duda de que los computadores, producirán otra revolución de mayor calado. Debemos tener en cuenta que los computadores son capaces de hacer lo mismo que los libros, añadiendo una enorme capacidad de almacenamiento y de búsqueda desde cualquier lugar (bibliotecas electrónicas + buscadores + Internet) más el almacenamiento y realización de procesos.

Conclusiones

Las nuevas tecnologías de la información afectan a toda la sociedad en casi todos sus aspectos.

Han cambiado la concepción el mundo. Se ha pasado de un mundo en el que lo importante era lo físico (lo material), a otro en el que es más importante la información.

El modo de hacer ciencia se ha cambiado en tres aspectos fundamentales: 1) almacenamiento y búsqueda de datos y de información. 2) intercomunicación entre científicos. 3) almacenamiento de procesos. Todo ello está produciendo una revolución científica. Como todas las revoluciones, nadie puede prever dónde nos llevará.

Revolución científica = revolución social. Esto significa que estamos inmersos en una enorme revolución social, en mi opinión, la más grande que ha tenido nunca la humanidad. ¿Adónde nos llevará? Nadie lo sabe: el futuro siempre es imprevisible.

NOTAS FINALES:

1. Existe una Sociedad Española de Informática de la Salud (SEIS), cuya web es: www.seis.es. También existen departamentos de bioinformática en algunas universidades españolas, por ejemplo, en la Universidad Politécnica de Valencia. El correo de contacto es: jamaldo@upvnet.upv.es . También en la Universidad Politécnica de Madrid (http://www.infomed.dia.fi.upm.es). Hay una unidad de bioinformática en el Instituto de Salud Carlos II (http://biotic.isciii.es), etc.

2. Subscriber Identity Module. Es la tarjeta personalizada que lleva las claves, los mensajes, y el procesador criptográfico.

3. Por ejemplo, monederos electrónicos, billetes de autobús en tarjeta chip, …

4. Se suele considerar este año como el origen de los computadores, debido a que se puso en marcha la máquina ENAC, de la que hablaremos más adelante.

5. La convolución de una función cualquiera por una función peine (“comb”), repite el espectro infinitas veces.

6. Entre el Apple II y el MacIntosh hay una máquina intermedia que fue un gran fracaso: Liza.

7. Un paquete de análisis estadísticos que nació en 1968 para grandes computadores. En 1984 salió al mercado la versión para PCs. (www.spss.com)
 
BIBLIOGRAFÍA

[Brenner-67] Brenner, N. M. Three Fortran Programs That Performs the Cooley-Tukey Fourier Transform, Mass. Inst. Technol., Lincoln Lab. TN-1967-2, July 28, 1967.
[Castells-98] Castells, Manuel. La era de la información: economía, sociedad y cultura. Alianza Editorial. Madrid 1998.
[Cooley-65] Cooley, J. W. and J. W. Tukey: An Algorithm for the Machine Computation of Complex Fourier Series. Math. Comp. 19:297-301 (April 1965)
[Cooley-67] Cooley, J. W., P. Lewis, and P. Welch. Applications of the Fast Fourier Transform to Computation of Fourier Integrals, Fourier Series, and Convolution Integrals. IEEE Trans. Audio, 15 (2): 79-84 (June 1967).
[Correos-2000] Museo Postal y Telegráfico. Palacio de Telecomunicaciones de Madrid. Calle Montalban s/n. Sala Telegrafía. Puede verse la descripción en el apartado museo de: www.correos.es.
[Fischer-92] Fischer, Claude S. America Calling. A social history of the telephone to 1940. University of California Press. Berkeley. USA. 1992.
[Iurc-68] John Cowdary Kendrew (1917-1997).IUCr Newsletter (1998). 6(1), 18.
[Winston-98] Winston, Brian. Media Technology and Society. A history From the Telegraph to the Internet. Routledge. London 1998.
[Oslin-92] George P. Oslin. The Story of Telecommunications. Mercer University Press. Macon. Georgia, 1992.
[Nyquist-28] Nyquist, H. Certain Topics in Telegraph Transmission Theory. In AIEE Transactions (1928), S. 617-644.

[NOTA: Debido a mi ignorancia de la gramática de Blogalia o he sido capaz de incluir lo gráficos. La conferencia entera, en formato pdf, con dibujos y todo podíes descargarla de aquí: UIMP-bits-y-sociedad-2000

Enviado por flexarorion a las 12:53 | 0 Comentarios | Enlace


Referencias (TrackBacks)

URL de trackback de esta historia http://ciencia15.blogalia.com//trackbacks/75399

Comentarios

© 2002 flexarorion