Hector Goldin

Tan loco como para cambiar el mundo


Скачать книгу

suma como colaboradora a la hija de Byron, a quien logra obsesionar con su proyecto. Gracias a su mirada de mujer, Ada abre el horizonte y suma nuevas ideas que adhieren profundidad a lo meramente técnico: el concepto filosófico de las máquinas programables. A pedido de su jefe, transcribe un texto traducido del matemático italiano Luigi Menabrea. A las tres páginas originales le suma dos decenas de su propia autoría mucho más ricas e intensas que la traducción misma. Esas notas son consideradas el germen de lo que más tarde fue la programación, y ella fue reconocida mucho después, por ejemplo, por el Departamento de Defensa de Estados Unidos que diseñó un lenguaje al que llamó Ada en su honor. Este es probablemente el lenguaje de programación más avanzado que se haya desarrollado.

      Lady Lovelace está considerada la primera programadora y una fuerte figura femenina dentro de un ambiente regido casi totalmente por hombres.

      El trabajo de Ada fue olvidado por muchos años. Apenas se le concedía el papel de transcriptora de las notas de Babbage. Como ocurrió con hombres de las letras o de la música, el científico abonó la idea de que ella fue la intérprete de sus propias opiniones. Son bastante recientes los reconocimientos a su mirada original e independiente de la de su jefe.

      Sobre las notas, una de las principales cuestiones a destacar es que creía posible la programación y que esa codificación se podía utilizar para interpretar música, por ejemplo. Es ella quien ve un universo más allá de los números, pero inspirado en ellos. Es Ada quien considera que la programación puede ser aplicada a cuestiones ajenas a las matemáticas, permitiendo que las máquinas hagan muchas otras actividades diferentes al mero cálculo.

      A Babbage le rondaba la idea de construir una nueva clase de equipo de cálculo, una máquina analítica de carácter general. Este es el concepto del computador moderno de uso general que significó un tranco en la historia de la computación. En 1843, Ada publicó una serie de notas sobre la máquina analítica de su jefe que firmó con las iniciales de él por miedo a ser censurada por su condición de mujer, como una especie de George Sand de la tecnología.

      Se consideraba a sí misma como una analista y metafísica, conceptos que sus coetáneos no llegaban a interpretar. Faltarían muchos años para que así sucediera. Con ese enfoque, Ada desarrolló puntillosamente algoritmos y operaciones trigonométricas que se sucedían en la máquina analítica de Babbage. También se explayó sobre el uso de tarjetas perforadas para programar.

      Su forma de leer los avances y de combinar conocimientos le permitió no enfocarse en el cálculo, como sí sucedía con Babbage, quien centró sus estudios en ello durante toda su vida. La mujer consiguió detectar la filosofía esencial de una computadora, pero no llegaron a tener una en el sentido actual con el que hoy la conocemos.

      El equipo de Charles Babbage –que nunca llegó a construir– cumplía con los requerimientos de lo que se consideró más tarde una computadora. Esta revolución iniciada por Lovelace fue el primer quiebre en la historia de la informática, una experiencia que Jobs recreó una y otra vez al revertir los conceptos que se tenían antes del 76, a partir de que él y Steve Wozniak se juntaran para imaginar una nueva idea, una reformulación de lo que ya existía.

      Fue precisamente el dúo Babbage-Lovelace quien primero comprendió que el equipo a construir no era una computadora (que quiere decir “algo que calcula”) ni tampoco un ordenador (palabra utilizada en español y en francés, cuyo origen se remonta a unos equipos de IBM que servían para ordenar); en realidad, una computadora moderna es mucho más que una computadora y un ordenador.

      Entre sus múltiples aportes, esta Lady de la tecnología dejó el uso de tarjetas perforadas como método de entrada de información e instrucciones a la máquina analítica. Además, creó una modalidad de escribir programas, principalmente basada en el texto que tradujo del especialista Luigi Menabrea sobre el funcionamiento del telar de Jacquard. Pero, por sobre todo, dejó una mirada ajena a la técnica, un horizonte que llega más allá de las matemáticas y que resultaría inspirador para sus sucesores. Fue la hija de un poeta la que vio poesía en la tecnología futura.

      Turing cree que las máquinas piensan

      Los orígenes de la computación parecen haber estado en manos de minorías. Mientras una mujer se las ingeniaba para pensar a la tecnología como una alternativa válida que resolviera problemas cotidianos, aun cuando no llegara a verla en su realización final, fue un hombre condenado por la ley por su homosexualidad (cuestión que lo llevaría al suicidio) quien ideó la primera computadora teórica.

      Curioso es pensar que los creadores puedan ver en sus cabezas aquello que los mortales solo podemos ver en la realidad. Ese paso lo dio Alan Turing (Maida Vale, Londres, 23/6/1912 - Wilmslow, Cheshire, 7/6/1954), quien a dos años de su muerte sería calificado como el padre de la inteligencia artificial, un concepto que tardaría décadas en ser experimentado por el hombre común.

      Como los estudiosos de la época de Lovelace, Turing era un múltiple sapiente: matemático, científico de la computación, criptógrafo y filósofo. Su diversidad de pensamiento y especialización le permitió concebir una realidad de manera diferente.

      Su padre, Julius Mathison Turing, era miembro del Cuerpo de funcionarios británicos en la India. Durante la infancia de Turing, sus padres viajaban constantemente entre el Reino Unido y la India, viéndose obligados a dejar a sus hijos con amigos ingleses. Cuando fue hora de estudiar, lo inscribieron en el colegio St. Michael, donde su primera docente hizo mención de un pensamiento genial en el recién llegado. Su ingreso al internado de Sherborne en Dorset creó el primer mito en torno a su persona –mostrando ya una personalidad que se aplicaría a su forma de pensar posterior–. Su primer día de clases coincidió con una huelga general en Inglaterra, pero la terquedad del adolescente de 14 años no se dejó vencer. Para llegar, recorrió más de 60 millas en bicicleta y decidió descansar en una posada, una aventura que fue recogida por la prensa local.

      Le tocó luchar contra una serie de preconceptos de su época. En la escuela, se topó con que lo valioso para los docentes era el estudio de la literatura clásica y además desalentaban su perfil matemático. Por ello, emigró a King’s College, en la Universidad de Cambridge, donde egresó y se inició como docente. Para 1936, con 24 años, publicó un ensayo con lo que hoy se conoce como Máquina de Turing. Demostró que dicha máquina era capaz de implementar cualquier problema matemático que pudiera representarse mediante un algoritmo.

      ¿De qué se trata eso? La imagen más común para definir un algoritmo es una receta de cocina: sus instrucciones seguidas en una secuencia fija llevan a una persona o a una máquina a producir un resultado (por ejemplo, una tarta), que es el objetivo buscado por el escritor de la receta. Al escritor de un algoritmo se lo llama programador, como a Ada en el capítulo anterior.

      La cocina tiene la particularidad de contar con indicaciones algo generales, por ejemplo: “una pizca de sal”. Para programar una computadora, se tendrán dos opciones: o en lugar de “pizca” se le da a la computadora una indicación precisa como “3,87 gramos de sal”, o bien se programa otra receta donde se le explica a la computadora un cálculo que debe usar cada vez que vea la palabra “pizca”. De ese modo, cada vez que el equipo vea “pizca”, leerá “3,87 gramos”.

      Lo más valioso del modelo teórico que él diseñó, y que hoy se conoce como Máquina de Turing, es que era capaz de resolver cualquier algoritmo/receta que otra máquina pudiera resolver, o sea, dedujo que todas las computadoras son equivalentes entre sí porque logran el mismo propósito. Sería algo similar a decir que un monopatín, una bicicleta, un auto y un avión son equivalentes porque permiten el transporte. Es interesante cómo logró demostrarlo. Cualquier computadora con un programa almacenado puede estar ejecutando uno diferente que la haga simular ser cualquier otra. Ahí comenzó el concepto de la simulación o emulación, que será crucial en muchísimo de lo que se haga más adelante. Así, sencillamente se puede decir que es posible lograr que una computadora se comporte como cualquier otra, aunque no