Hector Goldin

Tan loco como para cambiar el mundo


Скачать книгу

por Gutenberg. Se utilizaban tipos móviles, gracias a los cuales los caracteres de distintas tipografías se armaban en planchas. Luego, estos se imprimían en una plancha o en una rotativa dependiendo de su uso posterior: para un libro, revistas o diarios.

      En ambas industrias, los procesos requerían de la calidad artística de quien creaba la tipografía o diseñaba las ilustraciones de un modo manual. Para 1973 o 1974, un especialista gráfico o un propietario de imprenta desconocían las computadoras.

      En paralelo, otra rama del arte estaba a punto de cambiar: la fotografía se manejaba con lentes ópticos que se enfocaban sobre papeles sensibles, luego se hacía un proceso de revelado y ahí se obtenía un negativo o un positivo, dependiendo del uso que se le iba a dar después.

      La impresión de las fotografías, por su parte, en general era muy diferente de la imprenta tradicional, ya que se aplicaban métodos químicos y se formaban los colores de manera muy distinta. Aún, por una cuestión histórica, siguen usándose palabras como “revelado digital”, un proceso que en realidad no existe. Hoy la impresión digital puede ser tanto de una fotografía como de cualquier otra cosa que se decida imprimir, puesto que la tecnología digital fusionaría las tecnologías de gráfica y de fotografía. En la actualidad, por ejemplo, se cuenta con todas las variantes del Photoshop, que se aplican mayormente a la fotografía; y con las derivaciones de Illustrator, destinadas a la ilustración. La tecnología permitiría más tarde mezclar ambas técnicas en la computadora, y la impresión final no necesitaría separar los caminos de acuerdo al trabajo que se deseara concretar.

      El video también sufriría cambios irreversibles. Por entonces, la producción fílmica estaba dividida en cine y TV. El video de televisión analógico seguía normas tecnológicas desarrolladas en los años 50 cuando se produjeron los sistemas de televisión. Poseían una serie de requisitos técnicamente necesarios. Por ejemplo, las pantallas de televisión no se armaban punto por punto, sino que se iban armando en líneas, las cuales se llenaban en forma alternada, y era el ojo humano el que finalmente lograba ver una imagen.

      Por el contrario, el cine se asemejaba a la industria fotográfica: una filmadora corría el negativo y sacaba fotos sucesivas. Esta metodología tenía un costo muy superior, porque se debían obtener 24 fotos por segundo y se utilizaba una gran cantidad de celuloide no reutilizable. En cambio, el video se grababa sobre cintas que, por lo menos algunas veces, se podían regrabar. Una o dos décadas atrás, se filmaba en negativo de 35 o 16 milímetros. Este se copiaba a positivo y en la moviola (equipo en el que se cargan las películas) se cortaba, es decir, se editaba a mano. Allí se armaban las películas. Con ese positivo, se confeccionaba una lista de corte: el laboratorio cortaba el negativo y generaba la película completa en una sola tira. Finalmente, de ahí se hacía otro negativo del cual se realizaban todas las copias.

      El avance que vendría con el video digital tuvo que esperar muchos años, ya que la potencia necesaria en la tecnología debía ser muy superior. El primer hito sería el QuickTime de Apple en los años 90. Aun así, seguía siendo una alternativa no profesional, dado que la tecnología inicial solamente permitía videos pequeños de baja calidad. Pero 20 años más tarde, esta situación habría de cambiar en su totalidad, hasta hacer converger ambas tecnologías en herramientas digitales que permitirían reemplazar todas las máquinas anteriores y lograr muchísima más efectividad en el uso, flexibilidad, costo, etc.

      El audio analógico de los 70 gozaba de una calidad casi perfecta. El nombre de este sistema deriva de la palabra “analogía”. En él se utilizan señales eléctricas que representan, o son analogías de, otras señales. Por ejemplo, el sonido es una onda; en un equipo analógico se la transforma a través de un traductor (micrófono) en una señal eléctrica que se procesa, se amplifica, se graba y se reproduce a través de otro traductor (parlante). La fidelidad alcanzada era perfecta. Por lo tanto, para esa década, ya se pudieron fabricar equipos superiores a cualquier requerimiento humano.

      También se empezó a trabajar en torno a los instrumentos acústicos, porque requerían de gente muy especializada tanto para diseñarlos como para construirlos. Empezó a surgir en los 50 la idea de generar instrumentos electrónicos. Primero, fueron los sintetizadores, que también en sus inicios eran analógicos. Después, comenzaron a aparecer los instrumentos digitales propiamente dichos y los secuenciadores: como una pianola, pero digital. La pianola permitía grabar en una cinta de papel lo que se tocaba en un piano y reproducirlo.

      Todo esto se sustituiría por instrumentos electrónicos. Sus fabricantes se pondrían de acuerdo en utilizar una misma norma, que se llamaría MIDI, de modo que entre los equipos pudieran compartir información e interconectarse.

      En 1976, la tecnología de computación abarcaba diversos temas: por una parte, estaba enfocada en los asuntos militares, a la par se había expandido su uso en el área corporativa y en el sector educativo. Por entonces, se habían desarrollado en todas las universidades áreas de investigación y desarrollo, y de enseñanza de computación, por todo lo cual fueron creciendo los principios de muchas tecnologías de programación y de cómo construir y optimizar los sistemas operativos.

      Fueron épocas de adaptación continua en la medida en que el hardware iba siendo cada vez más potente. Gordon Moore, cofundador de Intel, postuló que, a la sazón, cada 18 meses se duplicaba la potencia de las computadoras. Los equipos empujaban la necesidad de crecimiento de las aplicaciones, a fin de que se optimizara su uso. Es así como se trabajó en tecnologías que permitieron aumentar la potencia.

      ¿Qué significa “potencia”? Hay tres elementos que se deben tener en cuenta para medirla. El primero es la velocidad con la cual el procesador ejecuta las instrucciones: si se le pide a una clase de alumnos sumar dos números de seis cifras, se observará una diferencia importante entre las velocidades con que completan el cálculo; esto se asemeja a la velocidad del procesador. El segundo corresponde a la cantidad de números diferentes que el procesador puede manejar. Mientras los primeros microprocesadores de Intel manejaban solamente 16, la generación de Apple II fue de 256, y luego creció exponencialmente. La actual lo hace con un número gigante, con 19 cifras. Al manejar mayor cantidad, la potencia de cálculo también crece. Para comprender el tercer elemento, retomando el ejemplo de la clase, si el maestro coordina una tarea de manera que cada alumno pueda realizar una parte, la “potencia” del conjunto de la clase será mucho mayor que la de un alumno solo. A este tercer elemento se lo conoce como “procesamiento paralelo”.

      El cerebro humano no tiene un único núcleo de procesamiento como sí lo tenían las primeras computadoras, sino que cada neurona es un área que lo hace por sí misma. Por lo tanto, el órgano se convierte en un procesador paralelo enormísimo. La industria intentó –y aún hoy sigue tratando– asemejarse a ese modelo. El desafío fue el de coordinar esos trabajos como, de alguna manera, el cerebro también lo hace.

      Comenzando los años 70, Fairchild, Intel y Motorola lanzan sus microprocesadores, la reducción al nivel de un chip de todo lo que hacía falta para construir una computadora. De este modo, lo que antes requería, como en el caso de las IBM 360, una oficina llena de equipos y millones de dólares, ahora entraba en un chip y costaba entre decenas y cientos de dólares.

      Con este escenario, Steve Jobs y Steve Wozniak empezaron su sueño de Apple. Ellos se encuentran con computadoras aplicables a los negocios, a las grandes instituciones educativas, a los gobiernos..., todos sectores que fomentaba IBM, la empresa dominante de la industria por entonces. A la par, detectaron los bajos precios que tenían los chips y comprendieron que esa era la puerta para imaginar una computadora personal.

      En aquellos tiempos, Wozniak y Jobs eran “hobbistas” que se reunían con otros jóvenes (entre ellos, Bill Gates) en un club para amantes de las computadoras. Allí discutían las posibilidades de construir equipos como kits. Wozniak, un genio de la electrónica, concretó el primer desarrollo al que llamaron Apple I, cuyo funcionamiento se logró con muchísimas menos plaquetas, con un chip de Motorola que le costó 20 dólares (no tenían suficiente efectivo para un Intel 8080) y solamente necesitó el garage que el padre de Jobs usaba como taller para actividades