Jorge Luis Marzo

Las videntes


Скачать книгу

El objetivo de esas máquinas no es replicar los datos con los que se alimenta, sino la correcta predicción de nuevos datos. Es, por lo tanto, una tecnología de predicción.

      El principal motor detrás de la IA es el cálculo estadístico, donde ir de las observaciones particulares a las descripciones generales se llama inferencia, y el aprendizaje se denomina estimación. La clasificación se llama análisis discriminatorio. Son términos importantes. El acontecimiento más grande de la física del siglo XX fue el descubrimiento de que el mundo no está sujeto al determinismo, sino al desorden. La lógica desarrollada durante los siglos en los que se creía que el mundo era un modelo regular, y que había sido diseñado para confirmar patrones repetitivos, encontró un gran acomodo con la aparición de las ciencias del caos, en donde la búsqueda de patrones se orientó hacia la detección del punto de no retorno, del momento en que se produce la singularidad. Allí surgieron las ciencias estadísticas encaminadas al establecimiento de probabilidades: el análisis de riesgos. Muchas de nuestras actividades implican procesos aleatorios y ahí entra la estadística para determinar modelos del azar y del libre albedrío. De esos cálculos se podrá inferir una predicción. Los humanos somos mejores que las máquinas para decidir qué hacer cuando no hay muchos datos. Pero cuando hay montones, porque montones son las singularidades, la estadística es bastante más hábil porque sabe cosas que nosotros no.

      La inferencia es el objeto de estudio tradicional de la lógica (así como la materia es el de la química y la vida el de la biología). La lógica investiga los fundamentos por los cuales algunas inferencias son aceptables, y otras no. Cuando una inferencia es aceptable, lo es por su estructura lógica y no por el contenido específico del argumento o el lenguaje utilizado. La inteligencia artificial se ha construido sobre esos suelos: solo se debe a su propia lógica. Este asunto problemático recibe el nombre de black box, o caja negra, que define la dificultad, cuando no imposibilidad, de interpretar el proceso de aprendizaje de los algoritmos desde el exterior. Steven Strogatz, uno de los padres de las ciencias de las redes, opina que lo mejor que se puede hacer es sentarse junto a la máquina y escuchar: «No entenderemos por qué el oráculo tiene siempre razón, pero podremos verificar sus cálculos y sus predicciones con experimentos y observaciones y confirmar sus revelaciones». Un programador mexicano me lo expresó de forma si cabe más gráfica: «Es lo que hay, o te aclimatas o te aclimueres. Nunca se sabe muy bien por qué los algoritmos hacen lo que hacen, lo importante es que lo hagan». Este es precisamente uno de los principales argumentos de los nuevos adivinos para equiparar la inteligencia humana y la artificial y justificar la naturalidad de la segunda: del mismo modo que no es necesario (ni acaso podemos) conocer la dinámica interna que mueve a nuestro cerebro a activar ciertos músculos y redes neuronales cuando, por ejemplo, saltamos un charco, tampoco «aporta» mucho saber la dinámica última de un dispositivo inteligente que llega a hacer las cosas que se le piden, siempre y cuando las haga. Llegamos, por consiguiente, a un nuevo límite en la ética industrial de la mecánica: es el producto o el servicio lo que cuenta, de poco sirve debatir sobre los procedimientos de la máquina si, al fin y al cabo, cumple con sus promesas.

      El aprendizaje automático (machine learning) es el modo en que las máquinas aprenden a buscar ciertas cosas a partir de un conjunto de datos, que deben ser muy numerosos para que aprender sea más rápido y preciso. El aprendizaje automático y la predicción son posibles porque el mundo parece tener regularidades. La predicción es el proceso de rellenar la información que falta: toma la información disponible, llamada «datos», y la usa para generar información que no tiene a partir de las regularidades que la experiencia enseña. La capacidad de generalizar es la fuerza básica del aprendizaje automático: permite crear patrones y luego generalizarlos mediante una regla. Una regla es lo que se crea a partir del análisis de patrones y se usa para predecir el futuro. Por lo tanto, la IA no nos trae realmente la inteligencia, sino un componente crítico de la inteligencia: la predicción.

      La inteligencia artificial se nutre de datos y son de tres tipos: los datos de entrada, que son los datos a pelo; los datos de entrenamiento, que se utilizan para enseñar al algoritmo el modo de buscar patrones entre los datos a pelo; y los datos de retroalimentación, que se utilizan para mejorar el rendimiento del algoritmo mediante la experiencia, por ejemplo, diciéndole dónde ha fallado o señalándole «singularidades», lo contrario a las regularidades. En algunas situaciones, existe una considerable superposición, de tal manera que los mismos datos desempeñan los tres papeles. Pero los datos no son relevantes solamente porque tratamos con asuntos informáticos, sino sobre todo porque representan el telón de fondo de un conflicto más profundo: el propio cambio de paradigma científico.

      Físicos como Luca Gammationi y Angelo Vulpiani han advertido que en los últimos años ha surgido una influyente línea de pensamiento que sostiene que, debido a que muchos sistemas complejos se resisten a la habitual aproximación matemática, es necesario ir más allá del modo tradicional de estudiar la naturaleza. Gracias a la actual disponibilidad de enormes masas de datos, la ciencia estaría a punto de entrar en una nueva era en la que la causalidad ya no jugaría el papel fundamental que ha tenido en los últimos siglos: la simple correlación de datos ya sería suficiente para explicar el funcionamiento del mundo. Esta teoría conduciría a plantear una nueva revolución científica que vendría a revelar un cuarto paradigma adicional a los tres ya existentes: el experimental, el teórico y el computacional. Un gurú informático como Chris Anderson, editor jefe de la revista Wired, escribió en 2008 un artículo en el que hablaba del fin del método científico gracias a la llegada del Big Data, o de lo que él llamaba la «ciencia de Google»: «La gran cantidad de datos disponibles deja al método científico obsoleto […]. Ya podemos analizar los datos sin necesidad de hipótesis». Preguntémonos: ¿es posible una ciencia puramente inductiva, predictiva, basada solo en observaciones supuestamente objetivas y exenta de toda teoría que anteponga un «por qué»? ¿Podemos llegar a pensar y aceptar que el resultado de la simple sintaxis lógica de unos datos cruzados no necesita de un marco determinado de interpretación para ser aprobado o rechazado? Se trata de un tipo de pensamiento que pretende maridar subrepticiamente un positivismo radical con los orígenes puramente augurales de la iglesia. La palabra latina templum describía antes que nada el fragmento de cielo dentro del cual se observaba el vuelo de las aves a fin de interpretar la voluntad de los dioses. Se talaba una sección determinada de bosque, los adivinos se sentaban en el centro del claro y levantaban sus miradas hacia esa ventana superior con la idea de que ese marco cancelara toda lógica discursiva anterior o posterior a la imagen que se producía. Se suprimían así las teorías generales de la causalidad para otorgar al instante un poder epidémico en la explicación general de las cosas. Habremos de ver este problema desde diversas ópticas, pues la noción de contexto (su definición in absentia) es un asunto nuclear si queremos hacer una crítica eficiente de la razón predictiva. Tengamos presente que la experiencia del vaticinio se conduce siempre mediante la cancelación de todo contexto: solo cuenta lo que se produce en el espacio previamente acotado y aislado de toda influencia exterior.

      La IA funciona con algoritmos. El origen del término se encuentra en el nombre del matemático persa al-Juarismi (s. ix). Se le considera tanto el fundador del álgebra como el introductor del actual sistema numérico, basado en unas reglas o principios generales. Así, los algoritmos son una serie de instrucciones precisas y expresiones matemáticas que se usan para encontrar asociaciones, identificar tendencias y extraer las leyes y dinámicas de los fenómenos. Los sistemas algorítmicos se encargan de la búsqueda de conocimiento (cosas que no sabemos todavía), anticipando nuestros intereses y necesidades de información, por lo que el horizonte de nuestra imaginación está cada vez más determinado por los sistemas computacionales, incapaces de producir serendipia, el hallazgo afortunado e inesperado que se produce de manera accidental cuando se está buscando una cosa distinta. El nuevo mundo se nos presenta como algorítmicamente predecible y algorítmicamente previsto. En pocas palabras, la posibilidad de los pensamientos en paralelo que ha marcado la historia de las civilizaciones está cada vez más determinada por la «computabilidad efectiva», que solo permite hacer aquello que pueda ser computable. Ya digo que la inteligencia artificial se nos presenta como deudora solo frente a su propia lógica. Por eso, la previsión tiene un importante componente psicológico. El deseo de explicar el mundo en términos de simples relaciones