Miguel Fuentes

Dinámica científica y medidas de complejidad


Скачать книгу

criptografía, inferencia estadística, física, biología y al análisis de datos). En sistemas complejos, la Teoría de la Información se ha utilizado además en relación con una teoría que fue desarrollada por E. T. Jaynes. En una serie de documentos de alrededor de 1952, este investigador discutió la correspondencia entre la mecánica estadística y la Teoría de la Información [Rosenkrantz, 1983].

      Este gigantesco paso nos dice que la mecánica estadística (y todas las aplicaciones y predicciones de este cuerpo exitoso de conocimiento) debe ser vista como un caso particular de una teoría más general: la Teoría de la Información. El trabajo de Jaynes prestó atención a un principio general: el Principio de Máxima Entropía (o MaxEnt). Hoy en día MaxEnt se utiliza, entre otras aplicaciones, para entender la aparición de distribuciones en biología y ecología (desde un enfoque de sistemas complejos), como por ejemplo: distribución de tamaños, distribución de rangos, distribución de energía, etc. En un esfuerzo muy reciente, el autor de este trabajo ha aplicado la teoría de MaxEnt para entender los patrones en sistemas urbanos, pero este trabajo aún no ha sido publicado y está en progreso.

      2.3.6 Superestadística

      Se ha enfatizado en la importancia de la contribución de la mecánica estadística y la teoría de MaxEnt al estudio de sistemas complejos y fenómenos naturales en general. En un trabajo reciente, Beck y Cohen introdujeron una generalización natural de la mecánica estadística [Beck y Cohen, 2003; Cohen, 2004]. La idea es muy simple, pero también muy potente. Cuando se trata de sistemas complejos de no-equilibrio con estados cuasiestacionarios a largo plazo sujetos a fluctuaciones espacio-temporales, se puede obtener la distribución de probabilidad, que tiene características muy peculiares, calculando el promedio sobre estas fluctuaciones. Un ejemplo típico de estas características puede ser el así llamado comportamiento de distribuciones de eventos extremos (como los terremotos, fluctuaciones y caídas de bolsas financieras, etc.), caracterizados usualmente por funciones escalables como las mencionadas al comienzo de este capítulo. Esta característica está presente en una variedad de fenómenos emergentes, por ejemplo los asociados a la autoorganización crítica [Zelinka et al., 2013].

      Para ser más explícitos, veamos un ejemplo de cómo funciona la teoría. Supongamos que tenemos un sistema compuesto por muchos subsistemas. Cada subsistema tiene partículas que difunden a velocidades características promedio bien caracterizadas por un parámetro de difusión. En consecuencia, cada subsistema se caracterizará por una distribución bien definida caracterizada por el parámetro de difusión particular que tiene. Pero si consideramos el sistema completo (la agregación de todos los subsistemas) debemos promediar usando todas estas distribuciones particulares.

      Es fácil darse cuenta del poder de este concepto y de la generalización que puede hacerse siguiendo estos métodos [Hanel, Thurner y Gell-Mann, 2011].

      2.3.7 Autómatas celulares

      Circa 1950, Stanislaw Ulam y John von Neumann crearon un modelo para entender el comportamiento de unidades discretas en función del comportamiento de sus vecinos. Fue el comienzo de los modelos de autómatas celulares. El autómata celular es un modelo discreto basado en células, cada uno con un conjunto de estados: encendido/apagado o similar. Las posiciones de las células suelen estar en una cuadrícula regular (pero, de nuevo, se pueden organizar en redes complejas como la mencionada anteriormente). Luego, dada una condición inicial para los autómatas celulares, el siguiente estado será una actualización de cada cuadrícula según las reglas locales [Toffoli y Margolus, 1987; Schiff, 2011].

      Para explicar las ideas esenciales, echemos un vistazo a un ejemplo simple: los autómatas celulares unidimensionales. En un autómata celular unidimensional cada célula puede estar en dos estados: cero y uno (o encendido y apagado, etc.). Dado el estado de una célula en el tiempo t, su configuración en el tiempo t+1 dependerá de: su propio estado en el tiempo t y el estado de los dos vecinos también en el instante t. Está claro entonces que los valores posibles para un vecindario son 2 a la potencia de 3, es decir 8, y luego se le da la opción de encendido o apagado, habrá un total de 2 a la 8, es decir 256 reglas para un autómata celular unidimensional como este.

      Dependiendo de su comportamiento, S. Wolfram, en su libro A New Kind of Science [2002], definió cuatro categorías en las cuales los autómatas celulares pueden ser clasificados. En la clase número uno casi todos los patrones iniciales evolucionan rápidamente a un estado estable y homogéneo, y cualquier aleatoriedad en el patrón inicial desaparece. En la clase dos, casi todos los patrones iniciales evolucionan rápidamente en estructuras estables u oscilantes, y parte de la aleatoriedad en el patrón inicial puede filtrarse, pero algunos permanecen. Los cambios locales en el patrón inicial tienden a permanecer locales. La clase tres tiene casi todos los patrones iniciales que evolucionan de una manera pseudoaleatoria o caótica. Cualquier estructura estable que aparece es rápidamente destruida por el ruido circundante. Los cambios locales en el patrón inicial tienden a propagarse indefinidamente. Finalmente, en la clase cuatro, casi todos los patrones iniciales evolucionan en estructuras que interactúan de forma compleja e interesante, con la formación de estructuras locales capaces de sobrevivir durante largos períodos de tiempo.

      Las aplicaciones de los autómatas celulares se pueden encontrar en diferentes campos como los procesadores informáticos utilizados para comprender la formación de patrones en biología, epidemiología y modelos para simular dinámicas urbanas a través de las acciones locales de los autómatas celulares [Batty, 2007], etc. Además, han sido el ejemplo paradigmático y ampliamente discutido en emergencia [Gardner, 1970; Goldstein, 1999; Chalmers, 2006; Bedau et al., 2008; Beisbart, 2012; Frigg y Reiss, 2009], utilizando algunas reglas en particular, como por ejemplo la del así llamado “Juego de la vida” del matemático ingles J. H. Conway.

      2.3.8 Modelado de agentes

      Con la llegada de nuevas tecnologías y el creciente poder informático, es fácil considerar modelos computacionales para estudiar la evolución de muchos agentes, a diferentes escalas y escenarios. El modelado basado en agentes puede considerarse como la evolución de modelos de autómatas celulares. Esto puede considerarse como un enfoque desde abajo hacia arriba (i. e. ascendente), debido al hecho de que determinadas propiedades observadas en el sistema como un todo (algunas de ellas emergentes) resultan de las interacciones de los componentes microscópicos del sistema. Dicha visión difiere de las otras discutidas en este capítulo, como por ejemplo el mecanismo de Turing, donde la difusión de partículas es modelada a través de un operador espacial que actúa a escala macroscópica.

      No hay una receta específica para aplicar el modelado basado en agentes, ya que puede usarse en muchos escenarios y sistemas. Por lo general, pueden estudiarse en varios niveles, como individuos [Axelrod, 1997], poblaciones [Gustafsson y Sternad, 2010], organizaciones, etc.; modelos para la toma de decisiones (notar que en este caso la teoría de juegos también puede aplicarse); topología de las interacciones, redes regulares o irregulares, redes complejas; entornos donde ocurren interacciones sociales y reglas de aprendizaje (o procesos adaptativos), etc.

      Se ha argumentado que los principales beneficios del modelado basado en agentes son los siguientes [Bonabeau, 2002]:

      i) Captura fenómenos emergentes. Esto se debe a que en principio los fenómenos emergentes provienen de interacciones microscópicas (o entidades individuales), y cuando se utilizan modelos basados en agentes, cualquier característica macroscópica será por definición resultado de reglas microscópicas que actúan sobre un gran número de agentes. Estos fenómenos emergentes pueden aparecer cuando el comportamiento individual es no lineal o cuando las interacciones de los agentes son heterogéneas y pueden generar efectos de red, basados en agentes. Los modelos pueden amplificar las fluctuaciones (algo que es difícil de obtener formalmente utilizando ecuaciones diferenciales) y cuando el comportamiento individual muestra la dependencia de la trayectoria y/o memoria (como en el caso de un atascamiento de tráfico).

      ii) En muchos casos, el modelado basado en agentes proporciona la forma más natural de describir las dinámicas y reglas del sistema,