jueves, 30 de octubre de 2008

CAOS Y SISTEMAS

Teoría del caos es la denominación popular de la rama de las matemáticas y la física que trata ciertos tipos de comportamientos impredecibles de los sistemas dinámicos.

Los sistemas dinámicos se pueden clasificar básicamente en:
Estables
Inestables
Caóticos

Un sistema estable tiende a lo largo del tiempo a un punto, u órbita, según su dimensión (atractor). Un sistema inestable se escapa de los atractores. Y un sistema caótico manifiesta los dos comportamientos. Por un lado, existe un atractor por el que el sistema se ve atraído, pero a la vez, hay "fuerzas" que lo alejan de éste. De esa manera, el sistema permanece confinado en una zona de su espacio de estados, pero sin tender a un atractor fijo.

Una de las mayores características de un sistema inestable es que tiene una gran dependencia de las condiciones iniciales. De un sistema del que se conocen sus ecuaciones características, y con unas condiciones iniciales fijas, se puede conocer exactamente su evolución en el tiempo. Pero en el caso de los sistemas caóticos, una mínima diferencia en esas condiciones hace que el sistema evolucione de manera totalmente distinta. Ejemplos de tales sistemas incluyen la atmósfera terrestre, el Sistema Solar, las placas tectónicas, los fluidos en régimen turbulento y los crecimientos de población.

Por ejemplo, el tiempo atmosférico, según describió Edward Lorenz, se describe por 3 ecuaciones diferenciales bien definidas. Siendo así, conociendo las condiciones iniciales se podría conocer la predicción del tiempo en el futuro. Sin embargo, al ser éste un sistema caótico, y no poder conocer nunca con exactitud los parámetros que fijan las condiciones iniciales (en cualquier sistema de medición, por definición, siempre se comete un error, por pequeño que éste sea) hace que aunque se conozca el modelo, éste diverja de la realidad pasado un cierto tiempo. Por otra parte, el modelo atmosférico es teórico y puede no ser perfecto, y el determinismo, en el que se basa, es también teórico.

Para poder clasificar el comportamiento de un sistema como caótico, el sistema debe tener las siguientes propiedades:

Debe ser sensible a las condiciones iniciales.

Debe ser transitivo.

Sus órbitas periódicas deben formar un conjunto denso en una región compacta del espacio fásico.
Sensibilidad a las condiciones iniciales significa que dos puntos en tal sistema pueden moverse en trayectorias muy diferentes en su espacio de fase incluso si la diferencia en sus configuraciones iniciales son muy pequeñas.

El sistema se comportaría de manera idéntica sólo si sus configuraciones iniciales fueran exactamente las mismas.

Un ejemplo de tal sensibilidad es el así llamado "efecto mariposa", en donde el aleteo de las alas de una mariposa puede crear delicados cambios en la atmósfera, los cuales durante el curso del tiempo podrían modificarse hasta hacer que ocurra algo tan dramático como un tornado. La mariposa aleteando sus alas representa un pequeño cambio en las condiciones iniciales del sistema, el cual causa una cadena de eventos que lleva a fenómenos a gran escala como tornados. Si la mariposa no hubiera agitado sus alas, la trayectoria del sistema hubiera podido ser muy distinta.

La sensibilidad a las condiciones iniciales está relacionada con el exponente Lyapunov. El exponente Lyapunov es una cantidad que caracteriza el radio de separación de trayectorias infinitesimalmente cercanas.

Transitividad significa que hay muchas órbitas densas.

Sistemas dinámicos y teoría del caos
Los Sistemas dinámicos y teoría del caos son una rama de las Matemáticas, desarrollada en la segunda mitad del Siglo XX, que estudia lo complicado, lo impredecible, lo que no es lineal. A veces se la llama "Matemática de lo no lineal".

Para los no iniciados en matemáticas, el nombre "Teoría del Caos" puede inducir a error por dos motivos:

No necesariamente es una teoría sino que puede entenderse como un gran campo de investigación abierto, que abarca diferentes líneas de pensamiento.
Caos está entendido no como ausencia de orden, sino como cierto tipo de orden de características impredecibles, pero descriptibles en forma concreta y precisa. Es decir: un tipo de orden de movimiento impredecible.

La idea de la que parte la Teoría del Caos es simple: en determinados sistemas naturales, pequeños cambios en las condiciones iniciales conducen a enormes discrepancias en los resultados. Este principio suele llamarse efecto mariposa debido a que, en meteorología, la naturaleza no lineal de la atmósfera ha hecho afirmar que es posible que el aleteo de una mariposa en determinado lugar y momento, pueda ser la causa de un terrible huracán varios meses más tarde en la otra punta del globo.

Un ejemplo claro sobre el efecto mariposa es soltar una pelota justo sobre la arista del tejado de una casa varias veces; pequeñas desviaciones en la posición inicial pueden hacer que la pelota caiga por uno de los lados del tejado o por el otro, conduciendo a trayectorias de caída y posiciones de reposo final completamente diferentes. Cambios minúsculos que conducen a resultados totalmente divergentes.

En Teoría del Caos los sistemas dinámicos son estudiados a partir de su "Espacio de Fases", es decir, la representación coordenada de sus variables independientes. En estos sistemas caóticos, es fácil encontrar trayectorias de movimiento no periódico, pero cuasi-periódicas.

En este esquema se suele hablar del concepto de Atractores Extraños: trayectorias en el espacio de fases hacia las que tienden todas las trayectorias normales. En el caso de un péndulo oscilante, el atractor sería el punto de equilibrio central.

Los atractores extraños suelen tener formas geométricas caprichosas y, en muchos casos, parecidos o similitudes a diferentes escalas. En este caso, a estas formas que son iguales a sí mismas en diferentes escalas, se les ha dado en llamar fractales.

La llamada Teoría del Caos es un nuevo paradigma matemático, tan amplio y tan importante como pudo ser en su época la unión entre geometría y cálculo, surgida del pensamiento cartesiano aunque, quizás, por su inmadurez aún no se tenga claro todo lo que puede dar de sí esta nueva forma de pensamiento matemático, que abarca campos de aplicación tan dispares como la medicina, la geología o la economía.

La teoría no tiene un solo padre fundador, sino muchos. Entre ellos destacan Lorenz (meteorólogo), Benoit Mandelbrot (ingeniero de comunicaciones), Mitchell Feigenbaum (matemático), Libchaber (físico), Winfree (biólogo), Mandell (psiquiatra), y otros muchos, la mayoría de ellos vivos actualmente.

Atractor
Una manera de visualizar el movimiento caótico, o cualquier tipo de movimiento, es hacer un diagrama de fases del movimiento. En tal diagrama el tiempo es implícito y cada eje representa una dimensión del estado. Por ejemplo, un sistema en reposo será dibujado como un punto, y un sistema en movimiento periódico será dibujado como un círculo.

Algunas veces el movimiento representado con estos diagramas de fases no muestra una trayectoria bien definida, sino que ésta se encuentra errada alrededor de algún movimiento bien definido. Cuando esto sucede se dice que el sistema es atraído hacia un tipo de movimiento, es decir, que hay un atractor.

De acuerdo a la forma en que sus trayectorias evolucionen, los atractores pueden ser clasificados como periódicos, cuasi-periódicos y extraños. Estos nombres se relacionan exactamente con el tipo de movimiento que provocan en los sistemas. Un atractor periódico, por ejemplo, puede guiar el movimiento de un péndulo en oscilaciones periódicas; sin embargo, el péndulo seguirá trayectorias erráticas alrededor de estas oscilaciones debidas a otros factores menores.


Atractores extraños
La mayoría de los tipos de movimientos mencionados en la teoría anterior sucede alrededor de atractores muy simples, tales como puntos y curvas circulares llamadas ciclos limitados. En cambio, el movimiento caótico está ligado a lo que se conoce como atractores extraños, atractores que pueden llegar a tener una enorme complejidad como, por ejemplo, el modelo tridimensional del sistema climático de Lorenz, que lleva al famoso atractor de Lorenz. El atractor de Lorenz es, quizá, uno de los diagramas de sistemas caóticos más conocidos, no sólo porque fue uno de los primeros, sino también porque es uno de los más complejos y peculiares, pues desenvuelve una forma muy peculiar más bien parecida a las alas de una mariposa.

Los atractores extraños están presentes tanto en los sistemas continuos dinámicos (tales como el sistema de Lorenz) como en algunos sistemas discretos (por ejemplo el mapa Hènon). Otros sistemas dinámicos discretos tienen una estructura repelente de tipo Conjunto de Julia la cual se forma en el límite entre las cuencas de dos puntos de atracción fijos. Julia puede ser sin embargo un atractor extraño. Ambos, atractores extraños y atractores tipo Conjunto de Julia, tienen típicamente una estructura fractal.

El teorema de Poincaré-Bendixson muestra que un atractor extraño sólo puede presentarse como un sistema continuo dinámico si tiene tres o más dimensiones. Sin embargo, tal restricción no se aplica a los sistemas discretos, los cuales pueden exhibir atractores extraños en sistemas de dos o incluso una dimensión.


Algo más de atractores
Los atractores extraños son curvas del espacio de las fases que describen la trayectoria de un sistema en movimiento caótico. Un sistema de estas características es plenamente impredecible, saber la configuración del sistema en un momento dado no permite predecir con veracidad su configuración en un momento posterior. De todos modos, el movimiento no es completamente aleatorio.

En la mayoría de sistemas dinámicos se encuentran elementos que permiten un tipo de movimiento repetitivo y, a veces, geométricamente establecido. Los atractores son los encargados de que las variables que inician en un punto de partida mantengan una trayectoria establecida, y lo que no se puede establecer de una manera precisa son las oscilaciones que las variables puedan tener al recorrer las órbitas que puedan llegar a establecer los atractores. Por ejemplo, es posible ver y de cierta manera prever la trayectoria de un satélite alrededor de la Tierra; lo que aparece en este caso como algo indeterminado, son los movimientos e inconvenientes varios que se le pueden presentar al objeto para efectuar este recorrido.


Aplicaciones y atractores
La Teoría del Caos y la matemática caótica resultaron ser una herramienta con aplicaciones a muchos campos de la ciencia y la tecnología. Gracias a estas aplicaciones el nombre se torna paradójico, dado que muchas de las prácticas que se realizan con la matemática caótica tienen resultados concretos porque los sistemas que se estudian están basados estrictamente con leyes deterministas aplicadas a sistemas dinámicos. En Internet se desarrolla este concepto en "Teoría del Caos, el tercer paradigma" -debe buscarse usando comillas-, de como la estadística inferencial trabaja con modelos aleatorios para crear series caóticas predictoras para el estudio de eventos presumiblemente caóticos en las Ciencias Sociales. Por esta razón la Teoría del Caos ya no es en sí una teoría: tiene postulados, fórmulas y parámetros recientemente establecidos con aplicaciones, por ejemplo, en las áreas de la meteorología o la física cuántica.



Teoría del caos, aplicación meteorológica
El clima, además de ser un sistema dinámico, es muy sensible a los cambios en las variables iniciales, es un sistema transitivo y también sus órbitas periódicas son densas, lo que hace del clima un sistema apropiado para trabajarlo con matemática caótica. La precisión de las predicciones meteorológicas es relativa, y los porcentajes anunciados tienen poco significado sin una descripción detallada de los criterios empleados para juzgar la exactitud de una predicción.

Al final del siglo XX se ha vuelto común atribuirles una precisión de entre 80 y 85% en plazos de un día. Los modelos numéricos estudiados en la teoría del caos han introducido considerables mejoras en la exactitud de las previsiones meteorológicas en comparación con las predicciones anteriores, realizadas por medio de métodos subjetivos, en especial para periodos superiores a un día. En estos días es posible demostrar la confiabilidad de las predicciones específicas para periodos de hasta cinco días gracias a la densidad entre las orbitas periódicas del sistema, y se han logrado algunos éxitos en la predicción de variaciones anormales de la temperatura y la pluviosidad para periodos de hasta 30 días. No es posible contradecir la confiabilidad de las previsiones para periodos de tiempo más largos debido a que no se han adoptado aún modelos de verificación; no obstante, los meteorólogos profesionales tienden a ponerla en duda.

Obtenido de "http://es.wikipedia.org/wiki/Teor%C3%ADa_del_Caos"




























TEORÍA DEL CAOS
Hacia el conocimiento de la realidad

Se aproxima una crisis de percepción. La complejidad del mundo ha llevado al ser humano a simplificar la realidad, a abstraer la naturaleza para hacerla cognoscible y, tristemente, a caer en la trampa de la dualidad. Bien y mal; objetivo y subjetivo; arriba y abajo. Pero la tendencia a ordenarlo todo choca con la misma realidad, irregular y discontinua. Muchos científicos ya han renunciado a la ilusión del orden para dedicarse al estudio del caos, que acepta al mundo tal y como es: una imprevisible totalidad.
A mediados de este siglo, la evolución de la ciencia se vio alterada por una reflexión comparable a esta: "conocemos el movimiento de los planetas, la composición de las moléculas, los métodos para explotar la energía nuclear..., pero ignoramos por qué las cebras tienen manchas o el motivo de que un día llueva y al siguiente haga sol". La búsqueda de una explicación a los fenómenos naturales que observamos, complejos e irresolubles mediante fórmulas, configuró lo que se conoce como Teoría del Caos, una disciplina que, si bien no niega el mérito de la ciencia clásica, propone un nuevo modo de estudiar la realidad.

Un ligero vistazo a nuestro alrededor advierte de la tendencia general al desorden: un cristal se rompe, el agua de un vaso se derrama... nunca ocurre al revés. Pero, contrariamente a lo que se piensa, este desorden no implica confusión. Los sistemas caóticos se caracterizan por su adaptación al cambio y, en consecuencia, por su estabilidad. Si tiramos una piedra a un río, su cauce no se ve afectado; no sucedería lo mismo si el río fuera un sistema ordenado en el que cada partícula tuviera una trayectoria fija; el orden se derrumbaría.

Las leyes del caos ofrecen una explicación para la mayoría de los fenómenos naturales, desde el origen del Universo a la propagación de un incendio o a la evolución de una sociedad. Entonces, ¿por qué lleva la humanidad tantos siglos sumida en el engaño del orden? El problema parte del concepto clásico de ciencia, que exige la capacidad para predecir de forma certera y precisa la evolución de un objeto dado. Descartes aseguraba que si se fabricara una máquina tan potente que conociera la posición de todas las partículas y que utilizara las leyes de Newton para saber su evolución futura se podría predecir cualquier cosa del Universo. Esta afirmación, tan reduccionista como audaz, ilustra la euforia científica tras el descubrimiento de Neptuno gracias a las leyes de gravitación de Newton. Un hito científico que impuso el orden, el determinismo y la predicción en la labor investigadora y limitó los objetivos a los fenómenos que coincidieran con el patrón previo. Lo demás (turbulencias, irregularidades, etcétera) quedó relegado a la categoría de ruido, cuando ese ruido abarcaba la mayoría de lo observable. Los físicos se dedicaron - y se dedican - a descomponer sistemas complejos corrigiendo lo que no cuadraba con la esperanza de que las pequeñas oscilaciones no afectaran al resultado. Nada más lejos de la realidad.








Sistemas complejos y caos
Sergio A. Moriello

El planeta Tierra rebosa de fenómenos que parecen caóticos aunque, en realidad, se ciñen a reglas estrictas pero difíciles de desentrañar. Su estructura es tan compleja, con tanta cantidad de variables implicadas, que parece imposible hacer una predicción a un futuro siquiera relativamente cercano. En este artículo se intenta dar una somera idea de la relación entre los sistemas, la complejidad, la auto-organización, el caos, los fractales, las redes y la vida artificial.

Un sistema es un conjunto de elementos o partes que interaccionan entre sí a fin de alcanzar un objetivo concreto. De aquí se desprenden dos implicancias fundamentales. Primero, que existe una influencia mutua entre sus elementos componentes, es decir, que el cambio experimentado en uno de ellos repercute y afecta inevitablemente al resto. Y segundo, que una serie de elementos reunidos (es decir, un conjunto), que no persigue un propósito común (un objetivo), de ninguna manera constituye un sistema. En síntesis, para que el comportamiento de un sistema esté adecuadamente descripto, es necesario conocer, además de sus elementos, las interacciones o relaciones entre ellos. Pero no sólo eso: también se requiere saber sus estados (los valores instantáneos de todos los elementos) y sus transiciones (los cambios dinámicos de esos estados). En otras palabras, se deben describir tanto la estructura (lo que es el sistema) como la función (lo que hace el sistema), dos enfoques complementarios de una misma realidad.

Un sistema es algo más (y algo menos) que la simple suma de sus elementos constitutivos. Por un lado, emergen propiedades nuevas que no pueden atribuirse a ninguno de ellos; y, por otra parte, se reprimen o inhiben algunas de sus propiedades intrínsecas. Existen varios ejemplos de ellos. Partiendo de harina, agua, sal y levadura, y a través de un proceso de cocción, surge el pan, algo totalmente diferente y que tiene otros atributos o cualidades que los ingredientes con los que se origina. Los cardúmenes, los enjambres y las manadas se comportan -como conjunto- de manera distinta a como lo hacen sus individuos componentes. Una neurona por sí misma no posee ningún tipo de inteligencia, pero miles de millones de ellas interactuando entre sí pueden originar una mente, algo totalmente diferente. Este comportamiento surge únicamente cuando el sistema se considera como un todo, como algo global y colectivo.

Dado que todo sistema se encuentra inmerso en un medio ambiente, en general, éste va a afectar tanto su funcionamiento como su rendimiento. Para medir, en cierta forma, esta influencia o interacción aparece el concepto de "permeabilidad". Los sistemas escasamente permeables (es decir, aquellos que no intercambian o intercambian poca materia, energía o información con el entorno) se conocen con el nombre de "sistemas cerrados". Por el contrario, los sistemas mediana y altamente permeables son los que presentan alguna o mucha interacción con el medio ambiente y se denominan "sistemas abiertos". Por supuesto, existen diferentes grados de permeabilidad; de este modo, un sistema que interactúa poco con su entorno recibe el nombre de "parcialmente abierto". Asimismo, y dentro de la categoría de sistemas abiertos, están aquellos que son influidos pasivamente por el medio ambiente, llamados "no adaptativos", y los que reaccionan y se adaptan al entorno, llamados "adaptativos".

Los sistemas también pueden dividirse en dinámicos y estáticos, según modifiquen o no su estado interno a medida que transcurre el tiempo. Un sistema particular que, a pesar de estar inmerso en un entorno cambiante, mantiene su estado interno, se llama "homeostático". En otras palabras, la homeostasis define la tendencia de un sistema a su supervivencia dinámica. Los sistemas altamente homeostáticos siguen las transformaciones del contexto a través de ajustes estructurales internos. Un ejemplo típico de este tipo de sistema lo constituye una compañía. No obstante, vale aclarar, si el sistema no puede acomodarse al "esfuerzo tensional" (estrés) que padecen por parte del medio ambiente -modificando su estructura o su función- puede transformarse o deteriorarse parcial o totalmente, temporal o permanentemente. La resistencia de un sistema al estrés depende tanto de su estructura como de su función.

Sistemas complejos
Los sistemas complejos se caracterizan fundamentalmente porque su comportamiento es imprevisible. Sin embargo, complejidad no es sinónimo de complicación: este vocablo hace referencia a algo enmarañado, enredado, de difícil comprensión. En realidad, y por el momento, no existe una definición precisa y absolutamente aceptada de lo que es un sistema complejo, pero pueden darse algunas peculiaridades comunes. En primer término, está compuesto por una gran cantidad de elementos relativamente idénticos. Por ejemplo, el número de células en un organismo, o la cantidad de personas en una sociedad. En segundo lugar, la interacción entre sus elementos es local y origina un comportamiento emergente que no puede explicarse a partir de dichos elementos tomados aisladamente. Un desierto puede contener billones de granos de arena, pero sus interacciones son excesivamente simples comparadas con las que se verifican en las abejas de un enjambre. Por último, es muy difícil predecir su evolución dinámica futura; o sea, es prácticamente imposible vaticinar lo que ocurrirá más allá de un cierto horizonte temporal.

En la naturaleza se pueden encontrar una gran cantidad de ejemplos de sistemas complejos que se extienden desde la física hasta la neurología, desde la economía hasta la biología molecular, desde la sociología hasta las matemáticas. Por ese motivo, esta clase de sistemas no constituye un caso raro ni excepcional sino que se manifiesta en la inmensa mayoría de los fenómenos que se observan a diario. Sin embargo, y a pesar de su gran diversidad y abundancia, se pueden identificar conductas dinámicas genéricas, no importa su naturaleza (física, química, biológica o social); entre ellas, las leyes de crecimiento, la autoorganización y los procesos colectivos emergentes. Como ejemplos de sistemas complejos se pueden mencionar -entre otros- una célula, un cerebro, un organismo, una computadora, un ecosistema, una sociedad de insectos, un sistema inmunológico o una economía de mercado.

La mayoría de los sistemas complejos son inestables, se mantienen delicadamente equilibrados. Cualquier variación mínima entre sus elementos componentes puede modificar, de forma imprevisible, las interrelaciones y, por lo tanto, el comportamiento de todo el sistema. Así, la evolución de esta clase de sistemas se caracteriza por la intermitencia (o fluctuación), aquella situación en la que el orden y el desorden se alternan constantemente. Sus estados evolutivos no transcurren a través de procesos continuos y graduales, sino que suceden por medio de reorganizaciones y saltos. Cada nuevo estado es sólo una transición, un período de "reposo entrópico", en palabras del Premio Nobel ruso-belga Ilya Prigogine.

Estos sistemas nunca llegan a un óptimo global, al estado de mínima energía. En general, crecen progresivamente hasta que llegan al límite de su desarrollo potencial. En ese instante, sufren un desorden, una especie de ruptura que induce una fragmentación del orden pre-existente. Pero después, comienzan a surgir regularidades que organizan al sistema de acuerdo con nuevas leyes, produciendo otra clase de desarrollo. Este comportamiento es típico en los sistemas naturales: por ejemplo, el tránsito, en los insectos, del huevo a la larva y de ésta a la crisálida. En consecuencia, la organización de los sistemas complejos se da en diferentes niveles. Las leyes que gobiernan la causalidad de un dado nivel, pueden ser totalmente diferentes a las de un nivel superior.

Auto-organización
El orden y el desorden se necesitan el uno al otro, se producen mutuamente; son conceptos antagónicos, pero, al mismo tiempo, complementarios. En ciertos casos, un poco de desorden posibilita un orden diferente y, a veces, más rico. Así, por ejemplo, un organismo puede seguir viviendo a causa de la muerte de sus células; o una organización se perpetúa gracias a la desvinculación de sus miembros. La variación y el cambio son etapas inevitables e ineludibles por las cuales debe transitar todo sistema complejo para crecer y desarrollarse. Cuando esta transformación se consigue sin que intervengan factores externos al sistema, se hace mención a un proceso de "auto-organización".

La auto-organización se erige como parte esencial de cualquier sistema complejo. Es la forma a través de la cual el sistema recupera el equilibrio, modificándose y adaptándose al entorno que lo rodea y contiene. En esta clase de fenómenos es fundamental la idea de niveles. Las interrelaciones entre los elementos de un nivel originan nuevos tipos de elementos en otro nivel, los cuales se comportan de una manera muy diferente. Por ejemplo, entre otros, las moléculas a las macromoléculas, las macromoléculas a las células y las células a los tejidos. De este modo, el sistema auto-organizado se va construyendo como resultado de un orden incremental espacio-temporal que se crea en diferentes niveles, por estratos, uno por encima del otro.

Los sistemas autoorganizados se mantienen dentro del estrecho dominio que oscila entre el orden inmutable y el desorden total, entre la constancia rígida y la turbulencia anárquica. Una condición muy especial, con suficiente orden para poder desarrollar procesos y evitar la extinción pero con una cierta dosis de desorden como para ser capaz de adaptarse a situaciones novedosas y evolucionar. Es lo que se conoce -desde antaño- como "transiciones de fase", o -más modernamente- como lo llama el doctor en Ciencias de la Computación, antropólogo y filósofo estadounidense Christopher Langton: el "borde del caos". Es en esta delgada franja en donde se ubican los fenómenos que edifican la vida y las sociedades.

Por último, se puede aclarar que, aunque no es posible analizar matemáticamente la evolución de muchos de estos sistemas, se los puede explorar -sin embargo- a través de experimentos numéricos (con sistemas informáticos). Esto se debe a que, desde el punto de vista computacional, son sistemas irreducibles; es decir, la única forma de estudiar su evolución es mediante la observación directa (o sea, permitiendo que evolucionen). Para su estudio, en consecuencia, se emplean potentes sistemas computacionales en donde se simulan sus componentes, sus conexiones y sus interacciones, observándose la dinámica emergente.



Sistemas caóticos
Durante el siglo pasado, los científicos clasificaban a los sistemas según su grado de predictibilidad. Así, un sistema es determinístico cuando su comportamiento es bastante predecible, determinado, cuando parece seguir unas ciertas reglas y es probabilístico -o estocástico- cuando no hay certeza de su estado futuro, sólo una probabilidad, cuando aparece un orden estadístico, un orden promedio. No obstante, esta burda y tosca clasificación sufrió severos embates durante el último medio siglo. Por ejemplo, se descubrió que muchos sistemas dinámicos no lineales se comportan -en ciertas condiciones- de forma tan compleja que parecen probabilísticos, aunque, en realidad, son determinísticos. En otras palabras, a pesar de que las reglas -a nivel local- son muy simples, el sistema -a nivel global- puede tener un comportamiento inesperado, no predecible. Se trata de un "sistema caótico".

Una de las singularidades que caracterizan a los sistemas caóticos es que dependen sensiblemente de las condiciones iniciales. Un insignificante cambio en las condiciones de partida se amplifica y propaga exponencialmente a lo largo del sistema y es capaz de desencadenar -a futuro- un comportamiento totalmente diferente o, incluso, una imprevista catástrofe. Es decir, configuraciones iniciales casi idénticas, sometidas a influencias externas casi iguales, acaban transformándose en configuraciones finales absolutamente distintas. Y es este el motivo por el cual es prácticamente imposible hacer una predicción del estado final de estos sistemas complejos.

Sin embargo, el caos no es más que un desorden solamente en apariencia, tiene muy poco que ver con el azar. Aunque parecen evolucionar de forma aleatoria y errática, estos sistemas tienen -en realidad- un cierto orden interno subyacente. Por eso, aun cuando son impredecibles, también son determinables. Esto significa que su estado futuro está determinado por su estado actual y obedece estrictas leyes naturales de evolución dinámica (en forma de complicadas ecuaciones diferenciales no lineales). Pero estos sistemas son tan irregulares que jamás repiten su comportamiento pasado, ni siquiera de manera aproximada. Por ejemplo, y aún cuando se conozcan con gran precisión las ecuaciones meteorológicas y se puedan medir las variables críticas (temperatura, humedad, presión, masa y velocidad del viento), es muy difícil predecir con exactitud las variaciones climáticas más allá de un cierto tiempo posterior. Otros sistemas caóticos lo constituyen los fluidos en régimen turbulento, la dinámica de la atmósfera, las reacciones químicas, la propagación de enfermedades infecciosas, los procesos metabólicos de las células, el mercado financiero mundial, los movimientos de grupos animales (cardúmenes o enjambres), la aparición aperiódica de epidemias, la arritmia del corazón, la red neuronal del cerebro humano, etc.

El caos parece formar parte de la estructura misma de la materia y está muy ligado a los fenómenos de auto-organización, ya que el sistema puede saltar espontánea y recurrentemente desde un estado hacia otro de mayor complejidad y organización. Un ejemplo típico es el agua que se desliza a través de una canilla en un goteo desordenado y, súbitamente, forma un chorro ordenado. Estos sistemas se caracterizan por su flexibilidad y adaptación (y, en consecuencia, por su estabilidad), lo cual les permite enfrentar las condiciones cambiantes e impredecibles del entorno. Operan bajo una extensa gama de condiciones, ya que parecen estar formados por una compleja estructura de muchos estados ordenados, aunque normalmente ninguno de ellos se impone sobre los demás (a diferencia de un sistema ordenado, que presenta un único comportamiento). Por lo tanto, se puede controlar su evolución con ínfimas correcciones, a fin de forzar la repetición de ciertas trayectorias. En otras palabras, si se los perturba adecuadamente, se los puede obligar a que tome uno de los muchos posibles comportamientos ordenados.

Fractales y naturaleza
La teoría del caos estudia la evolución dinámica de ciertas magnitudes. Al representar geométricamente el conjunto de sus soluciones, aparecen modelos o patrones que los caracterizan. Existe un comportamiento caótico cuando dichos modelos -a lo largo de extensos períodos de tiempo- oscilan de forma irregular, aperiódica; parecen girar asintóticamente en las inmediaciones de ciertos valores, como si describieran órbitas alrededor de ellos. Estos valores se conocen con el nombre de "atractores caóticos", "atractores extraños" o, simplemente, "atractores" (debido a que parecen atraer las soluciones hacia ellos) y su particularidad es que presentan propiedades fractales.

Un "fractal" es una estructura geométrica que tiene dos características principales: la "auto-semejanza" y la "dimensión fraccionaria". La auto-semejanza significa que posee la misma estructura cualquiera sea la escala en que se la observa; es decir, a través de sucesivas amplificaciones (diferentes cambios de escala) se repite su forma fundamental (conserva el mismo aspecto). Por otro lado, la dimensión fraccionaria mide el grado de irregularidad o de fragmentación de un objeto: una dimensión entre 1 y 2 significa que se comparten las propiedades de una recta y de un plano. No obstante, la fractal no tiene el mismo significado que las dimensiones del tradicional espacio euclidiano: fractales con dimensiones enteras (1 y 2), no se parecen en nada a una línea o a un plano, respectivamente.

En general, las formas encontradas en la naturaleza son ejemplos de fractales: vasos sanguíneos y sus capilares, árboles, vegetales, nubes, montañas, grietas tectónicas, franjas costeras, cauces de ríos, turbulencias de las aguas, copos de nieve, y una gran cantidad de otros objetos difíciles de describir por la geometría convencional. Como se puede apreciar, se trata de formas en perpetuo crecimiento. Por eso, cuando se observa una imagen o una fotografía de un fractal, se lo está viendo en un determinado instante de tiempo, congelado en una etapa precisa de su desarrollo. Y es justamente este concepto de proceso natural de crecimiento o de desarrollo lo que vincula a los fractales con la naturaleza.

Una estructura fractal es aquella que se genera por la repetición incansable de un proceso bien especificado (o sea, está gobernado por reglas determinísticas). Así, la naturaleza es capaz de crear eficazmente infinidad de formas -con diferentes grados de complejidad- únicamente reiterando innumerablemente el mismo proceso. E ínfimas modificaciones en las condiciones iniciales o en los parámetros de ese proceso pueden provocar imprevisibles cambios finales. Es por eso que la mayoría de los procesos caóticos originan estructuras fractales. Y es por eso, también, que muchos fenómenos naturales aparentan tener una enorme complejidad, aunque -en realidad- poseen la misma regularidad geométrica (concepto de auto-semejanza). Sólo así se explica que existan 6.000 millones de seres humanos diferentes, a pesar de que el proceso de gestación sea idéntico, y que una mínima diferencia en el código genético de chimpancés y humanos haya engendrado especies tan distintas. Este proceso también puede esclarecer, en buena medida, cómo la escasa información contenida en una célula germinal es capaz de originar seres tan increíblemente complejos.

El desarrollo de un sistema se verifica al pasar de un estado más general y homogéneo (indiferenciado) a otro más especial y heterogéneo (diferenciado). Esta transición se da gracias a la "especialización" y a la "división del trabajo": progresivamente algunos elementos se encargan de acciones específicas, al tiempo que se observa una subordinación a elementos dominantes (llamadas, a veces, "partes conductoras"). De esta forma, se instala en el sistema un "orden jerárquico" de partes o procesos. Este principio de diferenciación es muy frecuente tanto en biología como en psicología y, aun, en sociología. En el desarrollo embrionario, por ejemplo, las células se van agrupando y subordinando a los llamados "organizadores". En el cerebro también se comprueba una superposición de "estratos neuronales" que adoptan el papel de partes conductoras. Algo similar ocurre en el comportamiento social: para poder diferenciarse, un conjunto de personas debe agruparse alrededor de uno o varios líderes.

Redes complejas
Muchos sistemas biológicos, sociales o de comunicación se pueden describir adecuadamente a través de redes complejas cuyos nodos representan individuos u organizaciones, y los enlaces simbolizan las interacciones entre ellos. Una clase importante de redes son aquellas que cumplen con las reglas de un "mundo pequeño", cuya topología exhibe dos rasgos esenciales: todo nodo está fuertemente conectado con muchos de sus vecinos pero débilmente con algunos pocos elementos alejados (fenómeno conocido como apiñamiento, agrupamiento o "clustering") y todo nodo puede conectar a cualquier otro con sólo unos cuantos saltos (en otras palabras, existe una pequeña "distancia" entre ellos) . Esto implica dos cosas: que la información se transfiere muy rápidamente entre dos elementos cualquiera, y que existe un pequeño número de nodos claves por donde circula un gran porcentaje del tráfico total. Son redes de mundo pequeño las conexiones neuronales en algunos gusanos, el patrón de difusión de una epidemia, la estructura de una red de transmisión eléctrica, la navegación a través Internet, las proteínas en una célula humana, los patrones lingüísticos, las redes de colaboración social, las relaciones entre especies de un ecosistema, etc.

Muchas de estas redes de mundo pequeño son también "redes independientes de la escala" (scale-free networks), que se caracterizan por un escaso número de nodos con muchos enlaces (denominados "concentradores" o "hubs") y una enorme cantidad de nodos con muy pocas conexiones . Este tipo de estructura explica por qué algunas redes son generalmente muy estables y robustas (frente a posibles errores aleatorios), pero muy propensas a ocasionales colapsos catastróficos (por posibles ataques maliciosos). En efecto, si se elimina una gran fracción de nodos al azar, la red todavía es capaz de funcionar con normalidad; pero si se quita alguno de los concentradores, el sistema puede sufrir una hecatombe. Es lo que ocurre, por ejemplo, cuando fallece o desaparece el líder de un partido político o de un equipo de fútbol. Esta topología también es capaz de explicar la gran capacidad de crecimiento de estas redes y por qué algo insignificante puede transformarse en un fenómeno de colosales proporciones si encuentra el camino adecuado.

Ahora bien, ¿cómo surge este tipo de orden? Aparentemente, estas redes siguen el mismo patrón de auto-organización de los sistemas complejos: los nuevos nodos agregados tienden a formar conexiones con aquellos que ya están bien conectados (las partes conductoras mencionadas en el apartado anterior). En otras palabras, los nodos no se conectan entre sí al azar, sino que se agrupan o apiñan en torno a los hubs, los nodos más atractivos. Por ejemplo, los nuevos artículos científicos citan a otros ya bien establecidos y las nuevas páginas web se conectan a los buscadores más conocidos. De allí que los hubs también parecen ser los responsables de mantener la cohesión de este tipo de redes e, incluso, de permitirle evolucionar, ya que pequeñas perturbaciones en ellos pueden ocasionar cambios en el funcionamiento de la red. Asimismo, algunos investigadores especulan -es necesario aclarar- que los sistemas naturales evolucionan hacia redes de mundo pequeño, porque tienen una elevada tolerancia a las fallas (la conexión de cualquier pareja de nodos puede establecerse a través de varios caminos alternativos), y hacia redes independientes de la escala, porque utiliza más eficientemente los recursos que las redes aleatorias (resuelve adecuadamente el conflicto entre las necesidades de bajo costo y alto rendimiento).

Aun cuando su funcionamiento puede ser muy diferente entre una red y otra, el hecho de que compartan la misma topología permitiría estudiar las más complejas a partir de las más simples. Así, por ejemplo, si las redes neuronal y genética pertenecieran a la misma categoría genérica, los científicos podrían aprender mucho más sobre el sistema nervioso escudriñando el sistema genético, el cual es relativamente más sencillo. Pero también, quizás, se podrían responder algunas preguntas de difícil respuesta: ¿cuánto depende el funcionamiento de una red de su topología?, ¿cómo mejorar la confiabilidad de estas redes?, ¿cómo diseñar redes que evolucionen de manera estable?

Inteligencia de enjambre
El comportamiento complejo, que un observador podría considerar intencional, puede ser -de hecho- el resultado de las numerosas interconexiones que se establecen entre una enorme cantidad de entidades individuales. Por ejemplo, considerada aisladamente una hormiga es una criatura sumamente tonta, estúpida, capaz únicamente de ejecutar -aunque de forma fiel y obstinada- un pequeño conjunto de rutinas innatas, pero condicionada por el entorno circundante. No obstante, tomadas en grupo, son capaces de erigir sociedades complejas con sofisticadas actividades como agricultura, ganadería, arquitectura, ingeniería e, incluso, prácticas de esclavitud. De esta forma, podría considerarse al hormiguero como un macroorganismo, que presenta un comportamiento global inteligente. Es decir, nadie planifica, nadie ordena ni controla, pero surge un comportamiento colectivo -quizás instintivo- o una necesidad que las "obliga" a trabajar juntas persiguiendo un fin común.

Utilizando como ejemplo la conducta social de los insectos, modernamente los investigadores en ciencias de la computación desarrollaron algoritmos muy útiles para resolver algunos problemas prácticos muy complicados; un enfoque conocido como "inteligencia de enjambre". En este caso, las hormigas artificiales son agentes de software que se simulan en una computadora. Una aplicación interesante de esta técnica es la de encontrar el camino más corto para establecer las rutas en Internet; en otras palabras, cómo encaminar eficientemente los mensajes entre los nodos de la red (los routers). Vale la pena aclarar que resolver este problema se torna actualmente muy importante, ya que cuanto mayor es el "tráfico" de los paquetes de datos, mayor es el costo de la conexión a Internet (ya que se incrementa el tiempo para pasar de un nodo a otro).

El algoritmo de búsqueda funciona de la siguiente manera. Cada hormiga virtual -de un conjunto enormemente grande de ellas- sale en busca de "alimento" alrededor de su "hormiguero" (el punto de partida), de una forma más o menos al azar. Entonces, cada insecto "marca" el camino realizado con una "feromona" (la cual guarda una cierta relación con la "longitud" o distancia recorrida) que otras pueden seguir. Dado que la feromona se "evapora" con el tiempo, las "buenas" rutas (las más cortas) se hacen más atractivas que las "malas" para el resto de las hormigas, con lo cual se intensifica cada vez más el rastro de feromonas en esa ruta. Al final del proceso, lo habitual es que se seleccione el rastro más fuerte, que justamente es la ruta más corta entre el punto de partida y el punto de llegada. Lo interesante de esta técnica es que las hormigas pueden adaptarse al entorno: dado que éste es dinámico, es posible que surjan determinadas complicaciones, como el bloqueo o la congestión en las rutas. Debido a que la concentración de feromonas se mantiene durante un cierto tiempo y a que exploran sin cesar nuevos trayectos, las hormigas establecen instintivamente rutas alternativas, con lo cual siempre están preparadas para responder a los cambios del entorno.

Otros usos de esta técnica son en el análisis de datos financieros, en la resolución de problemas de producción industrial y en la búsqueda de páginas interesantes por la web. Sin duda, a medida que transcurra el tiempo, seguirán apareciendo más aplicaciones prácticas de la inteligencia de enjambre. Si la computación ubicua forzará a que todos los objetos tengan incrustado un chip (desde las alhajas hasta los muebles, pasando por los artículos de librería y los electrodomésticos), será necesario desarrollar algoritmos de control que permitan la comunicación eficaz y eficiente de todos estos desperdigados pedazos microscópicos de silicio.


http://www.redcientifica.com/aut...

No hay comentarios:

Publicar un comentario