viernes, 31 de octubre de 2008

LA TEORÍA DE LA COMPLEJIDAD
Los procesos causales no lineales producen un comportamiento no determinista.
Comienza a ser frecuente encontrar en la prensa o en publicaciones de tipo divulgativo referencias a la teoría de la complejidad, también llamada teoría del caos. Con motivo de las celebraciones conmemorativas de nuestro X aniversario, Telefónica I+D ha recibido la visita del ilustre profesor y premio Nobel Dr. Murray Gell-Mann, que impartió una conferencia muy interesante el pasado 5 de junio en el auditorio de Telefónica. En ella, el autor del Quark y el jaguar nos introdujo con mayor rigor en este nuevo concepto. Uno de sus comentarios más críticos fue la intolerable tergiversación de conceptos que, en ocasiones, hacen de esta teoría un mundo de ficción y de especulación, no sólo en el entorno de las personas corrientes, sino también en los círculos de prestigiosos científicos.
El objetivo de este artículo es presentar los conceptos esenciales de esta teoría, por medio de aspectos que podemos observar en la naturaleza que nos rodea, tratando de huir, en todo momento, de especulaciones que pueden conducir a planteamientos irreales. El estado de desarrollo de la teoría de la complejidad es incipiente. Sus bases se encuentran aún en estado de definición, por lo que los conceptos que presento son un intento de ordenación, a partir de las tendencias de diferentes autores, entre los cuales existen desavenencias importantes, por no decir un enfrentamiento que, en algunos casos, parece personal.
La complejidad a lo largo de la historia
La física ha sido una ciencia con un enorme éxito en definir modelos formales que permiten comprender el comportamiento físico de la naturaleza y, consiguientemente, el desarrollo de las tecnologías que han modificado la sociedad y el pensamiento humano, de forma profunda. En este desarrollo, ha estado siempre presente el principio de causalidad: las mismas causas producen siempre los mismos efectos. Esto ha llevado al pensamiento filosófico de que dadas unas condiciones de contorno de un sistema es posible determinar la evolución futura de éste.
En general, los modelos físicos se basan en unas leyes simples que encierran y explican, de forma global, un determinado comportamiento de la naturaleza.
Sin embargo, estos principios no han tenido éxito en otras áreas del conocimiento. De hecho, alguna de ellas parecen contradecirlos. Nuestra propia naturaleza nos muestra una constante incertidumbre sobre el futuro. La biología, psicología, sociología, etc. encuentran, con frecuencia, dificultades para explicar los procesos que estudian, a partir de los elementos componentes. Todo ello ha conducido a un cierto comportamiento psicológico dentro del mundo científico, definido como envidia de la física.
Esto incluso ha llevado a la disociación de la sociedad en dos partes, conocidas como las dos culturas; en nuestro argot cotidiano, los de ciencias y los de letras. Este patrón se repite sistemáticamente en las diferentes culturas conocidas, a pesar de sus enormes diferencias en otros terrenos.
Sin embargo, a lo largo de la historia, la física se ha enfrentado con éxito a la dificultad de explicar los procesos físicos naturales, si bien en muchos de ellos ha quedado un poso de frustración personal que, en general, ha permanecido diluido por el propio éxito del modelo y por los poderes fácticos de la ciencia.
Un ejemplo significativo es el caso de Maxwell, que dio forma definitiva a las ecuaciones de los campos electromagnéticos que llevan su nombre y que son un claro exponente de determinismo. Sin embargo, Maxwell, que fue contemporáneo Boltzmann, era un profundo conocedor de los problemas planteados por la termodinámica. De hecho, fue el primero en afirmar que el segundo principio es de naturaleza estadística y el creador de los "demonios" termodinámicos. Esto, y la dificultad de comprender la enorme complejidad que le rodeaba, le llevó a afirmar "la verdadera lógica de este mundo es el cálculo de probabilidades".
A finales del siglo XIX, Poincaré estudió el movimiento de los planetas en un entorno complejo y concluyó que "puede ocurrir que pequeñas diferencias en las condiciones iniciales produzcan otras muy grandes en el fenómeno final; un pequeño error al comienzo produce un error enorme al final; la predicción es imposible". Como sabemos, el movimiento de un planeta sometido a una fuerza central del tipo 1/d2 es una cónica. Sin embargo, cuando el escenario está formado por múltiples cuerpos que interaccionan entre sí, el comportamiento es fuertemente no lineal y, por tanto, imprevisible. Esto hace que las condiciones para formar sistemas orbitales estables, como sistemas planetarios y galaxias, deban cumplir unas condiciones de formación muy restrictivas, tales como explosiones o desgarramientos de un núcleo primigenio con un momento cinético inicial.
El propio Poincaré demostró de forma concluyente que ciertos sistemas mecánicos pueden desarrollar un comportamiento caótico, lo que le llevó a afirmar que "el determinismo es una fantasía de Laplace". Un ejemplo es el péndulo compuesto. La base de esta demostración es la aparición de términos no lineales para desplazamientos infinitesimales en las ecuaciones de la dinámica del movimiento. Este comportamiento despertó en la época cierta expectación, pero quedó reducido a una mera curiosidad, sin interés científico.
En general, el comportamiento no determinista de los sistemas se debe a una naturaleza no lineal de las leyes que lo controlan. Un ejemplo son las ecuaciones de la dinámica de fluidos conocidas con el nombre de Navier-Stokes. A lo largo de los siglos XVIII y XIX, el avance de la física y las matemáticas se fundamentó principalmente en el estudio de sistemas lineales, ya que tienen un tratamiento relativamente sencillo y conducen a resultados predecibles, a partir de unas condiciones iniciales. Los mayores exponentes de este desarrollo fueron Laplace y Fourier. Una excepción son las ecuaciones mencionadas, que fueron inicialmente propuestas por Euler para fluidos no viscosos y completadas por Navier y Stokes para fluidos viscosos. En éstas aparecen términos no lineales correspondientes a los productos de las velocidades y a las derivadas de las velocidades. ¿El resultado? No hay más que observar un torrente, para apreciar el movimiento imprevisible de las moléculas. Un ejemplo similar es la dinámica de sistemas mecánicos con rozamiento.
Lo verdaderamente significativo es que, a pesar de estas evidencias, la ciencia ha seguido los principios de causalidad y determinismo como un principio fundamental. La justificación está en la dificultad de resolución de las ecuaciones diferenciales no lineales y en las limitaciones de cálculo numérico de la época. En definitiva, el método más adecuado ha sido simplificar estas ecuaciones linealizándolas y resolviendo casos sencillos. La aplicación de estos resultados a la ingeniería ha sido espectacular. El no determinismo de los procesos naturales ha quedado oculto a la ciencia. El resto ha sido obra del principio de parsimonia aplicado sistemáticamente en el desarrollo científico, que consiste en consolidar un modelo siempre que éste recoja el comportamiento de un fenómeno.
Esto no significa que los científicos de esa época no fueran sensibles a estos fenómenos, como se pone claramente de manifiesto en los casos de Boltzmann y de Planck. Lo que ocurre es que los conceptos tardan en madurar, hasta que se consolidan como modelos fiables de la realidad. Los comportamientos no cubiertos por los modelos quedan pendientes para sucesivos desarrollos. En definitiva, el éxito de los modelos físicos ha sido siempre parcial. De hecho uno de los objetivos perseguidos durante las últimas décadas ha sido la definición de un campo unificado que integre los cuatro tipos de fuerzas conocidos: gravedad, electromagnetismo, débiles y fuertes, y que actualmente logran integrar las tres últimas.
A mediados del siglo XIX, Boltzmann estableció las bases teóricas de la física estadística. Para ello, definió el concepto de probabilidad termodinámica, en el que, por primera vez, se describe un sistema por la probabilidad de encontrase en un determinado estado en cada instante, en contraposición con la concepción clásica, en la que el estado de un sistema está definido para cada instante de forma determinista. Así, el estado de un gas ideal compuesto por N partículas sin estructura y con una energía total fija estará determinado por la energía de cada partícula en cada instante. Utilizando el cálculo combinatorio, podemos calcular la probabilidad de cada uno de los posibles estados y, en general, la distribución de probabilidades del estado del sistema.
La conclusión a la que llegó Boltzmann es que la entropía del sistema, definida por el segundo principio de termodinámica, es una consecuencia directa de la distribución de probabilidades del estado del sistema, de tal forma que el estado más probable es aquel que tiene una entropía mayor. Con esto quedó demostrado formalmente un principio definido con anterioridad de forma empírica, que establece que la dinámica de un sistema de partículas sin estructura tiende hacia un estado en el que la entropía es máxima y en el que la temperatura de las partículas es homogénea y, por tanto, incapaz de realizar ningún trabajo. Este razonamiento conduce al pronóstico de la muerte térmica del universo.
Boltzmann sabía que la ley del crecimiento de la entropía no es una ley absoluta. Al aproximarse al equilibrio, el aumento de entropía no es un hecho forzoso, sino el más probable. En cualquier caso, el éxito de esta ley radica en que define un comportamiento macroscópico determinista, a partir de un proceso microscópico caótico. Esto fue lo que, en definitiva, arraigó como cuerpo de doctrina.
Con el nacimiento de este siglo, Planck calculó la entropía de un oscilador lineal, por dos procedimientos distintos: de acuerdo con la definición termodinámica de la entropía y por un procedimiento estadístico similar al utilizado por Boltzmann. En el segundo, Planck realizó un postulado cuántico, que supone que la energía total radiada por los osciladores está formada por elementos finitos e. La comparación de los procedimientos condujo a la famosa ecuación e= hn, que marcó el principio de la teoría cuántica. Éste es un ejemplo de cómo un proceso estocástico microscópico conduce a resultados deterministas a escala macroscópica.
La mecánica estadística y, sobre todo, la mecánica cuántica introducen el concepto de probabilidad, por lo que, de alguna manera, se reconoce que los procesos físicos están controlados por el azar. Lo más chocante es que este control determina efectos macroscópicos de primer orden. Esto choca frontalmente con el concepto de procesos deterministas.
Este hecho siempre ha captado la curiosidad de los creadores de los modelos, pero el éxito del modelo y el poder establecido han dejado a ésta en un segundo plano. Esto es comprensible si se considera que estos procesos estocásticos han conducido a formulaciones deterministas. Entre otros, la ecuación de la entropía, la explicación de la ley de radiación del cuerpo negro, etc.
Sin embargo, a medida que la teoría cuántica avanzó a principios de este siglo, el hecho estocástico se fue haciendo más patente, lo que ha supuesto un fuerte cambio de mentalidad. Un ejemplo de ello fue la posición de Einstein frente a la teoría cuántica. Era un determinista profundo que, al principio, participó en el desarrollo del concepto cuántico. Debemos recordar que le fue concedido el premio Nobel por la propuesta del cuanto de luz, a partir de un razonamiento puramente teórico y determinista, por medio del análisis de la ley de los gases perfectos y que fue corroborada experimentalmente años después. Es importante destacar que en su razonamiento no existe vestigio alguno del azar.
A lo largo de los años, desarrolló una actitud crítica hacia la teoría cuántica, ya que consideraba que la estadística era un juego que enmascaraba la incapacidad de definir los verdaderos procesos deterministas que encerraba la materia. Einstein trabajó siempre en esta línea, tratando de encontrar las leyes del campo unificado. Definía su postura con comentarios como "Dios no juega a los dados" o "cuanto más éxito tiene la teoría cuántica, más tonta parece".
La teoría de la complejidad
La teoría de la complejidad se basa en el principio: Los procesos causales no lineales producen un comportamiento no determinista.
La teoría de la complejidad comienza a tomar cuerpo, a partir de los trabajos de Edward Lorenz sobre predicción del clima a largo plazo. Para ello, definió un sistema de ecuaciones diferenciales ordinarias no lineales que son una simplificación de las ecuaciones en derivadas parciales de la convección de fluidos.
El resultado de la resolución de estas ecuaciones mostraba un movimiento muy complejo de las partículas del fluido y una extraordinaria sensibilidad de las predicciones a las condiciones iniciales, a medida que aumentaba el periodo de predicción. Lo definió como el efecto mariposa. Una mariposa volando en un extremo del planeta modifica, a largo plazo, el pronóstico del tiempo atmosférico (no del clima) en el otro extremo.
Esto ha hecho que la teoría de la complejidad se asocie vulgarmente al efecto mariposa, o que se la defina como la sensibilidad de la dinámica a las condiciones iniciales. Pero no debe entenderse así, ya que no es más que una consecuencia de un principio fundamental. Se conoce también a la teoría de la complejidad como teoría del caos, debido a que el análisis de los comportamientos no deterministas nos inspira una situación de caos. Sin embargo, es un concepto equívoco, ya que caos significa desorden, y el comportamiento de un sistema y, en general, del universo es un orden complejo; es decir, existen leyes de ordenación que hacen que el comportamiento sea complejo.
La clasificación de simple o complejo es subjetiva y la frontera se encuentra entre lo que sabemos resolver y lo que no sabemos resolver. En este contexto, complejo significa fuera del conocimiento convencional, o sea, no determinista. Esto choca con nuestra percepción matemática, educada con unos criterios tradicionales. Dada una ley causal, la obtención de resultados sólo requiere ir dando valores a las variables y, si la precisión no es suficiente, aumentamos el número de decimales. Pero esto no es así necesariamente.
Existen funciones con puntos singulares. Cuando vamos a calcular el valor de la función en el punto, nos encontramos con que, a medida que aumentamos el número de decimales, el valor de la función cambia de forma significativa, y no existe correlación entre la precisión del cálculo y el resultado. En este caso, afirmamos que la función no tiene límite. En ocasiones, todos los puntos de la función son singulares, por lo que su resultado no se puede determinar en ningún caso. Es fácil poner de manifiesto este comportamiento. Un ejemplo sencillo es la sucesión xn+1=2.xn mod 1. Si expresamos xn en base 2, esta función nos da la parte fraccionaria resultante de desplazar la coma una posición hacia la derecha. En la figura podemos apreciar que el resultado de xn+1 es, a largo plazo, imprevisible y que, para dos valores iniciales, x0 y x0' próximos, la función diverge. ¿Las causas? La complejidad infinita de los números reales.
Este comportamiento tiene un sentido físico concreto. A medida que nos movemos sobre los puntos de la función, encontramos un universo variado y de complejidad sin límites, similar a lo que ocurre a nuestro alrededor. Podemos tener la misma percepción, cuando nos sumergimos en el interior de la materia o cuando observamos con una dimensión cosmológica. Este comportamiento se hace patente cuando utilizamos el ordenador, en simulaciones, representación de fractales, en la creación de arte electrónico, etc. De hecho, el ordenador ha contribuido de forma notable a la percepción de la teoría de la complejidad, aunque también a su deformación.
El caso del gas de partículas de Boltzmann nos permite entender esta nueva concepción de la realidad. Imaginemos dos recintos idénticos que encierran el mismo número de partículas y con las mismas condiciones iniciales, excepto que una de las partículas de uno de los recintos tiene unas condiciones iniciales algo diferentes.
Al analizar la dinámica de los dos sistemas, observamos que sus estados siguen exactamente la misma trayectoria, hasta que la partícula en cuestión realiza un choque diferente a su homóloga del otro recinto. En ese instante, la dinámica del estado de los dos sistemas comenzará a diferenciarse notablemente, ya que el acontecimiento de choque mencionado desencadenará una avalancha acumulativa de choques diferentes. A largo plazo, el estado del gas en los dos recintos es completamente diferente.
Lo chocante es que, desde un punto de vista macroscópico, no se producen cambios que puedan ser medidos. Podemos hacer que las condiciones iniciales de uno de los recintos se aproximen a las del otro, tanto como queramos, lo cual no modificará la divergencia de sus estados, ya que, a largo plazo, siempre existirán choques diferentes. En la aproximación al límite, habrá un periodo inicial cada vez mayor en que los estados de los dos sistemas serán iguales, pero, a partir del primer choque diferente, los estados tomarán trayectorias distintas.
Causas y consecuencias de la teoría de la complejidad
Todos los procesos lineales poseen un comportamiento determinista. Entonces ¿qué tipo de procesos causales tienen un comportamiento no determinista? En general, todos los procesos cuya ecuación de la dinámica es no lineal. ¿Porqué? Porque el estado, en un instante determinado, depende de absolutamente todos los estados previos, ya que la no linealidad lleva implícita la recursividad. Sin embargo, no está tan claro de qué depende el grado de complejidad exhibido por el proceso. Podríamos decir que cuanto mayor es la no linealidad y el número de variables del proceso, pero esto no es necesariamente cierto.
El no determinismo de los procesos causales conduce a la dificultad de predecir el estado de un sistema, a largo plazo. Esto está en consonancia con nuestra percepción de la realidad cotidiana y depende de la complejidad encerrada por los procesos que controlan el sistema. Desgraciadamente, el desarrollo de la matemática no lineal es muy escaso, por lo que no existen aún criterios generales que nos permitan evaluar la complejidad de un sistema.
En general, la dinámica de un sistema no determinista es muy dependiente de las condiciones iniciales. Existen zonas en que la dinámica del estado presenta una gran complejidad, mientras que en otras son de gran estabilidad. Es como el desarrollo de una sociedad, que en ocasiones pasa por momentos de cambios profundos, mientras que en otras muestra una enorme monotonía; y muchas veces sin motivos claramente definidos.
Una de las consecuencias fundamentales del no determinismo de los sistemas causales es la imposibilidad de conocer con exactitud el desarrollo futuro de los sistemas. Sin embargo, es posible determinar o pronosticar aspectos macroscópicos o globales.
Volviendo al gas de partículas de Boltzmann, es imposible determinar la dinámica de estados del sistema sobre la base del estado de cada una de las partículas. Sin embargo, se puede establecer un modelo macroscópico determinista, en función de variables globales: presión, volumen y temperatura, cuya dinámica representa el comportamiento global del sistema. Estas variables están relacionadas, a su vez, con el balance energético del sistema y con su grado de ordenación: energía interna, trabajo, entropía y función de estado H.
Este ejemplo pone de manifiesto otra de las consecuencias de la teoría de la complejidad. Los sistemas complejos pueden ser modelados por otros más simples y deterministas, pero éstos son irreductibles. Esto significa que el modelo global permite predecir el comportamiento macroscópico del sistema, pero no hacer ninguna valoración de la realidad que lo sustenta.
Éste es el pilar del desarrollo de las ciencias clásicas. El ejemplo termodinámico anterior es un claro exponente. Se pueden exponer innumerables casos: el modelo de gravedad de Newton, el concepto de sólido rígido, etc. y no queda reducido a la física, sino que es extensible a todas las ciencias. En el campo de la psicología y la sociología, encontramos modelos abstractos que nada tienen que ver con la realidad física del cerebro o del ser humano y que, sin embargo, permiten explicar ciertos comportamientos.
Una nueva visión de la naturaleza
La acumulación de conocimiento, que puede ser paulatina, permite en ciertos momentos dar un gran salto en la visión del universo en el que estamos inmersos. La teoría de la complejidad es uno de estos acontecimientos.
Esta teoría nos enseña que no existe nada fundamentalmente distinto en los diferentes estratos en que hemos organizado la estructura de la naturaleza, física, biología, sociología, etc. La disociación de culturas, ciencias, letras, determinismo e inprevisibilidad no son más que visiones subjetivas de una misma naturaleza.
El problema es desarrollar leyes y modelos de comportamiento que nos permitan analizar con mayor rigor esta realidad esquiva. Dado el estado de desarrollo y la magnitud del problema, se pronostica una ocupación intensiva para científicos y matemáticos durante el próximo siglo. El proceso ya ha comenzado. A aquellos que hayan detestado la química, por considerarla un conjunto de recetas sin fundamento, les animo a que indaguen en una visión moderna, que, desgraciadamente, no está aún en la enseñanza normalizada. Lo mismo ocurre con la biología molecular y otras áreas de conocimiento, que probablemente seguirán un camino similar al desarrollo habido en la física.
¿Imagináis la economía y la biología utilizando las herramientas más sofisticadas jamás creadas por el ser humano?
La teoría de la complejidad va a constituir uno de los acontecimientos más importantes e impactantes del próximo siglo. Pero no nos hagamos ilusiones. Gutenberg inventó la imprenta hace mucho tiempo y sus efectos no han llegado, de forma definitiva, al conjunto de la sociedad. Además, existen visiones simplistas y sin fundamento. Así, no es extraño ver cómo se hacen comparaciones entre histogramas de los biorritmos y las fluctuaciones de los índices bursátiles, con la pretensión de sacar parecidos y, en consecuencia, conclusiones substanciales. Efectivamente, se parecen en algo: las dos son complejas, pero probablemente no tengan nada más en común.
La teoría del caos permite ofrecer una visión original de principios físicos relacionados con la estructura de modelos micróscópicos y macroscópicos y su irreductibilidad, como el 2º principio de la termodinámica o el principio de indeterminación de Heisenberg, pero este análisis lo contaremos en otra ocasión.

No hay comentarios:

Publicar un comentario en la entrada