COMPLEJIDAD, SENCILLEZ Y EXACTITUD

RESUMEN

La actual investigación en complejidad nos insta a reexaminar el ideal de simplicidad que inspira a la razón científica moderna (y su ejemplo paradigmático, la física clásica). Este artículo pretende aportar algunas reflexiones sobre el redescubrimiento en nuestro tiempo de la idea de complejidad, articuladas sobre dos motivos principales y relacionados entre sí. Por una parte, mostrar que la causa de esa obligada revisión es el simplismo de la imagen del mundo en el que ese ideal de simplicidad ha degenerado al tomar como representativos modelos que en realidad son excepcionales. Por otra parte, que la atención que ha suscitado en el presente la idea de complejidad apunta a la necesidad de conjugar el ideal de simplicidad con el de exactitud o precisión.

I

Aunque sea cierto que la filosofía no se distingue por los asuntos de que trata sino por la manera de tratarlos -al igual que el arte del toreo no reside en el toro sino en la manera de torearlo- no es menos cierto que hay algunos asuntos más apropiados al lucimiento de la faena filosófica que otros. Así ocurre con el tema de la complejidad. La inseminación filosófica de este concepto clave de la ciencia contemporánea permite alumbrar de manera novedosa los viejos temas del cambio y de la relación de los todos con sus partes, apartándose tanto del reduccionismo fisicalista como de las ensoñaciones holísticas de la metafísica, formas simétricas ambas de pensamiento simple que el pensamiento complejo pretenderá derogar.

Para empezar, se trata de un concepto que reclama en su definición la relación a su contrario, como por otra parte nos atestigua su origen etimológico. "Simplicidad" y "complejidad" son términos que poseen la misma raíz. Limitándonos a su significado literal, lo complejo es lo trenzado o entrelazado, mientras que lo simple es "lo plegado una vez". Resulta curioso comprobar una misteriosa afinidad entre este sentido etimológico del término "complejo" y las representaciones geométricas de la dinámica caótica generadora de estructuras complejas. Esta dinámica obedece al principio de "estirar y doblar" aplicado en iteraciones sucesivas. Se obtiene así una estructura de infinitas capas superpuestas o una curva infinitamente convolucionada (la "transformación del panadero" de Prigogine, la "herradura" de Smale o los "atractores extraños" de Hénon o Lorenz) en la que el movimiento de un punto cualquiera a través de la serie de pliegues pronto muestra un comportamiento aleatorio o impredecible(1). Se trata de la representación geométrica del objeto complejo, nacida del maridaje fecundo entre lo simple -una pauta regular discernible- y lo complejo (la complejidad aquí entendida como aleatoriedad, en el sentido del alto contenido de información algorítmica de Chaitin y Kolmogorov).

Siguiendo la pista etimológica, la diferencia principal, que a su vez revela la correlación entre ambos conceptos, debe entenderse así: si lo simple se reduce a la suma de sus partes, lo complejo es lo que abarca o enlaza, incorporando el significado de conjunto o ensambladura, no reducible a una mera adición de sus componentes.

El problema central, según parece, es pues el de la relación del todo con sus partes. El objeto complejo, a diferencia del simple, es aquel cuyo todo es más que la suma de sus partes. La estrategia moderna de la Razón científica ilustrada, plasmada de modo ejemplar en la física clásica, está imbuida por el amor a lo simple y consiste en simplificar lo complejo, en entender el todo desde sus partes (lo cual hace imposible no comprenderla como una epistemología reduccionista). El método aplicado para llevar a cabo esta simplificación es la linealización. La linealidad es una propiedad matemática que se deriva del instrumento formal más potente con el que cuenta la física clásica: las ecuaciones diferenciales. Una ecuación es lineal si la suma de sus distintas soluciones es también una solución. Podemos generalizar: el régimen de la linealidad es aquel en el que gobierna una ley de proporcionalidad entre causas y efectos, entre las partes y el todo. Una teoría lineal, por tanto, es la adecuada para darnos el todo desde las partes, es decir, para comprender sistemas simples, pero no así para aprehender el objeto complejo. La cuestión de cómo explicar un sistema que es más que la suma de sus partes deviene especialmente peliaguda cuando el único instrumento de explicación del que se dispone consiste precisamente en entender el todo desde las partes ("Si el único instrumento de que se dispone es un martillo, todo acaba pareciendo un clavo", Lofti Zadeh(2)). Pero podemos acotar una primera aproximación si adoptamos un punto de vista dinámico y nos preguntamos por cómo un sistema se convierte en algo más que la suma de sus partes. Respuesta: por la aparición de estructuras o propiedades impredecibles a partir de las leyes conocidas. Para utilizar el término más en boga: por la emergencia. Este fenómeno señala un severo límite a la operación de simplificar lo complejo (y al propósito reduccionista que lo acompaña), pues la aparición espontánea del orden complejo se sustrae a las trayectorias predecibles y reversibles calculadas mediante las herramientas de simplificación matemática al uso (sea en la física clásica, en la cuántica o la relativista).

El interés reciente y creciente por la complejidad como tema científico aparece al percatarnos del corto alcance del ideal matemático de simplicidad, de su impotencia para apresar la ley profunda y general del comportamiento natural, que es la no-linealidad; y de la necesidad, en consecuencia, de rebajar drásticamente las ambiciosas esperanzas del ideal científico ilustrado. La quiebra de este ideal supone que ya no puede mantenerse por más tiempo la confianza en que el dominio de la predecibilidad se extenderá progresivamente en consonancia con el crecimiento de la exactitud y precisión de nuestro conocimiento. El presupuesto ontológico que alentaba esta confianza, la idea de que la maquinaria del mundo es en el fondo simple, se ha visto seriamente menoscabado, y ello nos obliga a repensar el ideal epistemológico de la simplicidad, esto es, a reexaminar las relaciones entre las dos ideas antónimas de simplicidad y complejidad.

II

En realidad ocurre con ellas lo que con la mayor parte de conceptos (como "ser feliz" o "ser alto" o "ser rojo"), que pueden entenderse situados en un continuo que va desde su máxima expresión hasta la de su concepto contrario, por lo que su oposición puede ser más nítida o más difusa, pero siempre lo será en virtud de su mutua relación. Ahora bien, negar la separación entre lo simple y lo complejo no justifica afirmar su indistinción. Más bien sanciona un tipo de diferencia (digamos, inclusiva y no exclusiva) cuya tensión define la peculiaridad de una Razón que carga con la complejidad del mundo sin renunciar a la claridad en su explicación, y que sólo puede mantenerse evitando su degeneración en simplificación que todo lo falsifica o en intrincada confusión que nada aclara. Dicho de otro modo, el conocimiento racional no debe ser ni tan complejo (desordenado) como para disolverse en la ininteligibilidad, ni tan simple como para carecer de una mínima precisión o rigor. La necesaria implicación mutua entre ambos conceptos se evidencia a la luz de un principio epistemológico sobre el que nos ha llamado la atención en los últimos tiempos la lógica borrosa, y que en realidad es un principio de incertidumbre epistemológica: el de la incompatibilidad entre "precisión" y "significatividad (o pertinencia)". Tal como lo enuncia su fundador, Lofti Zadeh, "cuanto más de cerca se mira un problema del mundo real[digamos, a medida que aumenta la complejidad de un sistema], tanto más borrosa se vuelve su solución"(3). Es decir, el aumento del rigor o la exactitud -que acompaña la visión compleja de las cosas- tiene un coste que se paga en forma de claridad o sencillez(4). El desafío que nos lanza el actual descubrimiento de la complejidad es el de pagar ese precio de simplicidad para que nuestro conocimiento pueda ganar en extensión y profundidad(5).

De este principio de incertidumbre insuperable que arruina el optimismo de la razón científica ilustrada cabe deducir la siguiente norma epistemológica: maximización de la precisión (o exactitud) y optimización de la significatividad (o sencillez). Este ideal aceptará distintas concreciones según sea la elección epistemológica (el "punto de vista" o "perspectiva") de cada caso, pero ello no es óbice para que sirva como ideal regulador de la condición de validez de cada una de ellas, y en ello estriba su interés filosófico. Dicho de un modo más terminante: siendo, en principio, "lo complejo" un concepto definido a partir de su oposición al de "simple", y, por tanto, dirigido a precisar diferencias relevantes entre distintos sistemas (así se dice que la caída de una piedra es un fenómeno simple mientras que un ser vivo es complejo), mantiene no obstante continuamente abierta la discusión sobre la relevancia de las diferencias, por lo que su ejercicio -el ejercicio del pensamiento complejo- revela como ninguno la contradicción entre el ideal de sencillez y el de exactitud que anima y desanima la aventura del conocimiento científico que va de la perplejidad desorientadora a la respuesta provisional.

Al margen de las dudas más que razonables que puedan proyectarse sobre la actual investigación en complejidad, dudas que alcanzan a la misma existencia de una teoría de los sistemas complejos(6), el despertar de esta idea en los tiempos modernos puede ser una espléndida ocasión para acotar de nuevo el terreno de in medias res en el que se mueve el ejercicio de la filosofía, transitando el espacio entre las construcciones racionales complejas y sus fundamentos simples, en ese recorrido incesante de ida y vuelta -de análisis y síntesis- que define el carácter del pensamiento crítico, justamente equidistante del pensamiento dogmático -que puede ser interpretado como la derrota de la razón ante el poder de la simplicidad- y del escéptico, el cual puede ser entendido como la impotencia de la razón ante la complejidad inextricable del mundo.

III

La lección más concluyente que obtenemos después de unas pocas décadas de estudio de lo complejo (destaquemos la física de los estados del no equilibrio y la moderna teoría de los sistemas dinámicos, la teoría del caos, junto con la teoría matemática de la comunicación, pues estas son las disciplinas que más decisivamente han aportado las herramientas metodológicas y el vocabulario de la ciencia de la complejidad) es que la física clásica sacrifica sobremanera la exactitud de la imagen del mundo en aras a la sencillez de su descripción. Esta primacía absoluta del ideal de simplicidad (o sencillez) en detrimento del de exactitud (o precisión o rigor) no se cuestionó por el hecho de que amplios fragmentos de la realidad, como son los fenómenos típicamente complejos (biológicos, mentales y sociales) quedaran fuera del dominio de aplicaciones de la física clásica, como tampoco se invalida por mor de su incompetencia para la descripción de los fenómenos físicos a escala de lo infinitamente pequeño (para lo cual recurrimos a la mecánica cuántica) o de lo infinitamente grande (en cuyo caso confiamos en la Relatividad general). La alarma que llamó nuestra atención sobre la particular conjugación que de las ideas de simplicidad y complejidad acarreaba la "imagen científica del mundo" sonó al advertirse -a partir de la década de los sesenta- que los sistemas dinámicos que sirvieron de base al determinismo clásico representan tan sólo casos particulares -extremos y excepcionales- del comportamiento natural, cuya ley profunda y general es la no-linealidad, un régimen inmune a los artefactos de precisión y previsión de nuestra razón científica moderna.

En cualquier caso no se trata de subestimar el determinismo clásico de la física matemática. Nuestra actual cultura tecnológica de la comunicación (y también de la guerra) no habría sido posible sin ella. A fin de cuentas la mecánica newtoniana sirve para lo que sirve, como por ejemplo para mandar con éxito la nave "Mars Pathfinder" a Marte, lo que no es poco mérito. Pero no obstante, sabemos que la imagen del mundo en el que es aplicable con éxito esta teoría sólo puede producirse a costa de un drástico recorte de la realidad. El crecimiento de un copo de nieve o de un árbol, los flujos turbulentos, las presiones de gases, la propagación de impulsos nerviosos, los cambios climáticos, la organización,crecimiento y evolución de seres vivos, el ascenso y caída de civilizaciones o las oscilaciones de circuitos electrónicos son unos pocos ejemplos de dominios refractarios al cálculo matemático de la física clásica, aunque ésta nos permite, sin embargo, en otros, alcanzar la máxima exactitud con la máxima sencillez. Nos encontramos, por ejemplo, con la paradoja de que "es posible predecir un eclipse con siglos de anticipación y no, con un día de anticipación, si lo podremos ver o no (pues se puede interponer una nube)"(7). En realidad la paradoja sólo es aparente pues se trata de sistemas diferentes, en el sentido de que el principio de incertidumbre epistemológica implicado en cada caso requiere soluciones óptimas muy diferentes.

Hay sistemas cuya descripción conjuga la máxima simplicidad y la máxima precisión, tales como las aplicaciones firmes de la mecánica newtoniana (sistema Tierra-Luna, la caída libre cerca de la superficie terrestre, los péndulos simples, los muelles que se estiran bajo la accción de un peso, etc.). La descripción matemática de estos sistemas alcanza una precisión exhaustiva. Son ejemplos en los que el principio epistemológico de incertidumbre está reducido al mínimo. Se trata de un caso extremo, porque normalmente los fenómenos naturales se presentan como sistemas en los que no existe esta feliz fusión de ambos ideales, sino más bien un polémico compromiso entre ellos, cuando no una insalvable ruptura, en los cuales el principio de incertidumbre alcanzaría un valor máximo. Así, a veces la precisión es intrínsecamente inalcanzable. Como afirma E. Lorenz, el artífice de la conocida fórmula "efecto mariposa", "¿podemos esperar honradamente formular algunas ecuaciones que describan de forma realista las olas que impulsadas por un viento racheado rompen contra una costa rocosa, con todas sus burbujas y todas sus salpicaduras?"(8). La supuesta descripción de este sistema sería tan compleja como el sistema mismo (si introducimos un término de la teoría algorítmica de la información: la incompresibilidad del sistema hace incomprensible su descripción). Para decirlo a nuestra manera: el sistema no puede simplificarse sin pérdida catastrófica de precisión.

Hay otros sistemas, finalmente, cuya precisión exhaustiva es también inalcanzable, pero que aceptan pérdida de precisión a cambio de ganancia en simplicidad: el comportamiento de un gas es un ejemplo paradigmático. Para su descripción, por primera vez, los físicos se vieron obligados a canjear precisión por sencillez. Se trata de sistemas demasiado complejos (con demasiadas variables y demasiados grados de libertad) para que resulte viable la aplicación de las leyes simples y fundamentales de la dinámica clásica. La aleatoriedad que presentan tales sistemas es una apariencia debida a nuestra información insuficiente acerca del comportamiento detallado de todos sus componentes. Complejidad significa, según esto, demasiado complicado para poder controlar todas las variables, lo cual impide mostrar lo que verdaderamente ocurre: el cumplimiento de leyes deterministas y reversibles escritas en el lenguaje del cálculo diferencial. Para domeñar esta aleatoriedad los físicos recurrieron a una herramienta formal que había acreditado sus éxitos en las ciencias sociales(Quetelet, F. Galton, K. Pearson) y que acabaría por tener una influencia decisiva en la constitución de la teoría cinética de los gases: la teoría de la probabilidad y los métodos estadísticos. Con ella se reduce la complejidad del sistema reduciendo la complejidad de su descripción (así, en termodinámica se reduce el inaprensible microestado del sistema a parámetros macroscópicos, las variables-promedio, como son la temperatura o la presión). La operación de simplificar la complejidad lleva aneja la ejecución de un análisis estadístico(9). La validez de este procedimiento (la confirmación de las predicciones) alimenta nuestra confianza en las leyes deterministas. Los fenómenos recalcitrantes se asignan a nuestra ignorancia y, por tanto, no impugnan la validez de estas leyes. Si no es ya posible describir con precisión el comportamiento de un gas mediante ecuaciones diferenciales referidas a las partículas que lo componen, es nuestra confianza en que éstas representan la verdadera dinámica natural lo que permite describirlo en términos probabilísticos. La explicación simple no pierde sus derechos ante el hecho complejo. Se reconoce la existencia de una imprecisión, de una ignorancia (incluso se conoce su cantidad, medida por la entropía), pero ésta resulta aceptable para nuestros propósitos cognoscitivos. El azar (nuestra ignorancia relativa a la complejidad de los sistemas formados por un gran número de elementos) se puede dominar, esto es, no acarrea estragos devastadores para el ideal de precisión científica, para el determinismo científico o, sin más, para el conocimiento científico (en cuanto que "en el fondo de toda doctrina científica late siempre un corazón determinista", para decirlo con una fórmula utilizada por Wagensberg(10).

Así, la transición de la dinámica simple a la termodinámica, a pesar de obligar a los científicos a habérselas con hechos complejos (sistemas compuestos de un gran número de partículas) y a asumir la pérdida de precisión, no supuso quiebra alguna de la confianza en el ideal de simplicidad de la física clásica, merced a la domesticación del azar presente en el "caos molecular". Ahora bien, la idealización que hizo posible esta simplificación presuponía sistemas situados en el -o cercanos al- equilibrio termodinámico. Esto significa que las propiedades colectivas que definen al sistema tienden a igualarse con las de su entorno, siendo esta tendencia irreversible la que caracteriza la evolución de los procesos termodinámicos. Las fluctuaciones -las desviaciones azarosas de esta tendencia- son fenómenos locales y temporales, irrelevantes (ignorables) en el sentido de que no anulan la tendencia global del sistema hacia el equilibrio. La intervención del azar se puede ignorar mientras las fluctuaciones no progresen. Pero esto no es así siempre, ni mucho menos. En numerosas ocasiones los sistemas se alejan mucho del equilibrio, y entonces aparece un régimen no lineal: discontinuidades e inestabilidades, flujos entre el sistema y el entorno que marcan diferencias que en lugar de tender a desaparecer suelen amplificarse cada vez más. Este progreso de las fluctuaciones puede generar un espontáneo proceso de autoorganización material que haga posible la emergencia de nuevas e inesperadas estructuras, las llamadas estructuras disipativas. En la actualidad se está seguro de que estas estructuras constituyen una clase muy representativa de los sistemas naturales, es decir, un sistema típico.

IV

Como quedó dicho más arriba, la quiebra del ideal de simplicidad (y el consiguiente protagonismo de la idea de complejidad) se produjo al comprobarse que la validez de las leyes simples, lejos de ser universal, sólo alcanza a casos excepcionales que en modo alguno cabe considerar representativos del comportamiento natural habida cuenta del carácter no lineal de la naturaleza. La concordancia entre máxima simplicidad y máxima exactitud se ha revelado como una ilusión, cuando no como una estafa, pues es el resultado de una extrapolación (linealizar lo que no es lineal) que sólo consigue dar cuenta de fenómenos atípicos y excepcionales. Dicho de otro modo:las idealizaciones de la teoría clásica son demasiado simplistas y, en este sentido, falsifican la realidad. Se ocupan de "ondas poco profundas, vibraciones de poca amplitud, gradientes de temperatura pequeños"(11). El "oscilador armónico simple" es una simplificación falsificadora del péndulo real, la ecuación clásica del calor lo es del flujo del calor real, el modelo de Hopf-Landau sobre la creación de vibraciones en dinámica de fluidos lo es del fenómeno de la turbulencia("es tan probable como que un alfiler se mantenga en equilibrio apoyado sobre la punta"(12)). Y así sucesivamente. Cuando la simplicidad y exactitud se alcanzan sólo a costa de una idealización tan abstracta (de un recorte tan drástico) de la realidad se denomina simplismo.

Este simplismo no excluye la connotación semántica de "candidez" o "ingenuidad" relativa a la esperanza que despierta haber alcanzado una tal exactitud en los sistemas simples (como extremadamente cándida nos parece hoy la creencia en el dios de Laplace, con su absoluto poder de predicción y retrodicción a partir del conocimiento completo del presente). La entusiasta confianza que generó la isla de orden iluminada por las leyes de la física clásica hizo desdeñar el océano de desorden existente, emplazando su explicación al imparable crecimiento del conocimiento que el avance de la investigación nos debía deparar en el futuro. Lo que sin embargo ha ocurrido ha sido más bien todo lo contrario. Ha sido lo complejo quien ha ganado terreno a lo simple. Se han constatado las limitaciones insuperables que afectan al desarrollo de los modelos simples clásicos. "En la mecánica se producen con gran rapidez complicaciones"(13) que impiden la extensión de sus aplicaciones ideales. Incluso en el campo donde la teoría de Newton obtuvo inicialmente sus más espectaculares confirmaciones, en la mecánica celeste, fue donde también primero pudo advertirse su simplicidad idealizadora (Poincaré se asomó al caos al intentar resolver el problema de los tres cuerpos y descubrir la impotencia de los modelos lineales de las ecuaciones diferenciales). Basta someter a un péndulo a la influencia de fuerzas externas periódicas para toparnos enseguida con las limitaciones drásticas de la teoría de la que el comportamiento de un péndulo es un modelo. La evolución compleja de un sistema simple es algo de lo más natural. El desorden y la impredictibilidad aguardan a poco que prescindamos de las superferolíticas idealizaciones clásicas en favor de modelos un poco más realistas. Pero, a su vez, se sabe que las estructuras complejas -aquellas en las que se dan "correlaciones de largo alcance", o en las que se cumple el principio holista conocido como "causación descendente"(14)- surgen en puntos críticos de la evolución de ese desorden, en zonas aisladas de la avalancha de aleatoriedad con que se nos presenta el mundo natural cuando tratamos de profundizar en su conocimiento. La emergencia de fenómenos de autoorganización en sistemas alejados del equilibrio no es ya privativa de la biología y de las ciencias sociales, pues ha irrumpido en la fortaleza de la simplicidad custodiada por las ciencias físicas. Los ejemplos clásicos, estudiados con detalle por Prigogine, son la "inestabilidad de Bénard"(aparición de estructuras regulares y movimiento coherente -las celdas de convección- en una capa de fluido a partir de un cierto valor crítico de la diferencia de temperatura entre su parte inferior y superior) y la reacción de Belousov-Zhabotinski (evolución de una reacción química en la que se genera un orden de oscilaciones periódicas en los productos de la reacción para unos determinados tiempos de espera). Al contrario de la dirección marcada por la esperanza de una progresiva simplificación de lo complejo en la que debería plasmarse el avance del conocimiento, lo que éste nos está deparando es una mayor complejificación de lo simple. Lo que, por cierto, acarrea un curiosa inversión en el programa de investigación reduccionista inherente al triunfo de la ciencia moderna.

La rehabilitación de los indudables derechos holistas que amparan la autonomía de los distintos niveles de explicación (físico, químico, biológico, psicológico, social) expresa de hecho el reconocimiento de los fenómenos complejos (emergencia, autoorganización, "causación descendente"), que viene a certificar la defunción de un programa universal de reducción interteórica que nos conduciría a la entronización de la física como ciencia única y universal. Pero es que, además, el descubrimiento de la importancia de la complejidad en el seno del mundo material inorgánico ha hecho problemática la misma reducción intrateórica en física. "Para un verdadero emergentista, la física misma no puede ser reducida a la física, es decir, la física misma es irreductible"(15). Del sueño de una fisicalización completa de la biología se ha despertado con el retorno de la imagen aristotélica de una física biologizada que nos devuelve el sentido originario de physis (actividad espontánea, fuente creadora de fenómenos), abolida tras el triunfo de la concepción mecanicista en los inicios de la ciencia moderna.

V

Se conocen representaciones matemáticas sencillas de sistemas dinámicos que muestran cómo tiene lugar la rápida deriva hacia el caos en la que desemboca el comportamiento de muchos sistemas simples, y la posterior emergencia de estructuras complejas a partir de ella (lo complejo aparece en "el borde del caos", según la fórmula más voceada). La "aplicación logística" está al alcance de cualquiera que posea una calculadora. En ciertos puntos críticos de la evolución de un sistema dinámico generada al iterar la aplicación se produce un mecanismo de cascada de duplicación del periodo que conduce rápidamente al caos matemático (pérdida del régimen estacionario o periódico). Pero si seguimos la evolución del sistema pueden reaparecer en algunos puntos concretos las trayectorias periódicas (el orden surge espontáneamente del desorden, equivalente al nuevo "orden por fluctuaciones" de la termodinámica del no equilibrio) para a continuación volver a disolverse -en una nueva cascada de duplicación del periodo- en un completo desorden, y así sucesivamente. Además, este artificio matemático nos permite mostrar la propiedad más característica de la dinámica caótica: la dependencia sensible a las condiciones iniciales. Aun cuando empecemos dos series de iteraciones con valores muy próximos, al cabo de unas cuantas operaciones podemos obtener valores numéricos muy alejados entre sí, como si de dos valores tomados al azar se tratara. Lo que es una diferencia que nos parece irrelevante (por pequeña) entre dos estados iniciales, se amplifica progresivamente para acabar evolucionando hacia dos estados completamente diferentes. La necesidad de aceptar un comportamiento que es determinista pero que no parece determinista(16), arruina, en primer lugar, la interna relación simétrica entre explicación y predicción característica de las teorías científicas según la "concepción heredada" en filosofía de la ciencia. Una vez reconocido el carácter sumamente abstracto de las idealizaciones clásicas, esto es, la rareza y excepcionalidad de los sistemas cuya conducta pueda predecirse con detalle, no nos queda sino afrontar el desafío de "explicar lo impredictible"(P.Suppes). En este sentido, la investigación reciente de la complejidad carece de auténtica originalidad, pues vendría a corroborar la principal implicación epistemológica derivada del principio de incertidumbre de W. Heisenberg: aunque el estado final de un sistema está unívocamente determinado por su estado inicial, este último está esencialmente indeterminado, debido a que es imposible alcanzar una precisión absoluta acerca de las condiciones iniciales que lo definen. Su aportación más novedosa debería buscarse más bien en el esfuerzo por iluminar la dinámica generadora del objeto complejo y reconocerla como ontológicamente relevante. Por otra parte, el desafío epistemológico que nos lanza, sobre todo tras quedar desbaratadas las relaciones entre lo simple y lo complejo contempladas en la imagen científica clásica, es el de obligarnos a revisar el ideal de simplicidad o sencillez proyectándolo sobre el de exactitud o precisión, ambos inexcusables en nuestras descripciones científicas del mundo.


BIBLIOGRAFÍA

GELL-MANN, M., El quark y el jaguar. Aventuras en lo simple y lo complejo. Barcelona, Círculo de Lectores(también en Tusquets), 1995.
HORGAN,J.,"De la complejidad a la perplejidad", Investigación y Ciencia, Agosto, 1995, pp.71-77
IBÁÑEZ, J., "El centro del caos", Archipiélago, nº 13, 1993, pp. 14-26.
KOSKO,B., Pensamiento borroso. La nueva ciencia de la lógica borrosa. Barcelona, Crítica,1995.
KÜPPERS, B.-O., "Confrontando la complejidad. Problemas de reducción en biología", Ludus Vitalis, I (1993),117-134
LORENZ, E.N.,La esencia del caos. Un modelo científico para la disparidad de la naturaleza. Barcelona, Círculo de Lectores(también en Debate), 1995
MORIN, E., Introduction à la pensée complexe. Paris, ESF éditeur, 1990.
PRIGOGINE,I.; STENGERS,I.,Entre el tiempo y la eternidad. Alianza, Madrid,1990.
PRIGOGINE, I.; NICOLIS, G., La estructura de lo complejo. Madrid, Alianza,1994.
RUELLE, D., Azar y caos. Madrid, Alianza,1993
STEWART, I., ¿Juega Dios a los dados? La nueva matemática del caos Barcelona. Grijalbo,1996
TRILLAS, E., "La inteligencia artificial:¿hacia el mathware? (Algunas reflexiones personales)", en: Saber, sentir, pensar, Madrid, Debate, 1997.
WAGENSBERG, J., Ideas sobre la complejidad del mundo. Barcelona, Tusquets, 1994.


NOTAS:

  1. Sin embargo, las instrucciones que generan estas estructuras -las ecuaciones que las definen- son muy sencillas. Resulta inquietante advertir -como comenta I. Stewart- que estas ecuaciones "conocen algo que nosotros desconocemos. La interrelación entre regularidad y aleatoriedad es incomprensible" (Stewart,I., 1996, p.157).
  2. citado en Trillas,E.,1997, p. 131.
  3. citado en Kosko, B., 1995, p. 147.
  4. Dicho sea de paso, y a propósito de que la mayoría de los que hacen la revista ALFA reúnen la condición de ser educadores, amén de la de filósofos, no estaría de más recordar ese axioma en una época en la que la claridad, simplicidad y sencillez se han convertido en los trascendentales de la educación, al mismo tiempo que se ha propagado la alergia hacia el esfuerzo intelectual que complica y confunde.
  5. "La dificultad del pensamiento complejo es que debe afrontar la maraña (el juego infinito de inter-retroacciones), la solidaridad entre los fenómenos, la niebla, la incertidumbre, la contradicción", escribe Morin, para quien el reto de la complejidad para el conocimiento supondría la sustitución del paradigma de "disyunción/reducción"(que ha gobernado el desarrollo de la física clásica) por el de "distinción/conjunción", "que permite distinguir sin separar, asociar sin identificar o reducir"( Morin,E.,1990, pp.22-23).
  6. Una visión rápida y esclarecedora de las opiniones de algunos de los principales protagonistas en investigación de los sistemas complejos puede verse en Horgan, J.,1995, pp. 71-77.
  7. Ibáñez, J.,1993, p.23
  8. Lorenz, 1995, p.34
  9. Algo de eso debe de ocurrir cuando reconocemos una cara de entre una multitud, o cuando distinguimos una obra musical de Mozart; o cuando la mecánica estadística del equilibrio restringe el estado macroscópico de un sistema -un litro de helio, por ejemplo- pues esta restricción va a determinar su estructura probabilista microscópica. D. Ruelle, el autor que en 1970 bautizó con el nombre de "atractores extraños" a los objetos geométricos que representan la trayectoria de las dinámicas caóticas, expone así el hecho fundamental:"Si se impone una condición global simple a un sistema complejo, entonces las configuraciones que satisfacen esta condición global tienen generalmente un conjunto de caracteres probabilistas que caracterizan dichas configuraciones de manera unívoca"(Ruelle, 1993, p. 123).
  10. Wagensberg, J.,1994, p.66
  11. Stewart, 1996, p.88. Las cursivas son del autor
  12. Ibíd., p.178
  13. Prigogine, 1994, p.77
  14. La primera es una expresión que gusta utilizar Prigogine para identificar los estados del no equilibrio. La segunda es una denominación original de D.T.Campbell (luego difundida, entre otros, por Popper), para referirse a cómo el todo -entendido como la configuración global de las relaciones entre las partes- influye en el comportamiento de cada una de estas partes.
  15. Küppers, B-O., 1993, p. 121. Para un emergentista radical, la causación descendente es un fenómeno tan intrínseco del mundo material que no se limita a los sistemas alejados del equilibrio, como los vórtices que generan las celdas de Bénard o, por supuesto, los sistemas biológicos. Un sistema de equilibrio químico, p.e., posee un poder autorregulador, que "es una propiedad del sistema como un todo, que no puede ser deducida de las propiedades materiales de sus componentes"(Ibíd.,p.122). Incluso la reducción de la termodinámica por la mecánica estadística permite entender las propiedades macroscópicas, la temperatura y la presión, como verdaderas propiedades emergentes.
  16. Esta es la fórmula que utiliza inicialmente Lorenz(op. cit., p. 26) para describir el comportamiento caótico como vía para llegar a la definición más cabal centrada en la dependencia sensible a las condiciones iniciales.


Asociación Andaluza de Filosofía.