Nódulo materialistaSeparata de la revista El Catoblepas • ISSN 1579-3974
publicada por Nódulo Materialista • nodulo.org


 

El Catoblepas, número 119, enero 2012
  El Catoblepasnúmero 119 • enero 2012 • página 1
Artículos

La ciencia como relato (histórico)

Matthew Norton Wise

Artículo publicado en 2011 en un número especial de la revista Erkenntnis dedicado a «epistemología histórica»

Resumen{1}: Este artículo contrapone explicaciones científicas por medio de simulaciones al modo tradicional de explicación en física por medio de deducciones a partir de ecuaciones de derivadas parciales. Mi argumento es que las diferentes tecnologías utilizadas en la simulación constituyen lenguajes distintos que, a su vez, fundamentan relatos diferentes. Los relatos que acompañan a las simulaciones articulando su sentido suelen ser de tipo histórico (o histórico-natural). Explican los fenómenos naturales haciéndolos crecer, antes que refiriéndose a ellos por medio de leyes generales. Encontramos ejemplos de este tipo de simulaciones de crecimiento en la evolución de funciones de onda que describen el caos cuántico, la formación de copos de nieve, e investigaciones sobre genética etrusca. Estos ejemplos sugieren algunos comentarios finales sobre la explicación histórica.{2}

1. Introducción

Las reflexiones que siguen se derivan de dos características genéricas a las ciencias contemporáneas. La primera se refiere al papel preponderante de las tecnologías en las prácticas científicas. La segunda a un cambio notable en los modos de explicación científica. El papel de los relatos me servirá para indagar en la relación entre estas dos características.

En lo relativo a las tecnologías, muchos historiadores han venido considerando su papel en las ciencias como fuente de modos de pensar con objetos físicos, y no sólo de trabajar con ellos. Se ha hecho común atender a su papel activo en la configuración de ideas y acciones y se habla de tecnologías del conocimiento. Pero este proceso ha ocurrido en la historia de la ciencia como reflejo de lo que estaba pasando en las ciencias mismas, las cuales, como sabe cualquier científico, están más imbricadas que nunca en sistemas tecnológicos. Por ejemplo, el biólogo molecular y presidente de la Universidad de Princeton Shirley Tilghman afirmaba que «aunque hay teorías brillantes que pueden catalizar el progreso en ciencia e ingeniería, es mucho más común que un avance revolucionario surja de la entrada en escena de nuevas tecnologías que permiten a los investigadores analizar viejas cuestiones de maneras nuevas o incluso preguntarse por asuntos antes impensables» (Tilghman, 2009). Baste con señalar que el premio Nobel de física de 2007 fue concedido por el disco duro (resistencia magnética gigante) y el del 2009 por fibras ópticas y cámaras digitales (dispositivos acoplados por carga). No todos celebran este cambio, como queda claro con la denuncia que ha hecho Paul Forman contra la primacía de la tecnología en la posmodernidad (Forman, 2007).

En lo que concierne a los modos explicativos, un buen número de historiadores de la ciencia han observado que las explicaciones se han hecho históricas de maneras imprevistas. Sylvan Schweber fue de los primeros en llamar la atención sobre esto, y otros le han seguido desde entonces (Schweber, 1993; Dalmédico, 2004: 83-85; Wise, 2004; Creager et al., 2007). En el caso particular de las ciencias físicas, el ideal de la deducción a partir de leyes universales e intemporales ha perdido terreno frente a formas de explicación de carácter histórico.

Este desarrollo de las tecnologías y esta preponderancia de la historicidad invitan a buscar nuevas maneras de analizar las explicaciones científicas que sean capaces de dar cuenta de la relación entre ambos procesos. La manera que propongo en este artículo es tratar a las tecnologías de conocimiento como si fueran lenguajes capaces de fundamentar formas particulares de relatos, de narrativas explicativas.{3} Desarrollaré este punto de vista con respecto a la física matemática, comparando las explicaciones por medio de deducciones a partir de ecuaciones de derivadas parciales con las explicaciones por medio de simulaciones, incluyendo una simulación histórica. Concluiré que la filosofía de la historia necesita compararse a sí misma no con deducciones desde leyes generales (algo que lleva haciendo como mínimo cincuenta años) sino con simulaciones narrativas.

2. El lenguaje escrito como tecnología fisicalista

Una corriente de crítica literaria define explícitamente al lenguaje escrito como una tecnología. Russell Berman proporciona un ejemplo reciente en su libro Fiction Sets you Free: Literature, Liberty, and Western Culture. Berman entiende el lenguaje escrito como una materialización física del hablado. Mientras que el discurso hablado depende del contacto directo y la tradición oral, la escritura otorga una representación visual de la expresión oral y convierte al lenguaje en algo mucho más tangible. Hasta cierto punto, esta objetivación del lenguaje (en el sentido de su transformación en un objeto corpóreo) ofrece cierta autonomía al texto escrito. «La realización física del lenguaje en la escritura es la condición que permite la autonomización de la literatura» (Berman, 2007: 64).{4} Este argumento de Berman no supone un determinismo tecnológico, sino que apunta a la tecnología como abriendo nuevas posibilidades que tendrán que ser realizadas por sujetos envueltos por contextos de acción política, económica y religiosa. En sociedades complejas, el lenguaje escrito siempre compite con otros modos de expresión simbólica (por ejemplo, el arte) y diferentes modos de lenguaje escrito compiten entre sí (literatura, historia, filosofía); pero el proceso de abstracción es general a todos ellos. Este proceso culminó con los lenguajes alfabéticos –siendo el griego el ejemplo canónico y el que justifica el sintagma «Western Culture» en el título de Berman. Pero podríamos añadir los lenguajes matemáticos.

Según Berman, la contribución más importante de los lenguajes escritos es la autonomía: autonomía en el espacio y el tiempo del texto, del escritor y del lector. En otras palabras, la escritura funciona como una «tecnología de la distancia» tanto en el tiempo como en el espacio (Porter, 1995: ix, 14, 92, 200-208; 1999). En esto, el lenguaje escrito se asemeja a los «móviles inmutables» de los que habla Bruno Latour (Latour, 1986, 1990, 1999). Pero, al igual que éstos, las tecnologías de los lenguajes escritos resultan no ser ni tan móviles ni tan inmutables, sino que se ven sometidas a continuas mediaciones y transformaciones para circular.

La autonomía de los lenguajes escritos también es crucial para establecer su papel como vehículos de la imaginación creativa y la reflexión. Esto vale tanto para la historia y las ciencias como para la literatura. La escritura permite nuevos modos de pensar y actuar, como demuestra Klein (2003), entre otros. Semejante afirmación no llamaría la atención referida a las tecnologías usuales, como las imágenes de rayos X, microscopía electrónica, RCP (reacción de polimerización en cadena), comparaciones de variaciones genéticas, o una resonancia magnética funcional. Pero estas tecnologías y los lenguajes escritos tienen mucho en común, dado que, también en el caso de las tecnologías relacionadas con la investigación científica, su función creativa tiene que ver con su capacidad de fundamentar diferentes relatos sobre los objetos que pueblan las ciencias, como se intentará argumentar en este artículo. Estos relatos toman formas diversas en los distintos campos y cambian a lo largo del tiempo. El siguiente apartado ejemplifica una de estas transformaciones de la forma de los relatos en física matemática contrastando las explicaciones basadas en deducciones a partir de ecuaciones diferenciales parciales (o ecuaciones de derivadas parciales, EDP) con las explicaciones obtenidas a partir de simulaciones por ordenador.

3. Ecuaciones de derivadas parciales en la historia de la física

La variedad de EDPs y de métodos para resolverlas se ha constituido en una de las tecnologías más importantes en la historia de la física y ha posibilitado la imaginación creativa de la que hablaba más arriba. Durante 200 años supusieron a un tiempo los medios y los objetivos de las explicaciones. Algunos ejemplos canónicos dados en orden cronológico aproximado podrían incluir las ecuaciones de Lagrange, la de Laplace, la ecuación de difusión, la de ondas, la de Navier-Stokes, la ecuación de Hamilton, las de Maxwell, o la de Schrödinger. La ubicuidad de EDPs en la física queda bien reflejada en los manuales de técnicas matemáticas que todo físico del siglo XX tuvo que aprender para aplicar en muchos sistemas y circunstancias. Estas manuales solían conocerse por el nombre de sus autores, como el de Courant y Hilbert (1953) o el de Morse y Feshbach (1953). En el prólogo a la edición inglesa de su manual, Courant insistió en que él y Hilbert buscaban la unidad de la ciencia mediante el vínculo entre la intuición física y las matemáticas: «desarrollamos métodos matemáticos originados a partir de problemas físicos e intentamos conformar los resultados en teorías matemáticas unificadas» (Courant y Hilber, 1953: v-vi y 265). Sin embargo, pese a estas menciones a la intuición física, lo que el manual de hecho explicaba eran los métodos matemáticos, dando por supuesto que el físico se interesaba por ellos desde su familiaridad con los problemas físicos y desde su propia intuición física, la cual a su vez quedaría refinada por los métodos matemáticos. Esta intuición era necesaria para poder hacer un uso creativo de los métodos matemáticos del manual, pero para ello debía relacionar un problema físico a una EDP a través de un relato sobre un campo del mundo determinado. Esta relación entre el relato y la estructura matemática es lo que tratamos de perseguir aquí (Morgan, 2001 y 2007).

Tomemos por ejemplo la conducción de calor e imaginemos que estamos tratando de explicar cómo una concentración de calor inicial se transmite a través de un material conductor. Los físicos modernos se acercaban al problema sabiendo (al menos de modo indirecto) que Joseph Fourier lo había analizado cuidadosamente en su Teoría analítica del calor (1822) y que lo había tratado en términos de cantidades macroscópicas medibles – calor y temperatura – y con parámetros macroscópicos para el material – conductividad y capacidad calorífica – independientemente de definiciones del calor.{5} Por tanto, no necesitamos empezar, como lo hizo el propio Fourier, planteándonos cuál sea la naturaleza del calor ni argumentando contra la entonces predominante visión laplaciana de que las explicaciones físicas deberían reducir los fenómenos a interacciones microscópicas entre átomos. En todo caso, necesitamos tener a mano un relato general similar.

Fig. 1. Conducción de calor por una barra de metal infinitamente larga

Fig. 1. Conducción de calor por una barra de metal infinitamente larga a partir de una distribución inicial Ti hacia Tf.

Siendo fieles al espíritu del análisis de Fourier, podríamos comenzar nuestro relato sobre la conducción del calor con una imagen (Fig. 1) de una barra uniforme de metal calentada brevemente en su centro para producir una distribución de temperatura inicial Ti e imaginando que la barra es infinitamente larga y está perfectamente aislada del entorno, por lo que el calor se transmite sólo por la barra. Para apreciar los frutos de este relato en tanto materialización física del problema, es útil verlo escrito con papel y lápiz y asociar el diagrama con una matemática simplificada en la que Δ simboliza un cambio mínimo. Con este diagrama idealizado insistimos en que no se pierde nada de calor en la conducción o que el calor que se desprende de cualquier elemento Δx de la barra ΔF/Δx debería ser igual a la velocidad de la disminución de temperatura en el tiempo ΔT/Δt multiplicado por la capacidad calorífica a,

ΔF/Δx = -aΔT/Δt.

Entonces incorporamos la regla, fundamentada empíricamente, de que el flujo de calor en cualquier punto debería ser proporcional al gradiente de temperatura en ese punto,

F = -cΔT/Δx,

donde c es la conductividad de la barra. Utilizando la segunda ecuación en la primera, obtenemos,

Δ (ΔT/Δx) / Δx = (a/c) ΔT/Δt.

Sin embargo, esta ecuación no es matemáticamente rigurosa. Para transformarla al lenguaje formal de las ecuaciones con derivadas parciales necesitamos traer a colación un relato de fondo sobre los átomos como modo de justificar nuestro tratamiento de un elemento físico finito de la barra que contiene el conjunto de átomos que contribuyen a conformar los parámetros macroscópicos a y c como si fuera un elemento infinitesimal matemático carente de cualquier estructura microscópica. Si este relato es plausible, entonces podremos llevar a cabo una serie de argumentos matemáticos básicos para convertir el Δ de la anterior secuencia de ecuaciones en una derivada parcial ∂, lo que podemos hacer pasando al límite conforme el elemento se acerca a cero.{6} El proceso resultará en la siguiente ecuación diferencial parcial,

∂²T / ∂x² = (a/c) ∂T/∂t.

Como se ve en la figura 1, esta EDP, llamada ecuación de difusión, debería regir la transmisión en el tiempo y el espacio de cualquier distribución inicial de temperatura Ti en una posterior Tf. Este ejemplo no tiene nada de particular, simplemente ilustra un procedimiento perfectamente usual para derivar EDPs en física que utiliza un lenguaje especializado que los físicos han aprendido a hablar y escribir como el lenguaje natural de su campo. El resultado, la ecuación escrita, ofrece una representación objetivada de nuestro modo de pensar sobre el problema de la conducción del calor.

Pero para poder interpretar las consecuencias de este razonamiento debemos encontrar soluciones a la ecuación. Afortunadamente, los físicos simplemente necesitan abrir el Courant y Hilbert para encontrar una versión concisa de la famosa solución de Fourier, la serie de Fourier, junto con una demostración de que la serie convergerá para cualquier función físicamente realista (es decir, continua en sus elementos){7}. Allí se ofrece una prueba deductiva de la forma general de las soluciones. Pero para que una deducción sea relevante físicamente, y éste es el asunto principal que ahora nos ocupa, ésta debe darse en contextos específicos para los cuales la interpretación juega un papel central.

Consideremos el análisis que William Thomson (después Lord Kelvin) presentó en 1846. En su lección inaugural como profesor de Filosofía Natural en la Universidad de Glasgow afrontó el debate sobre la fuente del calor de la Tierra y el significado de los aumentos de temperatura proporcionales a la profundidad que se habían observado en varias minas. Se trataba de determinar si, como había argumentado Fourier, esta distribución dependía de un calor central primitivo que se enfriaba gradualmente con el tiempo, o si dependía de otros factores, como el sugerido por Poisson de que el sistema solar se había desplazado hacia una región de temperaturas más frías que la que habría ocupado en estadios anteriores. Thomson abordó la cuestión preguntándose si la ecuación de difusión podía llevarse hacia atrás en el tiempo desde un estado presente hacia uno anterior en todos los casos o sólo en algunas condiciones. Para ello distinguía tres casos según si la serie de Fourier para la distribución de temperatura convergía o divergía. Consideraba que la divergencia a partir de cualquier distribución presente no podía ser resultado de ninguna situación precedente (es decir, que la divergencia no tenía edad); que la convergencia durante un período de tiempo finito precedido por uno de divergencia implicaba una edad finita; y, por último, que una convergencia durante todo el tiempo anterior al momento presente implicaba una edad ilimitada. Aunque el lugar de la Tierra en esta clasificación dependería de adecuados sobre la distribución actual de temperatura en la Tierra, las creencias de Thomson le inclinaron a otorgar a la Tierra una edad finita.{8}

El análisis de Thomson dependía de un relato sutil sobre la distinción entre imposibilidad física y matemática con respecto a cambios bruscos de temperatura (puntos de inflexión, cotas máximas, etc.) que consideraba divergentes. Pero pronto se dio cuenta de que esta intuición suya no se sostenía. Sin embargo, es evidente que aunque Thomson escribió su argumento en la forma de una prueba deductiva, la ecuación de difusión llevaba consigo un relato muy significativo sobre el origen y la edad de la Tierra. Años después, en 1850/51, este relato entró directamente a formar parte de la enunciación por parte de Thomson del segundo principio de la Termodinámica.

Mi insistencia en el aspecto narrativo viene al caso porque rara vez pensamos en las deducciones matemáticas como relatos. De hecho, Courant y Hilbert hacen cuanto pueden para desnudar sus métodos matemáticos de toda prenda narrativa. No obstante, en el momento en que esos métodos son aplicados al mundo de modo constructivo, el relato tiene que volver a formar parte de ellos. Esta es la misma tesis que Mary Morgan ha sostenido en su análisis de los modelos económicos:

«Manipular un modelo exige cierto aparataje narrativo, por ejemplo una pregunta inicial, que permita articular una historia que acompaña al modelo. La estructura o sistema descrito por el modelo constriñe y da forma a los relatos; pero sin los relatos que muestren cómo funciona la estructura, el modelo no sirve para casos específicos. Sin los elementos narrativos, las estructuras-modelos son inaplicables al mundo económico y ni siquiera podríamos demostrar resultados en el mundo hipotético representado en el modelo» (Morgan, 2001: 361).{9}

Trasladando esto a mi ejemplo anterior, diríamos que la tecnología matemática del lenguaje de las ecuaciones diferenciales parciales y sus soluciones ofrece una estructura deductiva exenta de narrativa a la que los físicos recubren con relatos a la hora de interpretar diversos fenómenos. Esta estructuración deductiva de los fenómenos ha constituido el canon de las explicaciones físicas. Pero el énfasis se ha puesto en las deducciones excluyendo los relatos que las recubrían y abstrayendo, por tanto, la historicidad de las explicaciones físicas.

4. Caos cuántico

Pero la historicidad reaparece en áreas más recientes de la física. Aunque las EDPs siguen siendo la clave de muchos análisis, su relación con las explicaciones ha cambiado mucho desde 1970. Su debilidad venía dada porque sólo eran solubles para sistemas relativamente simples (tales como la ecuación de Schrödinger para el átomo de hidrógeno con un solo electrón) pero inmanejables para la mayoría de los problemas reales, que son intratables matemáticamente (por ejemplo, átomos con más de diez electrones).{10} En estas situaciones complejas las simulaciones por ordenador, tanto las que comienzan a partir de EDPs como las que no, se han convertido en los modos de la explicación y, probablemente, también en los fines de la misma. Actualmente, una explicación del comportamiento dinámico de un sistema consiste en el desarrollo en el tiempo de una simulación seguido visualmente a través de una pantalla. Las tecnologías relacionadas con la física han cambiado drásticamente y no podríamos aprenderlas mirando el Courant y Hilbert. Más bien, tendremos que aprender los lenguajes de la matemática computacional, la dinámica no linear y los programas de visualización necesarios para hacer rodar simulaciones. Estas nuevas maneras de escribir y de hablar influyen en qué conocemos y cómo lo conocemos. Además, implican relatos de aspecto más histórico que las EDPs.

Aunque el «caos cuántico» parece un oxímoron, dado que el principio de incertidumbre cuántico elimina la dependencia en las condiciones iniciales que caracterizan el caos clásico y debería suavizar las funciones de onda cuánticas, puede servir de ejemplo de esta transformación en los modos de la explicación física. En concreto, las investigaciones de Eric Hellr y Steven Tomsovic son relativamente sencillas y útiles a nuestros propósitos.{11} Consideremos una geometría de billar-estadio cuyo perímetro puede interpretarse teóricamente como una pared que refleja electrones o experimentalmente como un anillo de átomos de hierro implantados en una lámina de cobre (fig. 2). Su tamaño importa: deberá encontrarse en la región mesoscópica, entre la escala microscópica de la mecánica cuántica y la macroscópica de la mecánica clásica (es decir, entre 10 y 1000 átomos aproximadamente). El problema consiste en encontrar la función de onda para los electrones que se mueven dentro de este estadio-billar. Aunque la ecuación de Schrödinger debería gobernar la función de onda cuántica, es insoluble excepto por medios numéricos que no resuelven el problema físico; por otro lado, el análisis clásico es caótico y no arroja órbitas estables clásicas.

Simulación del comportamiento de electrones en un estadio-billar

Fig. 2. Simulación del comportamiento de electrones en un estadio-billar (Heller y Tomsovic, 1993: 43).

Steven Tomsovic y Eric Heller, usando técnicas introducidas por este último en 1984, hallaron soluciones mediante una simulación por ordenador conceptualmente muy simple (Heller, 1984). La simulación comienza por una descripción semi-clásica de haces de partículas que rebotan contra los límites del estadio. Estos sucedáneos de electrones son objetos híbridos y bastante peculiares. Se mueven como bolas de billar clásicas pero llevan asociados una fase y una amplitud de onda. Por tanto, interfieren entre sí como lo hacen las ondas, constructiva y destructivamente formando regiones con amplitudes mayores y menores y simulando funciones de onda cuánticas. «La imagen es la de un enjambre de trayectorias que conllevan amplitud y fase» (Heller y Tomsovic, 1993: 42). Es decir, se trata de objetos ficticios que posibilitan los cálculos y además, como los autores indican, ofrecen explicaciones intuitivas de fenómenos cuánticos. Mi argumento es que lo hacen en tanto protagonistas de un relato que describe su historia, una historia evolutiva generada por la simulación.

La simulación funciona generando muchos miles de estos haces de partículas a partir del mismo punto pero con direcciones y velocidades diferentes. Después de rebotar en el estadio varias veces sus amplitudes sumadas arrojan una función de onda distribuida sobre la superficie del estadio-billar. La figura 3 recoge funciones de onda características (llamadas eigenstates) que se corresponden con tres orbitas periódicas de partículas clásicas representadas en las dos imágenes inferiores mediante líneas gruesas negras (se han omitido sus contrapartes simétricas). La simulación revela que las funciones de onda adquieren una amplitud muy alta lo largo de estas trayectorias periódicas pero inestables en las que las partículas se reflejan una y otra vez.

Simulaciones semi-clásicas que revelan eigenstates

Fig. 3. Simulaciones semi-clásicas que revelan eigenstates «cicatrizados» caracterizados por constituir progresivamente una amplitud junto con órbitas periódicas clásicas (líneas negras) (Heller y Tomsovic, 1993: 40).

En su publicación original, Heller llamó «cicatrización» a este interesante resultado, que si bien es impredecible desde la mecánica cuántica, la simulación lo hace comprensible en los términos físicamente intuitivos de la mecánica clásica. «Cuando tratamos de sistemas de más de un par de partículas, no podemos evitar pensar clásicamente.» Para Heller y Tomsovic esta necesidad de contar con un relato clásico no es una prioridad ontológica sino una exigencia de nuestra experiencia cotidiana. Su llamamiento a la comprensión clásica es pragmático: «no nos vamos a inmiscuir en el debate filosófico, simplemente queremos centrarnos en aproximaciones útiles y físicamente comprensibles» (Heller y Tomsovic, 1993: 38). Sin embargo, cuando enfatizan el modo en que la dinámica clásica revela nuevos fenómenos, adoptan un lenguaje causal: «las órbitas periódicas que no son demasiado inestables causan la cicatrización» (Heller y Tomsovic, 1993: 42). Podríamos pensar que esta atribución de causalidad a las trayectorias clásicas es simplemente un modo de hablar, o incluso de conformar un relato semi-clásico dirigido a subrayar que las simulaciones permiten la intuición. Sin embargo, el papel de estas trayectorias va mucho más allá de la intuición; revelan propiedades físicas que existen en la solución cuántica pero no aparecen en su marco de referencia en tanto «simetrías dinámicas ocultas» (Heller y Tomsovic, 1993: 40). Dicho de otro modo, ofrecen una explicación a la que no se podría llegar de ninguna otra manera. Esto no equivale a sugerir que la teoría cuántica es falsa o incompleta, pero sí a afirmar que en el dominio mesoscópico se dan simultáneamente aspectos cuánticos y clásicos. Estos aspectos forman un híbrido realista, tanto teórica como experimentalmente, cuya explicación requiere a un tiempo ondas cuánticas y trayectorias clásicas.

Antes de nada, me gustaría subrayar el papel explicativo de los objetos híbridos. Pero, por lo dicho hasta ahora, tal vez no sea aún posible distinguir suficientemente el modo en que el relato acerca de estos objetos se conecta con la simulación matemática del modo cómo relato y explicación se conectaban en el ejemplo de la conducción de calor. Por tanto, hay que subrayar igualmente que la explicación de una función de onda cicatrizada se obtiene mediante su desarrollo en el tiempo, o «evolución», por utilizar la terminología de Heller y Tomsovic.{12} La simulación genera un relato explicativo evolutivo que sustituye a los relatos deductivos asociados tradicionalmente a las EDPs como la ecuación de difusión o la de Schrödinger. Además, ahora el aspecto narrativo está presente en la explicación de modo mucho más explícito. Veamos esto más directamente a través de una historieta simple sobre el desarrollo del haz de partículas de la figura 4:

Evolución de una función de onda simulada

Fig. 4. Evolución de una función de onda simulada de modo semi-clásico. Un haz localizado (arriba a la izquierda) viaja inicialmente a la izquierda y se refleja sucesivamente de uno a otro extremo hasta que sus componentes, interfiriendo entre sí, ocupan todo el estadio (Heller y Tomsovic, 1993: 44).

«Había una vez un haz de electrones semi-clásicos localizado que se partió a explorar un billar-estadio. Al principio se fue hacia el extremo de la derecha, pero luego empezó a divergir y, rebotando desde ese extremo, el haz empezó a expandirse y propagarse hacia la izquierda mientras que las paredes laterales también lo reflejaban y las interferencias entre sus muchas trayectorias se hacían más y más complejas. Después de haber ido y venido varias veces, este sistema de trayectorias que interferían entre sí llenó todo el estadio con un patrón complejo de amplitudes que se parecían mucho a una función de onda cuántica. Repitió el proceso varias veces y, entonces, el haz descubrió que podía generar diversos patrones de cicatrización (fig. 3) en los cuales las cicatrices marcaban los efectos de trayectorias periódicas clásicas ocultas en la estructura dinámica. Estas cicatrices duraron mucho más que lo que cabía esperar en la vida de una función de onda.»

Este relato del desarrollo de un haz tiene más que ver con los relatos de la historia natural que con las soluciones deductivas de las ecuaciones diferenciales parciales. A primera vista podría parecer que la diferencia no es muy grande; al fin y al cabo, se podría decir que las EDPs controlan la evolución de una función en el tiempo y en el espacio, como era el caso de la difusión de calor. Sin embargo, las demostraciones de existencia de las soluciones y su singularidad juegan un papel crucial en las deducciones, y estas pruebas no tienen lugar para las soluciones por simulación. La existencia de las soluciones se descubre en la propia simulación y éstas no suelen ser únicas. Más bien, tras sucesivas repeticiones la simulación dibuja un mapa de soluciones posibles. Este proceso generativo no deriva de leyes generales, sino que se parece más al crecimiento de una planta a partir de una semilla. El centro de atención de la simulación lo ocupan las propiedades morfológicas de la «planta» desarrolladas durante este crecimiento, es decir, las órbitas simétricas y sus periodos. Estas propiedades se convierten en objetos físicos, matemáticamente y en la pantalla, a través de los lenguajes en los que se escribe su evolución. En este sentido, las distribuciones que emergen (el explanandum) son ante todo objetos históricos; es más, solamente cobran sentido a través de sus historias (explanans). En la conclusión volveré sobre esta coincidencia entre el objeto a explicar y la explicación.

5. La física como historia natural

Mientras que los historiadores naturales siempre se interesaron por las morfologías, su diversidad y patrones de crecimiento, los físicos no han empezado a emplear estos modos histórico-naturales hasta tiempos recientes. Un ejemplo son los copos de nieve. Tendemos a pensar que los copos de nieve exhibien un bello e intricado patrón geométrico de seis brazos idénticos distribuidos simétricamente. El Kepler más ingenioso de El copo de nieve de seis ángulos redujo la explicación de esta imagen simétrica a «nada». Descartes también se fijó en esta simetría hexagonal y recalcó que «es imposible para los hombres construir algo tan exacto» (fig. 5a). Robert Hooke (fig. 5b) achacaba la perfección de los copos de nieve al «Mecanismo geométrico de la naturaleza» (Kepler, 1966; Descartes, 1965: 313; Hooke, 1961: 91).

Bocetos de copos de nieve de Descartes y Hooke

Fig. 5a. Bocetos de copos de nieve de Descartes (1965, 312). Fig. 5b. Bocetos de copos de nieve de Hooke (1961, pag. frente a 88).

Esta concepción tan conocida de la forma matemática ideal como el fundamento del orden y la belleza en la naturaleza dominó el estudio de los copos de nieve desde el siglo XVII hasta bien entrado el XX a pesar del reconocimiento generalizado de que la perfecta simetría hexagonal era más bien la excepción. Hooke, y muchos otros, daban cuenta de la regularidad con la que se detectaban irregularidades achacándola al «deshielo y las rupturas en la caída y no a los defectos de la virtud plastick de la Naturaleza». Todavía en 1931, la colección clásica de fotomicrografías famosas por su belleza de W. A. Bentley, sólo contenía 2 imágenes no simétricas de entre cerca de 200 (fig. 6). El físico y meteorólogo que colaboraba con él afirmaba que estas dos irregularidades «pueden ser atribuidas a disturbios fortuitos de algún tipo durante su crecimiento» (Hooke, 1961: 91; Bentley y Humphrey, 1931: 14).

Fotomicrografías de copos de nieve

Fig. 6. Fotomicrografías de copos de nieve (Bentley y Humphreys, 1931: 147).

La publicación en 1954 de un resumen en inglés de los trabajos que Ukichiro Nakaya había realizado durante 1930 y 1940 supuso una excepción a esta tónica general (Nakaya, 1954).{13} Nakaya, que se había formado como físico nuclear, obtuvo un puesto de trabajo en la universidad de Hokkaido al norte de Japón, donde no había instalaciones para la investigación nuclear pero sí mucha nieve. Así que se dedicó, junto a sus estudiantes y colaboradores, ha fotomicrografiar copos de nieve caídos del cielo o producidos de modo artificial tras largas horas en un gélido laboratorio (fig. 7a). En aquel laboratorio había una cámara que permitía criar copos de nieve en condiciones variables de humedad y temperatura. La figura 7b recoge el primer copo de nieve artificial producido por Nakaya. Declarando que «rara vez observamos un copo de nieve perfectamente simétrico», ni en el laboratorio ni en las laderas del monte Tokachi, se dedicó a estudiar la simetría no hexagonal y la irregularidad y pasó de interesarse por supuestos estados de perfección a hacerlo por el proceso normal de crecimiento. Al parecer, el crecimiento no se deja subsumir fácilmente en formas geométricas ideales. Las figuras 8a, 8b y 8c reproducen algunas de estas fotomicrografías. La figura 8c, que recoge estadios del crecimiento, merece compararse con secuencias tradicionales en la historia natural, tales como las imágenes del siglo XVII de la figura 9, que describen la historia vital de una rana (huevo, renacuajo e individuo adulto) y el desarrollo de una semilla hasta convertirse en una planta florida (Swammerdamm, 1682: lámina XII).

Laboratorio con cámara para cultivar copos de nieve

Fig. 7a. Laboratorio con cámara para cultivar copos de nieve y 7b, con el primer copo de nieve artificial (Nakaya, 1954: 144, 152).

Este verdadero zoológico de irregularidades, asimetrías y crecimiento, aunque fuera producto de las condiciones controladas del laboratorio, no era del tipo de asuntos que interesaban a la mayor parte de los físicos en los 50 y, aun menos, a los físicos de partículas, que solían ver a las partículas elementales como objetos matemáticos históricos, eternos y universales. Buscaban explicaciones que cupieran en modelos matemáticos elegantes, de modo que los copos de nieve de Nakaya obtuvieron escaso reconocimiento.

Simetrías de 3 y 4 ramas, Irregularidades, Crecimiento

Fig. 8a. Simetrías de 3 y 4 ramas y 8b. Irregularidades. 8c. Crecimiento (Nakaya, 1954: 383, 389, 257).

Estadios de crecimiento de una rana y una planta

Fig. 9. Estadios de crecimiento de una rana y una planta (Swammerdamm, 1682: lámina XII).

La recepción de trabajos como el de Nakaya, sin embargo, cambió drásticamente durante los 70, 80 y 90 a medida que ciertos problemas de complejidad ganaban importancia en la investigación física.{14} Sin embargo, ha habido que esperar a los últimos años para que un físico retomara los copos de nieve como parte de su investigación sobre patrones de formación en sistemas no lineales y no equilibrados. Kenneth Libbrecht, del Instituto de Tecnología de California, ha ampliado los cristales naturales y artificiales de Nakaya con equipamiento de mucha más alta resolución (fig. 10). En el 2006 publicó lo que llama la Field Guide to Snowflakes. Esta guía de campo de Libbrecht y su sitio web contiene fotomicrografías de una diversidad de formas naturales apabullante (Libbrecht, 2006, 2011a). Entiendo que el término «guía de campo» es un reconocimiento explícito de lo que tienen en común la historia natural y el estudio de sistemas dinámicos no lineales y, en especial, complejos. De hecho, Libbrecht escribe sobre los copos de nieve en términos de sus «historias vitales», construyendo «relatos» parecidos al que ofrecí arriba para el caos cuántico. Estos relatos arrojan diagramas y una lección: «una historia compleja produce una forma cristalina compleja» (Libbrecht, 2011b).

Fotomicrografías de copos de nieve

Fig. 10. Fotomicrografías de copos de nieve (Libbrecht, 2011a).

Esta lección también atraviesa el trabajo de dos de los colaboradores de Libbrecht dedicados a simulaciones. Hace tan solo una década no era técnicamente posible simular un copo de nieve en resolución alta. Pero los matemáticos Janko Gravner de la universidad de California en Davis y David Griffeath de la Universidad de Wisconsin en Madison han producido un modelo computacional tri-dimensional mesoscópico que replica muchas de las formas básicas o «hábitos» de los copos de nieve (dendritas, agujas, prismas…) además de muchos de sus «caracteres» más intricados (ramificaciones secundarias, placas en sándwich, columnas huevas) y varios efectos superficiales o jeroglíficos (crestas, canales, costillas, marcas circulares y otros patrones más caóticos) (Gravner y Griffeath, 2009: caracteres, p. 1; hábitos, p. 17). Se pueden ver varios ejemplos en la figura 11.

Copos de nieve simulados

Fig. 11. Copos de nieve simulados (Gravner y Griffeath, 2009: 13).

Gravner y Griffeath usan un modelo computacional bastante simple conceptualmente, pues consiste en criar un copo de nieve virtual a partir de una semilla de hielo pequeña rodeada de vapor de agua y gobernada sólo por tres mecanismos: difusión del vapor de agua del cristal; congelación y deshielo en una capa externa estrecha; y ritmos de adición a la capa externa que favorecen concavidades. A pesar de esta simplicidad conceptual la implementación del modelo en un autómata celular en actualización constante requiere muchos parámetros y, por tanto, largos tiempos de computación. Por ejemplo, dado que las unidades que componen el cristal virtual son prismas hexagonales, es necesario especificar los ritmos de adición de nuevas unidades para todas las combinaciones de lados y caras posibles (fig. 12). Para los ritmos de congelación y deshielo se da una multiplicidad similar. La densidad y velocidad de deriva añaden otros dos parámetros. Aunque se podría reducir el número de parámetros especificando asunciones realistas, el numero de parámetros libres dentro del modelo seguiría siendo muy numeroso, incluso cuando se considerasen solamente brazos perfectamente simétricos (doce mitades de brazo idénticas) y simetría vertical. La evolución de uno solo de esos copos de nieve dura unas 24 horas en un ordenador potente.

Funcionamiento de la simulación de la evolución de un copo de nieve

Fig. 12. Funcionamiento de la simulación de la evolución de un copo de nieve mediante la adición de prismas hexagonales: con lados del cero al tres y caras del 0 al 1 (Gravner y Griffeath, 2009: 3).

Gravner y Griffeath reconocen claramente que no está muy claro el modo en que sus parámetros, por lo demás intuitivamente plausibles, se correlacionan con los procesos físicos y que sus simulaciones dejan de lado los temas importantes de la falta de simetría, movimientos azarosos, singularidades e inestabilidades, es decir, toda la panoplia de contingencias que pueden afectar al crecimiento. Sin embargo, consideran que las simulaciones evolutivas proporcionan «explicaciones» de muchas características de los copos de nieve naturales relativas tanto a su morfología general como al detalle de sus rasgos. Si se hacen funcionar muchas veces variando los parámetros, las simulaciones exploran los copos de nieve posibles y sus probables mecanismos de formación, más o menos como vimos que ocurría con el caos cuántico. Como en aquel caso, este tipo de exploración también sirve para descubrir propiedades nuevas, tales como la «inestabilidad del sándwich» (que da cuenta del hecho de que la mayoría de los copos de nieve consisten de hecho en monturas de dos láminas) y sugieren fenómenos nuevos que requerirán nuevas observaciones de laboratorio sobre copos de nieve reales, tales como las crestas que crecen entre dos láminas en el interior de un copo de nieve en lugar de hacerlo en la superficie exterior.

Las explicaciones y descubrimientos obtenidos a través de las fotomicrografías y las simulaciones de copos de nieve son de histórico-naturales, más aún que en el caso del caos cuántico. Las palabras clave son: carácter, hábito, morfología, semilla, historia vital, evolución y guía de campo. Las simulaciones tratan literalmente con objetos de la historia natural, generando una suerte de jardín botánico de copos de nieve; además, los caracteres de los diferentes géneros y especies en el jardín se explican a través de las condiciones de su desarrollo entendido como evolución. Los principios que rigen esta evolución no son, claro está, los darwinistas de variación y selección, pero son principios generativos simples capaces de explicar cómo toda una filogenia deriva de un antepasado común desarrollado en condiciones ambientales variables.{15} Es decir, las simulaciones generan un relato evolutivo que explica el orden natural de los copos de nieve como un orden esencialmente histórico. Cada individuo aparece como un producto único de su historia, llena de contingencias y accidentes. Un copo de nieve es un objeto histórico y su historia virtual es a la vez su explicación. El contraste con las explicaciones físicas tradicionales no puede ser mayor, pues aquellas trataban a los objetos físicos como seres matemáticos intemporales explicados mediante soluciones deductivas de ecuaciones de derivadas parciales. Ahora el lenguaje del crecimiento sustituye al de la deducción y la reducción.{16}

Finalmente, conviene comentar el papel de la visualización. Las imágenes visuales siempre han sido cruciales en las ciencias físicas para guiar la intuición y el razonamiento y para ilustrar problemas y soluciones. Pero el papel de la visualización y de los lenguajes de visualización es cualitativamente diferente en los relatos explicativos generados por simulaciones, porque ahora funciona como la representación directa del proceso de crecimiento y sus resultados y como el único medio efectivo para entenderlo. Para ser comprensible, la simulación debe incorporar la tecnología que transforme los cálculos llevados a cabo por autómatas celulares en objetos accesibles a los sentidos. Por ejemplo, Gravner y Griffeat usan programas MATLAB y POV-RAY para hacer legibles sus autómatas celulares con una resolución que permita comparaciones directas con las fotomicrografías. Estas tecnologías van acompañadas de diapositivas y películas.

6. Simulación de etruscos y toscanos: la evolución de la población de la Toscana

Hasta este punto, he tratado de indicar que la historicidad, en el sentido de la historia natural, se ha colado en las explicaciones físicas a través de nuevas tecnologías/lenguajes de simulación que generan relatos evolutivos. Pero pudiera ser el caso que estos relatos no parezcan propiamente históricos. Conviene, por tanto, analizar una simulación de carácter histórico, lo cual nos servirá, además, para suscitar algunas reflexiones acerca de la Historia misma.

Fijémonos en el viejo debate sobre la relación de los toscanos actuales con sus supuestos ancestros etruscos. Muchas familias toscanas creen firmemente descender de los etruscos mientras que los lingüistas y arqueólogos han demostrado que los etruscos desaparecieron como población cultural y lingüísticamente diferenciada tras recibir la ciudadanía romana en el siglo II después de Cristo. Un grupo de antropólogos genetistas o «historiadores genéticos» de la Universidad de Ferrara y de la Universidad de Stanford han tratado de generar datos fiables sobre esta relación usando técnicas de simulación genealógica para investigar una amplia variedad de «escenarios históricos» (Belle et al., 2006). En restos óseos de enterramientos etruscos hallaron muestras de ADN mitoncodrial de 27 individuos caracterizados por 22 haplotipos y los compararon con secuencias de ADN mitocondrial moderno extraído a 49 habitantes actuales de la antigua Etruria caracterizados por 40 haplotipos. Un programa de software llamado SERIAL SIMCOAL (Serial Coalescent Simulation hacia atrás en el tiempo) produjo genealogías candidatas conectando las dos muestras y representando modelos potenciales de relaciones de evolución de los etruscos a los toscanos. La simulación procesó más de 100 generaciones (2.500 años) usando diferentes modelos (relatos, diría yo) de sucesos demográficos y estructuras sociales y se hicieron más de 1000 simulaciones para cada modelo. Después se compararon las medias de cada conjunto de 1000 simulaciones con diversas medidas de diversidad entre poblaciones para comparar la adecuación de los modelos a los datos empíricos.

El equipo manejó dos tipos básicos de modelos (y relatos) para los distintos escenarios históricos (fig. 13): modelos uni-poblacionales y bi-poblacionales. Los primeros (arriba) representan descendencia directa de los etruscos a los toscanos incluyendo variantes tales como un número constante de población, una población en crecimiento exponencial, una población en expansión con ritmos de mutaciones alternativos y una expansión original fuerte seguida de una reducción (modelo 5) que representaría las condiciones de pobreza de los etruscos tras su asimilación en el Imperio Romano (es decir, selección negativa). Pero ninguno de estos modelos de continuidad genealógica resultó ajustado a los datos observados de los haplotipos etruscos y toscanos. Los modelos que contemplaban dos poblaciones diferenciadas de etruscos y toscanos comenzaban a partir de una divergencia inicial situada entre 240 y 500 generaciones antes del momento actual a la que habría seguido la expansión de cada grupo. Entonces se añadieron varios escenarios de expansión posibles, desde migraciones mutuas de 240 a 100 generaciones de antigüedad a migraciones más recientes de los etruscos a los toscanos. Finalmente, se consideró la posibilidad del dominio de una pequeña elite de etruscos provenientes del extranjero y cuyo ADN habría sido el preservado en los enterramientos. En este escenario, este grupo habría formado una elite social dominante de la población toscana y probablemente se habría mezclado con ella. De entre estas alternativas, el modelo de la migración mutua antigua es el que mejor se ajustaba a los datos observados, indicando que las dos poblaciones (la etrusca y la toscana) se habrían independizado hace más de 100 generaciones de modo que cualquier relación genealógica sería muy débil. O eso parecía.

Modelos evolutivos vinculando a los etruscos (E) con los toscanos (T)

Fig. 13. Modelos evolutivos vinculando a los etruscos (E) con los toscanos (T) (Belle et al., 2006: 8016).

Pero los escenarios históricos no terminaban aquí. En un trabajo más reciente que está aún por publicar, estos historiadores genéticos han tenido en cuenta a toscanos actuales de tres áreas diferentes – Casentino, Murlo y Volterra – y han usado la simulación para comparar a cada una de estas poblaciones con los etruscos. Los datos para Murlo y Volterra volvieron a ajustarse al modelo bi-poblacional en el que los etruscos pudieron haber continuado hasta el medievo pero habrían desaparecido totalmente desde entonces. Sin embargo, para la sorpresa de todos, los datos del valle de Casentino, conocido por su aislamiento dentro de Italia, parece ajustarse al modelo uni-poblacional (análogo al Modelo 5 de la figura 13) que comienza con los etruscos y continua expandiéndose hasta el modelo medieval. La población habría sufrido una fuerte contracción correspondiente a la peste negra de mediados del siglo XIV y luego habría vuelto a expandirse hasta el momento presente. Este resultado, interesante respecto a la continuidad genealógica bajo escrutinio, depende enteramente de subdividir a los toscanos modernos en varias poblaciones muy locales y más aisladas de lo que la mayoría de los historiadores hubieran creído posible. Permite a los casentinos declararse descendientes de los etruscos a partir de un relato histórico más elaborado, creíble, y específico.

7. Conclusión: conocemos lo que criamos

En los ejemplos precedentes he avanzado desde un análisis deductivo y ahistórico de la conducción del calor hacia tres relatos cada vez más historizados sobre los electrones, los copos de nieve y los etruscos tratando de entender su historicidad como resultado de los lenguajes-tecnologías empleados para realizarlos, esto es, para cultivarlos y criarlos y, así, conocerlos. Pero si los físicos matemáticos actúan ahora en cierto modo como historiadores, ¿qué han aprendido de la Historia y que pueden aprender los historiadores de ellos?

Cada simulación comienza con algo llamado «escenario» que funciona como principio del relato y a partir del cual hay desarrollos evolutivos a estados ulteriores posibles. La plausibilidad de los relatos asociados depende de la continuidad ofrecida por las series evolutivas entre los diferentes estadios y del grado en el que este desarrollo puede incorporar los datos empíricos disponibles. Hasta aquí, esto se parece bastante a lo que los historiadores hacen al explorar relatos históricos. Los historiadores son empiristas constitutivos, pues normalmente intentan escribir historias con inicio, nudo y desenlace que incorporen cuanto más material fáctico sea posible en un relato coherente, es decir, en un relato capaz de señalar continuidades de personas y procesos. La historia puede escribirse desde un punto de vista social, político, económico, o algún otro; los hechos pueden provenir de una serie de fuentes distintas; y la interpretación y el juicio son siempre importantes, pero serán convincentes sólo si se hilvana un relato coherente. Hasta aquí, la mayoría de los historiadores estarán de acuerdo. Pero hay un nivel más profundo sobre la historicidad que se aprecia mejor con la analogía entre la anterior descripción y las simulaciones.

Hay mucha literatura filosófica e histórica acerca de la explicación y la narrativa histórica centrada en determinar hasta qué punto y de qué manera un relato puede «explicar» algo. La referencia canónica de este debate desde 1960 son los artículos de Carl Hempel entre 1942 y 1963 sobre la explicación en la historia (Hempel 1965a; 2001). La perspectiva de Hempel de que toda explicación supone reducción a leyes generales reflejaba su asunción implícita de que la física es el modelo para toda ciencia natural y de que las explicaciones en física dependen del tipo de deducciones a partir de EDPs con las que este artículo comenzó (o de leyes estadísticas, que no hemos tratado aquí).{17}

Cuando en la década de 1960 Arthur Danto, filósofo de la historia de orientación analítica, se erigió en defensor de la explicación histórica su principal argumento era que los cambios históricos en una escala micro («frases atómicas») podían inscribirse en el molde hempeliano de las leyes universales que rigen conexiones causales entre acontecimientos. Sólo la escala macro («frases moleculares») requeriría relatos y «no haría falta encontrar una ley general para la secuencia completa de cambio» (Danto, 1985: 255). Esta lógica de virtuoso determina que los relatos podrían ser explicativos si lo eran las deducciones de leyes generales, pero dice muy poco acerca de qué tipo de explicaciones caben en las ciencias naturales cuando no se depende de leyes generales.

Algunos filósofos de la historia más inclinados hacia la literatura, como Hayden White (1973) y Paul Ricoeur (1984) han pretendido que la historia narrativa tiene más que ver con la ficción que con las ciencias naturales. Podríamos simplificar sus análisis, a menudo profundos y sutiles, resumiéndolos en que la explicación narrativa o bien no se puede juzgar en términos de verdades objetivas sobre acontecimientos en el mundo real (White) o bien transforma esos acontecimientos en algo nuevo mediante sus virtudes creativas (Ricoeur). Pero cabe negar tanto la relevancia de las leyes universales para la narrativa histórica como la supuesta desconexión entre los relatos históricos y el mundo fenoménico, como hace David Carr (1986) al argumentar que los relatos se fundamentan en la experiencia diaria del mundo a través del tiempo y que su capacidad explicativa depende del modo en que se ajustan a la experiencia temporal.

Lo interesante de este debate para el presente artículo es que sigue anclado en el modelo hempeliano de explicaciones científicas como referencia canónica a la hora de enfrentar las explicaciones históricas.{18} Esto sigue siendo así hoy día, como se aprecia, por ejemplo, en el debate sobre explicación histórica que tuvo lugar en el año 2008 en la revista History and Theory. En el artículo que lo encabezaba, David Carr resumía el debate y su propia posición en él asociando continuamente la «cientificidad» con el modelo de Hempel de las leyes generales y afirmando que «cualquier explicación genuina debe atenerse al enfoque causal-científico tomado de la ciencia física. Hoy, por supuesto, es la realidad biológica la que cumple ese papel. Pero, como hemos visto, la reducción de toda la realidad a la realidad física va unida a la reducción de todas las ciencias a la ciencia física como canon de explicación científica» (Carr, 2008: 28). Los otros tres artículos que componen el debate, aunque se centran en otros puntos, refuerzan esta perspectiva o no hacen nada por refutarla.

El problema de esta vieja tradición en filosofía de la historia es que está totalmente desconectada de los desarrollos en las ciencias naturales desde 1970. La explicación hempeliana, como he indicado al contrastar la difusión del calor con el caos cuántico y los copos de nieve, no tiene mucho sentido en las ciencias de la complejidad y no hay leyes generales que cubran los fenómenos biológicos, al menos ninguna de la que cupiera deducir nada específico sobre el campo biológico. Por consiguiente, la filosofía de la historia en su forma aún hoy dominante no sirve de mucha ayuda a la hora de analizar los relatos en las ciencias naturales, pues comienza por negárselos.{19} No obstante, estos debates sugieren perspectivas interesantes a la hora de pensar en las propiedades de los relatos históricos.

7.1. Objeto y explicación

El argumento fuerte de Carr es que «el relato está a la base de la realidad humana» y que «lo que permite decir que una acción queda explicada cuando se cuenta una historia sobre ella es la semejanza estructural entre la acción y el relato» (Carr, 2008: 29). Este argumento se basa en la intencionalidad consciente de los agentes humanos. Si tal intencionalidad fuera necesaria para el relato histórico, éste no tendría lugar en las ciencias naturales. Sin embargo, es evidente que muchos relatos históricos no hacen referencia alguna a la intencionalidad, sobre todo aquellos que tienen que ver con la historia social y económica{20} o las historias que incluyen humanos prehistóricos, animales no humanos o la «acción» de objetos vivientes o inertes. En todo caso, el argumento de Carr quiere ir más allá de la intencionalidad: «mi insistencia en la similitud formal entre la explicación narrativa y lo explicado pretende subrayar que la explicación narrativa comparte el mismo universo conceptual que aquello que explica» (Carr, 2008: 29). Lo que parece estar diciéndonos es que la validez de una explicación depende de que la explicación refleje o se adecue a lo que consideramos que son las propiedades del objeto a explicar. Según esto, si la deducción de funciones de ondas cuánticas simples a partir de la ecuación de Schrödinger sirve para explicar estas funciones es porque consideramos que la ecuación rige de hecho a estas funciones de onda, una creencia justificada por las observaciones. Pero hemos visto que las deducciones fallan en escalas mesoscópicas, lo que exige nuevas formas de explicación como la que Heller y Tomsovic logran cultivando y haciendo crecer distribuciones en una simulación e incorporando un relato semi-clásico que representa la vinculación compleja entre propiedades clásicas y cuánticas. El relato del crecimiento juega un papel crucial. Por esta razón me he referido a las distribuciones cuánticas y a los copos de nieve como objetos históricos. La mejor y tal vez única manera de explicar sus propiedades es escribir sus historias usando nuevas tecnologías de escritura. Esto también vale para los casentinos que, aunque parecen adaptarse mejor al criterio de Carr sobre la agencia humana no nos han dejado nada sobre su intencionalidad.

Entendidas de este modo, podemos pensar que las explicaciones a través de simulaciones acompañadas de historias de crecimiento son una forma general de explicación de las cosas que se desarrollan en el tiempo, de las cuales una deducción a partir de una EDP sería un subconjunto. En dominios limitados o situaciones relativamente simples, la deducción puede satisfacer la necesidad de explicación ofreciendo una solución que se desarrolla en el espacio y en el tiempo, como en el ejemplo de la conducción de Ti a Tf. Incluso en esa situación se podría hacer una simulación, aunque la deducción parece más eficiente. Para decirlo brevemente, hay que dejar de pensar en las simulaciones como sustitutos inferiores para la ideal explicación por deducción; más bien, ofrecen formas más satisfactorias de explicación mediante el relato histórico.

7.2. Crónica y relato

Un segundo problema, que podemos trazar hasta Arthur Danto, es que un relato histórico es mucho más que una crónica de sucesos y, de hecho, no podría ser escrito por un participante en esos sucesos (Danto, 1985: cap. 8). El historiador debe ser capaz de escoger lo que será relevante de cara a consecuencias futuras que sólo puede conocer retrospectivamente. Esto tiene que ver con las «frases narrativas» de Danto, que desplazan una historia desde momentos anteriores hacia momentos posteriores que se le escaparían al cronista. Podríamos preguntar si los relatos simulados son algo más que crónicas y, por tanto, si son o no propiamente relatos. Pero yo considero que los simuladores están en la misma posición que los historiadores en tanto deben procesar historias posibles para llegar a resultados conocidos o cognoscibles del mismo modo que los historiadores no tienen más remedio que ensayar varios relatos históricos antes de atenerse al más plausible.

7.3. Casualidad y contingencia

Un asunto diferente pero relacionado con el problema de la crónica es determinar si las simulaciones generan meras secuencias de datos sin identificar qué conexión quepa entre ellos, tal como una ley causal. Yo creo que no es ése el caso. En un autómata celular actualizándose continuamente para modelizar un copo de nieve las posibilidades para cada estado sucesivo dependen del anterior, de las vicisitudes del medio y de las inestabilidades. La sucesión de estadios en el crecimiento de cada copo de nieve particular es similar a la de todos los procesos complejos que tienen que ver con la historia humana y en los cuales las contingencias son tantas que no cabe deducir acontecimientos concretos a partir de leyes generales. Por decirlo de modo más contundente, si ni siquiera los físicos no pueden ofrecer leyes generales para dar cuenta de un simple copo de nieve, nadie debería exigirlas para explicar la revolución francesa o por qué Darwin adoptó la eugenesia. Lo que los historiadores pueden conseguir con sus relatos es dar cuenta retrospectiva de las condiciones en las cuales los agentes históricos encontraron las motivaciones y los recursos que les llevaron a actuar como lo hicieron. Estas condiciones se entienden mejor como de posibilidad, más que como determinantes o causas que expliquen directamente los resultados. De modo parecido, procesar una simulación marcha atrás, como en el caso de los etruscos, supone encontrar las condiciones de posibilidad (o no) para que hubiera toscanos descendientes de los etruscos, tal vez los casentinos.

Los historiadores son muy conscientes del modo en que las contingencias impiden construir relatos a partir de leyes generales o a base de determinantes causales. Y, sin embargo, el significado de la contingencia es un tema muy controvertido. Hay filósofos como John Beatty que han escrito páginas penetrantes sobre él para el caso de la biología evolucionista y estaría bien que extendieran sus perspectivas a la Historia (Beatty, 1995, 2002, 2006). Baste aquí con señalar que para la mayoría de los historiadores la contingencia debería incluir como mínimo a los resultados, es decir, que los acontecimientos podrían haber ocurrido de modo muy diferente bajo condiciones ligeramente distintas.

7.4. Local y global

Dado que las contingencias importan, también lo hacen la localidad y la especificidad. Este es un rasgo común entre los relatos históricos y las simulaciones. Las diferencias entre las trayectorias particulares de copos de nieve que caen durante una hora en condiciones variables de temperatura y humedad producen formaciones muy diferentes. De modo parecido, Casentino y Volterra dan lugar a toscanos diferentes y Berlín y París produjeron físicos muy diferentes durante el siglo XIX. Los significados y dinámicas locales dependen de contextos globales. Puede que las simulaciones de electrones en un estadio o incluso de los copos de nieve en la atmósfera estén demasiado cerradas en sí mismas como para ser propiamente históricas. No pueden responder a condiciones cambiantes fuera de sus algoritmos auto-reflexivos (aunque en principio se podrían añadir parámetros más relacionados con el medio). Las simulaciones de los etruscos son más realistas en un sentido histórico en tanto sus escenarios se ajustan a desarrollos históricos diversos. Por ejemplo, la historia de los casentinos depende de la conquista romana y la peste negra. Pero los historiadores también ven continuamente limitada su capacidad de interrelacionar el poder explicativo de los relatos locales con los contextos globales. Las respuestas más satisfactorias suelen entrelazar internamente varios niveles y escalas explicativas.

Todas estas analogías entre las simulaciones y los relatos históricos apuntan a una conclusión muy general: las explicaciones del comportamiento de sistemas complejos suelen requerir relatos históricos. Los científicos naturales parecen estar adoptando esta perspectiva (véase la lección de Libbrecht arriba) aunque pensando menos en la Historia que en la historia natural y la biología. Para reconocer este nuevo orden los historiadores y filósofos de la ciencia necesitan filosofemas epistemológicos nuevos que sean capaces de reemplazar el legado de aquellos estudios de la Revolución Científica y la Ilustración que pensaron que las tecnologías de entonces, incluidas las leyes de Newton y las ecuaciones de Lagrange, servirían de horma para toda explicación científica. Dicho de otro modo, hemos convivido suficiente con el adagio de la filosofía mecanicista, «conocemos lo que podemos hacer» o, en la versión del historiador Vico, «la norma de la verdad es haberla producido» (Costelloe, 2003). Una actualización apropiada a la era de las simulaciones sería: «conocemos lo que podemos criar». O, más en concreto para la simulación de los etruscos: el ADN etrusco sigue vivo en Casentino, probablemente.

Bibliografía citada

Alexander, A. R. (2002). Geometrical landscapes: The Voyages of discovery and the transformation of mathematical practice. Stanford, CA: Stanford University Press.

Beatty, J. (1995). «The evolutionary contingency thesis.» In: G. Wolters and J. G. Lennox, in collaboration with P. McLaughlin (Eds.), Concepts, theories, and rationality in the biological sciences (pp. 45–81). Konstanz: Universitätsverlag Konstanz; Pittsburgh: University Pittsburgh Press.

Beatty, J. (2002). The historicity of nature? Everything that is might have been different? In R. E. Auxier & L. E. Hahn (Eds.), The philosophy of Marjorie Greene (pp. 397–416). Chicago: Open Court.

Beatty, J. (2006). «Replaying life’s tape.» The Journal of Philosophy, 103, 336–362. 374 M. N. Wise

Beer, G. (1983). Darwin’s plots: Evolutionary narratives in Darwin, George Eliot, and Nineteenth Century Fiction. London: Routledge.

Belle, E. M. S., Ramakrishnan, U., Mountain, J. L., & Barbujani, G. (2006). «Serial coalescent simulations suggest a weak genealogical relationship between Etruscans and modern Tuscans» [Electronic Version]. Proceedings of the National Academy of Sciences, 103, 8012–8017. doi:10.1073/pnas.0509718103.

Bentley, W. A., & Humphreys, W. J. (1931). Snow crystals. New York: McGraw-Hill.

Berman, R. (2007). Fiction sets you free: Literature, Liberty, and Western Culture. Iowa City: University of Iowa Press.

Carr, D. (1986). Time, narrative, and history. Bloomington: Indiana University Press.

Carr, D. (2008). «Narrative explanation and its malcontents.» History and Theory, 47, 19–30.

Costelloe, T (2003, winter). «Giambattista Vico.» In: E. N. Zalta (Ed.), The stanford encyclopedia of philosophy. Retrieved 3 April 2011 from http://plato.stanford.edu/archives/win2003/entries/vico/. I cite Costelloe’s analysis of Giambattista Vico, De antiquissima Italorum sapientia ex linguae originibus eruenda librir tres (1710), 52.

Courant, R., & Hilbert, D. (1953). Methods of mathematical physics, vol 2. Original published 1924–1928. Berlin: Springer. English edition, revised, London: Interscience.

Creager, A. N. H., Lunbeck, E., & Wise, M. N. (Eds.). (2007). Science without laws: Model systems, cases, exemplary narratives. Durham, N.C.: Duke University Press.

Danto, A. (1985). Narration and knowledge, including the integral text of Analytical Philosophy of History (1964). New York: Columbia University Press.

Dalmédico, A. D. (2004). «Chaos, disorder, and mixing: A new ‘Fin-de-Sièclé’.» In M. N. Wise (Ed.), Growing explanations: Historical perspectives on recent science (pp. 67–94). Durham: Duke University Press.

Daston, L., & Galison, P. (2007). Objectivity. New York: Zone Books.

Descartes, R. (1965). Discourse on method, optics, geometry, and meteorology [1637], (P. J. Olscamp, Trans.). Indianapolis: Bobbs-Merrill.

Dirichlet, G. L. (1837). Ueber die Darstellung ganz willkührlicher Funktionen durch Sinus- und Cosinusreihen. Repertorium der Physik, 1, 152–174.

Dirichlet, G. L. (1889). Sur la convergence des séries trigonométriques qui servent a représenter une fonction arbitraire entre des limites données. Journal für die reine und angewandte Mathematik, 4 (1829), 157–169. Reprinted in L. Kronecker, & L. Fuchs (Eds.), G. Lejeune Dirichlets Werke, 2 vols. (vol. I: 118–132). Berlin: Reimer.

Forman, P. (2007). «The primacy of science in modernity, of technology in postmodernity, and of ideology in the history of technology.» History and Technology, 23, 1–152.

Gravner, J., & Griffeath, D. (2009). «Modeling snow-crystal growth: A three-dimensional mesoscopic Approach» [Electronic Version]. Physical Review E, 79, 1–18. doi:10.1103/PhysRevE.79.011601.

Haraway, D. (1989). Primate visions. New York: Routledge.

Heller, E. J. (1984). «Bound state eigenfunctions of classically chaotic Hamiltonian systems: Scars of periodic orbits» [Electronic Version]. Physical Review Letters, 53, 1515–1518. doi:10.1103/PhysRevLett.53.1515.

Heller, E. J., & Tomsovic, S. (1993). «Postmodern quantum mechanics» [Electronic Version]. Physics Today, 46(7), 38–46. doi:10.1063/1.881358.

Hellmann, G., & Neuhaus, R. (1893). Schneeskrystalle: Beobachtungen und Studien. Berlin: Mueckenberger.

Hempel, C. G. (1965a). «The function of general laws in history» [1942]. In C. G. Hempel (Ed.), Aspects of scientific explanation, and other essays in the philosophy of science (pp. 232–243). London: Macmillan.

Hempel, C. G. (1965b). «Aspects of scientific explanation.» In C. G. Hempel (Ed.), Aspects of scientific explanation: And other essays in the philosophy of science (pp. 331–496). London: Macmillan.

Hempel, C. G. (2001). «Explanation in science and history» [1963]. In: The Philosophy of Carl G. Hempel: Studies in science, explanation, and rationality (pp. 276–296). Oxford, New York: Oxford University Press.

Hooke, R. (1961). Micrographia [1665]. New York: Dover Publications.

Kepler, J. (1966). The six-cornered snowflakeI [1611]. Oxford: Clarendon Press.

Klein, U. (2003). Experiments, models, paper tools: Cultures of organic chemistry in the nineteenth century. Stanford, CA: Stanford University Press.

Latour, B. (1986). «Visualization and cognition: Thinking with eyes and hands.» Knowledge and Society: Studies in the Sociology of Culture Past and Present, 6, 1–40.

Latour, B. (1990). «Drawing things together.» In M. Lynch & S. Woolgar (Eds.), Representation in scientific practice (pp. 19–68). Cambridge, MA: MIT Press.

Latour, B. (1999). «Circulating reference: Sampling the soil in the Amazon forest.» In B. P. Latour (Ed.), Pandora’s Hope: Essays on the reality of science studies (pp. 24–79). Cambridge, MA: Harvard University Press.

Laughlin, R. B., & Pines, D. (2000). «The theory of everything» [Electronic Version]. Proceedings of the National Academy of Sciences, 97, 28–31.

Laughlin, R. B., Pines, D., et al. (2000). «The middle way» [Electronic Version]. Proceedings of the National Academy of Sciences, 97, 32–37.

Libbrecht, K. G. (2006). Field guide to snowflakes. St. Paul: Voyageur Press.

Libbrecht, K. G. (2011a). Snowcrystals.com. Retrieved 3 April 2011 from http://www.its.caltech.edu/atomic/snowcrystals/photos/photos.htm; http://www.its.caltech.edu/atomic/snowcrystals/photos2/photos2.htm; http://www.its.caltech.edu/atomic/snowcrystals/photos3/photos3.htm.

Libbrecht, K. G. (2011b). Snowcrystals.com. Retrieved 3 April 2011 from http://www.its.caltech.edu/atomic/snowcrystals/faqs/faqs.htm.

Morgan, M. S. (2001). «Models, stories, and the economic world.» Journal of Economic Methodology, 8, 361–384.

Morgan, M. S. (2007). «The curious case of the prisoner’s dilemma: Model situation? Exemplary narrative?» In Creager et al. 2007, pp. 157–185.

Morse, P. M., & Feshbach, H. (1953). Methods of theoretical physics, vol 2. New York: McGraw-Hill.

Nakaya, U. (1954). Snow crystals: Natural and artificial. Cambridge: Harvard University Press.

Ong, W. J. (1982). Orality and literacy: The technologizing of the word. New York: Routledge.

Oreskes, N. (2007). «From scaling to simulation: Changing meanings and ambitions of models in geology.» In: Creager et al. 2007, pp. 93–124.

Poisson, S. D. (1835). Théorie analytique de la chaleur. Paris: Bachelier.

Porter, T. M. (1995). Trust in numbers: The pursuit of objectivity in science and public life. Princeton: Princeton University Press.

Porter, T. M. (1999). «Quantification and the accounting ideal in science.« In M. Biagioli (Ed.), The science studies reader (pp. 394–406). New York: Routledge.

Rheinberger, H.-J. (1997). Toward a history of epistemic things: Synthesizing proteins in the test tube. Stanford: Stanford University Press.

Ricoeur, P. (1984). Time and narrative, Vol. 1. (K. McLaughlin & D. Pellauer, Trans.). Chicago: University of Chicago Press.

Schweber, S. S. (1993). «Physics, community, and the crisis in physical theory.» Physics Today, 46, 34–40.

Smith, C., & Wise, M. N. (1989). Energy and empire: A biographical study of Lord Kelvin. Cambridge: Cambridge University Press.

Swammerdamm, J. (1682). Histoire générale des insectes. Utrecht: Guillaume de Walcheren.

Tilghman, S. (2009, October 13). Schmidt fund to advance science through support for transformative technology [announcing a $25 M endowment fund from Google CEO Eric Schmidt and his wife Wendy]. News at Princeton. Retrieved 3 April 2011 from http://www.princeton.edu/main/news/archive/S25/54/00M94/.

White, H. (1973). Metahistory: The historical imagination in nineteenth-century Europe. Baltimore: Johns Hopkins University Press.

Wise, M. N. (2004). «Afterward.» In M. N. Wise (Ed.), Growing explanations: Historical perspectives on recent science (pp. 327–332). Durham: Duke University Press.

Wise, M. N., & Brock, D. (1998). «The culture of quantum chaos». Studies in History and Philosophy of Modern Physics, 29, 369–389.

Notas

{1} Traducción, por Lino Camprubí, del artículo de M. Norton Wise, «Science as (Historical) Narrative» –Erkenntnis. An International Journal of Scientific Philosophy (2011) 75:349-376, publicado online: 21 octubre 2011–, que apareció en un número especial de Erkenntnis sobre «epistemología histórica.» Matthew Norton Wise es profesor de Historia de la Universidad de California, Los Angeles.

{2} Agradezco los comentarios extensos de Mary Morgan, Lorraine Daston y mi ya por largos años colaboradora y musa Elaine Wise, así como los de Guido Barbujani, Krishna Veeramah, Philip Kitcher, Manfred Laubichler y un árbitro anónimo particularmente inquisitivo. Una versión previa de este trabajo se benefició de los comentarios por parte de los participantes en el congreso sobre epistemología histórica del Max Planck Institute for History of Science, celebrado los días 24 a 26 de julio de 2008.

{3} Mi discusión sobre los vínculos entre tecnologías y relatos viene inspirada directamente por los recientes trabajos de Mary Morgan sobre el uso que los economistas hacen de relatos para construir sus modelos (Morgan, 2001, 2007). Más en general, también sigo los trabajos de Hans-Jörg Rheinberger, por ejemplo los dedicados a la historicidad, relatos y reflexión (1997: ch. 11): «los sistemas experimentales contienen remanentes de viejos relatos así como componentes de relatos que están por venir» (p. 186). Para él, los relatos son «generadores de novedad epistemológica» (p. 229). Otras fuentes relevantes sobre estructuras narrativas en evolución, primatología y matemáticas son Beer, 1983; Haraway, 1989; y Alexander, 2002; en todo caso, estos últimos están más interesados en mostrar cómo relatos relacionados con las ciencias expresan preferencias culturales más generales.

{4} Berman usa sus perspectivas sobre el lenguaje frente al posmodernismo historicista y relativista, aunque gran parte de sus teorías son independientes de este objetivo. Un contraste útil que utiliza el propio Berman puede encontrarse en Ong, 1982.

{5} Para el significado de este cambio desde el análisis microscópico al macroscópico en la física británica puede verse Smith y Wise, 1989: 146-168. Tuvo una importancia capital en áreas tan dispares como la electrostática (Green), la teoría ondulatoria de la luz (MacCullagh), estudio de sólidos elásticos (Stokes) y la teoría electromagnética (Maxwell).

{6} El razonamiento de Fourier para justificar este paso estaba lejos de ser usual. Poisson dedicó un libro entero (1835) a poner en cuestión su validez.

{7} Courant y Hilber (1953: 69-73). Los autores refieren a «textos elementales» (p. 4, n. 1) a aquellos autores interesados en aplicaciones físicas. La demostración para funciones contínuas en términos de elementos la ofreció Dirichlet en 1829 (1889 y 1837).

{8} Puede verse un análisis más detallado con referencias a los textos en Smith y Wise 1989: 192-194. Es probable que Thomson no conociera aún el trabajo de Dirichlet sobre la convergencia.

{9} Morgan (2007) muestra cómo el modelo matricial 2x2 del dilema del prisionero, aparentemente simple, solamente adquiere su riqueza de significados a través de las historias con que los economistas lo recubren e interpretan.

{10} Laughlin y Pines (2000) fundamentaron en esta limitación la polemica crítica de la mecánica cuántica deductiva y reductiva que presentaron en su manifiesto para el siglo XXI y defendieron que hacía falta otro enfoque para tratar sistemas complejos comunes y sus propiedades emergentes. Hablaban de una nueva física de la «materia compleja adaptativa» (pag. 30). Ellos y sus colaboradores han ampliado estos análisis a sistemas mesoscópicos, incluso bio-moleculares (Laughlin et al., 2000).

{11} Heller y Tomsovic (1993); sobre el lugar de este trabajo en las diferentes corrientes dentro de la física de la complejidad puede verse Wise y Brock (1998).

{12} Los biólgos insistirán en que este desarrollo no puede ser llamado propiamente evolución. Sin duda tendrán razón, pero conviene mantener este sentido más amplio para no perder de vista la orientación explícitamente biológica de Heller y Tomsovic.

{13} Lorraine Daston me ha advertido de una excepción previa (Hellmann et al. 1983). Véase Daston et al. (2007: 148-155).

{14} Incluso la teoría del Big Bang y de la evolución del cosmos no han transformado las partículas elementales en objetos históricos, seguramente porque no se llega a ellos por métodos de trabajo evolucionistas.

{15} Una analogía más ajustada podría ser el crecimiento de varios tipos diferentes de tejidos a partir de una célula madre de un solo tipo. Laughlin et al. (2000), también hablan de «evolución» (p. 35), crecimiento (32), envejecimiento (32, 34), adaptación (materia compleja adaptativa) y comportamiento (36) para capturar la analogía de los procesos físicos con los biológicos. De hecho, dan la pista de que el fenómeno de la protección, es decir, la independencia de un sistema físico mesoscópico respecto de los pequeños cambios en las leyes y estructuras microscópicas, puede aparecer en biología «por la necesidad de tolerar la diversidad.»

{16} Este tipo de explicaciones no son tan sorprendentes en ciencias «de campo» tales como la geología, pero el argumento es igualmente válido: las simulaciones son explicativas en tanto fundamentan historias narrativas y relatos (Oreskes, 2007).

{17} Las breves discusiones de Hempel sobre explicaciones «histórico-genéticas» o simplemente «genéticas» (Hempel 1965b: 447-453; Hempel, 2001: 287-289), es decir, referidas a la génesis de un acontecimiento parecerían prometedoras para incluir relatos y simulaciones, pero Hempel siempre reducía toda explicación genética válida a una secuencia de estados conectados mediante explicaciones nomológicas, a lo sumo combinadas con descripciones.

{18} Y eso que Danto creía estar representando la «revolución» historicista que Thomas Kuhn y Norman Hanson habrían supuesto frente a Hempel (Danto, 1985: xi). Tal revolución, sin embargo, no hablaba de la ciencia como un relato ni atacaba la deducción como explicación, si bien insistía en que la observación siempre depende de la teoría y está sujeta a interpretación, lo cual en cierta medida reintroducía la historia en la historia de la ciencia.

{19} Puede verse, en todo caso, la breve referencia de Ricoeur a cómo las explicaciones «cosmológicas, geológicas y biológicas» requieren remontarse al pasado para comprender las condiciones en las que se gestaron situaciones presentes que, sin embargo, no permiten a su vez hacer predicciones futuras (Ricoeur, 1984: 135).

{20} Dejo de lado la insistencia de la escuela de los annales en que la historia social, en tanto cuantitativa y llena de modelos matemáticos, es en realidad científica más que narrativa, pues ésta es precisamente la dicotomía que intento rechazar.

 

El Catoblepas
© 2012 nodulo.org