Nódulo materialistaSeparata de la revista El Catoblepas • ISSN 1579-3974
publicada por Nódulo Materialista • nodulo.org


 

El Catoblepas
  El Catoblepasnúmero 7 • septiembre 2002 • página 17
Artículos

¿Modelo universal de la «mente»?

Eduardo Daniel Schurzbok

Este ensayo se presenta como un borrador, abierto a la discusión,
de lo que podría ser un modelo universal de la «mente»

Prólogo

Este es un ensayo filosófico motivado en primer lugar por la creencia de haber vislumbrado un modelo universal para eso que llamamos «mente», y en segundo lugar por la posibilidad de desarrollar nuevas capacidades humanas y quizá optimizar el funcionamiento de las sociedades humanas. Las ideas aquí expresadas procuran ante todo alcanzar un conocimiento burdo... pero pertinente, semejante a los «átomos» de Demócrito de Abdera, con los que el mismo trató de explicar la materia en la antigua Grecia, pero también dar nuevas perspectivas y provocar.

Aunque trate el tema del infinito, que en la cuestión de la mente resulta imprescindible, téngase en cuenta que el punto de vista aquí expresado es ateo. Esto es sólo un comienzo y más bien un borrador: aceptaré gustoso toda clase de críticas (si vinieran de lógicos, matemáticos o científicos empíricos mejor aún). Debo aclarar que no poseo estudios universitarios y este ensayo es producto de organizar montones de intuiciones con diversa información que no las avala en general.

La clave quizá esté en los procesos emergentes y autoorganizados

En lo que tendríamos que estar de acuerdo al menos es que lo que denominamos «mente» es algún subsistema cerebral que surgió en algún antepasado homínido. La cuestión es dar con algunas ideas que nos permitan imaginar cómo podría darse un sistema semejante en otros sistemas físicos que no tengan relación con los humanos. Una característica notoria de tal subsistema cerebral es que manifiesta propiedades que sus componentes, las redes neurales básicas, no poseen, tales como conciencia, manejo de lenguaje abstracto, capacidad de optar no en forma plenamente determinista.

En la naturaleza ocurren muchas clases de fenómenos físicos en los cuales el conjunto de los componentes de un sistema tiene propiedades que no poseen del todo o en menor grado cada componente. Por ejemplo cada molécula de un organismo no está viva sino en el conjunto del organismo, un conjunto de gotas en una ola solitón se comporta en forma muy extraña ya que se mantienen todas juntas conservando la ola su forma mucho tiempo sin deshacerse en espuma, un conjunto crítico de hormigas comienza a formar un hormiguero que manifiesta tal organización que supera la capacidad de actuar de cada hormiga.

Un hormiguero es ejemplo de fenómeno emergente, pero un organismo además manifiesta un fenómeno de autoorganización, la diferencia es que en este último se produce un cierto mecanismo de memoria que autorreproduce el fenómeno emergente.

Posible caracterización de un sistema autoorganizado

1) el sistema posee en conjunto propiedades que no las tienen sus componentes.

2) los elementos constituyentes del sistema tienen complejidad, no son los más sencillos.

3) ciertos elementos del sistema resultan codificar a otros del mismo.

4) dentro del sistema se conforma un subconjunto nuclear que constituye el mecanismo de memoria que automantiene al sistema.

5) el sistema posee mucha información redundante.

6) el sistema tiene orden pero también hay que reconocer que posee azar, los que están relacionados inextricablemente.

7) aparecen ajustes muy finos y sorprendentes del sistema con el entorno.

Las características anteriores podrían quizá aplicarse a los procesos mentales

1) las propiedades mentales no son poseídas por los grupos de neuronas que conformarían las memorias elementales del conjunto que daría lugar a la mente.

2) los elementos no pueden ser cualquier tipo de memoria sino aquellas que sustentan a los conceptos (MSC)

3) habría que postular la existencia de ciertas MSC que codificarían a otras MSC.

4) hay que postular que existe un subconjunto de MSC que actúa como un mecanismo que automantiene el fenómeno emergente.

5) el sistema de la mente debe poseer bastante redundancia esto se reconocería por la gran tendencia a mantenerse y recuperarse el sistema ante toda clase de traumas.

6) el sistema posee aleatoriedad incorporada a procesos ordenados, como es notorio en los procesos creativos, intuitivos.

7) un ajuste notable que genera el sistema es la producción de modelos muy precisos de la realidad por medio de las matemáticas y la lógica, tan extraño parece esto que dio lugar al mundo de las ideas de Platón y los matemáticos suelen ser platónicos en su mayoría cuando no se les pregunta qué es lo que hacen y formalistas cuando se les pide que den cuenta de lo que hacen (del libro Experiencia Matemática de Reuben Hersch y Philip Davies). (Los objetos matemáticos y lógicos sorprenden porque todos podemos estar de acuerdo sobre ellos como si fueran objetos físicos, quizá una explicación sencilla y no esotérica sea que todos podemos coincidir porque de todos los imaginados suelen ser los mínimos. Pero no en todos los casos se pueden establecer propiedades mínimas, tal es la cuestión que queda planteada desde el teorema de incompletitud de la aritmética y sistemas afines de Kurt Gödel el cual lleva a matemáticas no estándar como el análisis no estándar de Abraham Robinson. Si tratáramos habitualmente de matemáticas no finitas es posible que no habría la unanimidad como para creer en cielos platónicos.)

Autoorganización y evolución

Según el físico y neurólogo William Calvin{1} se podría caracterizar a los procesos darwinistas del siguiente modo:

1. Se necesita una pauta característica.
2. Que la misma pueda ser copiada.
3. Que la misma pueda tener variaciones ocasionales.
4. Que haya poblaciones diversas de la pauta que compitan por espacio limitado.
5. Que haya un entorno que oficie de selector.
6. La siguiente ronda de variantes se basa en aquellas pautas que tuvieron mayor éxito reproductivo.

La cuestión esencial creo que está en la naturaleza de la pauta característica. Propongo que tal pauta es generada por algún proceso de autoorganización. Observemos que los procesos de autoorganización se automantienen copiándose. Tales procesos más que ser de una sola clase parecen ser como una familia de procesos de manera que más o menos lo mismo puede lograr el sistema por diferentes caminos.

Por lo anterior es que podría tener variaciones ocasionales. De la misma manera a todo el sistema autoorganizado quizá haya que verlo como un conjunto de subpautas compitiendo en un espacio limitado donde puede darse el sistema y aún unas pueden estar activas y otras estar latentes. El entorno particular donde puede darse el proceso autoorganizado oficia de selector y podrían aparecer subpautas prevalentes.

Lo anterior ¿podría aplicarse a los fenómenos mentales?

Se necesita cierta pauta del proceso mental que se copie. Es posible que muchas memorias se copien automáticamente y aún se autoprocesen en un sistema muy complejo que no evite el azar. El mecanismo mental en sí mismo tendría que ver con una autoorganización de memorias y el copiado en el caso de la mente humana quizá ocurra precisamente por un ciclo muy conocido: el de vigilia-sueño. (Ese sería el gran proceso de copiado, pero aparte habría otras subpautas que se copiarían: serían como «genes» y el conjunto como un «genoma».)

Quizá siguiendo esta línea conjetural nuestra mente está variando mucho más de lo que nos parece y hay ciertas subpautas que compiten con otras y que naturalmente provocarían indecisión, quizá lo frustremos brutamente cortando tal nudo gordiano.

¿Cuáles serían las matemáticas y lógicas más idóneas para describir y modelar los sistemas complejos?

Esta propuesta tiene mérito en sí misma, pero recordemos que Von Neumann antes de morir lanzó un desafío a los matemáticos para que procuren explicar matemáticamente el origen y la evolución de la vida (y podríamos también decir que la cuestión de la mente, ya que él la estuvo tratando, pero era demasiado pedir).

Existen algoritmos que simulan procesos aleatorios y algoritmos genéticos que simulan procesos evolutivos. No conozco que se haya simulado procesos de autoorganización por medio de algoritmos.

La clasificación entre sistemas simples y complejos es un gran problema, porque se han intentado muchas definiciones de sistema complejos, pero son divergentes y al fin parece que los sistemas complejos son trivialmente... sistemas simples complicados y nada más.

Sin embargo si le damos la derecha a matemáticas no estándar, las mismas, quizá, podrían servir para definir la complejidad, posiblemente cuando un sistema alcance tal complicación que su representación matemática en un modelo no corresponda a sistemas axiomáticos completos sino incompletos. Esto significa que el tal modelo corresponde a un sistema axiomático dentro del cual se pueden formular proposiciones que dentro del sistema no son ni verdaderas, ni falsas (esto es lo que halló Gödel en la aritmética).

El matemático David Hilbert llevaba el plan más amplio para fundamentar las matemáticas al comienzo del siglo XX. Así había propuesto varios problemas a resolver referidos a tal tema en una célebre reunión de matemáticos en 1900, dos de ellos que nos interesan por sus consecuencias: toda proposición matemática ¿puede demostrarse siempre ser o verdadera o falsa? y ¿existe un único método mediante el cual todos los enunciados matemáticos demostrables puedan ser demostrados a partir de un sistema de axiomas lógicos?{2}

La primer cuestión fue resuelta negativamente por Kurt Gödel en 1931 y la segunda por varios matemáticos en 1936, aunque la demostración más famosa y que fue más directamente al grano, la realizó Alan Turing inventando para tal propósito sus teóricas computadoras conocidas como Máquinas de Turing. Turing también resolvió la cuestión negativamente: no se puede tener un método general de demostración porque ello equivaldría a saber cuando una computadora (él lo hizo en abstracto con su máquina abstracta) alimentada con programas aleatorios se detendría. Generalmente una computadora se detiene cuando ha resuelto un problema o sufre una caída, pero puede caer en un loop y habrá que resetearla.

Es interesante notar que si Hilbert hubiera tenido éxito se habrían mecanizado las matemáticas o mejor dicho informatizado las matemáticas de modo que cualquier trabajo matemático podría llevarse a cabo sólo por programas informáticos que darían solución a los problemas existentes y plantearían otros nuevos que irían resolviendo. (Esto no se le ocurrió a Hilbert pero es una consecuencia si su plan hubiera tenido éxito).

Prosiguiendo en el camino de Gödel y Turing el matemático Gregory Chaitin se planteó la probabilidad de que un computador se detenga si es alimentado con programas aleatorios (los cuales pueden ser ristras aleatorias de ceros y unos). ¡El resultado sorprendente es su número Ω que resulta incomputable! El mismo puede intentar aproximárselo hasta cierto n obteniéndose un Ωn pero nunca se conocerá el Ω verdadero y no sólo porque es un número de infinitos decimales sino porque se produce una dificultad intrínseca para conocer con toda precisión p. ej. los primeros mil bits (es un número real en binario). Chaitin ha logrado construir una megaecuación diofántica (sólo admite números naturales) con un cierto parámetro también número natural para la cual se pregunta cambiando el valor del párametro si la ecuación tendrá un número finito o infinito de soluciones en números naturales. Según sea va obteniendo los bits de un Ωn, si el resultado es finito el bit es 0 y si hay infinitas soluciones el bit es 1. No hay otro modo de conocer los dígitos de Ω que tirando una moneda.{3}

El azar solía ser cosa de los sistemas físicos no de los sistemas matemáticos. Pero también aparte de Chaitin, un matemático Mitchell Feigenbaum encontró el caos iterando una función de segundo orden (parabólica) con un parámetro y para determinado valor crítico de dicho parámetro. (Iterar significa introducir sucesivamente el resultado obtenido en la variable independiente «x» y lograr uno nuevo..., tal cosa la hizo en el tramo entre 0 y 1). ¡Obtuvo de su trabajo una constante universal que luego la hallaron científicos analizando sistemas caóticos reales!{4}

Si lo de Feigenbaum es importante, mucho más lo es el resultado de Chaitin ya que surge de problemas profundos en las matemáticas. Y el Ω de Chaitin ha traído cría, ya que Verónica Becher y Sergio Daicz, de Exactas de la UBA (Universidad de Buenos Aires){5}, han demostrado que existen los superomegas o hiperomegas Ω', Ω'', Ω''',... cada uno de los cuales es la probabilidad de detención en cómputos infinitos, o sea los oráculos que también había imaginado Turing y que son de jerarquías cada vez más elevadas. Los oráculos son computadores que realizarían cómputos infinitos.

Los procesos de autoorganización pueden verse como orden producido por sucesos aleatorios, para esto no se tenía ninguna representación matemática idónea, el trabajo de Chaitin y de Feigenbaum muestra que hay cosas mejores (en principio) para representar formalmente el azar que los algoritmos pseudoaleatorios; y quizá, los superomegas ¿podrían formalmente ser una representación idónea de procesos de autoorganización? (me lo pregunto porque la salida finita de un proceso infinito desde una perspectiva finita ¿no sería vista como orden surgiendo del azar?).

Es necesario tratar además la cuestión de lógicas no estándar (o no bivalente: valor de verdadero o falso) porque cuando pensamos no lo hacemos siempre razonando perfectamente, sino también pensando intuitivamente y así logramos producir verdaderos nuevos pensamientos y además siempre queda sin explicar qué es eso de «intuir».

El razonamiento perfecto es equivalente a un pensamiento acorde con la lógica bivalente y también con un programa informático y asimismo con un proceso determinista (¿dónde está el problema para admitir esto?), pero cuando no razonamos no pasamos directamente a pensar aleatoriamente sino que lo hacemos con cierta estructura. ¡Por consiguiente tal pensamiento no razonativo tendría que tener características lógicas no estándar! (Y la intuición quizá implique procesos que se tendrían que expresar en lógicas no estándar y que puedan derivar hacia procesos expresables en lógica bivalente).

Hay una característica de la lógica bivalente que hace que un sistema axiomático, como toda concreción informática, no produzca nada nuevo y es la denominada tautología: no se puede deducir sino lo que está ya en el sistema de un modo implícito o explícito.Esto llevaría a pensar que la lógica bivalente no sería idónea para describir procesos evolutivos.

Ahora bien, es notorio como en las dos grandes teorías de la física del siglo XX, la relatividad y la mecánica cuántica, al cambiar ciertos conceptos hubo que variar el concepto del entorno o del marco físico. Así es, en la relatividad el marco donde ocurren los fenómenos físicos está constituido por el espacio y el tiempo, los cuales se vieron afectados por el principio de relatividad y tuvieron que integrarse en el concepto de espacio-tiempo, ya que por separado varían notablemente generando las conocidas paradojas relativistas.

En el caso de la mecánica cuántica al establecerse el principio de incertidumbre hubo que modificar como consecuencia la noción de vacío el cual ya no era tal sino que tenía que tener siempre a ciertas partículas no detectables directamente: las virtuales (pero sí indirectamente a través del efecto Casimir) y así poseer una densidad de energía distinta de cero.

Pues algo semejante podría pasar cuando intentáramos representar por medio de un posible modelo lógico-matemático el proceso de pensar que es sumamente autorreferente y tendría que hacer colapsar mas bien temprano que tarde la lógica bivalente (en dicho modelo, en la realidad tendrían que ocurrir procesos que si se pudieran representar en retículos –objetos matemáticos que utilizó Von Neumann y G. Birkhoff– éstos no representarían sucesos lógicos bivalentes. Por medio de esas construcciones matemáticas Von Neumann mostró que ciertos fenómenos cuánticos tienen relaciones en los retículos semejantes a los de una lógica trivalente: verdadero, falso e indeterminado).{6} Esta propuesta es naturalmente abominable para lógicos, matemáticos y científicos en general.

El problema es que no se concibe que dejemos en algún momento de utilizar la lógica bivalente, y como vimos no la utilizamos constantemente y es más la naturaleza no la utiliza siempre ya que en la mecánica cuántica: ¿qué sino la lógica distinta es lo que tenía desconcertados a los físicos por los años 20 del siglo XX, hasta que se acostumbraron a los «malditos saltos cuánticos», ya que las matemáticas no eran nada extrañas?

Quizá haya que concebir que en realidad un sistema de procesamiento complejo siempre aunque tenga ciertos procesos no expresables por la lógica bivalente sí tiende hacia procesos computables y los alcanza. Creo que habría que imaginar un proceso dinámico que tiene altos esporádicos expresados en procesos no computables y acordes con lógicas no estandard y derivaciones hacia procesos estables y computables y acordes con la lógica bivalente. O sea si hay colapso de la lógica bivalente es sólo momentáneo.

Por otra parte así como en fenómenos cuánticos hay que admitir una brevísima no conservación de la energía, a lo mejor habría que admitir brevísimas suspensiones de la lógica bivalente en procesos de sistemas complejos y no sólo cuánticos sino que estén dentro del caos clásico. (Esto significaría que los fenómenos mentales no serían atribuibles a fenómenos cuánticos, y así se garantiza algo evidente: no hay microbios con mente).

Cuestión del infinito

Es fundamental tratar esta cuestión para intentar explicar eso que denominamos mente, ya que tal sistema permite producir el infinito de modo explícito, lo cual no es otra cosa que simular procesos no finitos por medio de procesos finitos. Esto se ve claramente en los procesos finitos por los que se demuestra que una serie infinita es convergente en matemáticas.

Pero cualquier idea es una clase universal, tiene un carácter infinito. La cuestión es cómo un sistema finito logra producir ideas. Las ideas sean lo que sean, son objetos de memoria, así que el problema en última instancia está en concebir cómo memorias físicas podrían producir ideas. Dejemos esta cuestión por ahora, y veamos cómo se podría producir eso que denominamos infinito.

El infinito o existe por sí mismo o se simula mediante procesos finitos. La cuestión de si existe por sí mismo no es una cuestión meramente teológica, podría darse un estado fundamental de la existencia que tenga alguna/s propiedad/es infinita/s sin ser algo absoluto (una forma básica del vacío cuántico sin campos de fuerza organizados quizá, del cual podría haber surgido nuestro universo y quizá otros).

Pero en general nos van a interesar los procesos finitos que simulan procesos infinitos. Feigenbaum encontró resultados caóticos superando determinado valor crítico de un parámetro de funciones cuadráticas o determinadas trigonométricas, lo cual indica azar y el azar es como una niebla detrás de la cual se pueden ocultar procesos infinitos. Observemos que los números racionales tales como cualquier fracción, por ejemplo, 3/4, pueden representarse como una serie infinita de decimales y se caracterizan porque tienen un ciclo de dígitos que se repiten sin fin. Cualquier número irracional como π constaría de un único ciclo si fuera posible. Así podemos suponer que el determinismo está relacionado con números racionales y el azar efectivo con números irracionales. Esto parece una deducción apresurada, sin embargo, es efectivamente cierto que las máquinas de Turing están relacionadas con conjuntos numerables a los que precisamente pertenecen los números racionales (naturales y fracciones) y además se ha demostrado que las ecuaciones diofánticas (en valores naturales) pueden funcionar como máquinas de Turing (resultado que utilizó Chaitin para construir su megaecuación con miles de variables naturales) descubrimiento de Yuri Matiyasevich.

Por lo dicho el azar permitiría realizar representaciones implícitas de procesos infinitos y sobre todo después de los estudios de Benoit Mandelbrot{7} quien identificó los fractales (es bueno saber{8} que los fractales aparecieron encubiertamente en las funciones no derivables cuyos ejemplos formaron la galería de monstruos que no le gustaban al matemático francés Henri Poincare y que el estudio de tales funciones provino de la transformada de Fourier y que llevó a Georg Cantor a los números transfinitos que son clases de números: À0 sirve para todos los números naturales y racionales y À1 para los números irracionales como √2, π, &c., pero hay infinitos transfinitos) y que ha señalado que la teoría de probabilidades no sirve para describir todos los procesos aleatorios, lo hace bien con los ruidos blancos tales como la lluvia en la pantalla de un televisor, pero no con los llamados ruidos de color como los 1/f, que darían lugar a otro tipo de azar al que denominó salvaje. Esta situación abre el camino creo, a teorías de probabilidades no estándar que quizá puedan adecuarse para describir procesos que nos importa aquí: los de autoorganización ya que ¿cómo se podría calcular de algún modo la probabilidad de tales fenómenos? Parece que la actual no lo permite ni imaginar.

El proceso finito podríamos decir más potente para simular procesos infinitos es la autorreferencia. Tal proceso lo utilizó Gödel para demostrar la incompletitud de la aritmética, codificó la aritmética por medio de números primos (sólo divisibles por sí mismos y la unidad como 5, 7, 11) y produjo una proposición puramente aritmética que equivalía a decir algo así como «estoy mintiendo» la cual si es cierta es falsa y si es falsa es cierta o sea es indecidible. La autorreferencia parece un mero truco, pero como observó Douglas Hofstadter, autor de Gödel, Escher, Bach (G.E.B.) es una forma finita de representar un proceso infinito (a tales procesos los denominó allí bucles extraños porque suelen ser paradójicos como en forma visual las manos que se dibujan a sí mismas de un grabado de Escher o en forma musical cierto canon de Bach). Pero la autorreferencia aparece naturalmente (o como un truco de la naturaleza) en eso que denominamos consciencia y claramente en la autoconciencia que nos da el sentido del propio yo.

El infinito también se da de un modo muy especial en eso que denominamos valores tales como verdad, belleza, justicia, bondad, &c. La cuestión se ha puesto muy interesante respecto a los valores después del teorema de incompletitud de Gödel, ya que se deduce del mismo que existen verdades no demostrables,

tales que sólo podrían comprobarse en un número finito de casos siempre creciente pero no en todos.

Es interesante observar que la búsqueda de cualquier verdad demostrable no es un proceso algorítmico, así que la de verdades no demostrables sería un proceso francamente aleatorio!

Claro que para dar con la verdad es necesario darse cuenta de cómo conocer, esto parece que le llevó milenios a nuestros ancestros, así como inventar los lenguajes, ya que el pensamiento primitivo fue no racional sino mágico, mítico (es posible que eso ocurra en cualquier sistema físico que genere mente). Pues esa apreciación podrían darla ciertas pautas que convendría denominarlas en general como «estéticas» aunque no lo parezcan.

En cuanto a los otros tipos de valores: los éticos también tienen un carácter universal y aplicable a otros seres humanos (mas habría que ver cómo serían valores aplicables a cualquier tipo de ser consciente en el universo y hacia allí apuntan nuestros conocidos valores éticos aunque seguramente necesitarían cierta revisión) y p. ej. en las sociedades científicas hay que guardar ciertas normas éticas relacionadas con la búsqueda de la verdad como no falsear datos.

Si ocurre que hay verdades demostrables y no demostrables, es posible que haya valores estéticos comprobables y otros no comprobables y así valores éticos comprobables y no comprobables.

Como seres finitos que somos nuestro ámbito de conocimiento es el de las verdades matemáticas demostrables, sin embargo no podemos frenar nuestros procesos mentales que nos llevan a una búsqueda completa de la verdad matemática! Ciertamente tal logro no podrá alcanzarse sino en forma muy escasa porque sería el ámbito de dioses o sea el del conocimiento absoluto. Piénsese que las verdades matemáticas demostrables son infinitas, así que las otras posibles nos superan ampliamente. Esto de las verdades matemáticas absolutas bien puede ser una ilusión (para mí que soy ateo) pero no tanto porque si hubiera ciertas propiedades infinitas en algún estado de la naturaleza (¿un estado primordial del vacío cuántico?) quizá la naturaleza requiera de todo lo que podamos hallar de verdades matemáticas indemostrables y todo esto independientemente de cualquier misticismo, platonismo!

Una aproximación a lo que podría ser la mente

Antes que nada podríamos simplificar las cosas, tomando en cuenta ciertas consideraciones. Así, cosas como inteligencia, consciencia, autoconciencia, libre albedrío, sentimientos podríamos relacionarlos en forma más compacta si convenimos que los sentimientos no hacen al núcleo de la cuestión (nuestros primos biológicos los chimpancés, con los que compartimos casi el 99 % de los genes, tienen sentimientos, pero a pesar que han aprendido en parte el lenguaje de los sordomudos no han superado la edad intelectual de un niño de dos años). La inteligencia podríamos considerarla algún tipo especial de procesamiento (o cómputo, pero no considero adecuada esta palabra ya que los cerebros no son computadoras, lo cual se está haciendo patente en las nuevas ideas que surgen en la teoría de la computación, como se verá algo), la consciencia como producto del control de dicho tipo de procesamiento y el libre albedrío como la capacidad de opción y de acción del sistema con dicho tipo de procesamiento. La autoconciencia sería el núcleo del control de tal tipo de procesamiento. Queda por descubrir de qué se trata tal tipo de procesamiento.

Podríamos considerar a la inteligencia (de tipo humano a ella nos estamos refiriendo) como la capacidad de manejar muchos códigos eficientemente. Consideremos que las computadoras suelen superarnos en alguna tarea específica como calcular y aunque es cierto que cambiando el programa pueden hacer otras tareas muy distintas (de ahí que son máquinas universales: pueden simular a toda una infinidad de máquinas, la cuestión por verse es si tal infinidad es sólo numerable) se puede decir que no tienen flexibilidad para manejar muchos códigos. Es interesante considerar que el control de un procesamiento que maneje con eficiencia muchos códigos se encontraría posiblemente pronto en problemas para controlar el sistema ya que el mismo quizá rápidamente se tornaría no determinista y entonces... pueda ser que se vuelva consciente o sea procure controlar sus propios procesos en sus memorias!, piénsese que la consciencia sirve mas que nada para prever o sea tratar de transformar en determinada una realidad que tiene mucho de indeterminación y azar.

Como dice Marvin Minsky{9} el libre albedrío resultaría una mera ilusión que mantendríamos ya que sino nadie tendría mérito o castigo, ya que para él (y para muchos otros) los procesos son o deterministas o aleatorios. Pero ocurre que existen los de autoorganización. Si según lo que ocurra en sus memorias así será el comportamiento de un sistema, si se diera autoorganización en las memorias del mismo el comportamiento no sería completamente determinado y podría parecer... de libre albedrío y no ser una ilusión!

Nos queda la cuestión de cómo un sistema finito como cada cerebro humano, puede simular explícitamente cosas no finitas.

Si un sistema tuviera una capacidad enorme y eficaz de autorreflexión (no porque piense sino todo lo contrario) el sistema tendría que autorreflejarse sobre sí mismo. Si nos referimos a un sistema con memorias todo el sistema tendría que autorreflejarse por medio de la... información que contenga y que produzca. (Considérense dos espejos contrapuestos y la luz reflejándose al infinito entre los dos, y aún más interesante es una toma de televisión autoenglobada o sea en que la cámara toma la imagen de la pantalla.Tal cosa se muestra en GEB de D. Hofstadter).

Quizá habría que aseverar que pensar, autorreflejar la información contenida y producida en las memorias y concebir lo infinito explícitamente sea ...la misma cosa vista desde distintas perspectivas.

Podríamos agregar que los cerebros funcionan determinados por las percepciones que tienen y en los de los mamíferos con el mecanismo del sueño se comenzó a dar lugar a otro tipo de procesos independientes de las percepciones. Tal el caso de los sueños que producen los cerebros (y posiblemente no sólo en los primates sino en muchos mamíferos en general). Tales procesos espontáneos podrían ser la prehistoria de la mente humana.

Ahora habría que pensar que no todos los fenómenos espontáneos estarían relacionados con el mecanismo del sueño, en la misma vigilia quizá en cerebros tan considerables como los de nuestros antepasados homínidos quizá comenzaron a copiarse los recuerdos espontáneamente y en el proceso evolutivo es posible que se hayan preservado los originales y a continuación en otro proceso se relacionaran quizá percepciones similares p. ej. de todos los árboles creándose nuevas agrupaciones de memoria que podrían ser las que sustenten a conceptos como «árbol» en cuanto se las pueda denominar con un lenguaje (las MSC).

Un posible modelo universal de la mente SPA o SPIA

Por el año 1987 estaba reflexionando sobre qué podría ser eso de la mente y se me ocurrió que tendría que tener algo que ver con «imágenes en una pantalla de televisión».

En eso estaba cuando leí al fin de un libro sobre informática que el matemático británico John Horton Conway había desarrollado un autómata celular al que denominó «Vida» y la corrida del mismo (que va generando diversas formas sobre la pantalla del monitor) da lugar a ciertas formas que se desplazan y se mantienen (gliders o patines, deslizadores, planeadores) y que se vió en un análisis posterior, que podían interactuando consigo mismo, generar puertas lógicas, memorias y servir de transmisores (en lugar de señales electrónicas).

Así imaginé que tal cosa tenía que ocurrir semejantemente para producir mente. Pero no en una pantalla (que es al fin y al cabo una memoria) sino en una memoria interna y qué mejor, que imaginar un computador muy grande que en su memoria de trabajo genere un computador virtual con ciertos elementos de memoria que hagan las veces de los gliders.

Algo así pasaría en el cerebro humano que de todas formas no es ningún computador así que habrá que pensar en otra cosa. Por eso lo denominé Sistema Procesador Autorreferente (SPA) o Sistema Procesador Irreducible Autorreferente (SPIA). (Lo de irreducible va porque en sistemas dinámicos –relacionados con el caos clásico– se piensa que cuando no puede expresarse mediante ecuaciones el sistema tiene capacidad de cómputo).

Hay que recordar que Von Neumann estuvo abocado a tratar de simular el proceso de autorreproducción de los organismos y por ello desarrolló su teoría de autómatas. Aún en la práctica trató de construir un sistema físico autorreproductor, pero resultó mucho más complicado de lo que le parecía y lo abandonó, sobre todo porque Stanislaw Ulam le dijo que tal cosa la podía simular a través de los denominados autómatas celulares que son programas que se corren a partir de una «semilla» y van produciendo diversos resultados. Von Neumann construyó para su teoría de autómatas un autómata celular de 29 estados y John Conway logró idear su Life que es mucho más compacto.

El SPA (o SPIA) nos lleva a pensar también en un supervirus informático que ha entrado en «simbiosis» con la memoria central de un supercomputador. Esta idea lleva también a una realidad biológica la de las células nucleadas (que conforman todos los organismos pluricelulares) que se ha descubierto que en realidad son una simbiosis entre microorganismos primitivos.

Ciertamente no sé explicar cómo podría funcionar el SPA (o SPIA que constaría de un sistema procesador básico –SPB– que carga en su memoria de trabajo a un sistema procesador Virtual –SPV– que cuando llegue a procesar en «simbiosis» con el SPB, generará el proceso autorreferente) pero pareciera muy eficaz en simular procesos no finitos como se quiera: convertir un mero código de comunicación en un verdadero lenguaje o el control del SPB en un autocontrol o sea... ¡consciencia!

Quizá en los cerebros humanos el SPB equivalga a todo el proceso de percepciones y el SPV a todo un proceso espontáneo y autoorganizado de procesamiento de recuerdos y que funcionaría en simbiosis en y con el SPB.

Serán válidas, a grosso modo, estas ideas?, o habrá que desecharlas junto con las máquinas de movimiento perpetuo? No lo sé.

Otros posibles procesos de autoorganización y mi motivación para hacer este ensayo

Las buenas teorías son como brújulas que guían para obtener tecnologías eficaces. Una buena teoría de la mente podría derivar en psicotécnicas eficaces aplicables en principio a todos los humanos.

Mi principal motivación en tratar de desarrollar todas estas ideas estuvo en la posibilidad de que una teoría pertinente sobre la mente, podría ayudar a desarrollar psicotécnicas que nos permitan a todos los humanos (y a todo sistema que tenga una mente) a mejorar nuestras capacidades tales como: la atención, el autocontrol de las pasiones, la capacidad de tomar decisiones, &c.

Es preciso reconocer que el desarrollo insensato de la inteligencia artificial es uno de los más grandes peligros que tendrá que afrontar la humanidad.

Es necesario percatarse que cada cerebro humano es un sistema muy potente de conocimiento, pero que por sí mismo puede poco, realmente se necesita a toda una sociedad, a sociedades humanas diversas en evolución para proveerle información a un solo cerebro humano y esto es posible que se dé en toda clase de sistemas que puedan generar «mente». Realmente podría existir la posibilidad que la naturaleza produjera nuevos sistemas por medio de nuevos procesos de autoorganización. Pero en los próximos vamos a estar involucrados ya que somos parte de la naturaleza! ¿A qué me refiero? Quizá las sociedades humanas puedan autoorganizarse (no sabría decir cómo) pero sí podría ocurrir alrededor de la ciencia. La ciencia, guste o no, es el mejor sistema de conocimiento fiable y como tal es muy conveniente para la supervivencia y aún mejorar su calidad. Pudiera ser que todos los humanos de un modo u otro colaboren con la ciencia directa o indirectamente centrándose en la búsqueda de verdades matemáticas no demostrables (para todos los casos sino para un número finito y creciente de casos) y en las posibles aplicaciones a diversos sistemas reales. Si todas las personas pudieran ser preparadas para tal cosa, muy útil por otra parte, quizá sería más probable el altruismo. Y como tal tarea alrededor de la ciencia requeriría de cualquier cantidad de «mentes» aún podría haber cooperación con otros seres naturales o artificiales y repartirse los beneficios.

Me he referido a los valores y no sólo al de verdad. En la lógica matemática se ha establecido que ningún sistema de reglas podrá caracterizar a todas las verdades y de creer como lo hace el filósofo John Myhill como cita Douglas Hofstadter{10} que la belleza también tiene tal carácter, yo agrego además a los éticos. El motivo es que todos los valores podrían relacionarse con el valor verdad buscando de definirlos en función de algún modo de información. De la verdad se puede decir que es el valor instrumental ya que sirve para incrementar la información, de la belleza podría decirse que permitiría localizar dónde hay más contenido de información (por eso serviría para saber cómo conocer) y los éticos, en tanto y en cuanto sean debidamente depurados, permitirían que la información se distribuyera mejor y no disminuyera sino al contrario en las sociedades de seres inteligentes.

Todas estas consideraciones podrían servir para comprender lo que sería el sistema de las ciencias estudiándose a sí mismo (y no para que los científicos se miren el ombligo) sino en el sentido del bucle extraño al que se refería D. Hofstadter en GEB ya que conociéndose mejor a sí misma se podría conocer más profundamente toda clase de cosas. Y en el centro e íntimamente relacionado con tal bucle extraño estaría el problema de la consciencia ya que no hay científico que conozca sin... consciencia!

¿¡Pura utopía!? Puede ser, sería bueno comenzar a examinar la cuestión no obstante.

¿Hacia una nueva teoría de la computación y una nueva inteligencia artificial?

En las últimas décadas se ha visto la posibilidad de máquinas que superen a las máquinas de Turing. Las mismas son expresión de funciones recursivas pero como nos dice Hilary Putnam en el primer capítulo de su libro Como renovar la filosofía que: «...se ha demostrado que existen sistemas físicos posibles cuya evolución en el tiempo no se puede describir mediante una función recursiva, aún cuando el estado inicial del sistema sí se pueda describir así.» El hecho es que muchos teóricos de la computación trabajan en toda clase de ingenios abstractos que realizarían cómputos digitales o analógicos infinitos! Esto es sorprendente pero no tanto si recordamos que demostrar la convergencia de una serie infinita al fin y al cabo es ingeniárselas para realizar cómputos infinitos. Ian Stewart en De aquí al infinito en el capítulo «Los límites de la computabilidad» cita muchos trabajos como un ejemplo dado por Christopher Moore de un sistema determinista con trayectorias no computables y el de Steven Smale que intenta computar con números reales (con sus infinitas cifras) cosa que ningún ordenador puede hacer pero que el análisis teórico de métodos numéricos supone que puede existir alguna máquina semejante. También nos dice: «...que algunos sistemas dinámicos clásicos pueden simular cómputos curiosos.Esta capacidad se debe a que existen ecuaciones perfectamente respetables que tienen una interpretación como modelos de artilugios físicamente imposibles.»

Por otra parte la teoría de la computación parece aplicable a sistemas de procesamiento naturales pero tal cosa no ocurre en realidad, ya que no es una teoría física sino sólo lógico-matemática y no existe ninguna regla de correspondencia entre procesos en alguna computadora y los que ocurren, por ejemplo, en los cerebros (y aún sin tener en cuenta a los sucesos mentales). Los procesadores naturales son productos de procesos de autoorganización y los mismos tendrían que ser reconocidos como protocomputaciones que no resultan reducibles a funciones computables salvo como aproximaciones.

Tengo la impresión que los procesos de autoorganización involucrarían a diversos procesos de cómputos infinitos relacionados de algún modo «caótico», o sea que requieran no de simples cómputos oraculares (oráculos se denominan a los computadores que realizan cómputos infinitos) sino de un manojo de diversas especies de oráculos. Habrá que ver si esto tiene sentido.

El proyecto de inteligencia artificial también debiera ser revisado y renovado. Aquí va una propuesta.

La naturaleza puede utilizar el caos para producir orden, así que para tratar de producir mente sería necesario un sistema neuromorfo que no evite el caos sino que busque el estado crítico para que se produzca autoorganización.

El sistema procesaría datos reales y así lograría un anclaje firme en la realidad, pero será conveniente buscar la manera de hacer crecer la actividad espontánea sin que la misma haga colapsar al sistema.

Habría que ir monitoreando la aparición de actividad espontánea en el sistema y descubrir cómo podría cambiar cuando se produzcan autoorganizaciones.

Suponiendo que se encuentren maneras de identificar la actividad interna que sugiera un proceso premental (de procesamiento de recuerdos), sería necesario tratar de llevar al sistema a manejar algún código de señales. Sería necesario que el sistema se autoimpulse o se automotive. En los humanos la motivación la suministra la biología del organismo (a otro nivel la suministran ciertas apreciaciones estéticas que vemos como el gusto propio).

No parece que un único sistema haga gran cosa para aprender algún código de señales y automotivarse. Así que sería necesario producir una colonia de sistemas que se relacionen entre sí y así es más probable que vayan desarrollando algún código de señales elemental que en la evolución el grupo logre transformar en un lenguaje.

Como cada ingenio no va a ser como una computadora, ya que trabajará en base a la autoorganización de señales caóticas, no será infalible, sino muy propenso al error (como nuestros antepasados que comenzaron pensando de un modo mágico y no racional).

Así que será necesario que la sociedad de ingenios artificiales evolucione para levantarse de su completa ignorancia hacia el pensamiento racional.

Como puede preverse este plan no se podrá realizar en pocas décadas probablemente, pero sí podrían encontrarse maneras de acelerar todos los procesos evolutivos y en ello colaborarían no sólo la experiencia sino el desarrollo de una teoría lógico-matemática de los sistemas autoorganizados. Pero quizá no habría que esperar mucho de dicha teoría, por las dificultades tan grandes ya que significaría manejar de algún modo procesos no finitos y esto sólo en algún caso puede que tenga algún éxito. Es posible que ayude bastante encontrar nuevas relaciones entre diversas teorías matemáticas, recordemos cómo la geometría y el álgebra están íntimamente relacionadas y más recientemente se descubrió que ecuaciones diofánticas (en números naturales) están directamente relacionadas con máquinas de Turing, así que puede ser que haya otras a relacionar íntimamente y esto sea crucial para tener cierto éxito en el campo de las matemáticas no finitas. No obstante, aunque los éxitos es posible que sean escasos, cuando se logren, serán valiosísimos!

Reitero que esto es un borrador y tiene seguramente muchísimos errores. Critique en El Catoblepas o directamente a: e__d__schurzbok@hotmail.com

Notas

{1} William Calvin, «Aparición de la inteligencia», en revista Investigación y Ciencia, versión en español de Scientific American, nº 219, diciembre 1994.

{2} John Hopcroft, «Máquinas de Turing», Investigación y Ciencia, nº 94, julio 1984.

{3} Gregory Chaitin, «Aritmética y azar», Investigación y Ciencia, nº 144, septiembre 1988.

{4} Douglas Hofstadter, «Temas metamágicos. Los atractores extraños son configuraciones matemáticas en equilibrio entre orden y caos», Investigación y Ciencia, nº 64, 1982.

{5} Gregory Chaitin, Exploring randomness, último capítulo, ed. Springer-Verlag.

{6} R.I.G. Hughes, «Lógica cuántica», Investigación y Ciencia, nº 63, diciembre 1981.

{7} Benoit Mandelbrot, «Del azar benigno al azar salvaje», Investigación y Ciencia, nº 243, diciembre 1996.

{8} Joseph W. Dauben, «Georg Cantor y la teoría de conjuntos transfinitos», Investigación y Ciencia, nº 83.

{9} Marvin Minsky, La sociedad de la mente, Alianza Editorial.

{10} Douglas Hofstadter, «Temas metamágicos. ¿Mecanizar la inspiración?», Investigación y Ciencia, nº 74, noviembre 1982.

Bibliografía

Aparte de los artículos citados, de los cuales recomiendo «¿Mecanizar la inspiración?», «Aparición de la inteligencia» y «Máquinas de Turing», agrego las siguientes publicaciones:

Douglas Hofstadter, Gödel, Escher, Bach, Tusquets.

William Aspray, John Von Neumann y los orígenes de la computación moderna, Gedisa.

Hilary Putnam, ¿Cómo renovar la filosofía? (primer capítulo: «El proyecto de la Inteligencia Artificial»), Cátedra.

Antonio Damasio, Sentir lo que sucede, ed. Andrés Bello.

Antonio Damasio, «Creación cerebral de la mente», Investigación y Ciencia, enero 2000.

«Debate sobre inteligencia artificial», en Investigación y Ciencia, nº 162, marzo 1990, con dos artículos: John R. Searle, «¿Es la mente un programa informático?» y Paul M. Churchland y Patricia Smith Churchland, «¿Podría pensar una máquina?».

David Chalmers, «El problema de la consciencia», Investigación y Ciencia, nº 233, febrero 1996.

 

El Catoblepas
© 2002 nodulo.org