CEREBRO.jpgSESIÓN 2. CIENCIA

Francisco Güell

¿Es el cerebro una computadora?






LOS LÍMITES DE LA COMPRENSIÓN COMPUTACIONAL DEL CEREBRO (1)

A mitad del pasado siglo, la aparición de la Teoría de la información -mención especial requiere el trabajo de Shannon titulado “A Mathematical Theory of Communication” (Shannon, 1948)- jugó un papel crucial en dos de los desarrollos científicos más importantes del siglo XX. Por un lado, y siguiendo al descubrimiento de la estructura en doble hélice del ADN (Watson y Crick 1953), tuvo un influjo determinante en el desarrollo de una biología evolutiva y molecular centrada en la noción de gen y, por otro lado, en la denominada “revolución cognitiva” (Gardner 1987) de la Psicología.

Estos dos campos han contribuido a configurar nuestro modo de entender y explicar la vida, el hombre y la mente. Desde el paradigma genético, los genes se entendieron como unidades informacionales en términos de programa, instrucción o mapa. La revolución cognitiva, por su parte, derivó en una visión, todavía dominante, que interpreta que la mente es una computadora o un sistema de procesamiento de información. Lo que nos interesa traer a colación en esta breve mirada al pasado es que ambos desarrollos hunden sus raíces en una visión generalizada que tiende a considerar las propiedades informativas y funcionales como inherentes o intrínsecas a las estructuras específicas del cuerpo. En la biología, este punto de vista apoyó una comprensión simplista de los genes, según la cual estos codifican estructuras corporales y funciones. Aunque cada vez menos, todavía escuchamos hoy referencias a genes de capacidades (de la inteligencia, por ejemplo) o de tendencias de comportamiento (de la sociabilidad).

Las enormes expectativas creadas en torno al Proyecto Genoma Humano (1993-2003) se apoyaban en esta tesis: mediante el mapeo del genoma íbamos a poder "descifrar el código" de la naturaleza humana y, una vez dominado ese código, íbamos a conocer los factores que configuran la complexión física y la personalidad, y a ser capaces de intervenir en ellos. La línea que separaba la ciencia de la ficción nunca había sido tan fina (Gattaca 1997), pero pronto comenzó a entreverse el abismo: tras más de una década de investigaciones, y con la irrupción del paradigma epigenético y los avances en biología del desarrollo y embriología, los científicos -al menos los más serios- ya no tienen problemas en reconocer el fracaso de aquel ingenuo planteamiento.

Pero no todo ha caído en saco roto. Los importantes logros del Proyecto Genoma Humano están siendo corregidos y ampliados con otro proyecto del National Human Genome Research Institute (NHGRI), el proyecto ENCODE (acrónimo de Encyclopedia of DNA Elements). El ENCODE comenzó como proyecto piloto en 2003, y durante la última década se ha encargado de hacer un análisis exhaustivo del genoma humano centrándose en identificar los elementos funcionales de la secuencia de ADN que nos encontramos en las distintas líneas celulares. En los últimos años se ha ampliado de forma significativa la información sobre los transcritos primarios y maduros, así como la localización de las principales modificaciones de histonas, los sitios de unión de los factores de transcripción, los sitios de inicio de la transcripción, etc.

Las expectativas pseudocientíficas frustradas tras el Proyecto Genoma Humano, en vez de moderarse en el Proyecto ENCODE, han encontrado su tierra prometida en el Human Brain Project (HBP) (2013- 2023) y en el Brain Research through Advancing Innovative Neurotechnologies (BRAIN) (2013-2023). El HBP es un proyecto eminentemente interdisciplinar a gran escala organizado en tres áreas: la neurociencia, la medicina y las ciencias computacionales. El proyecto tiene como objetivo construir un modelo completo del funcionamiento cerebral para simular tratamientos con fármacos. La Comisión Europea ha destinado 1000 millones de euros para su financiación durante los próximos 10 años. Paralelamente, la presidencia de los EEUU ha impulsado la BRAIN Initiative, un proyecto que se propone revolucionar el conocimiento del cerebro humano mediante el mapeo de la actividad de cada neurona del cerebro humano. De también 10 años de duración, cuenta, por el momento, con 1190 millones de dólares de financiación.

Lo que aquí nos interesa no es cuestionar la utilidad o el alcance de sus resultados que, sin duda, van a ser cruciales para el estudio del funcionamiento del sistema nervioso y para la comprensión de importantes enfermedades. Lo que queremos ahora apuntar es que, ambos proyectos, además de estudiar su funcionalidad y complejidad estructural, tienen como objetivo, en última instancia, emular o describir las capacidades computacionales del cerebro. Es decir, ambos proyectos, de rabiosa actualidad, hunden sus raíces en la visión generalizada que tiende a considerar las propiedades informativas y funcionales como inherentes o intrínsecas a las estructuras específicas del cerebro, es decir, del mismo modo como entendemos una computadora.

Raymond Tallis lleva a cabo en su trabajo titulado “Por qué la mente no es una computadora” un análisis claro e interesante donde pone al descubierto la falacia en las que descansa dicha suposición. Dicha falacia la explica en dos pasos.

El primer paso consiste en que atribuimos a los computadores capacidades (es decir, funciones) que, de hecho, sólo ejecutan en conjunción con las personas que las utilizan. Por poner un ejemplo sencillo, una calculadora no calcula nada si no es porque un usuario la utiliza (y la utiliza, además, para calcular). Del mismo modo, Deep Blue, la máquina de ajedrez creada por IBM, que derrotó en 1997 a Garry Kasparov, no puede jugar al ajedrez por sí misma. Este primer punto es de enorme importancia, ya que, aunque las estructuras y mecanismos de una máquina estén especialmente diseñados para funciones específicas, estas estructuras no tienen, en realidad, esas funciones si no es en el contexto pertinente de aplicación, contexto que depende de los usuarios. Ciertamente, ni siquiera las estructuras más simples, tales como un martillo o un bolígrafo, tienen propiedades funcionales inherentes. Pero, además, se torna imposible ofrecer una descripción finita de todas las posibles funciones que una estructura simple (por ejemplo, un destornillador) puede tener (véase Kauffman 2013).

El segundo escalón de la falacia de Tallis aparece cuando tratamos de aplicar al cerebro esta falsa imagen de funcionalidad inherente a las computadoras. Cuando, por ejemplo, una determinada neurona, región o circuito posee frecuentemente un mismo rol funcional dentro de un contexto de actividad concreta (contexto que incluye no sólo la totalidad del cerebro, sino la totalidad de la persona), solemos describir aquella estructura neural como si tuviera esa función inherente (por ejemplo, el área de Broca sería el área del lenguaje). Pues bien, como en el caso de las computadoras, no importa lo bien que esté diseñada (en este caso, adaptada) la estructura biológica para determinada función (por ejemplo, para la visión): dicha estructura no debe ser entendida como teniendo esa función si no es dentro del contexto relevante de actividad. Ciertamente, en determinados ámbitos, como el clínico, es inobjetable referirse a estructuras cerebrales como si tuvieran propiedades funcionales intrínsecas, pero debemos tener cuidado con el peligro de esta forma de hablar.

De todos modos, pensamos que las falacias apuntadas por Tallis no van al quid de la cuestión pues, aun evitándolas, seguiríamos manteniendo un presupuesto que subyace a todo planteamiento computacional que dejamos por ahora en suspenso. Antes de examinarlo es preciso comprender la visión computacional, y, para ello, conviene explicar cómo se ha entendido la relación entre la estructura y la función en los desarrollos teóricos desde el funcionalismo clásico hasta la actualidad. Ese recorrido no sólo nos va a ofrecer las claves para comprender el planteamiento computacional. Además, nos va a mostrar las limitaciones a la que conducen sus presupuestos.

La esencia del funcionalismo clásico reside en que la mente puede ser descrita en términos de estados funcionales y de la relación entre ellos (Putnam 1960, 1967). Que pueda ser descrita en estos términos es, entonces, su condición de posibilidad: cualquier desarrollo funcionalista entiende que es posible ofrecer un conjunto finito de descripciones funcionales de la mente.

El libro “Vision” de David Marr (Marr 1982) tuvo una enorme influencia en el desarrollo del funcionalismo. En él, Marr esboza tres niveles de descripción. El nivel más alto es una descripción del problema que ha de ser resuelto por la mente. Este primer nivel, como enseguida veremos, es de enorme importancia ya que en él se presenta el marco desde el que entender la mente: la mente soluciona problemas (por ejemplo, agarrar un vaso y acercarlo a la boca, reconocer rostros, etc.). En el nivel intermedio la descripción del problema se divide en subtareas y se establecen los componentes funcionales más básicos del problema, los cuales son descriptibles como algoritmos. Desde este nivel se establece el marco input-processoutput. El nivel más bajo hace referencia a la implementación física o corporal de esos estados o procesos básicos funcionales.

Detengámonos, por su importancia, en el primer nivel. En el fondo de todas las aproximaciones de corte funcionalista, incluidas las teorías computacionales y todas las teorías de procesamiento de información, reside una visión de la mente como solucionadora de problemas. Este es el presupuesto, crucial en toda la ciencia cognitiva de los siglos XX y XXI, al que hacíamos referencia. Sin embargo, aunque muchos de los grandes problemas de la ciencia cognitiva, especialmente aquellos relacionados con la inteligencia artificial (por ejemplo, el denominado symbol grounding problem (Harnad 1990) y el frame problem (Pylyshyn 1987)) derivan de este, raramente ha sido apuntado, y menos todavía examinado o defendido.

Ahora podemos entender mejor por qué la ciencia cognitiva moderna ha caído tan fácilmente en la doble falacia de Tallis que antes explicábamos: los ordenadores son, esencialmente, máquinas que resuelven problemas, pero su capacidad para resolverlos es totalmente dependiente de sus usuarios. Y no somos sólo responsables de la aplicación de estas máquinas en los contextos apropiados (por ejemplo, utilizando una computadora de ajedrez para jugar al ajedrez), también somos responsables de especificar lo que es necesario resolver y de cómo proceder para resolverlo. En otras palabras, la computación o la resolución de problemas depende de un contexto más amplio que abarca la especificación del problema, y esta especificación del problema no es, sin más, otro tipo de cálculo. Especificar el problema a resolver no es una transformación basada en reglas que responda al paradigma input-process-output, sino un tipo de actividad completamente diferente.

En conclusión, el paradigma funcionalista está sostenido por el supuesto de que las funciones de la mente están bien definidas como un conjunto específico de problemas.

Conforme se iba consolidando esta visión, diversas investigaciones mostraron que cualquier función dada (es decir, finitamente descriptible) puede ser ejecutada por más de una estructura. Este hecho fue denominado realización múltiple (Fodor 1974) y posee multitud de apoyo experimental (Aizawa y Gillet 2009). La realización múltiple fue un hito importante en la defensa del funcionalismo: si las funciones mentales (por ejemplo, el cálculo) pueden ser implementadas por diferentes estructuras (por un ser humano y una computadora) lo realmente importante para el estudio de la cognición ha de ser el nivel funcional, y no tanto el estructural. En la década de los 80, las ciencias cognitivas empezaron a tomarse más en serio la importancia de la Neurobiología (véase Churchland et al. 1990), pero el paradigma funcionalista ha permanecido intacto: la neurobiología proporciona importantes restricciones a las descripciones funcionales de la mente, pero, en esencia, su auge no ha cambiado el marco funcionalista que entiende la mente y el cerebro como una máquina que resuelve problemas. El proyecto BRAIN y el HBP así lo corroboran.

En el siglo XXI, los avances en biología y neurociencia mostraron que una misma función puede ser desempeñada por diferentes estructuras del mismo sistema, y este hecho fue designado con el término degeneración - traducción al castellano, pero ciertamente poco feliz, de degeneracy (Edelman & Gally 2001)-. Al igual que la realización múltiple, la degeneración corrige el error que supone la correspondencia uno a uno entre estructura y función, pero el énfasis es distinto. La realización múltiple suele apuntar a sistemas distintos que, cada uno con su estructura, lleva a cabo las mismas funciones. Una computadora y el cerebro de un animal tienen estructuras muy diferentes, pero quizás puedan llevar a cabo la misma función. Al contrario, la degeneración es habitualmente entendida como una característica de un mismo sistema, es decir, un sistema puede realizar la misma función con diferentes configuraciones estructurales. La degeneración parece ser importante para distinguir los sistemas vivos frente a los inertes. En la mayoría de las máquinas no se da la degeneración, pues cada función corresponde a una única configuración estructural. En lugar de ello, las máquinas incorporan a menudo una duplicación de estructuras que tienen la misma función (como múltiples motores en un avión), lo que se denomina redundancia. En contraste, en los sistemas vivos se han encontrado un alto grado de degeneración en todos los niveles de organización (Edelman y Gally 2001).

Si nos situamos en el nivel de los sistemas neurales complejos, la degeneración se refleja en el hecho de que el cerebro humano nunca repite su estado. Nuestro cerebro no tiene un estado de configuración particular que corresponda siempre a la misma función, por ejemplo, al reconocimiento de la cara de nuestra abuela. Aunque la función sea equivalente, cada vez que reconocemos a nuestra abuela nos encontramos en un estado diferente. La degeneración ataca la línea de flotación del planteamiento funcionalista, pero estas implicaciones, hasta el momento, han sido ignoradas.

Pero lo que realmente hace temblar los cimientos del funcionalismo es la multifuncionalidad. La multifuncionalidad se refiere al hecho de que las estructuras del cerebro (ya sean regiones o redes) participan en múltiples funciones y pueden adaptarse a un rango indefinido de ellas, incluyendo nuevas funciones (Anderson et al. 2012). Este hecho ha sido ignorado o rechazado hasta hace bien poco, y todavía sigue subestimado.

Junto con la degeneración, la multifuncionalidad socava la condición de posibilidad del funcionalismo, pues ambos hechos muestran claramente que no hay descripciones funcionales finitas que se desprendan de cualquier estructura neural. La correspondencia entre estructura y función no es de una a muchas, o de muchas a una: es "de muchas a muchas". Y esto plantea una pregunta: si varias estructuras pueden realizar la misma función y la misma estructura puede realizar múltiples funciones, ¿qué es lo que decide la funcionalidad de un sistema, si no es su configuración estructural?

Parte de la respuesta a esta pregunta tiene que ver con que el papel funcional de una estructura, ya sea una región o una red, depende del contexto, contexto que también incluye la coherencia temporal (Pessoa 2013). Lo que aporta la conectividad funcional a la multifuncionalidad es la idea de que el contexto neural relevante para muchos tipos de estructuras está en constante cambio. Pongamos un ejemplo. El cerebelo se relaciona con tantas partes del cerebro que es imposible darle una función que posea “por sí misma” y en todo momento. Si queremos asignarle una función, ha de ser descrita con alto grado de abstracción y apertura, pues la función del cerebelo depende del instante en el que participa en relación con otras partes. La función es, entonces, interdependiente de otras actividades neuronales dentro de un contexto más amplio de lo que podíamos denominar actividad corporal.

Construyendo sobre esta noción de conectividad funcional, entra en juego otro término muy importante, la sinergia. Esta hace referencia a un patrón transitorio de actividad que se relaciona con una tarea específica, es una "unidad entre la función y el contexto específico de la acción" (Kelso, 2009). La evidencia experimental demuestra que somos capaces de crear nuevas configuraciones de forma casi instantánea para satisfacer las demandas de los nuevos contextos (por ejemplo, podemos seguir hablando con un lápiz entre los dientes).

Dicho esto, es hora de traer de nuevo a colación aquel presupuesto que iba más allá de la doble falacia de Tallis sobre la analogía entre la mente y la computación, y que dejamos en suspenso. Ahora se entenderá mejor su relevancia. Cuando se toma la computación como modelo desde el que comprender la mente, se está considerando que el objetivo esencial de esta es análogo al de aquellas: resolver problemas. La mente siempre se entiende, desde la teoría de la computación, desde un problema dado que ha de resolver (reconocer una cara, coger un bolígrafo, hacer un cálculo…), problema que, según sabemos, también puede resolver una computadora (de ahí la analogía).

A la luz de estas consideraciones, la analogía entre la inteligencia humana y los computadores abre una serie de preguntas que todavía no han sido resueltas. Por ejemplo, si la mente, en su esencia, no soluciona problemas, ¿qué es? Y si las funciones no apuntan a configuraciones estructurales del cerebro y dependen de contextos particulares de aplicación, ¿quién o qué es el agente responsable de ese rendimiento?

La comprensión de la mente como resolución de problemas ha sido el enfoque dominante durante, al menos, los últimos cincuenta años, pero cada vez es más evidente que la mente lo desborda. De hecho, incluso cuando la mente resuelve problemas, lo hace sin seguir instrucciones específicas, y descubre constantemente nuevas "soluciones", muchas veces exclusivas de la situación en la que son abordados. La neurociencia y la ciencia cognitiva van tomando nota poco a poco de estas limitaciones. Todo parece indicar que la ciencia cognitiva está llegando al final de una era.

(1) LOS LÍMITES DE LA COMPRENSIÓN COMPUTACIONAL DEL CEREBRO
“CUENTA Y RAZÓN” Nº 34. PRIMAVERA 2015 (PÁG. 71 A 75)
NAT BARRETT, FRANCISCO GÜELL, JOSÉ IGNACIO MURILLO
INVESTIGADORES DEL PROYECTO INTERDISCIPLINAR “MENTE-CEREBRO: BIOLOGÍA Y SUBJETIVIDAD EN LA FILOSOFÍA Y EN LA NEUROCIENCIA CONTEMPORÁNEAS” INSTITUTO CULTURA Y SOCIEDAD (ICS). UNIVERSIDAD DE NAVARRA

Atras