G³ (Glimcher y más fronda)

Mediante la presente continuamos con la descripción de la fronda que supone el mundo de la neurobiología. No sin antes adelantar que a esto seguirá un anexo con una seríe de notas filosóficas a algunas de las cosas que se dicen. Esas notas filosóficas son el objeto real de este trabajo y no son introducidas en el texto ahora por no marear. Se va indicando en el propio texto el lugar de las notas, que intentaré publicar por la tarde. 
pasa a defender que el piensa que la reflexología a la sherrington es la forma en la que hoy piensan la mayoría de los neurobiólogos (interpretando como se relacionan la conducta, el cerebro, y la mente). Y es ahora cuando introduce en el libro los resultados de sus estudios con monos (chimpancés) sobre decisiones guiadas perceptualmente sobre adónde mirar.

primero nos presenta cierto tipo de representación de la mente como una máquina de cálculo. Nos dice que el interés para el presente libro en la historia de los modelos de redes neuronales del cerebro reside en que presenta como ningún otro un campo de estudio que descan sobre supuestos teóricos de modelización próximos a la arquitectura basada en el concepto de lo reflejo. La concepción del cerebro como computadora es deudora del Teorema de la Computabilidad de Turing, por el que se vieron fuertemente influídos Warren McCulloch y Walter Pitts. Resumiendo, acudamos a la versión que nos da Glimcher del teorema:
"Any machine, or brain, that could perform a specific set of simple deterministic calculations could, in principle, solve any computable problem. Although such a device could not hope to engage noncomputable problems, it could be shown to be complete within the limited domain of computable problems."
La finalidad del trabajo de McCulloch & Pitts consistió en la traducción de los conceptos de operadores sherringtonianos en términos de computabilidad; esto es, explicar en qué forma la interacción del sistema nervioso con el entorno podía ser entendida en términos de computación. Para ello sería necesario que los operadores sherringtonianos fuesen formalmente equivalentes al conjunto específico de los operadores deterministas que Turing identificó como críticos en el dominio de la computación. Esto implicaba la necesidad de que le cerebro poseyese una capacidad de cálculo equiparable a la máquina de cálculo de Turing. Estamos en los años 50, comienzan a ser elaborados modelos matemáticos sobre el funcionamiento neuronal: nuestro hombre en este caso es Donald Hebb. Su trabajo se centraba en algo muy interesante: cómo es posible que los grupos de neuronas modifiquen la estructura de sus conexiones, su propia fisiología, de forma que puedan almacenar conocimiento nuevo, o que haga posible cálculos nuevos. Hebb construyó un modelo en el que era la intensidad de la sinapsis implicada en las conexiones entre neuronas lo que permitía la modificación dinámica, basada, esa intensidad, en una regla simple de cálculo que la neurona ejecutaría a nivel local. Esto se conoce como la regla de Hebb sobre el aprendizaje [Hebbian learning rule] y tuvo un impacto muy grande en las teorías sobre la mente de los años 50. El efecto que tuvo esta teoría del aprendizaje sobre la incipiente área de la inteligencia artificial fue enorme. En seguida surgieron los críticos con esta forma de aproximarse a las arquitecturas neuronales: Rosenblatt consideraba que pese a que los modelos desarrollados por McCulloch & Pitts eran formalmente equivalentes a los de Sherrington, a nivel anatómico presentaban diferencias sustanciales con respecto a los modelos tanto de Sherrington como de Pavlov. Así, Rosenblatt inició un programa de investigación basado en lo que dio en llamar 'perceptrons'. El modelo de arquitectura defendido por Rosenblatt estaba muy próximo al modelo original de Sherrington y ha sido, de hecho, el modelo dominante hasta la actualidad. A partir de aquí Glimcher nos explica una serie de experiemntos bastante complejos sobre funcionamiento neuronal a los que remito al lector interesado pero que en este intento de resumen obviaremos. Analiza estos modelos que se han construído en los últmos años para ver qué tanto se parecen al modelo sherringtoniano. En la página 129-130 nos dice algo que me parece interesante sobre todo esos experimentos con monos:
"for me the biggest limitation which these models imply is that we select particular behaviors for study, and ignore others, because [130] the reflexological tool kit we all carry around with us makes some behaviors tractable to analysis and leaves others incomprehensible. Consider what happens when Newsome begins to train a monkey. From the experimenter's point of view, the monkey is learning how to perform a new task, left versus right motion discrimination. Only after the monkey has fully learned this new behavior can the experiment begin. from the monkey's point of view, however, the process he participates in looks quite different. The monkey comes to the laboratory already knowing that he wants to maximize the amount of juice he obtains. slowly he learns to do that by performing the motion discrimination task more and more efficiently. This may be an important distinction, because we have already seen that the sherringtonian framework often provides explanatory power only within the limited context of the experimenter's view of the task.The risk posed by reflexology is essentially this: Are we developing a theory of individual trees that is testable and verificable but that does a very poor job of describing an entire forest?"
Después de explicar de este modo el estado de la cuestión en la investigación neuronal que intenta ser una extensión de las concepciones sherringtonianas introduce Glimcher la posibilidad de una alternativa a esa forma de aproximación, la llamada 'Global Computation'. a la exposición de la cual dedica por entero el capítulo 6 del libro. Primero entra a considerar el por qué el enfoque sherringtoniano ha sido siempre tan atractivo desde el punto de vista científico. (1) Identifica aquello que es absolutamente necesario para explicar la respuesta conductual objeto de nuestro estudio [NOTA 1: reflexiones sobre la economía de la conducta] + [NOTA 2: conciencia, libertad, conducta y zizek].  (2) La materialidad neuronal ('neural hardware') se reduce a la mínima y más simple expresión posible (la neurona y la sinápsis) [NOTA 3: plasticidad neuronal en Catherine Malabou]:
"For this reason Pavlov calles descartes's  idea of the reflex a 'truly scientific' notion; as pavlov put it, it embodied the notion of 'necessity'. Every component included in a reflex circuit is necessary. It is this property of the Sherringtonian paradigm that has made it both so useful and so limiting for studies of the brain.
Al mismo tiempo el enfoque presenta una serie de restricciones: mediante su aplicación se tiende a ignorar los elementos de actividad autónoma neuronal que informan la conducta favoreciendo o resaltando aquellos elementos que de forma pasiva están involucrados en la conducción neuronal de la sensibilidad hacia un motor de salida ('output sensor'). Margina así elementos como son los bucles de retroalimentación ('feedback loops') y la 'corollary discharge'. Pero para Glimcher el problema crucial en reflexología es lo que deja fuera su objeto de estudio: la estructura:
"one of the most critical problems with the reflexogolical paradigm is that the behaviors we call reflexes may in actuality be only tiny parts of much more complex and complete behavioral systems."

Comentarios

Entradas populares de este blog

The Green Night: do verde e o vermello.

BAD HABITS

Lenguaje e idioma de los economistas I