La interdisciplinaridad de la neurociencia: Puentes entre el cerebro, la inteligencia artificial y la física

En los últimos años, el reconocimiento de la neurociencia como una rama del saber altamente interdisciplinar se ha vuelto más que evidente. Por una parte, tenemos los avances recientes en inteligencia artificial, cuyos cimientos se basan en tomar inspiración de nuestros cerebros para construir algoritmos de procesamiento de información más eficientes. Conceptos como aprendizaje, plasticidad sináptica, campos receptivos o atención, asociados típicamente a la neurociencia y psicología clásicas, son ahora comunes en áreas como la visión computacional o los modelos de lenguaje tipo ChatGPT. Por otra parte, los investigadores somos cada vez más conscientes de la necesidad urgente de usar aproximaciones interdisciplinares (combinando, por ejemplo, disciplinas como la neurociencia, la física de sistemas complejos y la inteligencia artificial) para entender el funcionamiento del cerebro y de las enfermedades mentales. De hecho, varios investigadores pioneros en neurociencia computacional –campo que hace uso de técnicas teóricas y computacionales para estudiar cómo funciona el cerebro– han sido recientemente galardonados con premios de primerísimo nivel, como el Brain Prize (entregado a Larry Abbot, Haim Sompolinsky y Terry Sejnowski) o, más recientemente, el premio Nobel de Física (en el caso de John Hopfield y Geoffrey Hinton).

Esto apunta a una simbiosis entre matemáticas y neurobiología: usar matemáticas para trasladar conceptos de neurociencia a diferentes problemas de ingeniería ha demostrado ser tremendamente útil (a los ejemplos anteriores me remito), pero también podemos emplear las matemáticas y ciencias de la computación para entender mejor el problema original: el funcionamiento del cerebro. Este no es un concepto nuevo: prácticamente todas las disciplinas científicas hacen uso de modelos por ordenador para entender mejor fenómenos complejos, desde el movimiento de las galaxias a erupciones volcánicas o interacciones entre átomos. En el caso de la neurociencia, la cuestión se vuelve sin embargo algo engañosa, ya que este es el único caso en el que usamos los algoritmos de redes neuronales para estudiar no un objeto cualquiera, sino aquél que inspiró estos algoritmos originalmente. En otras palabras: cuando implementamos una simulación de redes de neuronas en nuestro ordenador, ¿queremos generar algoritmos artificiales capaces de resolver un problema concreto, como evaluar la mejor inversión en bolsa o identificar peatones cruzando la calle? ¿O es nuestro objetivo tal vez simular la red neuronal ¨real¨, para entender cómo actúa nuestro cerebro cuando percibimos o recordamos algo? Es ésta una distinción sutil, pero muy relevante: en el primer caso, que podemos llamar red-neuronal-como-herramienta, la inspiración biológica debe dar paso a consideraciones más prácticas, como maximizar la eficiencia del algoritmo o evaluar el consumo energético del mismo. En el segundo caso, que llamaremos red-neuronal-como-modelo, la clave es desarrollar un modelo que, con mayor o menor nivel de detalle, se centre en mejorar nuestro entendimiento del objeto físico en sí (el cerebro), lo cual implica mantenerse cerca de los aspectos biológicos del mismo.

Un ejemplo claro consiste en el uso de modelos de redes neuronales para aplicaciones clínicas. Desde un punto de vista más pragmático, o red-neuronal-como-herramienta, un investigador puede programar un algoritmo de red neuronal convolucional y entrenarla en imágenes de escáneres cerebrales para identificar indicios de alteraciones en el cerebro ligados a diversas enfermedades. En este caso, no nos interesa cómo de biológicamente realista sea la red neuronal empleada, siempre y cuando dé buenos resultados. 

Las redes neuronales como modelo

Por otra parte, desde un punto de vista más fundamental, o red-neuronal-como-modelo, un investigador puede programar una red neuronal para que las neuronas y sinapsis tengan una estructura y propiedades similares a las del cerebro real. En el caso de simular un cerebro completo, nuestro modelo podría usarse para identificar las causas de ciertas enfermedades mentales –como por ejemplo una menor conectividad entre neuronas en regiones frontales y parietales en el caso de la esquizofrenia.

Las redes-neuronales-como-modelo no requieren necesariamente un nivel de detalle extremadamente alto, sino más bien alinear el nivel de detalle existente en el modelo con la evidencia neurobiológica. Por ejemplo, mi laboratorio (el Computational Neuroscience Lab en la Universidad de Ámsterdam) ha trabajado recientemente con colaboradores experimentales para estudiar el origen biológico de la llamada ley de Yerkes-Dodson. Ésta ley, que tiene ahora más de cien años de antigüedad, es un principio psicológico según el cual las personas realizan tareas de forma óptima cuando los niveles de estrés son moderados (es decir, sin estar somnoliento, pero tampoco extremadamente agitado). Ésa es una de las razones por las que, por ejemplo, solemos hacer mejor los exámenes cuando estamos bien descansados y sin demasiados nervios. Aunque la ley tiene más de cien años de antigüedad, su origen neurobiológico aún no está claro. Nuestro estudio ( Beerendonk, Mejias et al., PNAS 2024 ) presenta un modelo computacional que replica la ley de Yerkes-Dodson y al mismo tiempo propone que el mecanismo biológico subyacente son las interacciones entre diversos tipos de neuronas en el neocórtex, que combinan información sensorial con señales de atención o vigilia en humanos. Esto constituye un ejemplo de cómo modelos computacionales simples pueden ayudar a entender mejor procesos psicológicos complejos.

Dado que el foco de las redes-neuronales-como-modelo no está en maximizar la eficiencia del algoritmo resultante, es obvio que estos modelos no son tan efectivos como las redes-neuronales-como-herramienta en tareas específicas como por ejemplo reconocimiento de imágenes. Sin embargo, ésto no quiere decir que no sean capaces de realizar tareas sencillas. En una línea de investigación paralela, nuestro laboratorio está desarrollando modelos de ´cerebros digitales´ que contienen un nivel considerable de realismo biológico y son capaces de replicar tareas cognitivas sencillas relacionadas con la memoria a corto plazo (Mejias and Wang, eLife 2022; Feng et al. BioRxiv 2023) o la toma de decisiones ( Zou et al. BioRxiv 2024 ). Estos modelos permiten aunar, por primera vez en un mismo marco teórico, los patrones de actividad neuronal observada experimentalmente y las habilidades cognitivas básicas de percepción y memoria. El uso de dichos modelos permitirá entender mejor la conexión entre irregularidades en la actividad neuronal y problemas cognitivos asociados a desórdenes mentales, una línea de investigación con alto potencial clínico que estamos desarrollando en la actualidad.

Finalmente, las redes neuronales como herramienta o como modelo no tienen por qué ser mutuamente excluyentes. Aunque en la actualidad existe cierto grado de división, o más bien especialización, entre ambas ramas, la ambición de combinar ambos enfoques será probablemente un punto de intensa investigación en el futuro próximo (van Holk and Mejias, Curr. Op. Behav. Sci. 2024). Los modelos resultantes podrían proporcionar las ventajas de ambas aproximaciones en un mismo marco teórico, y permitir por ejemplo integrar el realismo biológico y alta capacidad computacional necesarios para implantes cerebrales que puedan sustituir áreas cerebrales dañadas. Aunque no existe aún ningún ejemplo completo de este tipo de modelos, sabemos que son plausibles –al fin y al cabo, tenemos la prueba más sólida sobre nuestros hombros.

¿Nos ayudas a ser más? Hazte miembro y participa. Danos difusión en las redes. Contáctanos y cuéntanos sobre ti y tu proyecto.

Jorge Mecías

Jorge Mecías

Profesor asociado e Investigador Principal en la Universidad de Ámsterdam

Nacido en Cáceres y criado en Cádiz, mi interés por la neurociencia surgió durante mis estudios de Física, donde aprendí a ver el cerebro como el ejemplo perfecto de un ¨sistema complejo¨. Me especialicé en el campo de la Neurociencia Computacional durante mi etapa de Máster y Doctorado en la Universidad de Granada, y posteriormente como investigador postdoctoral en las Universidades de Ottawa (Canadá), Nueva York (EE. UU.) y NYU Shanghai (China). En 2017, me trasladé a la Universidad de Ámsterdam como Assistant Professor para establecer mi laboratorio y una línea de investigación centrada en el desarrollo de modelos matemáticos y computacionales del cerebro para el estudio de procesos cognitivos. El enfoque de mi laboratorio es muy cercano a la neurobiología: en lugar de desarrollar modelos de redes neuronales artificiales, computacionalmente potentes pero con poca conexión con la biología, nuestros modelos computacionales se centran en replicar la dinámica y comportamiento de circuitos neuronales reales, usando para ello datos estructurales de neuroanatomía y neuroimagen. Este modelado neurobiológico, combinado con técnicas procedentes de la física estadística, sistemas complejos y machine learning, nos ha permitido establecer una serie de modelos teóricos y computacionales con los que reproducir la dinámica cerebral a múltiples escalas, desde la actividad de neuronas individuales hasta comportamientos complejos en animales como la memoria o la toma de decisiones.