El mapa de las conexiones
neuronales en la corteza cerebral
es similar a la estructura de la red de redes
es similar a la estructura de la red de redes
Durante años, los neurocientíficos comenzaron a buscar pistas sobre el funcionamiento del cerebro gracias a su estructura, especialmente el papel de los lóbulos y circunvoluciones. Más recientemente, están interesados en la manera en que las neuronas están conectadas entre sí, gracias a la proyección de imagen por resonancia magnética funcional (fMRI).
Un 'mini-Internet' en el cerebro
Científicos de la Universidad de California del Sur, en un estudio publicado en la revista Proceedings en abril 2015, han concluido que en la rata de laboratorio, el mapa de las conexiones entre neuronas resulta ser una combinación de las famosas muñecas rusas que se introducen una dentro de otra (las matrioskas) y la estructura de la red de redes, Internet.
Un 'mini-Internet' en el cerebro
Científicos de la Universidad de California del Sur, en un estudio publicado en la revista Proceedings en abril 2015, han concluido que en la rata de laboratorio, el mapa de las conexiones entre neuronas resulta ser una combinación de las famosas muñecas rusas que se introducen una dentro de otra (las matrioskas) y la estructura de la red de redes, Internet.
El cerebro de las ratas de laboratorio se parece lo suficiente al
mucho más complejo cerebro de los humanos como para proporcionar datos
interesantes y se realizan experimentos imposibles en humanos, por lo que
resulta más fácil de estudiar.
La corteza cerebral es como un mini Internet. Internet tiene innumerables redes locales que se conectan con
redes regionales mayores y finalmente con los nodos que forman su red troncal.
El cerebro funciona de forma parecida.
![]() |
Mapa de conexiones neuronales del cortex cerebral |
Los científicos estudiaron
16.000 informes publicados sobre miles de conexiones entre axones, confirmadas en laboratorio, en el cerebro de la rata y hallaron que 73 regiones
de la corteza cerebral se pueden agrupar en estos cuatro módulos. Los módulos
están interconectados de forma asimétrica, lo que indica que existe una base
genética para algunos flujos de información en el cerebro.
Además de los cuatro módulos, los investigadores hallaron nodos,
centros muy interconectados cruciales para el tráfico neuronal que relaciona
las redes locales. Trabajos anteriores indican que estas regiones, cuando
sufren daños, son causa de enfermedades neurodegenerativas y epilepsia.
Este trabajo se engloba en la llamada conectómica, la especialidad
de los que hacen conectomas, mapas de las conexiones entre las neuronas del
cerebro. Es una nueva forma de contemplar el cerebro que va más allá de lo
visible para entrar en la función, al elaborar un mapa de conexiones
relacionada con el conocimiento.
El conocimiento emerge supuestamente de la actividad neuronal en
esta complicada red, modulada por la aportación de información externa recogida
por los sistemas sensoriales, que dirige el comportamiento voluntario mediante
el control del sistema motor. Mover un solo dedo al teclear para acceder a una
página de Internet en un dispositivo electrónico, por ejemplo, es el resultado
de todo este proceso.
Los investigadores afirman que los resultados son un punto de
partida para compilar el conectoma del sistema nervioso de los mamíferos que
puede llegar a revelar nuevas correlaciones entre los estudios de genomas
completos y los de conectomas, lo que llevaría a nuevos conocimientos sobre la
arquitectura celular subyacente al conocimiento.
Tener un mapa de conexiones del cerebro permitirá relacionar en
ambos sentidos los estudios en animales y en humanos. En la universidad existe
un centro de neuroimagen y bioinformática que dispone de la mayor colección de
tomografías y resonancias cerebrales humanas del mundo, lo que permitirá
avanzar en esa línea de investigación.
El cerebro tiene tanta capacidad de memoria como todo Internet
Científicos del Instituto Salk de Estudios Biológicos (La Jolla, California) en un estudio, publicado en eLife en enero 2016, han determinado, midiendo con precisión el tamaño de las sinapsis neuronales, que la capacidad de memoria del cerebro es 10 veces mayor de lo que se creía, y ésta en niveles de petabyte, es decir, Internet entera.
Nuestros recuerdos y pensamientos son el resultado de patrones de actividad eléctrica y química en el cerebro. Una parte fundamental de la actividad se produce cuando las neuronas interactúan en ciertos cruces, conocidos como sinapsis. Un cable de salida (un axón) de una neurona se conecta a un cable de entrada (una dendrita) de una segunda neurona.
Las señales viajan a través de la sinapsis en forma de productos químicos llamados neurotransmisores, para contar a la neurona receptora si debe transmitir una señal eléctrica a otras neuronas. Cada neurona puede tener miles de estas sinapsis con miles de otras neuronas.
Las sinapsis hasta ahora sólo habían sido clasificadas en como pequeñas, medianas y grandes. Para hacerse una idea mejor del tamaño de las sinapsis, los investigadores utilizaron microscopía avanzada y algoritmos computacionales que habían desarrollado para obtener imágenes de cerebros de ratas y reconstruir la conectividad, las formas, los volúmenes y la superficie del tejido cerebral hasta un nivel nano-molecular.
Los científicos esperaban que las sinapsis fueran más o menos similares en tamaño, pero se sorprendieron al descubrir que las sinapsis eran casi idénticas. Las diferencias en los tamaños de los pares de sinapsis eran muy pequeñas, en promedio sólo del ocho por ciento. Además, cada dos o veinte minutos, las sinapsis aumentarían o disminuirían de tamaño. Según los científicos, esta variedad de dimensión y esta capacidad a transformarse significarían una cierta adaptabilidad ante el volumen de información a tratar.
Debido a que la capacidad de memoria de las neuronas depende del tamaño de la sinapsis, esta diferencia del ocho por ciento resultó ser un número de clave que el equipo pudo entonces introducir en sus modelos algorítmicos del cerebro, para medir la cantidad de información que potencialmente podría ser almacenada en las conexiones sinápticas. El equipo determinó que podría haber cerca de 26 categorías de tamaños de las sinapsis, en lugar de sólo unas pocas.
En términos informáticos, 26 tamaños de sinapsis corresponden a alrededor de 4,7 “bits” de información. Anteriormente, se pensaba que el cerebro era capaz de tener sólo uno o dos bits para el almacenamiento de memoria a corto y largo plazo en el hipocampo.
Los resultados también ofrecen una explicación de la eficiencia sorprendente del cerebro. El cerebro adulto al despertar genera sólo 20 vatios de corriente continua, tanto como una bombilla de luz muy tenue. El descubrimiento podría ayudar a los informáticos a construir ordenadores ultra precisos de bajo consumo, en particular los que emplean “aprendizaje profundo” y redes de técnicas neuronales artificiales capaces de aprendizaje y análisis sofisticados, como el habla, el reconocimiento de objetos y la traducción.
El cerebro tiene tanta capacidad de memoria como todo Internet
Científicos del Instituto Salk de Estudios Biológicos (La Jolla, California) en un estudio, publicado en eLife en enero 2016, han determinado, midiendo con precisión el tamaño de las sinapsis neuronales, que la capacidad de memoria del cerebro es 10 veces mayor de lo que se creía, y ésta en niveles de petabyte, es decir, Internet entera.
Nuestros recuerdos y pensamientos son el resultado de patrones de actividad eléctrica y química en el cerebro. Una parte fundamental de la actividad se produce cuando las neuronas interactúan en ciertos cruces, conocidos como sinapsis. Un cable de salida (un axón) de una neurona se conecta a un cable de entrada (una dendrita) de una segunda neurona.

Las sinapsis hasta ahora sólo habían sido clasificadas en como pequeñas, medianas y grandes. Para hacerse una idea mejor del tamaño de las sinapsis, los investigadores utilizaron microscopía avanzada y algoritmos computacionales que habían desarrollado para obtener imágenes de cerebros de ratas y reconstruir la conectividad, las formas, los volúmenes y la superficie del tejido cerebral hasta un nivel nano-molecular.
Los científicos esperaban que las sinapsis fueran más o menos similares en tamaño, pero se sorprendieron al descubrir que las sinapsis eran casi idénticas. Las diferencias en los tamaños de los pares de sinapsis eran muy pequeñas, en promedio sólo del ocho por ciento. Además, cada dos o veinte minutos, las sinapsis aumentarían o disminuirían de tamaño. Según los científicos, esta variedad de dimensión y esta capacidad a transformarse significarían una cierta adaptabilidad ante el volumen de información a tratar.

En términos informáticos, 26 tamaños de sinapsis corresponden a alrededor de 4,7 “bits” de información. Anteriormente, se pensaba que el cerebro era capaz de tener sólo uno o dos bits para el almacenamiento de memoria a corto y largo plazo en el hipocampo.
Los resultados también ofrecen una explicación de la eficiencia sorprendente del cerebro. El cerebro adulto al despertar genera sólo 20 vatios de corriente continua, tanto como una bombilla de luz muy tenue. El descubrimiento podría ayudar a los informáticos a construir ordenadores ultra precisos de bajo consumo, en particular los que emplean “aprendizaje profundo” y redes de técnicas neuronales artificiales capaces de aprendizaje y análisis sofisticados, como el habla, el reconocimiento de objetos y la traducción.
¿ El cerebro humano funciona como una computadora ?
Nuestro cerebro es probablemente el órgano que más se parece a una
computadora moderna. No sólo puede procesar, asimilar y solucionar diversos
problemas, también, gracias a la memoria, podemos almacenar información,
usarla, acceder a ella e interpretarla.
La capacidad del cerebro
humano para aprender y almacenar información parece de momento ilimitada.
La tarea de calcular en bytes los recuerdos que podemos guardar no es
precisamente fácil, sobre todo porque no conocemos un método fiable para medir
matemáticamente la memoria, pero un sencillo estudio de las propiedades
biológicas del cerebro permite averiguar que no tenemos que preocuparnos sobre
'quedarnos sin espacio' en ningún momento de nuestra vida.
Tenemos aproximadamente cien mil millones de neuronas, que forma,
a su vez, unas 1000 conexiones (puede llegar a más) con otras neuronas.
Haciendo un cálculo aproximado, teniendo en cuenta que con todas estas
conexiones multiplicamos la capacidad de nuestro cerebro, podemos almacenar unos 2.5 petabytes (Un petabyte equivale a 1.024 millones de gigabytes).
Para hacerse una idea, una capacidad de almacenamiento así supone 3 millones de
horas de vídeo, unos 300 años de reproducción continua.
El cerebro humano es la computadora más eficiente y sofisticada
que existe. Esto no es debido a su capacidad de procesamiento, sino a la manera
que procesa la información y a la cantidad de cosas que hace basado en su
tamaño y consumo de energía, que no sobrepasa la de un bombillo de 20 watts y
pesa y ocupa menos espacio que la mayoría de las computadoras.
Comparación entre la computadora y el cerebro
La diferencia esencial entre el cerebro humano y las computadoras
es la manera en que se hace el procesamiento; básicamente su diseño
fundamental.
Las computadoras modernas no son más que versiones más jóvenes y
eficientes que sus tatarabuelas, las calculadoras. Todavía utilizan un reloj
central por el que se rigen para hacer cálculos y, básicamente, mientras más
rápido sea este reloj más capacidad de procesamiento se tiene. Por eso es que
cuando se trata de procesadores y velocidad de una computadora dicen 2GHZ o
3GHZ; estas son frecuencias, no son velocidades, pero normalmente mientras más
altas, mejor.
Una computadora está hecha de componentes funcionando con un propósito específico. Sin embargo, para esto requiere programas que le muestren cómo hacerlo. Siendo estos programas creados por el hombre, estas computadoras no son autónomas y dependen de los programas provenientes del cerebro de los programadores. Hacer de una computadora una cosa capaz de aprender por sí misma y superar los límites que la bloquean (funcionamiento estricto y conexión fija) es el gran reto de la inteligencia artificial.
El cerebro tiene una estructura evolutiva, constantemente cambiante, nunca el mismo de persona a persona, no necesita un "programa" para funcionar. Incluso si la computadora es infalible, más rápida y eficiente en el tratamiento de datos que el hombre, la flexibilidad del cerebro humano le permite una autonomía y libertad total así como una funcionalidad evolutiva.
Una computadora está hecha de componentes funcionando con un propósito específico. Sin embargo, para esto requiere programas que le muestren cómo hacerlo. Siendo estos programas creados por el hombre, estas computadoras no son autónomas y dependen de los programas provenientes del cerebro de los programadores. Hacer de una computadora una cosa capaz de aprender por sí misma y superar los límites que la bloquean (funcionamiento estricto y conexión fija) es el gran reto de la inteligencia artificial.
El cerebro tiene una estructura evolutiva, constantemente cambiante, nunca el mismo de persona a persona, no necesita un "programa" para funcionar. Incluso si la computadora es infalible, más rápida y eficiente en el tratamiento de datos que el hombre, la flexibilidad del cerebro humano le permite una autonomía y libertad total así como una funcionalidad evolutiva.
El otro problema de las computadoras es que el procesador y la
memoria no están integrados, son esencialmente dos componentes distintos. En el
caso del cerebro los dos están íntegramente compaginados, lo que tiene sus
ventajas desde el punto de vista de procesamiento pero sus desventajas son
obvias, ya que todavía no hemos descubierto la manera de hacerle una extensión
a nuestra memoria cerebral como le hacemos a las computadoras.
Eventualmente las computadoras cognitivas van a ser parte de
nuestra realidad y tomarán mejores decisiones que los seres humanos basadas en datos,
investigaciones y precedentes y hasta razonarán sobre la mejor manera de hacer
las cosas.
Sin embargo el cerebro humano es muy complejo y su modo de funcionamiento sigue siendo muy incierto por ahora, pero el estudio continúa.
Sin embargo el cerebro humano es muy complejo y su modo de funcionamiento sigue siendo muy incierto por ahora, pero el estudio continúa.
Implante cerebral logra controlar una computadora de manera
inalámbrica
Investigadores de la Universidad de Brown y la empresa Blackrock
Microsystems han comercializado en 2015, tras más de una década de desarrollo un
dispositivo inalámbrico que al colocarse sobre el cráneo, envía órdenes
pensadas recogidas por un implante
cerebral vía radio. Un avance que pronto permitirá que pacientes
paralíticos puedan usar una interfaz cerebro-computadora.
El dispositivo creado por el consorcio llamado BrainGate, que tiene su sede en la
Universidad de Brown, fue uno de los primeros en colocarse en el cerebro de
paralíticos para demostrar que las señales eléctricas emitidas por las neuronas
dentro del córtex cerebral se pueden registrar y usar para dirigir una silla de
ruedas o dirigir un brazo robótico.
Anteriormente, uno de los principales obstáculos para estos
experimentos fue que los pacientes sólo podían usar el aparato con la ayuda de
un cable enchufado a un puerto implantado en su cráneo.
La nueva interfaz elimina gran parte de ese cableado al procesar
los datos provenientes del cerebro dentro de un dispositivo que tiene el tamaño
aproximado del tapón de gasolina de un auto. Se engancha al cráneo y se conecta
con electrodos implantados dentro del
cerebro. Dentro del dispositivo hay un procesador para amplificar los
débiles picos eléctricos que emiten las neuronas, circuitos para digitalizar la
información y una radio para emitirla a una distancia de unos pocos metros hasta
un receptor. Ahí, la información está disponible como señal de control; por
ejemplo para mover un cursor por la pantalla de una computadora.
El dispositivo transmite datos desde el cerebro a una tasa de 48
megabits por segundo que es la velocidad aproximada de una conexión a internet
doméstica. Usa unos 30 mili-vatios de energía, una mínima parte de lo que usa
un smartphone, y recibe su energía de una batería.
Los científicos ya han hecho prototipos de interfaces cerebro-computadora antes y se han vendido algunos
transmisores sencillos para investigación con animales.
Aunque el implante puede transmitir el equivalente de unos 200 DVD
de datos al día, no es mucha información comparada con lo que genera el cerebro
al ejecutar hasta el más sencillo movimiento. De los miles de millones de
neuronas en el córtex humano, los investigadores nunca han medido de forma
simultánea más de unas 200.
Blackrock ha empezado a vender el procesador inalámbrico,
que ha bautizado como Cereplex-W y cuesta unos 15.000 dólares, a laboratorios de
investigación que trabajan con primates. Desde 2015 una media docena de paralíticos,
entre ellos algunos en las últimas fases de la esclerosis lateral amiotrófica
están participando en ensayos de BrainGate.
Ver también…
Redes neuronales artificiales en inteligencia artificial
Mapa detallado del cerebro humano – últimos avances
Últimos descubrimientos del cerebro humano
Mapa detallado del cerebro humano – últimos avances
Últimos descubrimientos del cerebro humano
¿Qué es el neuromarketing?
Optogenética – la gran revolución del estudio del cerebro
Chips inspirados en el cerebro humano
Optogenética – la gran revolución del estudio del cerebro
Chips inspirados en el cerebro humano