domingo, 30 de diciembre de 2012

Cerebro multitarea ¿puedes andar y hablar a la vez?


El cerebro es masivamente paralelo. Cuando nos fijamos en algo, millones de neuronas trabajan a la vez. Al mismo tiempo, podemos respirar, andar, oír o pensar. Sin embargo, en actividades que requieren nuestra atención, la multitarea se reduce drásticamente.



Multitarea es la capacidad de realizar varias tareas al tiempo. En el mundo de los ordenadores es un concepto antiguo. Aunque en realidad la completa multitarea es difícil de conseguir. Un procesador es mil veces más rápido que la memoria y esta es mil veces más rápida que el disco. Si tenemos que cargar datos de disco a memoria, el procesador se queda parado esperando. Por ello se inventó la multitarea. En realidad, el procesador no realiza multitarea sino un cambio rápido entre tareas (aunque nuevos procesadores multihebra y multicore pueden hacerlo, para simplificar, consideremos que no). Si los recursos (por ejemplo, memoria) son suficientes, la multitarea mejora el rendimiento global. Pero si son escasos, el rendimiento disminuye. Es lo que ocurre con la paginación. Si cada vez que el procesador cambia de tarea tiene que volver a cargar datos de disco porque no cabían en memoria, el rendimiento global disminuye.

Algo parecido ocurre en el cerebro, aunque las analogías son siempre limitadas: conocemos bien los ordenadores pero poco el cerebro.

Los lóbulos frontales del cerebro, su parte más evolucionada y genuínamente humana tienen a su cargo varias funciones. Entre ellas se encuentra prestar atención, coordinar la información, solictar recursos y planificar actividades. Es la función ejecutiva del cerebro.

La atención puede ser de dos tipos. Divergente, dispersa, pendiente de varios estímulos a la vez en busca de algo relevante. O convergente, enfocada en un problema concreto ignorando el resto de estímulos.

No podemos realizar dos tareas simultáneas si estas son muy demandantes cognitivamente. Se producen los llamados cuellos de botella o embudos. Podemos cambiar de una tarea a otra, pero esto conlleva un gasto adicional de recursos (como la paginación de los ordenadores). Una tarea interfiere en la otra y el rendimiento de ambas se ve afectado. Además, las posibilidades de error aumentan.

Si estamos muy enfrascados en una tarea demandante, bloqueamos la información que proviene de otras tareas. Prueba a calcular mentalmente el resultado de la operación 37 x 43 mientras sigues leyendo este artículo. No puedes. El cálculo mental es demasiado exigente, se produce un cuello de botella, debes dejarlo todo para completarlo. No hay multitarea. A pesar de todo, la multitarea se mantiene a otros niveles inferiores y, aunque estemos muy focalizados en un pensamiento, hay recursos disponbles para mantener el contacto con el exterior. Por muy concetrado que estés, si alguien grita ¡Fuego! prestarás atención y olvidarás la tarea anterior.

¿Puedes andar y hablar a la vez? Sí, porque realizamos una de las tareas automáticamente. Andar no es una tarea que demande muchos recursos cognitivos. Está realizada por el tronco cerebral, la parte más primitiva del cerebro. Ello deja al córtex, la parte más evolucionada, libre para realizar otras tareas.

Las tareas motoras repetitivas pueden aprenderse. El cerebelo interviene en ello. Cuando aprendemos a montar en bicicleta, toda nuestra atención está puesta en la tarea. Con el tiempo, aprendemos, la tarea se automatiza y somos capaces de hacerla de modo inconsciente de forma que no requiere nuestra atención y el córtex puede dedicarse a otras cosas. Pero si encontramos obstáculos en la ruta, montar en bicicleta vuelve a ser cognitivamente demandante y debemos dedicar nuestra atención a esquivarlos, olvidándonos de lo que estabamos pensando.

¿Y qué ocurre con el procesamiento de la información de los medios sociales? ¿Podemos ver la televisión mientras chateamos y hablamos por teléfono? En un nuevo estudio se sugiere que no. El estudio se realizó con dos grupos de personas: los de elevada multitarea y los de multitarea moderada. Los primeros obtenían en general peores rendimientos. Ello es debido a que se distraían en todas las circunstancias. Sin embargo, cuando se trataba de integrar información de varias modalidades sensoriales, obtenían un mejor rendimiento.

Cada vez somos más multitarea. Esto no es necesariamente malo, pero debemos mantener la capacidad de profundizar en los asuntos que lo requieren. También organizar mejor las tareas de modo que la multitarea no nos impida dedicarnos a lo importante y que unas tareas no interfieran en las otras de forma que el rendimiento global sea peor.

Artículo publicado originalmente en ALT1040

domingo, 23 de diciembre de 2012

¿Son las lenguas equivalentes?


Un estudio realizado con 7 lenguas indica que el español se habla más rápido que en chino mandarín, pero que la tasa de transferencia de información es la misma en todas las lenguas estudiadas.



Cuando escuchas hablar a alguien en una lengua que desconoces tiendes a pensar que esta es muy difícil, diabólica incluso. Sin embargo, todo parece indicar que las lenguas son equivalentes en lo que pueden expresar, en su estructura profunda y según este estudio en la tasa de transferencia de información.

El lenguaje es una capacidad innata del ser humano, aunque la lengua concreta se aprende. Cualquier niño sin problemas y con una estimulación suficiente puede aprender cualquier idioma del mundo. Lo hace sin esfuerzo y capta las regularidades e irregularidades de la lengua incluso aunque los adultos le hablemos muy mal, que es lo que de hecho ocurre. Aprende las estructuras gramaticales y cientos de palabras con enorme rapidez. Tiene un cerebro predispuesto para el lenguaje.

La lengua concreta, sin embargo, se aprende. Existen ventanas de tiempo más allá de las cuales el aprendizaje se hace muy complicado. Es lo que sucede cuando se aprende una segunda lengua de adulto.

Todas las lenguas son equivalentes. Es el llamado principio de efabilidad mediante el cual todo lo que se puede decir en una lengua se puede traducir a otra. Existen, eso sí, lenguas con mayor riqueza de palabras y expresiones que otras dependiendo esencialmente del número de hablantes. Una lengua en un lugar remoto que hablen unos cientos de personas no tiene la riqueza del inglés o español. Y por lo tanto, para traducir una frase a esa lengua se requerirán muchas más palabras que en la original, serán necesarios circunloquios. Imaginemos una lengua cuyos hablantes nunca han visto el mar. Es posible hablarles del mar, aunque serán necesarias largas explicaciones.

El lingüista Noam Chomsky (polémico hombre que se mantiene activo aún) postuló la idea de una gramática universal. Según él, hay una estructura profunda común a todas las lenguas y una estructura superficial particular de cada una. Todas las lenguas tienen, por ejemplo, sujeto, verbo y objeto, aunque su orden varía entre ellas.

En este nuevo estudio se tradujo un texto del inglés a otros seis idiomas: alemán, francés, italiano, español, japonés, y chino mandarín. Se pidió a hablantes nativos que lo hablaran en voz alta y se grabó su discurso. El recuento del número de sílabas, ordenó los idiomas de la siguiente forma: japonés (7,84 sílabas por segundo), español (7,82), francés (7,18), italiano (6,99), inglés (6,19), alemán (5,97) y mandarín (5,18).
Sin embargo, el texto total era leído en el mismo tiempo. La densidad informacional de cada sílaba es inversa a la velocidad. Cuando se dicen muchas sílabas, estas contienen poca información y al revés. Es decir, la tasa de transferencia de información es igual en todos los idiomas, posiblemente adecuada a la capacidad de percepción humana.

Por extrañas, rápidas o complejas que puedan resultar otras lenguas, todas son equivalentes en un amplio conjunto de valores universales. 

Artículo publicado originalmente en ALT1040

domingo, 16 de diciembre de 2012

La memoria, estructura y funcionamiento (II): Memoria explícita


La memoria explícita o declarativa (por contraposición a la memoria implícita o procedimental) es la que llamamos normalmente memoria. Tiene que ver con lugares, personas y objetos (semántica) y con hechos (episódica). Su invocación es consciente y es fácil de describir con palabras. Es más compleja que la memoria implícita y se da en animales superiores.

H.M.

El conocimiento de la memoria explícita se debe en buena medida al caso del paciente H.M. (Henry Gustav Molaison cuyo auténtico nombre solo fue conocido tras su muerte en 2009) del que se dice que es el paciente mejor estudiado de la historia. Brenda Milner lo trató durante años y su estudio ha sentado las bases para comprender los mecanismos de la memoria explícita.
H.M sufrió una caída mientras montaba en bicicleta a causa de la cual empezó a tener frecuentes ataquesepilépticos que llegaron a un punto en el que no le permitían llevar una vida normal. Los médicos decidieron operarle y extirpar la zona del cerebro que le producían los ataques. La operación fue un éxito en lo relativo a la epilepsia, pero fatal en lo relativo a su memoria. La zona extirpada era el hipocampo y los resultados fueron:
  • Mantenía un buen recuerdo del pasado anterior a la operación.
  • Mantenía una buena memoria implícita. Es decir, aprendía nuevas destrezas.
  • Fue incapaz de generar nuevos recuerdos. Durante años visitó a Brenda Milner y cada día la saluda como si fuera la primera vez que se veían.

Estructura de la memoria explícita

El estudio del caso H.M. ofreció una idea clara de la estructura de la memoria explícita. En ella intervienen tres áreas:
  • La corteza prefrontal. En ella reside la memoria de trabajo (working memory). Es donde manipulamos la información que proviene de los sentidos y de la memoria a largo plazo. Tiene que ver con la conciencia, se actualiza constantemente y admite pocos elementos simultáneos.
  • El hipocampo (la zona extirpada en H.M.). Permite el paso de la memoria a corto plazo a memoria a largo plazo.
  • Las áreas sensitivas y de asociación de la corteza. En ellas se almacenan los recuerdos a largo plazo.
Por lo tanto, no existe un almacén único de la memoria en el cerebro. Está distribuida por el córtex. Las mismas áreas que se emplean para percibir un objeto se usan para recordarlo. Para cada cosa que recordamos hay múltiples representaciones, una por cada modalidad sensorial. De una manzana recordamos (y almacenamos en un área distinta) el olor, el color, la forma, la textura, el sonido que hace al morderla, las situaciones que hemos vivido con manzanas... y finalmente la palabra manzana. Cada una de ellas es capaz de evocar al resto y traer el concepto manzana a la memoria de trabajo para permitirnos ser conscientes de la manzana. Si modificamos algunos de los aspectos o añadimos algún otro, el hipocampo ordena a las áreas involucradas su modificación.
En la memoria hay 4 procesos:
  • Codificación (vivir nuevas experiencias, prestarles atención y relacionarlas con otras experiencias)
  • Consolidación (paso de memoria a corto plazo a memoria a largo plazo)
  • Almacenamiento (mantenimiento de la información almacenada)
  • Recuperación (recuerdo de la información almacenada).
La memoria tiene fases. En un principio la información es lábil y es fácil que se pierda. Con el tiempo y el uso se va consolidando. Esto se manifiesta en el caso de la amnesia retrógrada en la que un golpe hace que perdamos memoria hacia atrás desde el momento del golpe y que la recuperemos al revés. Pero por otra parte, los recuerdos más antiguos se van olvidando.

Potenciación a largo plazo LTP

¿Existe algún correlato biológico entre los mecanismos moleculares de la memoria implícita y la memoria explícita? Desde luego la memoria explícita en mamíferos es mucho más compleja que la implícita estudiada en invertebrados. La potenciación a largo plazo viene a responder parcialmente a la búsqueda de los mecanismos biológicos de la memoria explícita.
Sabemos que en la memoria explícita interviene el hipocampo. En 1973 Terje Lømo y Tim Bliss descubrieron que una ráfaga de impulsos en algunas de las células del hipocampo provocaba un reforzamiento de las conexiones sinápticas que duraba desde varias horas hasta más de un día. Llamaron a este fenómeno potenciación a largo plazo y es similar a la facilitación sináptica en la memoria implícita. Posteriores estudios demostraron que tiene una fase precoz (memoria a corto plazo) y una fase tardía (memoria a largo plazo). Al igual que en la memoria implícita, la frase precoz no necesita la síntesis de nuevas proteínas y como en la memoria implícita, la fase tardía implica a los genes y la síntesis de nuevas proteínas.
Parece pues que aunque la memoria implícita y la explícita involucran distintos circuitos neurales, comparten semejantes mecanismos moleculares. La memoria a corto plazo modifica proteínas existentes y la memoria a largo plazo recluta a los genes para generar nuevas proteínas y producir cambios persistentes en la estructura neural.

miércoles, 12 de diciembre de 2012

El gen que facilitó la transición de aletas a patas


Un trabajo liderado por investigadores del Consejo Superior de Investigaciones Científicas (CSIC) demuestra que las aletas de los peces cebra pueden transformarse en estructuras parecidas a las patas de los tetrápodos si se incrementa la actividad de un gen denominado hoxd13. Los resultados, que aparecen publicados en el último número de la revista Developmental Cell, demuestran funcionalmente una teoría clave para entender el paso de los animales acuáticos a los terrestres.



La conquista del medio terrestre fue un hito en la historia evolutiva. En esta transición fue crítica la aparición de estructuras óseas distales que formaron lentamente los dedos y la muñeca en los apéndices precursores de las patas de los tetrápodos.

“Nuestros experimentos demuestran por primera vez que, si aumentamos los niveles del gen hoxd13 en aletas de peces cebra, se incrementa la aparición de tejido óseo de carácter distal similar al que genera los dedos en animales con patas como nosotros”, explica el investigador del CSIC José Luis Gómez-Skarmeta, investigador en el Centro Andaluz de Biología del Desarrollo, un centro mixto del CSIC y la Universidad Pablo Olavide.

Según el investigador del Centro Andaluz de Biología del Desarrollo Fernando Casares, otro de los autores del trabajo, el aumento del tejido óseo distal en las aletas de peces cebra va acompañado de una reducción del tejido que forma los radios. “Este hecho se relaciona con el registro fósil, donde, a medida que aumenta la elaboración distal de la aleta, disminuye el tamaño de los radios”, aclara.

ADN regulador

Los genes Hox, que forman parte de una familia encargada de distinguir las partes del cuerpo durante el periodo embrionario y son esenciales para la formación de los dedos y la muñeca, cuentan con unos niveles de expresión mucho mayores en la zona distal del rudimento embrionario de las patas que en la región de la aleta equivalente.

En los últimos años, varios estudios han comprobado que las grandes cantidades de expresión de los Hox en las patas dependen de elementos de ADN reguladores que actúan conjuntamente potenciando su expresión. “Es muy interesante que algunos de estos elementos reguladores no se encuentren en el genoma de los peces, lo que sugiere que ha sido la aparición de nuevos elementos reguladores lo que ha facilitado alcanzar los niveles de expresión de genes Hox requeridos para la formación de los dedos y la muñeca”, indica Gómez-Skarmeta.

El trabajo liderado por el CSIC demuestra que los peces cebra son también capaces de leer correctamente las instrucciones contenidas en estas regiones reguladoras ausentes de su genoma y específicas de los tetrápodos. “Todos esto datos indican que el ancestro común de los peces y los tetrápodos tenía un genoma preparado para adquirir progresivamente nuevos elementos reguladores que fueron aumentando los niveles de los genes Hox que permitieron el desarrollo de las manos y los pies”, concluye Casares.

domingo, 9 de diciembre de 2012

La memoria, estructura y funcionamiento (I): Memoria implícita

La memoria es la capacidad para almacenar y recuperar recuerdos y habilidades. Su correlato es el aprendizaje.Según su duración puede dividirse en memoria a corto plazo (minutos a horas) y a largo plazo(horas a días o a toda la vida). La diferencia molecular esencial entre ambas es que en la memoria a corto plazo se modifican proteínas existentes y en la memoria a largo plazo intervienen los genes que codifican nuevas proteínas.


Según sus contenidos la memoria puede dividirse en:
  • Memoria implícita o procedimental. Es la relacionada con hábitos o destrezas como montar en bicicleta. Normalmente es inconsciente, es fácil de realizar y difícil de explicar con palabras. Es común a todos los animales.
  • Memoria explícita o declarativa. Es la que llamamos normalmente memoria. Tiene que ver con lugares, hechos, personas y objetos. Su invocación es consciente y es fácil de describir con palabras. Es más compleja que la implícita y se da en animales superiores.
Determinados procesos pueden involucrar ambos tipos y se puede ejercer un control consciente de la memoria implícita como cuando aprendemos a realizar una destreza como jugar al tenis.


Memoria implícita

Ivan Paulov descubrió tres tipos de memoria trabajando con perros: la habituación, la sensibilización y el condicionamiento clásico. Por ello recibió el Premio Nobel en 1904. Eric Kadel descubrió los mecanismos celulares, moleculares y genéticos de esas tres formas de memoria trabajando con una babosa marina llamada Aplysia. Por ello recibió el Premio Nobel en 2000.
  • Habituación. Cuando un estímulo trivial se presenta repetidamente la respuesta al estímulo se reduce o desaparece. El animal aprende que el estímulo es irrelevante.
  • Sensibilización. Cuando un estímulo nocivo se presenta, muchas respuestas no relacionadas con el estímulo se acentúan. Cuando el animal recibe un susto o un golpe, se prepara para la huída y reacciona excesivamente a cualquier otro estímulo.
  • Condicionamiento clásico. Cuando un estímulo inocuo (neutro) se presenta aparejado con un estímulo nocivo o beneficioso (estímulo no condicionado) el animal aprende a asociar los dos de modo que el estímulo neutro pasa a ser estímulo condicionado y anticipa la llegada del estímulo no condicionado.


Además de estos tres modelos, Thorndike descubrió el condicionamiento instrumental u operante en virtud del cual se asocian un estímulo, una respuesta y una recompensa. Los cuatro modelos de aprendizaje se han estudiado con extensión en la Psicología del Aprendizaje por el conductismo.
La memoria implícita se encuentra ubicada en los circuitos perceptivos, motores y emocionales.
La biología impone restricciones y facilidades a estos mecanismos. Por un lado no es posible enseñar a una rana a volar. Por el contrario, hay aprendizajes que solo requieren un ensayo (asco de por vida a una comida que ha producido vómitos).




Mecanismos celulares, moleculares y genéticos del aprendizaje implícito.

Segundos mensajeros.

En la célula postsináptica existen dos tipos de receptores.
  • Receptor ionotrópico: es un canal que se activa por un neurotransmisor y que permite el paso de iones. Los neurotransmisor más comunes en el cerebro son el excitador glutamato y el depresor GABA. Su duración es de milisegundos.
  • Receptor metabotrópico: son activados por un neurotransmidor (serotonina, dopamina...) o una hormona. Activan una sustancia química en el interior de la célula (segundo mensajero), la cual inicia la respuesta global de la célula. La acción de los receptores metabotrópicos suele ser más intensa, más extensa y más persistente que la de los receptores ionotrópicos. Su duración es de segundos o minutos.
En la memoria intervienen los segundos mensajeros que producen una modificación del estado la célula que va desde segundos a toda la vida.


La memoria a corto plazo implícita

Supone una modificación en la eficacia de las sinapsis. En la memoria a corto plazo, los segundos mensajeros modifican proteínas existentes que aumentan o disminuyen la eficacia sináptica. No hay síntesis de nuevas proteínas.

La memoria a largo plazo implícita

Participan muchas de las mismas moléculas que en la memoria a corto plazo.
Algunos de los segundos mensajeros viajan hasta el núcleo celular, activan los genes y producen nuevas proteínas.
La memoria a largo plazo implícita supone creación o eliminación de sinapsis
Esta información está basada en las obras de Eric Kandel En busca de la memoria y Principios de Neurociencia.

domingo, 2 de diciembre de 2012

IBM simula 500 mil millones de neuronas y 100 billones de sinapsis

En una simulación neuronal sin precedentes, IBM ha logrado simular 500 mil millones de neuronas y 100 billones de sinapsis. Para ello ha utilizado Sequoia, el segundo superordenador más grande del mundo con millón y medio de núcleos. Esto es una proeza computacional, pero tiene poco que ver con la neurociencia. Veamos por qué.



El departamento de Cognitive Computing de IBM en Almaden dirigido por Dharmendra S. Modha lleva unos años realizando asombrosas simulaciones en el contexto del proyecto DARPA SyNAPSE. Como parte de este proyecto, anunció la simulación a la escala del córtex de un ratón, luego de una rata y más tarde de un gato.

El objetivo de este programa es crear un chip neurosináptico que supone una ruptura con la arquitectura tradicional de los ordenadores. Esta arquitectura es la llamada Von Neumann que usan la totalidad de los ordenadores en la actualidad, incluidos móviles y tarjetas. En la arquitectura Von Neumann la memoria está separada del procesador, el hardware del software y los programas están separados de los datos. Ha sido muy exitosa mientras se cumplía la miniaturización de componentes expresada en la ley de Moore: cada dos años se duplica el número de transistores en un espacio dado. El problema es que estamos llegando a los límites del átomo y que la ley dejará de cumplirse.

El chip neurosináptico es una ruptura total con la arquitectura Von Neumann. Se basa en el diseño de las neuronas en las queno hay distinción entre hw y sw, programas y datos, memoria y procesador. El chip consiste en una matriz de neuronas y entre sus cruces se realizan las sinapsis. De este modo, cada sinapsis del chip es hw y sw, proceso y memoria, programa y datos. Dado que todo está distribuido, no es necesaria un miniaturización tan extrema y sobre todo, un reloj tan rápido. Frente a los actuales gigahercios de frecuencia, las neuronas se disparan a un hercio, y en el caso del chip a 8 hercios. Además, los procesadores son clock driven, es decir, actúan bajo la batuta del reloj mientras que las neuronas son event driven, actúan solo si hay actividad que realizar.

Uno de los objetivos es reducir el consumo eléctrico. Un cerebro consume lo que una bombilla pequeña, 20 vatios. Un superordenador consume cientos de megavatios. El nuevo chip tiene un consumo muy reducido. Estos chips están construidos con tecnología de silicio clásica CMOS.

La arquitectura de muchos chips neurosinápticos unidos se ha llamado TrueNorth. Ya existe en desarrollo un chip de 256 neuronas, 1024 axones, y 256×1024 sinapsis.

El chip sin embargo no está en producción masiva. Para seguir trabajando en paralelo al desarrollo, se ha realizado la prueba actual. Para ello se ha usado un simulador llamado Compass. Compass traduce el comportamiento de un chip neurosináptico (no Von Neumann) a un ordenador clásico (Von Neumann). Usando Compass se ha simulado (pdf) el comportamiento de 2.000.000.000 chips. Esto supone 500 mil millones de neuronas y 100 billones de sinapsis, cifras por completo astronómicas. El resultado de la simulación se ha ejecutado 1.542 veces más lento que en tiempo real.

Para realizar la simulación se ha usado el segundo superordenador más grande del mundo, Sequoia un Blue Gene/Q de 96 armarios con 1 millón y medio de núcleos y 1,5 petabytes de memoria. Uno de los objetivos de la simulación es ver el escalado. Un problema habitual es que que cuando añadimos más cores, el sistema no funciona proporcionalmente más rápido. En el extremo, añadir más cores no aumenta el rendimiento: el sistema escala mal. Imagina un camarero atendiendo detrás de la barra. Si hay un segundo camarero, irán más rápido, pero no el doble. Si sigues añadiendo camareros, llegará un momento en que no aumente la eficiencia, incluso se verá reducida. El sistema escala mal. Pues bien, en la simulación realizada el escalado ha sido casi perfecto lo que es muy satisfactorio computacionalmente.

¿Qué tiene esto que ver con la neurociencia y el cerebro? Bien poco. La simulación no imita ningún comportamiento animal ni cognitivo ni humano. Para simular el comportamiento del cerebro, necesitamos saber cómo funciona y eso está lejos de lograrse. Para cuando llegue ese conocimiento debemos tener preparados ordenadores que sean capaces de simularlo y en este contexto se enmarca la presente investigación. Aunque no solo; la idea de diseñar estos nuevos chips es ponerlos en producción en aplicaciones comerciales tradicionales dando una gran potencia con un bajo consumo. La simulación del cerebro deberá esperar aún alguna década.

Artículo publicado originalmente en ALT1040