domingo, 30 de diciembre de 2012

Cerebro multitarea ¿puedes andar y hablar a la vez?


El cerebro es masivamente paralelo. Cuando nos fijamos en algo, millones de neuronas trabajan a la vez. Al mismo tiempo, podemos respirar, andar, oír o pensar. Sin embargo, en actividades que requieren nuestra atención, la multitarea se reduce drásticamente.



Multitarea es la capacidad de realizar varias tareas al tiempo. En el mundo de los ordenadores es un concepto antiguo. Aunque en realidad la completa multitarea es difícil de conseguir. Un procesador es mil veces más rápido que la memoria y esta es mil veces más rápida que el disco. Si tenemos que cargar datos de disco a memoria, el procesador se queda parado esperando. Por ello se inventó la multitarea. En realidad, el procesador no realiza multitarea sino un cambio rápido entre tareas (aunque nuevos procesadores multihebra y multicore pueden hacerlo, para simplificar, consideremos que no). Si los recursos (por ejemplo, memoria) son suficientes, la multitarea mejora el rendimiento global. Pero si son escasos, el rendimiento disminuye. Es lo que ocurre con la paginación. Si cada vez que el procesador cambia de tarea tiene que volver a cargar datos de disco porque no cabían en memoria, el rendimiento global disminuye.

Algo parecido ocurre en el cerebro, aunque las analogías son siempre limitadas: conocemos bien los ordenadores pero poco el cerebro.

Los lóbulos frontales del cerebro, su parte más evolucionada y genuínamente humana tienen a su cargo varias funciones. Entre ellas se encuentra prestar atención, coordinar la información, solictar recursos y planificar actividades. Es la función ejecutiva del cerebro.

La atención puede ser de dos tipos. Divergente, dispersa, pendiente de varios estímulos a la vez en busca de algo relevante. O convergente, enfocada en un problema concreto ignorando el resto de estímulos.

No podemos realizar dos tareas simultáneas si estas son muy demandantes cognitivamente. Se producen los llamados cuellos de botella o embudos. Podemos cambiar de una tarea a otra, pero esto conlleva un gasto adicional de recursos (como la paginación de los ordenadores). Una tarea interfiere en la otra y el rendimiento de ambas se ve afectado. Además, las posibilidades de error aumentan.

Si estamos muy enfrascados en una tarea demandante, bloqueamos la información que proviene de otras tareas. Prueba a calcular mentalmente el resultado de la operación 37 x 43 mientras sigues leyendo este artículo. No puedes. El cálculo mental es demasiado exigente, se produce un cuello de botella, debes dejarlo todo para completarlo. No hay multitarea. A pesar de todo, la multitarea se mantiene a otros niveles inferiores y, aunque estemos muy focalizados en un pensamiento, hay recursos disponbles para mantener el contacto con el exterior. Por muy concetrado que estés, si alguien grita ¡Fuego! prestarás atención y olvidarás la tarea anterior.

¿Puedes andar y hablar a la vez? Sí, porque realizamos una de las tareas automáticamente. Andar no es una tarea que demande muchos recursos cognitivos. Está realizada por el tronco cerebral, la parte más primitiva del cerebro. Ello deja al córtex, la parte más evolucionada, libre para realizar otras tareas.

Las tareas motoras repetitivas pueden aprenderse. El cerebelo interviene en ello. Cuando aprendemos a montar en bicicleta, toda nuestra atención está puesta en la tarea. Con el tiempo, aprendemos, la tarea se automatiza y somos capaces de hacerla de modo inconsciente de forma que no requiere nuestra atención y el córtex puede dedicarse a otras cosas. Pero si encontramos obstáculos en la ruta, montar en bicicleta vuelve a ser cognitivamente demandante y debemos dedicar nuestra atención a esquivarlos, olvidándonos de lo que estabamos pensando.

¿Y qué ocurre con el procesamiento de la información de los medios sociales? ¿Podemos ver la televisión mientras chateamos y hablamos por teléfono? En un nuevo estudio se sugiere que no. El estudio se realizó con dos grupos de personas: los de elevada multitarea y los de multitarea moderada. Los primeros obtenían en general peores rendimientos. Ello es debido a que se distraían en todas las circunstancias. Sin embargo, cuando se trataba de integrar información de varias modalidades sensoriales, obtenían un mejor rendimiento.

Cada vez somos más multitarea. Esto no es necesariamente malo, pero debemos mantener la capacidad de profundizar en los asuntos que lo requieren. También organizar mejor las tareas de modo que la multitarea no nos impida dedicarnos a lo importante y que unas tareas no interfieran en las otras de forma que el rendimiento global sea peor.

Artículo publicado originalmente en ALT1040

domingo, 23 de diciembre de 2012

¿Son las lenguas equivalentes?


Un estudio realizado con 7 lenguas indica que el español se habla más rápido que en chino mandarín, pero que la tasa de transferencia de información es la misma en todas las lenguas estudiadas.



Cuando escuchas hablar a alguien en una lengua que desconoces tiendes a pensar que esta es muy difícil, diabólica incluso. Sin embargo, todo parece indicar que las lenguas son equivalentes en lo que pueden expresar, en su estructura profunda y según este estudio en la tasa de transferencia de información.

El lenguaje es una capacidad innata del ser humano, aunque la lengua concreta se aprende. Cualquier niño sin problemas y con una estimulación suficiente puede aprender cualquier idioma del mundo. Lo hace sin esfuerzo y capta las regularidades e irregularidades de la lengua incluso aunque los adultos le hablemos muy mal, que es lo que de hecho ocurre. Aprende las estructuras gramaticales y cientos de palabras con enorme rapidez. Tiene un cerebro predispuesto para el lenguaje.

La lengua concreta, sin embargo, se aprende. Existen ventanas de tiempo más allá de las cuales el aprendizaje se hace muy complicado. Es lo que sucede cuando se aprende una segunda lengua de adulto.

Todas las lenguas son equivalentes. Es el llamado principio de efabilidad mediante el cual todo lo que se puede decir en una lengua se puede traducir a otra. Existen, eso sí, lenguas con mayor riqueza de palabras y expresiones que otras dependiendo esencialmente del número de hablantes. Una lengua en un lugar remoto que hablen unos cientos de personas no tiene la riqueza del inglés o español. Y por lo tanto, para traducir una frase a esa lengua se requerirán muchas más palabras que en la original, serán necesarios circunloquios. Imaginemos una lengua cuyos hablantes nunca han visto el mar. Es posible hablarles del mar, aunque serán necesarias largas explicaciones.

El lingüista Noam Chomsky (polémico hombre que se mantiene activo aún) postuló la idea de una gramática universal. Según él, hay una estructura profunda común a todas las lenguas y una estructura superficial particular de cada una. Todas las lenguas tienen, por ejemplo, sujeto, verbo y objeto, aunque su orden varía entre ellas.

En este nuevo estudio se tradujo un texto del inglés a otros seis idiomas: alemán, francés, italiano, español, japonés, y chino mandarín. Se pidió a hablantes nativos que lo hablaran en voz alta y se grabó su discurso. El recuento del número de sílabas, ordenó los idiomas de la siguiente forma: japonés (7,84 sílabas por segundo), español (7,82), francés (7,18), italiano (6,99), inglés (6,19), alemán (5,97) y mandarín (5,18).
Sin embargo, el texto total era leído en el mismo tiempo. La densidad informacional de cada sílaba es inversa a la velocidad. Cuando se dicen muchas sílabas, estas contienen poca información y al revés. Es decir, la tasa de transferencia de información es igual en todos los idiomas, posiblemente adecuada a la capacidad de percepción humana.

Por extrañas, rápidas o complejas que puedan resultar otras lenguas, todas son equivalentes en un amplio conjunto de valores universales. 

Artículo publicado originalmente en ALT1040

domingo, 16 de diciembre de 2012

La memoria, estructura y funcionamiento (II): Memoria explícita


La memoria explícita o declarativa (por contraposición a la memoria implícita o procedimental) es la que llamamos normalmente memoria. Tiene que ver con lugares, personas y objetos (semántica) y con hechos (episódica). Su invocación es consciente y es fácil de describir con palabras. Es más compleja que la memoria implícita y se da en animales superiores.

H.M.

El conocimiento de la memoria explícita se debe en buena medida al caso del paciente H.M. (Henry Gustav Molaison cuyo auténtico nombre solo fue conocido tras su muerte en 2009) del que se dice que es el paciente mejor estudiado de la historia. Brenda Milner lo trató durante años y su estudio ha sentado las bases para comprender los mecanismos de la memoria explícita.
H.M sufrió una caída mientras montaba en bicicleta a causa de la cual empezó a tener frecuentes ataquesepilépticos que llegaron a un punto en el que no le permitían llevar una vida normal. Los médicos decidieron operarle y extirpar la zona del cerebro que le producían los ataques. La operación fue un éxito en lo relativo a la epilepsia, pero fatal en lo relativo a su memoria. La zona extirpada era el hipocampo y los resultados fueron:
  • Mantenía un buen recuerdo del pasado anterior a la operación.
  • Mantenía una buena memoria implícita. Es decir, aprendía nuevas destrezas.
  • Fue incapaz de generar nuevos recuerdos. Durante años visitó a Brenda Milner y cada día la saluda como si fuera la primera vez que se veían.

Estructura de la memoria explícita

El estudio del caso H.M. ofreció una idea clara de la estructura de la memoria explícita. En ella intervienen tres áreas:
  • La corteza prefrontal. En ella reside la memoria de trabajo (working memory). Es donde manipulamos la información que proviene de los sentidos y de la memoria a largo plazo. Tiene que ver con la conciencia, se actualiza constantemente y admite pocos elementos simultáneos.
  • El hipocampo (la zona extirpada en H.M.). Permite el paso de la memoria a corto plazo a memoria a largo plazo.
  • Las áreas sensitivas y de asociación de la corteza. En ellas se almacenan los recuerdos a largo plazo.
Por lo tanto, no existe un almacén único de la memoria en el cerebro. Está distribuida por el córtex. Las mismas áreas que se emplean para percibir un objeto se usan para recordarlo. Para cada cosa que recordamos hay múltiples representaciones, una por cada modalidad sensorial. De una manzana recordamos (y almacenamos en un área distinta) el olor, el color, la forma, la textura, el sonido que hace al morderla, las situaciones que hemos vivido con manzanas... y finalmente la palabra manzana. Cada una de ellas es capaz de evocar al resto y traer el concepto manzana a la memoria de trabajo para permitirnos ser conscientes de la manzana. Si modificamos algunos de los aspectos o añadimos algún otro, el hipocampo ordena a las áreas involucradas su modificación.
En la memoria hay 4 procesos:
  • Codificación (vivir nuevas experiencias, prestarles atención y relacionarlas con otras experiencias)
  • Consolidación (paso de memoria a corto plazo a memoria a largo plazo)
  • Almacenamiento (mantenimiento de la información almacenada)
  • Recuperación (recuerdo de la información almacenada).
La memoria tiene fases. En un principio la información es lábil y es fácil que se pierda. Con el tiempo y el uso se va consolidando. Esto se manifiesta en el caso de la amnesia retrógrada en la que un golpe hace que perdamos memoria hacia atrás desde el momento del golpe y que la recuperemos al revés. Pero por otra parte, los recuerdos más antiguos se van olvidando.

Potenciación a largo plazo LTP

¿Existe algún correlato biológico entre los mecanismos moleculares de la memoria implícita y la memoria explícita? Desde luego la memoria explícita en mamíferos es mucho más compleja que la implícita estudiada en invertebrados. La potenciación a largo plazo viene a responder parcialmente a la búsqueda de los mecanismos biológicos de la memoria explícita.
Sabemos que en la memoria explícita interviene el hipocampo. En 1973 Terje Lømo y Tim Bliss descubrieron que una ráfaga de impulsos en algunas de las células del hipocampo provocaba un reforzamiento de las conexiones sinápticas que duraba desde varias horas hasta más de un día. Llamaron a este fenómeno potenciación a largo plazo y es similar a la facilitación sináptica en la memoria implícita. Posteriores estudios demostraron que tiene una fase precoz (memoria a corto plazo) y una fase tardía (memoria a largo plazo). Al igual que en la memoria implícita, la frase precoz no necesita la síntesis de nuevas proteínas y como en la memoria implícita, la fase tardía implica a los genes y la síntesis de nuevas proteínas.
Parece pues que aunque la memoria implícita y la explícita involucran distintos circuitos neurales, comparten semejantes mecanismos moleculares. La memoria a corto plazo modifica proteínas existentes y la memoria a largo plazo recluta a los genes para generar nuevas proteínas y producir cambios persistentes en la estructura neural.

miércoles, 12 de diciembre de 2012

El gen que facilitó la transición de aletas a patas


Un trabajo liderado por investigadores del Consejo Superior de Investigaciones Científicas (CSIC) demuestra que las aletas de los peces cebra pueden transformarse en estructuras parecidas a las patas de los tetrápodos si se incrementa la actividad de un gen denominado hoxd13. Los resultados, que aparecen publicados en el último número de la revista Developmental Cell, demuestran funcionalmente una teoría clave para entender el paso de los animales acuáticos a los terrestres.



La conquista del medio terrestre fue un hito en la historia evolutiva. En esta transición fue crítica la aparición de estructuras óseas distales que formaron lentamente los dedos y la muñeca en los apéndices precursores de las patas de los tetrápodos.

“Nuestros experimentos demuestran por primera vez que, si aumentamos los niveles del gen hoxd13 en aletas de peces cebra, se incrementa la aparición de tejido óseo de carácter distal similar al que genera los dedos en animales con patas como nosotros”, explica el investigador del CSIC José Luis Gómez-Skarmeta, investigador en el Centro Andaluz de Biología del Desarrollo, un centro mixto del CSIC y la Universidad Pablo Olavide.

Según el investigador del Centro Andaluz de Biología del Desarrollo Fernando Casares, otro de los autores del trabajo, el aumento del tejido óseo distal en las aletas de peces cebra va acompañado de una reducción del tejido que forma los radios. “Este hecho se relaciona con el registro fósil, donde, a medida que aumenta la elaboración distal de la aleta, disminuye el tamaño de los radios”, aclara.

ADN regulador

Los genes Hox, que forman parte de una familia encargada de distinguir las partes del cuerpo durante el periodo embrionario y son esenciales para la formación de los dedos y la muñeca, cuentan con unos niveles de expresión mucho mayores en la zona distal del rudimento embrionario de las patas que en la región de la aleta equivalente.

En los últimos años, varios estudios han comprobado que las grandes cantidades de expresión de los Hox en las patas dependen de elementos de ADN reguladores que actúan conjuntamente potenciando su expresión. “Es muy interesante que algunos de estos elementos reguladores no se encuentren en el genoma de los peces, lo que sugiere que ha sido la aparición de nuevos elementos reguladores lo que ha facilitado alcanzar los niveles de expresión de genes Hox requeridos para la formación de los dedos y la muñeca”, indica Gómez-Skarmeta.

El trabajo liderado por el CSIC demuestra que los peces cebra son también capaces de leer correctamente las instrucciones contenidas en estas regiones reguladoras ausentes de su genoma y específicas de los tetrápodos. “Todos esto datos indican que el ancestro común de los peces y los tetrápodos tenía un genoma preparado para adquirir progresivamente nuevos elementos reguladores que fueron aumentando los niveles de los genes Hox que permitieron el desarrollo de las manos y los pies”, concluye Casares.

domingo, 9 de diciembre de 2012

La memoria, estructura y funcionamiento (I): Memoria implícita

La memoria es la capacidad para almacenar y recuperar recuerdos y habilidades. Su correlato es el aprendizaje.Según su duración puede dividirse en memoria a corto plazo (minutos a horas) y a largo plazo(horas a días o a toda la vida). La diferencia molecular esencial entre ambas es que en la memoria a corto plazo se modifican proteínas existentes y en la memoria a largo plazo intervienen los genes que codifican nuevas proteínas.


Según sus contenidos la memoria puede dividirse en:
  • Memoria implícita o procedimental. Es la relacionada con hábitos o destrezas como montar en bicicleta. Normalmente es inconsciente, es fácil de realizar y difícil de explicar con palabras. Es común a todos los animales.
  • Memoria explícita o declarativa. Es la que llamamos normalmente memoria. Tiene que ver con lugares, hechos, personas y objetos. Su invocación es consciente y es fácil de describir con palabras. Es más compleja que la implícita y se da en animales superiores.
Determinados procesos pueden involucrar ambos tipos y se puede ejercer un control consciente de la memoria implícita como cuando aprendemos a realizar una destreza como jugar al tenis.


Memoria implícita

Ivan Paulov descubrió tres tipos de memoria trabajando con perros: la habituación, la sensibilización y el condicionamiento clásico. Por ello recibió el Premio Nobel en 1904. Eric Kadel descubrió los mecanismos celulares, moleculares y genéticos de esas tres formas de memoria trabajando con una babosa marina llamada Aplysia. Por ello recibió el Premio Nobel en 2000.
  • Habituación. Cuando un estímulo trivial se presenta repetidamente la respuesta al estímulo se reduce o desaparece. El animal aprende que el estímulo es irrelevante.
  • Sensibilización. Cuando un estímulo nocivo se presenta, muchas respuestas no relacionadas con el estímulo se acentúan. Cuando el animal recibe un susto o un golpe, se prepara para la huída y reacciona excesivamente a cualquier otro estímulo.
  • Condicionamiento clásico. Cuando un estímulo inocuo (neutro) se presenta aparejado con un estímulo nocivo o beneficioso (estímulo no condicionado) el animal aprende a asociar los dos de modo que el estímulo neutro pasa a ser estímulo condicionado y anticipa la llegada del estímulo no condicionado.


Además de estos tres modelos, Thorndike descubrió el condicionamiento instrumental u operante en virtud del cual se asocian un estímulo, una respuesta y una recompensa. Los cuatro modelos de aprendizaje se han estudiado con extensión en la Psicología del Aprendizaje por el conductismo.
La memoria implícita se encuentra ubicada en los circuitos perceptivos, motores y emocionales.
La biología impone restricciones y facilidades a estos mecanismos. Por un lado no es posible enseñar a una rana a volar. Por el contrario, hay aprendizajes que solo requieren un ensayo (asco de por vida a una comida que ha producido vómitos).




Mecanismos celulares, moleculares y genéticos del aprendizaje implícito.

Segundos mensajeros.

En la célula postsináptica existen dos tipos de receptores.
  • Receptor ionotrópico: es un canal que se activa por un neurotransmisor y que permite el paso de iones. Los neurotransmisor más comunes en el cerebro son el excitador glutamato y el depresor GABA. Su duración es de milisegundos.
  • Receptor metabotrópico: son activados por un neurotransmidor (serotonina, dopamina...) o una hormona. Activan una sustancia química en el interior de la célula (segundo mensajero), la cual inicia la respuesta global de la célula. La acción de los receptores metabotrópicos suele ser más intensa, más extensa y más persistente que la de los receptores ionotrópicos. Su duración es de segundos o minutos.
En la memoria intervienen los segundos mensajeros que producen una modificación del estado la célula que va desde segundos a toda la vida.


La memoria a corto plazo implícita

Supone una modificación en la eficacia de las sinapsis. En la memoria a corto plazo, los segundos mensajeros modifican proteínas existentes que aumentan o disminuyen la eficacia sináptica. No hay síntesis de nuevas proteínas.

La memoria a largo plazo implícita

Participan muchas de las mismas moléculas que en la memoria a corto plazo.
Algunos de los segundos mensajeros viajan hasta el núcleo celular, activan los genes y producen nuevas proteínas.
La memoria a largo plazo implícita supone creación o eliminación de sinapsis
Esta información está basada en las obras de Eric Kandel En busca de la memoria y Principios de Neurociencia.

domingo, 2 de diciembre de 2012

IBM simula 500 mil millones de neuronas y 100 billones de sinapsis

En una simulación neuronal sin precedentes, IBM ha logrado simular 500 mil millones de neuronas y 100 billones de sinapsis. Para ello ha utilizado Sequoia, el segundo superordenador más grande del mundo con millón y medio de núcleos. Esto es una proeza computacional, pero tiene poco que ver con la neurociencia. Veamos por qué.



El departamento de Cognitive Computing de IBM en Almaden dirigido por Dharmendra S. Modha lleva unos años realizando asombrosas simulaciones en el contexto del proyecto DARPA SyNAPSE. Como parte de este proyecto, anunció la simulación a la escala del córtex de un ratón, luego de una rata y más tarde de un gato.

El objetivo de este programa es crear un chip neurosináptico que supone una ruptura con la arquitectura tradicional de los ordenadores. Esta arquitectura es la llamada Von Neumann que usan la totalidad de los ordenadores en la actualidad, incluidos móviles y tarjetas. En la arquitectura Von Neumann la memoria está separada del procesador, el hardware del software y los programas están separados de los datos. Ha sido muy exitosa mientras se cumplía la miniaturización de componentes expresada en la ley de Moore: cada dos años se duplica el número de transistores en un espacio dado. El problema es que estamos llegando a los límites del átomo y que la ley dejará de cumplirse.

El chip neurosináptico es una ruptura total con la arquitectura Von Neumann. Se basa en el diseño de las neuronas en las queno hay distinción entre hw y sw, programas y datos, memoria y procesador. El chip consiste en una matriz de neuronas y entre sus cruces se realizan las sinapsis. De este modo, cada sinapsis del chip es hw y sw, proceso y memoria, programa y datos. Dado que todo está distribuido, no es necesaria un miniaturización tan extrema y sobre todo, un reloj tan rápido. Frente a los actuales gigahercios de frecuencia, las neuronas se disparan a un hercio, y en el caso del chip a 8 hercios. Además, los procesadores son clock driven, es decir, actúan bajo la batuta del reloj mientras que las neuronas son event driven, actúan solo si hay actividad que realizar.

Uno de los objetivos es reducir el consumo eléctrico. Un cerebro consume lo que una bombilla pequeña, 20 vatios. Un superordenador consume cientos de megavatios. El nuevo chip tiene un consumo muy reducido. Estos chips están construidos con tecnología de silicio clásica CMOS.

La arquitectura de muchos chips neurosinápticos unidos se ha llamado TrueNorth. Ya existe en desarrollo un chip de 256 neuronas, 1024 axones, y 256×1024 sinapsis.

El chip sin embargo no está en producción masiva. Para seguir trabajando en paralelo al desarrollo, se ha realizado la prueba actual. Para ello se ha usado un simulador llamado Compass. Compass traduce el comportamiento de un chip neurosináptico (no Von Neumann) a un ordenador clásico (Von Neumann). Usando Compass se ha simulado (pdf) el comportamiento de 2.000.000.000 chips. Esto supone 500 mil millones de neuronas y 100 billones de sinapsis, cifras por completo astronómicas. El resultado de la simulación se ha ejecutado 1.542 veces más lento que en tiempo real.

Para realizar la simulación se ha usado el segundo superordenador más grande del mundo, Sequoia un Blue Gene/Q de 96 armarios con 1 millón y medio de núcleos y 1,5 petabytes de memoria. Uno de los objetivos de la simulación es ver el escalado. Un problema habitual es que que cuando añadimos más cores, el sistema no funciona proporcionalmente más rápido. En el extremo, añadir más cores no aumenta el rendimiento: el sistema escala mal. Imagina un camarero atendiendo detrás de la barra. Si hay un segundo camarero, irán más rápido, pero no el doble. Si sigues añadiendo camareros, llegará un momento en que no aumente la eficiencia, incluso se verá reducida. El sistema escala mal. Pues bien, en la simulación realizada el escalado ha sido casi perfecto lo que es muy satisfactorio computacionalmente.

¿Qué tiene esto que ver con la neurociencia y el cerebro? Bien poco. La simulación no imita ningún comportamiento animal ni cognitivo ni humano. Para simular el comportamiento del cerebro, necesitamos saber cómo funciona y eso está lejos de lograrse. Para cuando llegue ese conocimiento debemos tener preparados ordenadores que sean capaces de simularlo y en este contexto se enmarca la presente investigación. Aunque no solo; la idea de diseñar estos nuevos chips es ponerlos en producción en aplicaciones comerciales tradicionales dando una gran potencia con un bajo consumo. La simulación del cerebro deberá esperar aún alguna década.

Artículo publicado originalmente en ALT1040

domingo, 25 de noviembre de 2012

Memoria de trabajo (working memory), RAM y biblioteca

Es posible realizar una analogía a tres niveles entre el funcionamiento de la memoria de trabajo (working memory) del cerebro, la RAM de un ordenador y una biblioteca.

La memoria de trabajo (WM) es un concepto introducido por Alan Baddeley en 1976 para sustituir a la memoria a corto plazo, más imprecisa. Es un modelo discutible, como todos, pero interesante.
Se refiere a la memoria activa que se utiliza en los procesos conscientes. Tiene tres componentes:
  • El ejecutivo central. Decide a que prestar atención y organiza la secuencia de operaciones
  • El bucle fonológico. Maneja y mantiene en memoria el material hablado y escrito.
  • El bloc de notas visuoespacial. Maneja y mantiene las imágenes.
La memoria de trabajo (WM) se encuentra en la corteza prefontal y sus contenidos se actualizan constantemente. Se alimenta tanto de los sentidos como de la memoria a largo plazo (que se encuentra distribuida por toda la corteza).
Es tentador imaginar que los contenidos de la memoria a largo plazo se transfieren a la memoria de trabajo, se modifican y se vuelven a almacenar en la memoria a largo plazo. Pero el cerebro no funciona así. Más bien, la memoria de trabajo activa las zonas del cerebro que contienen los recuerdos en una acción conjunta que llamamos conciencia.


Algunas de las características de la memoria de trabajo son: su capacidad es limitada (el número mágico de 7 items), sus contenidos se actualizan permanentemente, es reverberante (para evitar que los contenidos decaigan), en buena medida es serial y no paralela, de modo que genera cuellos de botella y problemas de rendimiento. También se ha relacionado con el espacio de trabajo global (Global Workspace de Baars).
Los ordenadores tienen tres componentes clásicos:
  • La CPU procesa las instrucciones. Utiliza unas diminutas memorias llamadas registros que carga y descarga de la memoria RAM
  • La memoria principal o RAM. Es volátil, se borra cuando se apaga el ordenador.
  • La memoria auxiliar. Es permanente. En general se trata del disco duro.
La CPU es muchas veces más rápida que la RAM y la RAM muchas veces más rápida que el disco. A su vez, el disco es más barato que la RAM y esta es más barata que la CPU. El almacenamiento en disco es mucho mayor que la RAM Entre estos componentes hay múltiples memorias intermedias llamadas cachés.
La analogía es clara. La memoria RAM se parece a la memoria de trabajo (WM) y el disco duro se parece a la memoria a largo plazo.
Imagina ahora que vas a una biblioteca. Un bibliotecario maneja los libros en las estanterías y tú ocupas unamesa de trabajo. No puedes trabajar sin libros y a la vez no puedes trabajar con los libros que están almacenados en las estanterías. Cuando llegas tu mesa está vacía y la limpias cuando te vas. La analogía es de nuevo clara. Por un lado tienes:
  • la mesa de trabajo,
  • la memoria RAM
  • la memoria de trabajo (WM).
Por otro lado:
  • las estanterías con los libros,
  • el disco duro
  • la memoria a largo plazo.
Cuando llegas, tu mesa está vacía y pides al bibliotecario que te traiga unos libros, es decir, cargas la RAM con información del disco duro o traes a la conciencia los contenidos de la memoria a largo plazo. El acceso a la información en la mesa es rápido del mismo modo que lo es en la RAM o en la memoria de trabajo (WM). Procesas los contenidos, los comparas y los modificas. Después devuelves los libros actualizados a las estanterías (no lo hagas, por favor, lleva tu propio cuaderno), grabas la RAM en el disco duro o modificas los contenidos de la memoria a largo plazo. Finalmente la mesa de trabajo, la memoria RAM y la memoria de trabajo (WM) quedan vacías.
El proceso de carga de datos es análogo en los tres sistemas; es trabajoso y lento:
  • Lees el índice, seleccionas la ficha, se la das al bibliotecario que recorre las estanterías hasta dar con el libro y traértelo.
  • El ordenador lee el fichero de índices, busca el registro pedido, va al fichero de datos, lee el registro (y de paso otros muchos registros) y lo carga en memoria. Índice, fichero o registro son de hecho términos importados en la informática desde el mundo de los libros y el papel.
  • Buscar la información es un proceso penoso para el cerebro. Sabes que lo sabes (metacognición), lo tienes en la punta de la lengua pero ahora no caes: ¿A quién tienes enfrente? Repasas la claves (índices): lo vi en un congreso, contaba chistes, su nombre empieza por e o por f, era conocido de alguien… Ah sí, es Fernando. Y con el nombre traes a la memoria de trabajo otra información: ciudad, relaciones, deporte…
Una simple analogía en tres niveles, más válida entre los ordenadores y la biblioteca, cosas ambas creadas por nosotros. Una analogía más débil en el caso del cerebro.

Artículo publicado originalmente en ALT1040

viernes, 23 de noviembre de 2012

Watson, el ordenador que quería ser el mejor de la clase

El servicio de información y noticias científicas SINC ha publicado un reportaje llamado Watson, el ordenador que quería ser el mejor de la clase, de la periodista Ana Hernando en el que soy mencionado varias veces.

Watson es un ordenador que promete cambiar esencialmente la computación futura. En lugar de tener ordenadores que necesitan ser programados, Watson propone un nuevo paradigma en el que los ordenadores serán entrenados.



Adjunto el artículo completo.


Los científicos de IBM trabajan en sistemas que abrirán la era cognitiva de la computación. El primer ejemplo de esta nueva etapa es su ordenador Watson, que entiende el lenguaje natural y es capaz aprender. Watson bucea en gigantescas cantidades de información no estructurada, genera hipótesis y busca evidencias para dar con la mejor respuesta. No se ha quedado como proyecto de laboratorio ni de exhibición televisiva y ya se está aplicando para mejorar el diagnostico en oncología y en el sector financiero.

Ana Hernando | 23 noviembre 2012 09:17

IBM cumplió el pasado año su primer siglo de vida. La tecnología le debe muchos de sus avances, desde las tarjetas perforadas de comienzos del siglo XX al primer ordenador personal, pasando por el código de barras e incluso las bandas magnéticas de las tarjetas de crédito. Ahora, este gigante ha puesto a sus científicos a trabajar en lo que llama la ‘computación cognitiva’, “una tercera era en la informática con máquinas que pueden aprender, emulando algunas de las funciones del cerebro humano”, explica a SINC Mark Ritter, director de la división de analítica y proceso de IBM Research y experto en sistemas cognitivos.

“Primero las máquinas podían contar, luego eran programadas y en esta nueva era podrán aprender y ayudarnos a descubrir cosas nuevas”, añade Ritter.

Según este experto, uno de los primeros ejemplos de esta nueva tecnología es Watson, un potente ordenador creado por IBM –llamado así en honor a Thomas John Watson, fundador de la  multinacional–, que el pasado año batió a los dos mejores jugadores de un concurso televisivo muy famoso en EE UU llamado Jeopardy.

No es la primera vez que una máquina de IBM reta a los humanos. En 1997 su ordenador Deep Blue derrotó al campeón de ajedrez Gary Kasparov, pero aquel desafío se basó en la lógica precisa y matemática del ajedrez. En cambio, en Jeopardy, Watson “venció respondiendo correctamente, en segundos, a preguntas formuladas en lenguaje coloquial en las que se utilizaba el doble sentido, la ambigüedad, la ironía y los juegos de palabras, algo no alcanzado hasta el momento por ninguna máquina”, subraya Ritter .

Cientos de algoritmos compitiendo

Watson, un ordenador con 2.880 núcleos de procesador y 15 terabytes de de RAM, opera a 80 teraflops (80 billones de operaciones por segundo) y está basado en la arquitectura multiprocesador POWER7 de IBM. Pero, según Antonio Orbe, experto en sistemas cognitivos de IBM España, “lo más novedoso de este ordenador es su software, con cientos de algoritmos que compiten entre sí para encontrar la mejor respuesta”.

Muchos de los sistemas actuales de pregunta y respuesta se basan tan solo en un puñado de algoritmos y, por ello, no funcionan bien. “Es imposible simular la habilidad humana para analizar lenguaje e información con único programa”, añade Orbe.

Pero Watson usa más de 100 algoritmos al mismo tiempo para analizar una pregunta de diferentes formas, generando cientos de posibles soluciones. Otro conjunto de instrucciones hace un ranking de esas respuestas, según su verosimilitud. Por ejemplo, si un buen número de algoritmos, trabajando en diferentes direcciones, llega a la misma respuesta, es más probable que sea la correcta, explica.

“En esencia –añade Orbe– Watson trabaja con probabilidades. No produce solo una respuesta correcta si no un enorme número de posibilidades y luego las clasifica, valorando cuál de ellas es la mejor, de una forma similar a como lo hace la mente humana”. El sistema también es capaz de aprender de sus errores y averigua que para determinado tipo de preguntas unos algoritmos funcionan mejor que otros.

Todo este proceso lo realiza Watson con una gran velocidad. “Este ordenador es capaz de de analizar inmensas cantidades de datos no estructurados de una forma excepcionalmente rápida. En el prototipo que venció en Jeopardy, analizó un millón de libros, el equivalente a 200 millones de páginas en tres segundos”, subraya el experto español.

Además, el sistema, dice Antonio Orbe, “es capaz de analizar, entender y hallar correlaciones de los datos de una manera muy novedosa”.

Los científicos de la multinacional están ahora trabajando para que Watson en el futuro pueda establecer un dialogo interactivo, desarrollar perfiles de las evidencias encontradas, revelando el origen de sus respuestas y establecer un aprendizaje constante basado en su propia experiencia.

Información no estructurada

Así como el sistema Deep Blue no trajo consigo aplicaciones posteriores en el ámbito empresarial, IBM ya ha puesto a Watson a trabajar y se está usando, por ejemplo, en investigación y mejora del diagnóstico en oncología, en colaboración con Memorial Sloan Kettering Cancer Center de Nueva York. Y en el mundo de las finanzas, tras un acuerdo con Citigroup. Tanto la medicina como las finanzas manejan cantidades masivas de datos y comparten una necesidad imperiosa de gestionar la información rápidamente.

Watson está recibiendo ya entrenamiento y engulle toda la información relevante de estos ámbitos. “Es muy importante reiterar que Watson, contrariamente a los sistemas convencionales, es capaz de trabajar con información no estructurada, como una conversación, un artículo científico o datos procedentes de internet y de redes sociales, subraya Orbe.

Según Mark Ritter, el volumen de información mundial está creciendo a una velocidad inusitada. El 90% de la información que usamos en la actualidad se ha generado en los últimos dos años y casi 90% de estos datos no están estructurados, es decir, que no se encuentran en bases de datos y, por lo tanto, no son accesibles para los sistemas convencionales, aunque sí lo serían para los ordenadores Watson. “No hace falta decir lo valiosa que es toda esa información para el mundo empresarial”, añade.

Por su parte, Antonio Orbe subraya que en los próximos años se verá una eclosión de aplicaciones de Watson en múltiples áreas.

Colaboración con universidades

En este sentido, la firma está colaborando con cocho universidades en Estados Unidos para la búsqueda aplicaciones de Watson en los negocios del transporte, las telecomunicaciones, la energía, la distribución y el sector público.   

Asimismo, IBM ha creado un equipo de software y servicios en su sede de Bangalore (India) para crear nuevos algoritmos que permitan aplicar Watson a nuevos sectores.

Ritter señala que Watson supone solo el inicio de la era cognitiva en la computación. “Son solo los primeros pasos”. Todavía se basa en la arquitectura Von Neumann, que es la que ha regido la informática durante los últimos 40 años.

IBM ya está diseñando componentes para una futura arquitectura que rompe totalmente con el actual paradigma y que combina la nanociencia, la neurociencia y la supercomputación.

domingo, 18 de noviembre de 2012

Terapia electroconvulsiva o electroshock en la actualidad


La terapia electroconvulsiva TEC o electroshock se usó por primera vez en 1938. Consiste en una descarga eléctrica en la cabeza que produce una convulsión. Es una técnica que tiene muy mala fama pese a lo cual más de un millón de personas la reciben cada año.

En la excelente película One Flew Over the Cuckoo’s Nest, de Milos Forman, Jack Nicholson encarna a un personaje que es recluido en un hospital psiquiátrico. Tras revolucionar el centro y amenazar la estabilidad de la institución, es sometido a electroshock y finalmente a lobotomía que acaba con su resistencia. La realidad difiere, sin embargo de la presentada en la película en varios aspectos. Si bien la lobotomía es una técnica brutal y uno de los mayores errores médicos que dejó de usarse hace tiempo, la TEC sigue utilizándose hoy en día.
La TEC se aplica, bajo condiciones muy rigurosas, en pacientes con depresión severa que no responden a tratamientos con medicación. Consiste en la aplicación de una descarga eléctrica en la cabeza de unos 40 segundos. Se aplica dos o tres veces por semana hasta un máximo de 12 sesiones. El paciente está bajo anestesia general de corta duración y se le administran miorrelajantes de modo que no se producen espasmos musculares. Después de despertar el paciente esta bajo observación y reposo relativo el resto del día.
La eficacia en el tratamiento de la depresión severa está demostrada y es efectiva en más de la mitad de los casos, aunque sus efectos suelen ser temporales.
Uno de los efectos secundarios más notorios es la amnesia. El paciente pierde los recuerdos hacia atrás, olvidando los acontecimientos previos a la TEC hasta un periodo de tiempo variable. Después los va recuperando desde atrás hacia adelante, hasta el momento de la administración de la TEC. Esto muestra que los recuerdos son débiles cuando se forman y que el paso del tiempo los va consolidando. Los ya consolidados no se ven afectados por la TEC.
No se sabe cómo funciona la TEC pero parece que reduce la actividad neuronal y específicamente la hiperactividad de la zona cerebral que está causando la depresión.
Se supone que la parte del cerebro responsable de los sentimientos depresivos influye de manera anormal sobre la región responsable de los pensamientos y la concentración. La TEC reduciría esta hiperconectividady el paciente estaría menos pendiente de sus sentimientos depresivos quedando más libre para ocuparse de otras sensaciones más positivas.
Los datos inducen a pensar que medicamentos más específicos pueden actuar sobre la zona causante de la depresión. También que técnicas más localizadas como la estimulación transcraneal magnética TMS pueden producir efectos similares sin afectar a todo el cerebro.
La terapia electroconvulsiva no es un plato de buen gusto, pero supone un alivio de los síntomas depresivos en casos graves con tendencias suicidas y vida muy limitada por la enfermedad. En espera de que surjan otras técnicas o medicamentos, hoy sigue en uso.
Artículo publicado originalmente en ALT1040

domingo, 11 de noviembre de 2012

El autismo puede deberse a un crecimiento neuronal excesivo

Un aumento desordenado del crecimiento neuronal unido a una poda de neuronas menor de lo normal pueden estar detrás de las causas del autismo.

Desarrollo del sistema nervioso

El modo en que unos pocos genes genera un organismo entero es del todo sorprendente y tiene a los genetistas en la búsqueda de los factores que llevan esta misteriosa complejidad. En el caso del sistema nervioso el asunto es aún más fascinante.

Durante los primeros días del embrión se forma el tubo neural que dará lugar a la médula espinal y al encéfalo.

Según la posición en el tubo neural, los genes de transcripción y diversas sustancias químicas, se van formando distintas poblaciones de células, primero precursoras de neuronas y luego neuronas.

Un extremo del tubo neural se va engrosando en lo que más tarde será el encéfalo y sus distintos componentes. Con el tiempo, las neuronas se van diferenciando hasta desarrollar su propia identidad que incluye la forma, los neurotransmisores con los que trabaja y su posición física en el conjunto. Agentes químicos señalizadores junto con interacciones célula a célula intervienen en este proceso de diferenciación.

Con posterioridad, las neuronas migran desde su lugar de nacimiento hasta su posición definitiva, a veces varios milímetros. El proceso de migración es desde dentro hacia afuera, siendo las neuronas más superficiales en el cerebro las más jóvenes creadas.

Después de generarse las neuronas y migrar a su emplazamiento definitivo, estas deben de conectarse con sus neuronas diana con las que hacer sinapsis. Para ello, el axón debe de crecer hasta llegar a su zona de destino. Después debe de hacer sinapsis con las neuronas adecuadas. Para ello el axón tiene un cono de crecimiento en su punta que va siendo guiado por distintas señales hasta su objetivo (en ocasiones el axón crece a lo largo de una enorme distancia, de un hemisferio a otro o de la médula espinal a los dedos del pie).

Una vez en la región adecuada, el axón debe de elegir sobre qué neuronas debe de establecer sinapsis lo que de nuevo está determinado por señaladores moleculares en el entorno. Sin embargo, esto no está totalmente determinado por los genes y se realizan sinapsis que no sobrevivirán. La neurona postsináptica envía señales hacia atrás, al axón presináptico, que hacen que la sinapsis se debilite o se refuerce.

La primera parte del desarrollo del sistema nervioso se considera independiente de la actividad y predeterminada por los genes. La segunda parte es dependiente de la actividad ya que la actividad de las neuronas y el efecto del ambiente determinan el desarrollo final del sistema nervioso.

Si un axón ha hecho sinapsis con una neurona diana y esta no refuerza la conexión, la sinapsis se debilita y eventualmente la neurona presinaptica muere.

En el momento álgido se crean 250.000 neuronas por minuto, una tasa asombrosa. El cerebro crea el doble de las neuronas que sobrevivirán. La mitad muere por apoptosis o muerte programada (llamada así porque se activan genes que causan la muerte de la célula). Se establece una competencia entre las neuronas y las que están mejor situadas y hacen sinapsis más efectivas sobreviven, mientras que el resto se suicida. Durante los primeros años de existencia, estamos recortando sinapsis y neuronas, más que crearlas. Aprender significa tanto crear conexiones valiosas como destruir las inútiles. Ser más inteligente no significa solo tener más neuronas, sino tener mejores neuronas.

Autismo

Ya se sospechaba que el autismo tenia que ver con un exceso de neuronas y ahora nuevos datos parecen confirmarlo. Se especula que durante los cinco primeros años de vida el cerebro autista continúa creando neuronas desordenadamente, las cuales crecen y forman conexiones. A partir de los cinco años, comienzan a perder neuronas de un modo más rápido que los cerebros típicos.

En un estudio postmortem, encontraron que el cerebro de los seis niños autistas analizados tenía un 67% más de neuronas en el córtex frontal. Esta zona se localiza sobre los ojos y es responsable de funciones de alto nivel como la planificación, la personalidad, la memoria de trabajo, la atención y la inhibición de impulsos.

Investigando en los genes de las personas autistas, averiguaron que los genes que realizan reparaciones en el DNA, se expresaban por debajo de lo normal. Por el contrario los que regulaban el crecimiento neuronal se expresaban en exceso.

El equipo ofrece una explicación tentativa. Quizá durante la gestación, los genes encargados de corregir los errores genéticos funcionan mal, bien por una mutación o por un agente externo como una toxina o un virus. Los errores se acumulan, nuevas neuronas se forma de manera explosiva, crecen y forman más conexiones de las necesarias que a su vez no son podadas como es habitual. Más tarde, en la adolescencia, el sistema inmune reacciona y comienza a deshacerse de neuronas, pero el mal ya está hecho.

Naturalmente la teoría tiene detractores, pero va ganando peso. El autismo sigue siendo un problema muy complejo, pero si determinamos que se debe a la actividad genética, será una buena noticia ya que esta puede ser modificada.

Artículo publicado originalmente en ALT1040