domingo, 20 de diciembre de 2009

Balance 2009

Nos acercamos al final de otro año, y como cada mes de diciembre llega el momento de hacer balances. Por unas cosas u otras he ido marginando en mi blog uno de los descubrimientos más importantes del año y que fue publicado en el mes de agosto en la revista Science. En sentido estricto, el descubrimiento no ha sido de este año sino de hace la friolera de 17 años.
Es el tiempo que ha llevado a un equipo de unos cincuenta científicos (principalmente americanos, alemanes y japoneses -también una joven paleontóloga española-) el completar un análisis detallado de los miles de piezas recogidas en el terreno. El fruto ha sido la publicación de una serie de once artículos en la mencionada revista, y que constituyen una piedra angular de la biología evolutiva humana (http://www.sciencemag.org/content/vol326/issue5949/index.dtl). Me estoy refiriendo al descubrimiento de “Ardi”.


Ese es en nombre familiar con el que sus descubridores ha llamado a un espécimen de Ardipithecus ramidus encontrado en Etiopía en 1992 y que representa el ejemplar de homínido más próximo del que se tienen noticias a nuestro antepasado común con el chimpancé.


El espécimen corresponde a un esqueleto bastante completo de una hembra que vivió hace más de 4,4 millones de años. Esto está relativamente cerca de nuestra separación del chimpancé, que ocurrió hace unos 6 millones de años. Junto a este esqueleto bastante completo se han encontrado piezas de al menos otros 36 individuos, y miles de fósiles de animales y plantas del entorno en que vivieron. Toda esta información ha permitido reconstruir la biología de aquel ecosistema y ha aportado datos que suponen grandes sorpresas.
De la estructura de sus pies brazos y caderas se deduce que Ardi vivía en un bosque y era que bípeda en el suelo, pero en los árboles usaba las cuatro extremidades. Esto descarta la hipótesis de que la postura bípeda se adquirió más tarde, cuando nuestros antepasados se desplazaron del bosque a la sabana. El análisis radiométrico de los dientes indica que su dieta estaba constituida principalmente por fruta, nueces y otros productos del bosque. Un rasgo importante de su dentición es la presencia de caninos muy poco desarrollados, lo que contrasta con todos los demás primates, excepto los humanos. Los caninos son usados en los primates como potentes armas en las luchas por las hembras, y por el territorio. Esto les lleva a sugerir que no era una especie agresiva y apoya la hipótesis de que tenían un estilo de vida de cooperación entre los miembros del grupo. Muchos piensan que este estilo de vida cooperativo fue el motor evolutivo del aumento de tamaño del cerebro humano que empezó a ocurrir a partir de ese momento.


En el link que he puesto arriba tenéis el índice de los once artículos y en cada uno de ellos se puede leer amplios resúmenes de los autores sin necesidad de suscripción. Además, podéis ver una entrevista de una de las corresponsales de Science con el codirector de la investigación. Muy interesante:

Y aquí otro video del Wall Street Journal:

Los estudios de secuenciación de genomas siguen su crecimiento exponencial. Este año se han superado los 1000 genomas secuenciados, la inmensa mayoría correspondientes a los genomas de bacterias. Hay en marcha más de 6000 proyectos de secuenciación de los genomas de otras tantas especies, y se espera que durante 2010 se superen los 10000.
Esta ingente cantidad de información proporcionará nuevas dianas terapéuticas para el tratamiento de enfermedades infecciosas producidas por esas bacterias. En cuanto a los genomas de eucariotas la cosa va más despacio ya que son mucho mayores y requieren más esfuerzo humano y económico. En noviembre se publicaron lis genomas de dos especies de interés agrícola y ganadero. En concreto, salieron a la luz los primeros borradores de los genomas del maíz y del caballo. Previamente, en abril, se había publicado el de la vaca.
La vaca y el caballo poseen genomas de tamaño y complejidad semejante al humano y constituyen una valiosa herramienta para comprender la dinámica de la información genética a lo largo de la evolución de los mamíferos. Y, desde un punto de vista más práctico, proporcionan una información que ayudará en el futuro a la selección de nuevas variedades más productivas o libres de ciertas enfermedades genéticas que merman la producción ganadera. Y lo mismo se puede decir del maíz, cuyo genoma se puede comparar ahora con el del arroz, publicado en 2004, para obtener información sobre las adaptaciones evolutivas que han sufrido los cereales, antes y después de su domesticación.
El estudio de los genomas de las numerosas variedades y razas existentes hoy en día de esas plantas y animales, y que se han ido acumulando por selección artificial en los 10 milenios transcurridos desde que los humanos inventaron la ganadería y la agricultura, permitirá comprender los mecanismos genéticos que han guiado esa selección y favorecerá un más rápido desarrollo de nuevas variedades. Y se podrán usar tanto técnicas de selección tradicionales como de ingeniería genética (asumo que con los debidos controles ecológicos).


Estos links os llevan a las páginas oficiales de estos genomas:
Caballo: http://www.uky.edu/Ag/Horsemap/
Vaca: http://www.ncbi.nlm.nih.gov/genome/guide/cow/
Maiz: http://www.genome.jp/kegg/catalog/org_list.html
Arroz: http://rgp.dna.affrc.go.jp/IRGSP/

Con ser impresionante la cantidad de información que se ha sacado de estas comparaciones, y la que se sacará, nos enfrentamos a una limitación en lo referido a las herramientas bioinformáticas necesarias para procesar tal cantidad de datos. Por ello, hay quien ha planteado unos objetivos más modestos a medio plazo y ha decidido estudiar en profundidad la dinámica del genoma más sencillo que se conoce: el del microorganismo Mycoplasma pneumoniae, cuya longitud es de 0,8 millones de bases.
El humano es casi 4000 veces mayor. Además, esto me da pie para relatar los éxitos de científicos españoles, puesto que esta idea ha sido desarrollada brillantemente por Luis Serrano, que dirige el Depto de Biología de Sistemas del Centro de Regulación Genómica de Barcelona y que anteriormente había dirigido un gran laboratorio de la EMBO en Heidelberg:

Fruto de este trabajo ha sido la publicación de 3 artículos en Science el 27 de Noviembre describiendo a gran escala todos los genes que expresa, cómo interaccinan entre si las proteínas y todas las vías metabólicas que hacen que este microorganismo pueda obtener su energía y vivir de forma autónoma:

Aunque hay microorganismos con genomas todavía más pequeños, estos son parásitos y utilizan genes, proteínas y vías metabólicas de su hospedador.


Y quiero terminar con otra contribución destacada de científicos españoles: La revista Nature de 2 de Diciembre incluye un artículo de un grupo mayoritariamente español, aunque realizado es sus aspectos tecnológicamente más exigentes en el laboratorio que la Organización Europea de Biología Molecular tiene en Grenoble.
El grupo dirigido por Pedro Luis Rodríguez Egea pertenece al Instituto de Biología Molecular y Celular de Plantas de Valencia (CSIC-UPV), mientras que el laboratorio de Grenoble lo dirige José Antonio Márquez, igualmente originario de Valencia, pero afincado en Grenoble desde hace años (fuga de cerebros). En este trabajo se describe la estructura de una proteína a la que se une una hormona vegetal llamada ácido abcisico (ABA). Esta hormona es responsable de las adaptaciones de las plantas a situaciones de estrés hídrico y salinidad del suelo. En situaciones de estrés la planta produce esta hormona que desencadena respuestas de adaptación, por ejemplo cerrando los estomas, provocando el crecimiento de las raíces y promoviendo la producción de moléculas que contrarrestan la salinidad. El conocimiento de la estructura de la proteína receptora de ABA ayudará al diseño de compuestos químicos que faciliten el crecimiento de plantas en suelos muy secos y salinizados, un problema cada vez más acuciante en muchas zonas del planeta. Os adjunto una entrevista que he encontrado en internet con el Dr. Rodríguez Egea:

La estructura de la proteína está depositada en el banco de datos de proteínas y se puede ver e interactuar con las imágenes usando los botones del ratón y/o los comandos de la izquierda de la pantalla (las imágenes tardan un rato en cargarse la primera vez que se accede porque el ordenador tiene que bajarse algunas herramientas):

En el mismo número de Nature se incluyen varios artículos más de otros grupos de investigación que esclarecen exhaustivamente el modo de acción del ABA. La portada de la revista hace referencia al problema de la sequia sobre el crecimiento de las plantas:

Espero que os haya resultado de interés.
Os deseo unas felices fiestas.

jueves, 12 de noviembre de 2009

A pesar de todo, también hay españoles brillantes

.
Me hago eco de un par de avances importantes en terapia génica y en la comprensión del lenguaje humano, así como de dos brillantes contribuciones de grupos nacionales.
La revista Science en su número de día 6 de Noviembre publica un avance significativo en el campo de la terapia génica, llevado a cabo por un equipo de la Universidad de París.
http://www.sciencemag.org/content/vol326/issue5954/index.dtl

Desde que se inventaron las técnicas de ingeniería genética a finales de los 70 se empezó a pensar en la posibilidad de sustituir genes enfermos por sus versiones sanas. A esto se le llamó terapia génica, y prometía una rápida y fácil curación para las enfermedades de origen genético, al menos de aquellas que tuvieran una herencia mendeliana, dependiente de un solo gen.

La realidad ha sido bastante más frustrante. Pronto los investigadores se encontraron con un obstáculo difícil de superar: no había una forma eficiente de hacer llegar el gen sano a las células de los pacientes y que, una vez dentro de las células, dicho gen se integrara de manera estable en los cromosomas. Es decir, faltaba un mecanismo de transporte de los genes (técnicamente, un vector). En los años 80 se descubrió que los virus podrían realizar este trabajo. Se construyeron virus artificiales en los que parte del genoma viral era sustituido por el gen humano que se quería reparar, y con estos virus artificiales se infectaban las células del paciente.
Con esta estrategia se consiguió curar a algunos niños que tenían una deficiencia en el gen de la adenosina desaminasa y como consecuencia su sistema inmune no funcionaba correctamente. A esos niños se les llamaba niños burbuja - tenían que vivir dentro de una burbuja de plástico, aislados del mundo-. A pesar de estos éxitos iniciales pronto hubo que detener los ensayos clínicos ya que varios pacientes desarrollaron leucemia. Esto era debido a que los virus que se estaban usando como vectores (llamados retrovirus) tenían una tendencia a integrarse en los cromosomas cerca de genes implicados en la regulación de la proliferación y crecimiento celular. La presencia del virus alteraba estos procesos y como consecuencia aparecía el cáncer.


El paso que se ha dado ahora supone un avance significativo ya que se ha construido un vector que no tiene esa tendencia a integrarse cerca de genes oncogénicos, sino que parece hacerlo de manera neutra. Paradójicamente, el nuevo vector deriva de un virus cuyo nombre resulta aterrador: el virus del SIDA. El nuevo vector conserva la capacidad del virus del SIDA para integrarse en los cromosomas, pero no posee la capacidad patogénica del mismo. Usando este virus se ha podido reparar el gen llamado ABCD1 cuya mutación les producía una alteración severa del metabolismo de la mielina (aislante de las neuronas) y una enfermedad neurodegenerativa llamada adrenoleucodistrofia ligada al cromosoma X.

Ya existía un tratamiento para estos niños, basado en el transplante de médula ósea. Las células de la médula ósea transplantadas eran capaces de colonizar el cerebro y detener el deterioro producido por la enfermedad. Sin embargo, esto no se podía hacer en niños para los que no hubiera un donante compatible. El nuevo procedimiento elimina la necesidad de donante ya que las células que se modifican genéticamente son las del propio paciente, eliminándose los riesgos de rechazo, que en estos pacientes eran muy altos. Los resultados obtenidos han sido semejantes a los obtenidos mediante transplante convencional, con una estabilización de los síntomas de la enfermedad. Ciertamente, el estudio sólo corresponde a dos niños y cuando el tratamiento se extienda a una población mayor pueden aparecer problemas todavía insospechados.

Video de youtube explicando la terapia génica



Otro avance importante: La revista Nature publica el día 12 de Noviembre un paso hacia la comprensión de los mecanismos que han dado lugar a la aparición del lenguaje en la especie humana.
http://www.nature.com/nature/journal/v462/n7270/

El lenguaje es sin duda la más notable habilidad de los seres humanos y a ello dedicamos una buena parte de nuestro cerebro. En el año 2000 un equipo de la Universidad de Oxford encontró un gen que estaba mutado en una familia en la que sus miembros eran incapaces de comprender y elaborar el lenguaje.

Este gen denominado FOXP2 se transmitía de manera mendeliana. Los estudios evolutivos demostraron que el gen se había conservado con muy pocas variaciones desde hace millones de años y era responsable de procesos de comunicación en otras especies, como es el canto de los pájaros, y en general es responsable de la coordinación de movimientos de muchos músculos, incluidos los de la cara. A pesar de esa constancia evolutiva, la proteína producida a partir del gen FOXP2 humano tiene dos aminoácidos de diferencia con la del chimpancé. La proteína es un factor de transcripción, es decir controla la expresión de otros genes.
El estudio ahora publicado, y realizado en la Universidad de California en Los Ángeles, analiza qué genes activa o silencia el gen humano y qué genes activa o silencia el del chimpancé. A pesar de esa pequeña diferencia entre la dos especies, se ha encontrado que 61 genes son más activados por el gen humano que por el de chimpancé mientras que otros 55 son más activados por FOXP2 de chimpancé que por el humano. Muchos de esos genes están implicados en el desarrollo del cerebro en la etapa embrionaria, así como de ciertos tejidos como los cartílagos. El reto ahora es comprender cómo actúan e interactúan todos esos genes para dar lugar a las complejas estructuras cerebrales y faciales necesarias para que podamos elaborar el lenguaje. En este sentido, creo que la noticia está un poco sobrevalorada, ya que seguimos muy lejos de comprender cómo el ser humano ha llegado a desarrollar esta extraordinaria función. Lo que parece claro es que la misma no ha aparecido de la nada sino a partir de vías ya existentes en otras especies. Además, dada la naturaleza tan compleja de la función es bastante probable que haya más genes implicados por descubrir. Sin duda una investigación apasionante.

En el post anterior comentaba la escasa presencia de científicos españoles en las revistas de primera línea. Por ello no puedo dejar pasar por alto un artículo publicado también en el número del 6 de Noviembre de la Revista Science por mi compañero de promoción e investigador en el Centro de Biología Molecular “Severo Ochoa” Antonio Alcamí. En el comentario sobre terapia génica hemos visto como el ingenio humano es capaz de aprovechar las cosas buenas que, en contra de todo pronóstico, tiene el virus del SIDA. Y es seguro que alguien encontrará alguna aplicación útil al virus de la gripe A o al de la gripe aviar. El trabajo de Antonio consiste en la búsqueda de nuevos virus, y se ha ido a buscarlos al sitio más lejano e inhóspito que hay en La Tierra: la Antártida.


Y no creáis que ha encontrado dos o tres virus nuevos. En las muestras de agua lacustre obtenidas en invierno había más de 5000 nuevas especies y en la de verano, ¡más de 9000!. Esto sorprende porque los virus son parásitos, es decir, para poder existir necesitan de células huésped a las que infectar. Por tanto, en un escenario tan pobre como pueda parecer la Antártida nadie podía predecir tal diversidad ecológica. Aparte de la información que esos virus proporcionan sobre la ecología de nuestro planeta y la evolución de la vida en un ambiente tan aislado, seguro que alguien encuentra una aplicación práctica a alguno de ellos, bien en biotecnología o en biomedicina. ¡Enhorabuena, Antonio!




La revista Nature Neuroscience en su versión on line comunica el día 8 de Noviembre de 2009 un importante hallazgo de otro grupo hispánico (http://www.nature.com/neuro/journal/vaop/ncurrent/abs/nn.2437.html) . El trabajo, dirigido por la Catedrática de Biología Celular de la Universidad de Valencia Isabel Fariñas, indaga sobre los mecanismos de mantenimiento y diferenciación de las células madre en el cerebro. Hace ya algún tiempo que el mito de que las neuronas no pueden regenerarse en el cerebro adulto fue derribado.

Se sabe que en ciertas zonas del cerebro hay una población de células indiferenciadas que en determinadas circunstancias pueden diferenciarse y dar neuronas maduras. Por tanto, se pensó que esas células madre podrían utilizarse para sustituir a las neuronas enfermas en enfermedades neurodegenerativas. Un prerrequisito para esta intervención es conocer en profundidad cómo esas células se dividen y cómo deciden seguir siendo células madre, o diferenciarse a neuronas.
Este tipo de estudios ha permitido saber que aquellas células que tienen activada la vía de señalización llamada de “Notch” siguen siendo células madre, mientras que cuando esta vía se apaga entonces la célula inicia un programa de diferenciación a neurona. El que esa vía esté encendida o apagada depende de señales internas de la propia célula y de señales recibidas del entorno, y que podrían activarse por ejemplo en caso de una lesión.

El trabajo de la Dra. Fariñas revela que una de esas señales externas deriva de los vasos sanguíneos a través de una proteína llamada PEDF que incide sobre el estado de activación de la vía Notch. Además, caracteriza el mecanismo molecular por el que ocurre este proceso. Sin entrar en más detalles, este conocimiento es importante para que un día esas células madre se puedan extraer de un enfermo de Parkinson o Alzheimer, cultivar en una placa in vitro para amplificarlas, manteniendo sus características indiferenciadas, y después reintroducirlas en el paciente y hacer que se diferencien a neuronas, reponiendo a las perdidas como consecuencia de la enfermedad. Esto parece aún ciencia ficción, pero sin este tipo de estudios no se podrá saber si tal aproximación es realmente factible.

Y para terminar por ahora: estas brillantes contribuciones deberían marcar el camino a seguir por los que queremos que la ciencia española viva una edad de plata (la de oro la tienen reservada los EEUU). Sin embargo, parece que las cosas no van por ahí, como se encarga de recordar este severo varapalo de la editorial de Nature a nuestras autoridades:






viernes, 30 de octubre de 2009

La ciencia no se detiene. Nuevos avances en la enfermedad de Alzheimer, la diabetes, la esclerosis lateral amiotrófica, la tetraplejia y el daltonismo

.
Queridos amigos:
Ha comenzado un nuevo curso y pretendo continuar abasteciendo regularmente a este blog. No obstante, debido a una serie de obligaciones burocráticas que tengo este año le tendré que dedicar algo menos de tiempo, y he pensado en retornar a la idea primitiva que me llevó a abrirlo y que no es otra cosa que hacer algunos comentarios breves sobre avances recientes en Biología y Neurociencias.
Espero que os siga resultando de interés. Especialmente me centraré en aspectos que tengan que ver con la patología.
En los primeros días de Septiembre la prensa generalista se hizo eco de un avance significativo en el conocimiento de la genética de la enfermedad de Alzheimer (lo abreviaremos como EA). En concreto, el día 6 de Septiembre la revista Nature Genetics publicó “on line” (la edición en papel ha salido en el número de Octubre) dos estudios en los que descubren varios nuevos genes asociados a la EA.
Los dos estudios han sido liderados por científicos ingleses y franceses, respectivamente. En el segundo participan algunos hospitales españoles y un grupo del Centro de Biología Molecular “Severo Ochoa”, desde donde os escribo.

Es un paso importante en la comprensión de la enfermedad ya que desde el descubrimiento de la asociación del gen APOE con la enfermedad en 1993, no se había descrito ningún gen nuevo.
La componente genética de la EA es de un 60-80%, mientras que APOE sólo daría cuenta de un 25% de los casos. Esto significa que quedaban, y aún quedan por identificar muchos genes asociados a EA.
El descubrimiento de genes implicados en enfermedades con una genética compleja, dependiente de muchos genes, ha sido relativamente lento. Esto es debido a que, en general, la contribución a la patología de cada gen es pequeña, lo que plantea un problema estadístico para su identificación: hay que analizar DNA de muchos pacientes.


Estos nuevos estudios superan en parte esa limitación. El estudio inglés hace un barrido sobre el DNA de 5000 enfermos y 10000 controles, procedentes de varios países. El estudio francés analiza casi 10000 pacientes franceses, italianos, españoles y belgas, y otros tantos controles. En ambos trabajos se usa la misma metodología, consistente en la búsquedas de los llamados SNPs (en la jerga, se pronuncia snips), es decir en la identificación de las diferencias de la secuencia entre un individuo y otro (http://ghr.nlm.nih.gov/handbook/genomicresearch/snp ).

Por término medio tu genoma se diferencia del de tu vecino en 1 de cada 1000 nucleótidos, pero dada la inmensidad de los cromosomas, esto corresponde a la friolera de 3 millones de diferencias. Para descubrir las diferencias entre un individuo y otro de manera semiautomática se utilizan pequeños “chips” disponibles comercialmente que recogen una buena parte de las variaciones conocidas en las secuencias de los genes.

De forma relativamente rápida, sin tener que llegar al laborioso proceso de secuenciar todo el DNA, se pueden identificar las diferencias de cada individuo con el genoma de referencia. Cuando se observa que tal o cual variación está significativamente enriquecida entre los enfermos frente a los controles se concluye que ese gen participa en la patofisiología de la enfermedad. Esto no quiere decir que ya se sepa como esos nuevos genes intervienen en el desencadenamiento de la enfermedad, pero es un paso crucial para poder diseñar experimentos que revelen la función exacta de dichos genes y, a más largo plazo, diseñar estrategias de diagnostico, de tratamiento o de prevención.


En el caso concreto que nos ocupa, los nuevos genes relacionados con el metabolismo de lípidos cerebrales, y con los procesos de inflamación. Sus nombres son CLU, PICALM y CR1 . El anteriormente conocido gen APOE también está relacionado con estos procesos, aunque con una contribución más poderosa, como menciono más arriba. Utilizando una técnica similar (análisis de los SNPs), en el mismo número de la revista Nature Genetics se presentan varios artículos más que han tenido menos eco en la prensa generalista.

En estos artículos se han identificado nuevos genes asociados con la diabetes tipo 2, con la esclerosis lateral amiotrófica y con el cáncer de próstata, lo que revela que esta tecnología tiene un gran potencial para estos menesteres. De todas maneras, los microchips de SNPs tienen todavía limitaciones puesto que no detectan ciertas reorganizaciones de los genes que ocurren en cada uno de nuestros genomas. A pesar de que en estos estudios ya estamos hablando de varios miles de individuos analizados, también se mejoraría la eficiencia de este método incrementando aún más el tamaño de la población de pacientes (y controles). Además, las bases de datos en las que se basan las casas comerciales para su construcción corresponden en su mayoría a individuos de origen europeo. Sería deseable que se incorporara mucha más información de individuos de otras etnias, especialmente africanos, ya que allí la variabilidad genética es mayor y esto ayudaría a discriminar con más precisión aquellas variaciones que son patológicas de las que no lo son (cambios evolutivos no patológicos).


En este sentido está orientado el proyecto 1000 genomas, del que he hablado en algún post anterior. A esta metodología también se le escapan las interacciones que pudieran existir entre genes. También es difícil evaluar el impacto del ambiente sobre cada individuo en función de su estructura génica, lo que requeriría del estudio de poblaciones emigrantes y gemelos que hayan vivido separados en ambientes diferentes. Probablemente a medio plazo algunas de estas limitaciones técnicas serán superadas por los aparatos secuenciadores de nueva generación, que comienzan a instalarse en los grandes hospitales y centros de investigación, pero mientras tanto, en los próximos 3 a 5 años la tecnología de los SNPs será imprescindible para el descubrimiento de genes implicados en las enfermedades de genética compleja (casi todas en realidad).

Cambio de tercio. Otros descubrimientos importantes publicados este verano-otoño: Tres artículos publicados en Nature Neuroscience aportan avances significativos en el objetivo mítico de restaurar la movilidad de las extremidades tras una lesión medular. Tras la lesión medular se forma una cicatriz en el punto de la lesión que impide la regeneración de los axones de las neuronas, tanto las motoras que deberían reinervar los músculos, como las sensoriales que deberían llevar información desde los brazos o piernas al cerebro. Una buena parte de los esfuerzos realizados a lo largo de muchos años por grupos de investigación en todo el mundo pretendían el bloqueo del efecto inhibidor de los componentes de esa cicatriz. Los resultados no han sido demasiado buenos por lo que los tres nuevos estudios aportan un poco de viento fresco en el campo.

No obstante, los tres estudios usan modelos de lesión medular en ratas, por lo que su extrapolación a humanos está aún lejana. Uno de los estudios consigue que los axones sensoriales atraviesen la cicatriz mediante la aplicación de neurotrofinas detrás de la cicatriz, y esos axones son capaces de conectar con los núcleos cerebrales correctos, pero desgraciadamente las conexiones no son funcionales por el momento. Otro estudio de la Universidad de Cambridge y cuyo primer firmante es español (Guillermo García Alías), consigue que los axones motores atraviesen la cicatriz tras tratarlas con un enzima (condroitinasa ABC) que “disuelve” alguno de los componentes inhibidores de la cicatriz. Para que el tratamiento sea efectivo ha de aplicarse en combinación con técnicas de rehabilitación específica.


Finalmente, el tercer estudio, publicado en el número de octubre, consigue una rehabilitación funcional sin reparar la lesión, es decir, la comunicación entre el cerebro y la parte de la médula que está tras la lesión no se restaura, pero se consigue que los circuitos locales de la médula encargados del movimiento de las patas traseras comiencen a funcionar autónomamente, con un funcionamiento rítmico que evocó el movimiento de caminar en las patas traseras paralizadas. Para ello utilizan una combinación de estimulación eléctrica epidural y fármacos serotoninérgicos. Este estudio sugiere que si algo similar ocurriera en la médula espinal humana, se podría recuperar el control voluntario del movimiento mediante la implantación de prótesis electrónicas. Se encontraría así un atajo al espinoso asunto del franqueo de la cicatriz (que por otra parte también cumple una función fisiológica). Para terminar por el momento:
Se ha conseguido devolver la visión en color a un mono daltónico (Nature, 8 de octubre de 2009). Aproximadamente un 5-8% de los hombres y un 1% de las mujeres no distinguen ciertos colores, por faltarle uno de los tres fotopigmentos presentes en unas células de la retina llamadas conos. Como en los humanos, la visión del color en los monos de la especie Saimiri sciureus depende también de tres fotopigmentos. La falta de uno de ellos les produce daltonismo.
Estos investigadores de las universidades del estado de Washington, de Florida y de Wisconsin han restaurado la visión en color de estos monos mediante terapia génica, a través de la inyección en el ojo de un virus que contiene el gen que les faltaba. Los conos de estos monos resultaron infectados por ese virus y comenzaron a expresar el fotopigmento ausente, con una restauración de la función visual. Esto abre grandes esperanzas para el tratamiento del daltonismo en humanos.

(Ahí va un test para ver si sois daltónicos http://www.testdaltonismo.com).

Aunque me esfuerzo por destacar la contribución de los científicos españoles a estas líneas de vanguardia del avance de la ciencia, no es tarea fácil. Nuestra contribución, con honrosas excepciones, sigue siendo marginal. Y creo que así seguirá por mucho tiempo. ¡Qué inventen ellos!.

Un saludo

F. Zafra


Links de interés relacionados con las enfermedades comentadas:

Fundación Alzheimer España: http://www.fundacionalzheimeresp.org/
Asociación americana de enfermos de Alzheimer : http://www.alz.org/index.asp
Lesiones medulares: http://www.infomedula.org/ http://www.brainandspinalcord.org/
Estudios genéticos: http://www.genome.gov/20019523

miércoles, 22 de julio de 2009

Aprobado en Matemáticas



Para terminar por este curso, voy a escribir unas líneas dedicadas a mis amigos matemáticos, aquellos que con su ágil inteligencia poblaron las aulas de nuestra querida laboral y siempre estuvieron dispuestos a echarnos una mano a los que teníamos las neuronas menos engrasadas. Estoy pensando en Ruperto, en Camilo, en Carpio ….

Y es que, sin lugar a dudas, una de las creaciones culturales más notables de la especie humana son las matemáticas, que han sido la base de nuestro desarrollo científico y tecnológico. Sin matemáticas no habría ordenadores, ni aviones, ni coches, ni puentes….No podríamos haber secuenciado el genoma humano ni inventado inverosímiles medicamentos. Y los que están por venir.

Pero desde un punto de vista biológico, evolutivo, las matemáticas –como también la escritura y la lectura- constituyen actividades muy recientes de nuestro cerebro. Actividades como la visión, la audición o el caminar, por poner unos pocos ejemplos, tienen tras de sí millones de años de evolución que han ido moldeando los circuitos neuronales correspondientes. Pero, ¿qué ocurre con estas actividades novedosas para el cerebro?

Una actividad tan compleja como la escritura, la lectura o el razonamiento matemático no puede improvisarse sobre la marcha. Más bien, lo que ha ocurrido es que zonas de nuestro cerebro que estaban dedicadas a funciones relacionadas se han reciclado a una nueva función, sin perder por ello su dedicación inicial. Por ejemplo, cuando aprendemos a leer reclutamos la parte del cerebro implicada en el reconocimiento de la forma de los objetos a identificar la forma arbitraria de nuestras letras, y de alguna forma esos circuitos quedan conectados con los dedicados al lenguaje. El lenguaje sí que ha tenido tiempo para evolucionar ya que según los paleontólogos hablamos desde hace más de medio millón de años, aunque en su origen debió ocurrir algo parecido.


¿Y de qué parte del cerebro surgen las matemáticas?. Hay que decir que las matemáticas tienen una componente “verbal” y lógica más relacionada con el lenguaje. Por ejemplo, el simbolismo de los números arábigos, o las expresiones algebraicas.

Pero ahora quiero centrar el post en la parte no verbal de las mismas, en la esencia de las matemáticas: el sentido del número, entendido como la capacidad para discriminar un número de objetos en nuestro campo visual (técnicamente, cardinalidad o numerosidad), y de las operaciones básicas con los mismos, la suma y la resta. Y cuando hablamos de numerosidad ya no nos estamos refiriendo a una actividad tan reciente del cerebro.

Lo cierto es que ese sentido del número tiene un lejano origen evolutivo ya que se ha comprobado experimentalmente que hay aves y mamíferos que saben comparar dos cantidades de objetos que tienen ante si y determinar con cierta precisión cuál es la mayor. Esto supone una ventaja evolutiva evidente: se puede evaluar la cantidad de competidores o de aliados (y huir o atacar, según el caso), se pueden “contar” las crías al llevarlas de aquí para allá, se puede discriminar dónde hay más comida o menos….


Los monos hacen estas operaciones bastante bien y, por ejemplo, saben sumar con bastante precisión objetos que se les presentan en una pantalla táctil, como demostraron las macacas llamadas Boxer y Feinstein (en este ENLACE podéis ver el estudio completo:

Tras mostrarles en la pantalla los números a sumar (presentados como nubes de puntos) se les mostraban dos soluciones, una correcta y otra no. Cuando tocaban sobre la respuesta correcta se les daba un premio (zumo de fruta). Os sorprenderá, pero algunas sumas las hicieron más rápidamente que los estudiantes más torpes con los que se compararon (no eran de la LOGSE sino de la Universidad de Duke).

(Hay algunos videos en la red en donde se ven monos que suman, pero no estoy muy seguro de su rigor. P. ej:


También los bebés y niños pequeños, antes de su educación formal, ya tiene ese sentido de la numerosidad de los objetos. Nuestra percepción de la numerosidad sigue una norma que se aplica en general a cualquier tipo de percepción sensorial: la ley de Weber. Si recibimos dos estímulos, cuanto mayor sea el estímulo (en este caso el número) más difícil es percibir la diferencia entre ellos.

En el caso de los números, distinguimos mejor la diferencia entre 8 y 10 objetos que entre 90 y 100. Es decir, nuestra percepción de la numerosidad no es lineal sino logarítmica. Si damos a un niño una serie de cestas con un número creciente de objetos (p. ej de 1 a 10) y le pedimos que las ordene sobre una línea, tenderá a colocar más separadas las cestas con menos objetos y a comprimir hacia el final de la línea las cestas más llenas (como cuando rellenamos una casilla de un impreso y siempre nos falta sitio por la derecha).

A medida que nos vamos educando, y adquirimos el concepto de número simbólico, la escala se va linearizando. Es decir, distinguimos perfectamente los números arábigos 90 y 100, pero no distinguiríamos la diferencia entre 90 y 100 manchas dibujadas sobre un papel. Los indios adultos de la tribu Mucuru (del Amazonas), que no tienen educación formal y sólo cuentan hasta cinco (me imagino que los dedos de la mano), no tienen ese cambio de la escala logarítmica a la lineal y siguen amontonando las cantidades altas al final de la escala.


Un punto importante del sentido del número es su asociación con la percepción del espacio. Hay diversas evidencias que apoyan la relación entre números y espacio, pero quizá la más importante se ha obtenido en enfermos con “heminegligencia espacial”. Estas personas, como consecuencia de una lesión cerebral, tienden a obviar la mitad de su espacio visual. Si se les pide que hagan un dibujo de lo que tienen delante, aunque sea un sitio o de un objeto que conozcan bien, sólo dibujaran la mitad.


Imagen tomada de este ENLACE (Dr. RF Allegri)



En cuanto a al procesamiento numérico de estos pacientes, si se les pide que marquen en una regla el punto medio entre 10 y 20, lo situarán alrededor de 17. Es decir, igual que no reparan en la parte izquierda del espacio, obvian los números pequeños. Y esto es consistente con otra observación que refuerza la existencia de una relación entre el sentido del número y la percepción espacial: de alguna forma imaginamos los números como un continuo sobre una línea (que se denomina técnicamente línea numérica mental) y visualizamos los valores pequeños a la izquierda y los altos a la derecha. Aunque en la formación de esta imagen mental de los números hay rasgos culturales derivados del hecho de escribir de izquierda a derecha (las culturas que escriben de derecha a izquierda o de arriba abajo la tienen alterada), parece que la tendencia natural, observada en niños que aun no saben leer, es a colocar los números pequeños a la izquierda y los grandes a la derecha. Y como discutiré en un momento, tanto la percepción numérica como la espacial se sitúan en zonas muy próximas, si no solapantes, en la corteza cerebral.

Los neurobiólogos, por tanto, se han preguntado por el origen profundo en nuestro cerebro de esta capacidad numérica. Tanto para resolver este problema como muchos otros relativos a qué parte del cerebro hace qué cosa se han utilizado una serie de tecnologías que permiten visualizar la actividad del cerebro en tiempo real y de manera no invasiva. La más importante quizá sea el fMRI (ver links al pie de página).

Brevemente, esta técnica permite medir el consumo de oxígeno en las diferentes zonas del cerebro, consumo que refleja la actividad de esa zona. Si ante una determinada tarea se observa que tal zona consume más oxígeno, se concluye que esa región forma parte de los circuitos implicados en la tarea. Los resultados indican que la primera zona que responde a cambios en el número de objetos en el campo visual está en el fondo de una de las circunvoluciones de la zona parietal de la corteza cerebral, en el llamado surco intraparietal. Más tarde se activa otra zona en una zona más frontal (técnicamente corteza prefrontal).

Como he anticipado, esta técnica ha permitido demostrar que la región del surco intraparietal solapa parcialmente con la encargada del procesamiento espacial de los objetos que tenemos en nuestro campo visual. Y en un artículo aparecido en Science el 19 de Junio de 2009, el padre de toda esta teoría que relacionaba números y espacio, Stanislas Dehaene, demuestra que durante la operación de sumar también se activa una zona adyacente que controla un movimiento característico de los ojos, movimiento del que no somos conscientes habitualmente y por el que la vista va desplazándose a saltitos de derecha a izquierda o viceversa, de manera que estamos continuamente escaneando el espacio ante nosotros.

En el momento en que observamos algo de interés se reclutan los mecanismos de atención: p. ej. prestamos atención a un objeto que se mueve. Según la teoría de la línea numérica mental, cuando hacemos una suma por aproximación (sumamos nubes de puntos que no podemos contar exactamente) buscamos un número situado a la derecha de la línea. Y esto es lo que demuestra ese artículo: durante esa operación de suma las zonas del cerebro que se activan son casi las mismas que las que se activan cuando los ojos se escanean el espacio de izquierda a derecha (aunque, de hecho, lo ojos no se mueven durante la operación).

Cuando restamos ocurre lo contrario: la zona parietal del cerebro se activa como cuando los ojos escanean de derecha a izquierda. En otras palabras, este artículo demuestra la estrecha interrelación entre el escaneo visual del espacio y las operaciones aritméticas de suma y resta.


Cuando se hicieron medidas de la actividad cerebral por fMRI (imagen por resonancia magnética funcional) en monos se vio que las zonas implicadas son las mismas que en humanos: surco intraparietal y corteza prefrontal. Por esa razón, y para su desgracia, se han usado como modelos experimentales y se han hecho experimentos más invasivos que no podrían hacerse en humanos (implantación de electrodos en la corteza cerebral).

De esta manera en los macacos se ha podido estudiar con mayor precisión las características de las neuronas implicadas en la discriminación de la numerosidad. Se ha visto que en estas zonas cada neurona de estas zonas tiene su número preferido: hay neuronas estimuladas fuertemente por un objeto, otras por dos, otras por tres... Pero la precisión con la que se activan esas neuronas va disminuyendo al aumentar el número, y esto explica la ley de Weber: a mayor número mayor imprecisión.

Las neuronas del surco intraparietal pasan la información a las de la zona prefrontal, y allí se produce la conexión con las zonas relacionadas con la toma de decisiones en el macaco. Como digo, en los humanos los circuitos neuronales implicados en el procesamiento de la numerosidad parecen los mismos que en los monos. Sin embargo, los humanos han inventado un sistema simbólico de números que es mucho más preciso que el de los monos, que como he dicho antes está más relacionado con los mecanismos del lenguaje.

Esta asociación numerosidad-símbolo se produce en los niños durante el aprendizaje, de manera que esos circuitos implicados en el procesamiento de la numerosidad quedan acoplados a los del lenguaje. La asociación comienza en la zona prefrontal y a medida que va aumentando la destreza en el manejo de los símbolos/números el control se extiende a la zona parietal. Un número arábigo (en forma escrita u oral) inicialmente no dice nada al niño, pero tras esa conexión de circuitos que se produce durante el aprendizaje llega a activar con mucha más precisión las neuronas movilizadas por esa numerosidad concreta.


Pensando en términos evolutivos, la mejora de la precisión del mecanismo de cuantificación humano no puede haber surgido de la noche a la mañana. Y en efecto, se ha podido entrenar a monos para que asocien un número arábigo con un número de manchas. Cuando se ha medido la respuesta de las neuronas mediante la implantación de electrodos, se ha observado también esa toma de control de la señal visual proporcionada por el símbolo numérico sobre las neuronas que evalúan el número de manchas.

No obstante esta asociación solo se produjo en la corteza prefrontal y apenas si ocurrió en las neuronas parietales. En otras palabras, los monos ya tienen el rudimento de ese mecanismo de transición desde una apreciación de la numerosidad por aproximación a un sistema simbólico de mayor precisión que sólo se expresa plenamente en la especie humana.


Y ya para terminar, probablemente la mayor aspiración de la neurobiología es tratar de explicar el camino que va desde la activación de unas neuronas concretas hasta la función cognitiva final y viceversa. Quizá la cognición numérica sea el único dominio de esas funciones cognitivas superiores en donde ya se ha recorrido una buena parte del camino y, qué duda cabe, ese tipo de investigación que mezcla el uso de técnicas de registro de neuronas individuales con técnicas de neuroimagen y de comportamiento constituyen el modelo a seguir para la comprensión de funciones aún más complejas, incluyendo los mecanismos del lenguaje. Creo que aunque todavía estamos lejos de esa meta, el camino está trazado.

Hasta Septiembre, feliz verano.

Aquí podéis ver el fundamento de la fMRI. La versión inglesa es mucho más detallada:


En la página del laboratorio de S. Dahene hay mucha información de interés sobre este tema y temas relacionados, como la consciencia:

http://www.unicog.org/main/pages.php?page=Home (picando los links de la parte izda)

Más videos de primates en el siguiente ENLACE


miércoles, 10 de junio de 2009

¿Una mente prodigiosa? ¿una mente enferma?

.

El gran matemático americano John Forbes Nash desarrolló una serie de conceptos claves en la teoría de juegos que son esenciales en la comprensión de los procesos que implican negociación o cooperación entre individuos. Esos conceptos son hoy día importantes en campos tan diversos como la Economía (Nash recibió el premio Nobel de Economía en 2004) o la Biología Evolutiva. Su biografía se ha popularizado gracias al libro y a la película titulados “Una mente prodigiosa (libro)/Una mente maravillosa (película)”. Traigo esto a colación porque Nash fue un ejemplo desbordante de intuición, de originalidad y, en definitiva, de genialidad; pero, como contrapartida, su vida, y la de los que lo rodearon, estuvo marcada por una enfermedad implacable: esquizofrenia paranoide. ¿Cómo estaba construido su cerebro? ¿Cómo pudo coexistir esa extraordinaria capacidad para combinar conceptos, base de la creatividad, con su desconexión de la realidad circundante, con su incapacidad para relacionarse con los demás? (Podéis leer un comentario sobre su biografía menos complaciente que la película en


Desgraciadamente hoy en día no estamos en condiciones de responder a estas preguntas. En este post voy a elaborar algunas ideas en torno a los trastornos mentales, especialmente la esquizofrenia, aunque antes debo recordar algunos conceptos con respecto al funcionamiento del cerebro “sano”.


La complejidad del sistema nervioso no es meramente anatómica: cada neurona, en función de su ubicación en esa inmensa “red” tiene una función específica que desarrollar, tiene que recibir una serie de señales, integrarlas y comunicar el resultado a las demás neuronas que forman parte de su circuito. Mientras que la integración de señales y la elaboración de un resultado es un proceso en el que cada neurona suma las señales eléctricas que recibe, la comunicación de ese resultado a las neuronas vecinas se realiza de manera química, en unas estructuras llamadas sinapsis. La neurona que emite el mensaje libera por los extremos de sus axones sustancias químicas, los neurotransmisores, que difunden a través de un pequeño espacio que separa a cada neurona de sus vecinas. El neurotransmisor se une a unas proteínas receptoras presentes en la superficie de esa neurona vecina y las estimula o las bloquea, según la naturaleza del neurotransmisor y la naturaleza del receptor. Esos receptores suelen ser canales para iones (principalmente iones de sodio, de cloro o de calcio) y su activación produce un movimiento de cargas eléctricas a través de la membrana de la neurona receptora, es decir, la señal química del neurotransmisor se transforma en una señal eléctrica. En resumen, el flujo de información por los circuitos de neuronas implica la alternancia de señales eléctricas con señales químicas. Esa es la base de la fisiología del sistema nervioso y también de su patología. En estos videos y en los relacionados de youtube podéis entreteneros un rato:






Aunque hay muchos neurotransmisores hay algunos que desde un punto de vista cuantitativo son más importantes. El mayoritario, sin duda, es el aminoácido glutamato, que hace la función de activador de las neuronas (si comparamos el cerebro con un coche, el glutamato es el acelerador) (Fig. 1). El 90% de las neuronas lo usan en mayor o menor grado. Como contraposición a la función del glutamato hay una especie de freno, representado por un derivado del glutamato llamado GABA. En algunas regiones (médula espinal) a la función de freno contribuye también otro aminoácido, la glicina. Hay otros neurotransmisores que aunque minoritarios son cualitativamente importantes porque transmiten ciertas informaciones de importancia: la dopamina, la serotonina o la norepinefrina, derivadas de otros aminoácidos, y que son utilizadas por las neuronas encargadas de transmitir las emociones y los estados de ánimo. De alguna forma, las neuronas que usan dopamina o serotonina modulan la actividad de la fuerza bruta representada por el glutamato y el GABA: introducen matices en el funcionamiento de la máquina. Curiosamente, esos neurotransmisores minoritarios están en la base de la mayor parte de los trastornos mentales, como discutiré más adelante. El fallo en los mayoritarios, en especial en el glutamato lógicamente produce un efecto más profundo sobre el funcionamiento de todo el sistema, y de hecho conduce normalmente a la muerte de las neuronas (enfermedades neurodegenerativas).

Otra cuestión importante es que los diferentes circuitos interaccionan entre sí mediante una complicada serie de mecanismos de retroalimentación, de diálogos cruzados de los que finalmente surgirá la resultante global y los correspondientes comportamientos. Así, las neuronas que usan glutamato regulan a las que usan dopamina, y estas a algunas de las que usan GABA, y estas a las que usan glutamato, etc (ver el ejemplo de la Fig. 2)


-pulsar en las imágenes para ampliar-


En el segundo párrafo he escrito que cada neurona desempeña una función específica en estas redes. No obstante, esa afirmación requiere una matización: la organización es tal que se pueden perder neuronas y el sistema sigue funcionando. Hasta cierto límite… después empezará a perder eficiencia. En otras palabras, el sistema es muy robusto y, considerado en su globalidad, falla muy poco, o tarda mucho en fallar de manera grave. De ahí que las patologías, al menos las más graves, sean relativamente escasas. Probablemente esto está relacionado con cómo están constituidos los circuitos: no existe un circuito fijo como, digamos, un circuito eléctrico con su interruptor, sus cables y sus bombillas, sino que cada neurona puede formar parte de muchos circuitos simultáneamente de una manera dinámica: para desarrollar el comportamiento A es reclutada por el circuito A, y para desarrollar el comportamiento B es reclutada por el circuito B (a esto se le llama técnicamente circuitos multifuncionales). Si una neurona se pierde no es como si se fundiera una bombilla ya que habrá otras neuronas parecidas que puedan sustituirla funcionalmente.

Otro punto que hay que recordar si queremos entender cómo opera en cerebro en la salud y en la enfermedad: podemos verlo como una orquesta (sin director), y cada circuito no puede hacer la guerra por su cuenta. Su funcionamiento está totalmente supeditado a la actividad global de la red. Las neuronas organizadas en estos circuitos dinámicos, y debido a su actividad eléctrica, están en resonancia, generándose una serie de ritmos oscilantes que pueden medirse en los electroencefalogramas –EEG- (en función de su frecuencia se denomina ondas alfa, beta, gamma, theta….). Muchos de estos ritmos se han conservados a lo largo de la evolución y son necesarios para la realización de unos comportamientos coherentes. Hay ritmos generados espontáneamente de manera continua por ciertas neuronas y otros que se generan en función de la tarea que realizamos. En este último caso, aquellas neuronas que van a realizar una tarea común se sincronizan. Los ritmos son necesarios para que se sincronicen los distintos tipos de información que han de confluir en un momento dado y seamos capaces de formar una idea o un comportamiento coherente. La actividad rítmica del cerebro nunca para, ni siquiera cuando dormimos. En resumen, eso ritmos ondulatorios constituyen una especie de reloj o metrónomo y son necesarios para que la respuesta global sea adecuada y nadie desentone en la orquesta. Otra cosa muy diferente es que se conozca bien cómo se generan, cómo funcionan y cómo se sincronizan (ver comentario adicional al final). En este vídeo –en inglés- podéis ver el EEG mientras dormimos, descansamos o nos movemos




En este punto creo que puedo empezar a escribir algo sobre algunas situaciones patológicas. Se entenderá fácilmente que para que un sistema tan complejo llegue a integrarse espontáneamente durante el desarrollo embrionario y llegue a funcionar perfectamente hace falta que engranen miríadas de componentes y, a pesar de que está construido a prueba de fallo, hay muchas veces en que el sistema se ve superado y entonces aparece el trastorno mental. Naturalmente aquí no puedo pasar revista a todas y cada una de las enfermedades que podéis ver en la fatídica lista, entre otras cosas porque no se mucho de la mayor parte de ellas, de sus aspectos clínicos o de su tratamiento. Pero sobre lo que sí puedo elaborar un poco es sobre aspectos específicos comunes a todas ellas: en todas hay un fallo en los balances entre los diferentes sistemas de neurotransmisores. Otra cosa es cuál es la causa de este desequilibrio.


Siempre hay una base genética: son los productos de los genes los que interaccionan para dar lugar a todo el entramado, y si falla un cimiento esa parte del edificio tenderá a derrumbarse. Ahora bien, ha sido muy difícil asignar tal o cual gen a esta o a aquella enfermedad. No existe el gen de la esquizofrenia, o el gen de la depresión o el del trastorno bipolar. Casi todos nuestros genes presentan variantes, y algunas de ellas ciertamente predisponen al trastorno. La base genética es evidente cuando miramos las estadísticas: mientras que en la población general la esquizofrenia afecta a un 1% de las personas, si tienes un padre, una madre o un hermano esquizofrénico la probabilidad de desarrollar la enfermedad se incrementa más de diez veces. Ahora bien, durante años se han tratado de identificar los genes implicados en esta enfermedad y los resultados han sido más bien pobres. La razón es que su herencia es compleja y depende de muchos genes simultáneamente, en donde cada uno de ellos tiene una aportación pequeña. Sólo en determinadas combinaciones particularmente desfavorables el efecto es deletéreo. No obstante, hay que decir que en los últimos años se ha identificado un buen número de genes con mayor o menor efecto. (En el banco de datos ONIM hay una lista actualizada de los genes implicados en cualquier enfermedad. En el caso de la esquizofrenia:


Pero es que, además, influye el ambiente. Por seguir con la esquizofrenia, en varios estudios sobre la esquizofrenia en gemelos univitelinos - comparten el 100% de los genes- y que por una razón u otra habían vivido separados, sólo en el 50% de los casos ambos gemelos eran esquizofrénicos. En el resto de los casos sólo uno desarrolló la enfermedad, lo que deja mucho espacio a la influencia ambiental. ¿Cuáles son esos factores ambientales de riesgo?. También es difícil de decir y sólo hay unos pocos factores con sólida confirmación estadística: el vivir en grandes ciudades, la edad del padre (llegados a cierta edad es mejor dedicarse a jugar a la petanca), el pertenecer a un grupo inmigrante o el consumo de drogas (en concreto esa droga que muchos creen inocua, el cannabis). Todos ellos con efectos pequeños. Hay más propuestos pero con un peso tan modesto que no es fácil demostrar su significatividad estadística.


Por supuesto la identificación de más genes implicados en esta u otra enfermedad ayudará a la construcción de una hipótesis coherente de qué es lo que va mal y ofrecerá vías de intervención terapéutica novedosas. Pero mientras llega ese día estamos trabajando al revés, es decir, se ha encontrado el fármaco y después tratamos de explicar el efecto. Casi por casualidad se descubrió que un fármaco inicialmente desarrollado como antihistamínico, la clorpromacina, tenía un efecto terapéutico apreciable contra algunos síntomas de la esquizofrenia (los llamados síntomas positivos como las alucinaciones o los delirios) http://es.wikipedia.org/wiki/Clorpromazina. Siguiendo la estela de este fármaco, tratando de evitar sus numerosos efectos secundarios, en los años 50 se desarrollaron otros antipsicóticos (llamados ahora típicos) y con el tiempo se llegó a la conclusión de que actúan bloqueando la acción de la dopamina (sus receptores). Además, algunas drogas de abuso como la cocaína y las anfetaminas también actúan sobre el sistema de dopamina y producen algunos de los síntomas típicos de la esquizofrenia. Por ello, la llamada hipótesis dopaminérgica de la esquizofrenia ha dominado el panorama de la enfermedad durante décadas. Sólo en los últimos diez años se ha empezado a ver que en la esquizofrenia también está mal el sistema del glutamato (técnicamente, glutamatérgico). En estos pacientes el glutamato funciona a menor velocidad de la debida y se ha comenzado el desarrollo de fármacos que aumenten un poquito la actividad de este neurotransmisor (sin pasarse, debido a los efectos perniciosos de la sobreestimulación de sus receptores). Esta hipótesis se ha visto apoyada por el descubrimiento de algunos nuevos genes asociados a la enfermedad y que intervienen en la neurotransmisión glutamatérgica, así como con varios estudios preclínicos, y alguno clínico, con fármacos que modulan de manera indirecta el sistema de glutamato. Pero, dada la estrecha interrelación entre el sistema dopaminérgico y el glutamatérgico (ver Fig. 2), lo más probable es que en la enfermedad haya un desequilibrio entre ambos sistemas, es decir, ambas hipótesis no son mutuamente excluyentes. Al menos eso creo, y en esa línea de pensamiento trabajamos en nuestro laboratorio.

Esas alteraciones en la neurotransmisión van acompañadas de alteraciones en los patrones de actividad eléctrica del cerebro medida en los electroencefalogramas. Es decir, esos ritmos, tan importantes en la correcta sincronización de los circuitos neuronales, están alterados en los pacientes. Muchos investigadores piensan que en esta desincronización, producida tanto en circuitos locales como en interacciones de más largo alcance entre diversas zonas del cerebro está la base de la disociación de la mente esquizofrénica con su entorno. No olvidemos que un cerebro sano no hace más que crear un mundo virtual de la realidad circundante. Sí, nuestro cerebro nos engaña, nos construye una versión del mundo físico. Y no solo del mundo físico, también construye un mundo virtual de creencias filosóficas, religiosas, morales, de relaciones con los demás…. Y nos convence de que esa es la realidad. Es tan convincente que hay quien mata –y quien muere- en su defensa. Ese mundo tan “coherente y armónico” lo crea nuestro cerebro gracias al ensamblaje preciso de señales químicas/eléctricas muy diferentes captadas por los sentidos (formas, colores, movimientos, sonidos, texturas, etc.), señales que confluyen con los patrones previamente almacenados en nuestra memoria. Señales que se van a integrar con nuestra estructura psicológica. Sí, podéis ver que son muchas las cosas que se van a integrar, y de ahí la importancia de la sincronización entre los circuito neuronales. Por tanto, no es de sorprender que esa sincronización pueda fallar en algunos de sus elementos. Que algunas informaciones estén “fuera de fase”, que el esquizofrénico confunda el origen de la información visual o acústica y que la incorpore en sus alucinaciones a “su realidad”. Informaciones que estaban almacenadas en su memoria son incorporadas erróneamente como procedentes de los sentidos.

Volviendo a nuestro ilustre matemático, y para terminar por hoy, estamos muy lejos de poder comprender la complejidad de nuestro cerebro, de los mecanismos de integración profunda entre los diferentes módulos que lo componen. Pero lo que la mente de Nash nos enseña es que no todo tiene por qué ir mal simultáneamente. Es incluso posible que ese mundo virtual de su cerebro se haya “aprovechado” de algunos de sus desequilibrios y los haya compensado con una mejor integración de otros módulos. ¡Quién sabe!.


Nota sobre ondas cerebrales

La investigación sobre el papel y el origen de las ondas cerebrales constituye un área muy activa de investigación y no hay semana en la que no aparezca un nuevo artículo en las revistas científicas más prestigiosas como Nature, Science o Neuron. Por ejemplo, el 28-5-09 se ha publicado en Nature que en el hipocampo una de esas ondas (theta) se desplaza a lo largo del eje longitudinal (técnicamente eje septo-temporal), como si fuera un tren de ondas producidas por una piedra en el agua. Las franjas de neuronas que se encuentran en la misma fase de la onda están sincronizadas con respecto a su capacidad para admitir o emitir señales. El ritmo theta por tanto genera un patrón dinámico de sincronización no sólo temporal sino también espacial a lo largo del eje del hipocampo, genera una especie de “husos horarios” en donde cada neurona sabe “dónde está” y “qué hora es” y, por tanto cómo debe responder en cada momento concreto. Otro artículo en número de mayo de la revista Neuron demuestra que las ondas gamma se generan por un disparo sincronizado de la actividad excitadora (el acelerador) seguido del disparo sincronizado de la actividad inhibidora (del freno). Y acabo de ver el índice del Nature del 4-6-09 con otros dos artículos dedicados a las ondas gamma. Ya tengo lectura para el lunes.

Francisco Zafra

domingo, 10 de mayo de 2009

Más circuitos que estrellas en el cielo

.
Para la neurobiología el cerebro no es más que una maquina. Una máquina que interpreta el mundo exterior y que nos capacita para interaccionar con él; una máquina que piensa. Pero, ¡qué máquina!. Medidas recientes indican que tiene unas 170 mil millones de piezas (86 mil millones de neuronas y 84 mil millones de células no neuronales, llamadas células de glía). Es un número tan grande que escapa de nuestro conocimiento cotidiano pero, para que os hagáis una leve idea, es comparable con el número de estrellas de la Vía Láctea (estimado en unos 200 mil millones). Incluso si tenéis la suerte de vivir en un sitio en donde se vean las estrellas, cuando miréis al cielo en una noche clara solo estaréis viendo un pequeño número de ellas: una de cada cincuenta millones. Y bajando a la Tierra, puesto que cada neurona está conectada con muchas otras (entre unas decenas y varios miles), podéis imaginar la cantidad de circuitos eléctricos que se pueden generar. Es una forma de hablar porque no, no lo podemos imaginar. Cómo hacer para comprender esa inmensidad que alberga nuestra capacidad de ver, oír, tocar, hablar, escribir, movernos, planificar, tener conciencia de nosotros mismos y de los que nos rodean. Capaz de creer, de amar, de odiar, de engañar o de confiar en los demás…. Todo lo que podemos hacer es un pequeño bosquejo, un modelo simplificado su funcionamiento. Lo que los filósofos llaman una aproximación reduccionista. Creo que es la única compatible con la ciencia actual.

La función del cerebro está clara: optimizar nuestra supervivencia como individuos y como especie. La aparición de la inteligencia en la tierra es sólo uno de los múltiples caminos que podría haber seguido la evolución para asegurar estos objetivos. Un camino aparentemente exitoso, a la vista de cómo la especie humana se ha adaptado a su medio ambiente… siempre que no acabemos por destruirlo. En otras palabras, el cerebro nos proporciona información de nuestro ambiente a través de los sentidos y, tras procesarla, elabora una respuesta motora adecuada a las circunstancias: búsqueda de sustento nutritivo, huida ante peligros, colaboración con congéneres, búsqueda de pareja….. Este esquema es enriquecido por el propio sistema nervioso a través de una propiedad esencial del mismo: su plasticidad que conduce al aprendizaje y a la memoria. En efecto, el sistema nervioso es capaz de aprender de las experiencias previas de ese individuo o de otros individuos (transmitidas por el proceso de la comunicación) y guardar lo aprendido en la memoria, de forma que cuando se enfrente a situaciones parecidas ya tendrá una respuesta preparada. El cerebro elabora un esquema del mundo y va a actuar conforme a ese esquema aprendido y almacenado. Es más, esos esquemas le permiten hacer predicciones sobre como evolucionará su entorno en el futuro y, por tanto, anticipar las respuestas. Lógicamente esto aumenta enormemente la eficiencia de las mismas. La mayor parte de estos procesos se realizan en la corteza cerebral, una zona de reciente aparición en la historia evolutiva ya que sólo está presente en los mamíferos. Sin embargo, el procesamiento de la información sensorial, la comparación con los patrones almacenados previamente y la elaboración de la respuesta motora adecuada requiere de cierto tiempo. A veces demasiado. Por ello el proceso tiene algunos atajos, controlados por otras partes del sistema nervioso más “automáticas”. Por ejemplo, los reflejos, las emociones (miedo, agresividad, placer) o los estados de necesidad (hambre, sed, calor…), llevados a cabo por zonas evolutivamente más antiguas. Estas zonas evolutivamente antiguas controlan también funciones básicas del organismo como la respiración, el latido del corazón o la digestión, por citar algunos ejemplos. Todo esto ya lo tenían nuestros ancestros los reptiles, y por eso a veces –un poco impropiamente- se denomina el cerebro reptiliano a esa parte antigua de nuestro cerebro. En fin, esto es muy interesante, pero nos desviaría a una clase de fisiología, lo que no es mi intención en este momento.

Redirijámonos a la corteza cerebral, ya que ahí reside no solo el procesamiento de la información sensorial y motora, sino las características que nos hacen humanos como el lenguaje, el razonamiento o la creatividad. La corteza cerebral humana tiene casi el mismo grosor (unos 2 milímetros) y organización que la de una rata (por ejemplo). Se diferencian, sin embargo, en su superficie: la humana tiene la extensión equivalente a la de un mantel pequeño y la de rata a la de un sello de correos. Dada su extensión, la humana está plegada, formando las circunvoluciones cerebrales, de forma que puede empaquetarse en el volumen relativamente pequeño del cráneo. La superficie de la corteza está subdividida en varias áreas, cada una especializada en una función. Por ejemplo, hay un área dedicada a la información visual, otra a la auditiva, otra a la motora, otra a comprender el leguaje, otra expresarlo, es decir, al habla, etc. (Figs. 1 y 2). No obstante, no son áreas aisladas sino que tienen multitud de interconexiones entre ellas. Especialmente importantes son ciertas áreas llamadas de asociación en donde confluyen conexiones de las diversas áreas sensoriales, motoras y emotivas (zonas azules en Fig. 1). Allí se van a integrar todas ellas y se elaborará una respuesta global.



Fig. 1. Esquema de las diferentes áreas de la corteza. Cada una se encarga de procesar un tipo de información.



Fig. 2. Esquema clásico del “homúnculo”. La corteza dedica una zona sensorial y otra motora a cada parte del cuerpo. Cuanto más sensible o más complejo sea el movimiento de esa zona, más superficie necesita. Si dibujamos las diferentes partes del cuerpo en función de la superficie que ocupan obtenemos esos homúnculos. Descubierto por Penfield en 1950.

Cuando miramos a la corteza de perfil se ve que esos dos milímetros de grosor en realidad están divididos en seis capas de neuronas apiladas unas sobre las otras (Fig. 3 y 4). Esas neuronas apiladas forman pequeñas columnas (de menos de 0,5 mm de diámetro) que aunque no se distinguen anatómicamente sí lo hacen funcionalmente, de forma que todas las neuronas de una columna podemos considerarlas como el circuito básico de funcionamiento de la corteza. La corteza, por tanto, sería una especie de mosaico de estas columnitas de neuronas. Cada columna además está conectada con varias de las columnas paralelas, columnas que pueden estar cerca o lejos de la primera. Las informaciones procedentes de los sentidos no llegan directamente a la corteza sino que tienen una primera “parada” en el cerebro reptiliano, y desde aquí son transmitidas a la parte inferior de las columnas, especialmente a la capa 4, y va subiendo hacia las capas 3 y 2 en donde la información se va integrando, transfiriendo a columnas paralelas y, en definitiva, analizándose. Además, se va comparando con los patrones almacenados en la memoria -que también está en la corteza- y finalmente se obtiene un resultado que, principalmente, sale por los axones de las neuronas de la capa 5 (son las neuronas más grandes de la corteza). En resumen, este tránsito por las columnas representa una forma de procesar de manera ordenada la información entrante y la saliente. Como he dicho antes, este procesamiento “lógico” de la información a través de los circuitos corticales se puede ver cortocircuitado por las emociones, e incluso aunque no se llegue a bloquear, siempre van a influir a través de una serie de conexiones entre el cerebro primitivo y la corteza que, como ya he mencionado, se producen en las áreas de asociación. También al revés, la información cortical puede llegar a controlar en cierta medida a la emocional. De esta forma, de la integración de todas estas informaciones, es de donde se desprenden los comportamientos adecuados a cada situación ambiental.


Fig. 3. Esquema de las capas de la corteza en una sección transversal. Cada una de las seis capas tiene un tipo de neurona predominante.



Fig.4. Esquema de las columnas corticales en el área visual. Cada columna recibe un tipo de información del objeto que estamos viendo: unas de la forma, otras del color, otras de la orientación, unas del ojo derecho, otras del izquierdo…. Toda esta información se integra y el cerebro nos construye una imagen virtual de la realidad. Puesto que cada ojo tiene una perspectiva diferente, la reconstrucción es tridimensional.


Si tenemos en cuenta que tenemos millones de estas columnas, y todas ellas correctamente conectadas, es fácil hacerse las siguientes preguntas-reflexiones: ¿cómo se generan y se conectan correctamente entre sí y con las otras zonas del cerebro, en lugar de dar lugar a una maraña sin orden ni concierto?; ¿cómo es posible que todo eso llegue a funcionar correctamente en la mayor parte de las personas y no estemos todos locos?

Aquí voy a recurrir a los ya mencionados principios que enunció en su día Kandel (ver post de abril de 2008): Son los genes, a través de sus productos las proteínas, los que determinan que cada neurona se coloque en su lugar, en su capa precisa; y que, en función del sitio en el que se ha colocado, se activen otros genes que a su vez le van a permitir la emisión de un cierto número de prolongaciones (dendritas y axones), y que esas prolongaciones busquen y encuentren el sitio exacto al que se tienen que conectar. Y esto no es así porque lo diga Kandel: cada día que pasa se acumulan evidencias experimentales que lo demuestran. Se han ido identificando genes imprescindibles en la migración de las neuronas hasta dar lugar a ese patrón de capas, y genes implicados en la navegación de los axones y en su interacción con las dendritas. Cuando el emparejamiento es bueno, la conexión se refuerza, y si no lo es se debilita. Y no sólo se empiezan a conocer esos genes, sino también sus mecanismos bioquímicos de actuación. Bueno, hay que reconocer que nos faltan muchos detalles, muchos genes por identificar y muchos mecanismos por averiguar, pero la esencia es ya inmutable.

Pero, además, sabemos que los genes no lo son todo. Para que esas conexiones se formen correctamente se necesita entrada de información del ambiente tanto externo como interno. Del ambiente externo se necesitan señales sensoriales (luminosas, acústicas, táctiles etc,) o derivadas del aprendizaje de tareas (exposición a una lengua, a la lectura, a la escritura etc.). También son muy importantes las influencias sociales, la interacción con “los otros”. Del ambiente interno derivan señales diversas como las hormonales o diversas sustancias químicas (alcohol o drogas, por citar algunas). Un punto especialmente importante es que todas estas señales tienen una mayor influencia durante el desarrollo del embrión y a lo largo de la niñez. Por poner ejemplos cotidianos, si un adulto desarrolla cataratas, se le opera y recupera la vista, pero si las cataratas las tienen un niño (hay casos raros) y este ha estado desprovisto de señales luminosas durante un cierto tiempo, ya nunca podrá ver, aunque se solucionen las cataratas: las columnas del área visual de la corteza no se desarrollarán correctamente, y no hay vuelta atrás. Por no mencionar el aprendizaje de una lengua: los niños la aprenden sin problema y pueden ser monolingües, bilingües o trilingües sin ningún tipo de acento y comprendiendo perfectamente la gramática de cada lengua. En la etapa adulta esto es imposible. El aprendizaje afecta a la expresión de los genes, afecta a la formación de los circuitos y, en definitiva, a esos esquemas del mundo que se hace nuestro cerebro. La plasticidad cerebral es también usada para reutilizar zonas que han perdido su sentido. Por ejemplo, en los ciegos el área visual es reclutada en gran medida por las áreas dedicadas a procesar las señales acústicas o táctiles. A algunas personas el área dedicada a una función se les queda pequeña, pero con ejercicio y entrenamiento la aumentan. En un pianista la zona de la corteza dedicada al control de los dedos acaba siendo mucho mayor que en otras personas, y en los violinistas sólo los de la mano izquierda (que por cierto se controla con el hemisferio cerebral derecho). Y qué decir de alcohol, de las drogas o del stress: estas situaciones en una madre gestante tienen profundos efectos sobre el desarrollo del cerebro del niño. En definitiva, todas esas señales ambientales inciden directa o indirectamente sobre esos múltiples diálogos de fondo que mantienen los genes, las proteínas o las células. Y es la suma de esta componente genética más la ambiental la que va a determinar las propiedades de cada neurona, y su organización en circuitos que finalmente controlan el comportamiento.

Complicado, ¿no?. Y sin embargo funciona. Sí, parece milagroso pero es así. Bueno, no siempre. Hay personas que tienen afasia, agnosia, amnesia, anosmia, alexia, apraxia, agrafia, o anhedonia. Ah! y se me olvidaba: esquizofrenia, depresión o enfermedad obsesivo-compulsiva (por mencionar algunas que no empiezan por a). O son psicópatas asesinos en serie. Con tantas piezas, alguna tiene que fallar.
En el próximo post elaboraré algunas ideas sobre algunas de esas enfermedades, especialmente las llamadas enfermedades mentales. (Si queréis desmoralizaros, aquí hay una lista completa http://es.wikipedia.org/wiki/DSM-IV )

Saludos

Francisco Zafra