viernes, 31 de diciembre de 2010

Amygdala volume and social network size in humans

Amygdala volume and social network size in humans

Nature Neuroscience
 
(2010)
 
doi:10.1038/nn.2724
Received
 
 
Accepted
 
 
Published online
 
We found that amygdala volume correlates with the size and complexity of social networks in adult humans. An exploratory analysis of subcortical structures did not find strong evidence for similar relationships with any other structure, but there were associations between social network variables and cortical thickness in three cortical areas, two of them with amygdala connectivity. These findings indicate that the amygdala is important in social behavior.

Main

For many species, but particularly for primates, living in groups is a major adaptive advantage1. But living in a social group also presents its own challenges. To get along while getting ahead, it is necessary to learn who is who, who is friend and who is foe. It might be productive to form an alliance with certain group members in one context, but to outmaneuver them in another. The 'social brain hypothesis' suggests that, evolutionarily, living in larger, more complex social groups selected for larger brain regions with a greater capacity for performing relevant computations2. On the basis of its central functional role34 and anatomic position5 in the social brain, investigators have proposed that amygdala volume should be related to the size of social groups, in part because the size of a brain region is one indicator of its processing capacity6.
Comparative neuroanatomical studies in nonhuman primates strongly support a link between amygdala volume and social network size7 and social behavior8. Species characterized by larger social groups have a larger corticobasolateral complex within the amygdala. The corticobasolateral complex conjointly expanded with evolutionarily newer cortex and the lateral geniculate nucleus, particularly the layers of the lateral geniculate nucleus that project to the ventral stream visual system7. Taken together, these comparative findings suggest that a larger amygdala provides for the increased processing demands required by a complex social life.
In this study we examined whether amygdala volume varies with individual variation in the size and complexity of social groupings within a single primate species, humans. In 58 healthy adults (22 females; mean age M = 52.6, s.d. = 21.2, range = 19–83 years) with confirmed absence of DSM-IV Axis I diagnoses and normal performance on cognitive testing, we examined social network size and complexity with two subscales of the Social Network Index (SNI9). One SNI subscale (Number of People in Social Network) measures the total number of regular contacts that a person maintains, reflecting overall network size. A second subscale (Number of Embedded Networks) measured the number of different groups these contacts belong to, reflecting network complexity. Despite the fact that the two social network variables were strongly correlated within the present sample (r = 0.86, P < 0.001), we opted to consider their separate relation to amygdala and hippocampal volumes. (For more details, see Supplementary Results.)
To assess amygdala (and, as a control region, hippocampal) volume, we performed quantitative morphometric analysis of T1-weighted MRI data using an automated segmentation and probabilistic region-of-interest (ROI) labeling technique (FreeSurfer, http://surfer.nmr.mgh.harvard.edu/). For methodological details, seeSupplementary Methods. To adjust for differences in head size, amygdala and hippocampal volumes were divided by total intracranial volume, as performed previously1011.
Linear regression analyses revealed that individuals with larger and more complex social networks had larger amygdala volumes (Fig. 1). These relationships held when controlling for the age of the participant (because older individuals have, on average, smaller amygdala volumes than do younger individuals; Table 1). These relationships held when left and right amygdala volumes were analyzed separately (Table 1), indicating no lateralization of the effect.
Figure 1: Amygdala volume correlates with social network size and complexity.
Amygdala volume correlates with social network size and complexity.
(a,b) Plot of social network variables (y axis) against total adjusted amygdala volume (x axis). Data points from young participants, black circles; older participants, gray triangles. A line of best fit with standardized regression coefficients (B) is also displayed for the entire sample.
Table 1: Linear regressions using amygdala and hippocampal volumes as independent variables and social network characteristics as dependent variables
To assess discriminant validity, we performed a linear regression using right and left hippocampal volumes (corrected for total intracranial volume) as independent variables and social network size and complexity as dependent variables while controlling for age (because hippocampal volume typically diminishes with age). For the whole group, these analyses showed no significant relationship between hippocampal volume and either of the social network variables (Table 1). For the young and older subgroups, linear regressions showed a significant relationship only for older participants between left hippocampal volume and social network complexity (Table 1). Because hippocampal and amygdala volumes were themselves strongly correlated (left:r = 0.831, P < 0.001; right: r = 0.727, P < 0.001; combined: r = 0.815, P < 0.001), we conducted hierarchical linear regressions using amygdala and hippocampal volumes (corrected for total intracranial volume) as independent variables and social network characteristics as dependent variables. Increased amygdala volume remained significant when controlling for hippocampal volume (Supplementary Table 1).
To further investigate the specificity of the relationship between amygdala volume and social network characteristics, we conducted an exploratory analysis assessing the relationship between social network variables and all other subcortical volumes segmented by FreeSurfer. Linear regressions revealed that none of the other subcortical regions significantly correlated with either social network variable when controlling for age and correcting for multiple comparisons. (For more details, see Supplementary Methods and Supplementary Results.) Also supporting the discriminant validity of our primary finding, we found that amygdala volume did not relate to other measures of social functioning such as perceived social support1213 and life satisfaction14. (r values ranged from −0.26 to 0.27, P < 0.15 to P < 0.98; for more details about these measures, seeSupplementary Methods.)
Finally, to explore the association between social network variables and cortical thickness throughout the cerebral cortex, we conducted a whole brain surface–based analysis (see Supplementary Methods); this analysis did not include subcortical structures (such as the amygdala). In the first fully corrected test, we found no regions that were correlated with the social network variables at conventional levels of statistical significance. In the second, more exploratory analysis, with a more lenient threshold (P < 0.01, uncorrected for multiple comparisons) we found that social network variables correlated significantly with the caudal inferior temporal sulcus, caudal superior frontal gyrus and subgenual anterior cingulate cortex. Separate analyses of young and older participants showed very consistent findings, supporting the reliability of these observations (for more details, see Supplementary ResultsSupplementary Fig. 1 and Supplementary Tables 2 and 3).
To our knowledge, these findings demonstrate the first link between amygdala volume and social network characteristics within a single species. Although our findings do not test an evolutionary hypothesis specifically, they, along with cross-species studies in nonhuman primates715, are consistent with the hypothesis that the primate amygdala evolved, in part, under the pressures of increasingly complex social life (for more details, see Supplementary Discussion). In addition, that individuals with larger subgenual anterior cingulate cortex and caudal inferior temporal sulcus volumes also reported larger and more complex social networks supports the hypothesis that the amygdala expanded in conjunction with some other brain regions to which it is densely connected7. The correlation found for the caudal superior frontal gyrus requires further investigation. Results from the exploratory analysis should be taken as preliminary findings that could guide future work aimed at examining the distributed network of brain regions that might support social network size and complexity.
Humans are inherently social animals. We play, work, eat and fight with one another. A larger amygdala might enable us to more effectively identify, learn about and recognize socioemotional cues in conspecifics3, allowing us to develop complex strategies to cooperate and compete1.

Author information

Affiliations

  1. Department of Anatomy and Neurobiology, Boston University School of Medicine, Boston, Massachusetts, USA.

    • Kevin C Bickart
  2. Psychiatric Neuroimaging Research Program, Massachusetts General Hospital and Harvard Medical School, Charlestown, Massachusetts, USA.

    • Christopher I Wright,
    •  
    • Rebecca J Dautoff,
    •  
    • Bradford C Dickerson &
    •  
    • Lisa Feldman Barrett
  3. Martinos Center for Biomedical Imaging, Massachusetts General Hospital and Harvard Medical School, Charlestown, Massachusetts, USA.

    • Christopher I Wright,
    •  
    • Rebecca J Dautoff,
    •  
    • Bradford C Dickerson &
    •  
    • Lisa Feldman Barrett
  4. Department of Neurology, Massachusetts General Hospital and Harvard Medical School, Boston, Massachusetts, USA.

    • Bradford C Dickerson
  5. Department of Psychology, Northeastern University, Boston, Massachusetts, USA.

    • Lisa Feldman Barrett

Contributions

C.I.W. and L.F.B. designed the study. R.J.D. and L.F.B. performed the research. K.C.B., R.J.D., B.C.D. and L.F.B. analyzed the data. K.C.B., B.C.D., C.I.W. and L.F.B. wrote the manuscript. B.C.D., C.I.W. and L.F.B. contributed to grant funding.

Competing financial interests

The authors declare no competing financial interests.

Modelos matemáticos del lenguaje y la cultura

LINGÜÍSTICA
Modelos matemáticos del lenguaje y la cultura
22/12/2010

Al igual que los seres vivos, las lenguas también evolucionan: aparecen palabras nuevas, otras se extinguen y la gramática va cambiando poco a poco. ¿Es posible analizar con precisión cómo se transforma el lenguaje? ¿Podrían aplicarse métodos de estadística y de biología evolutiva para estudiar sus cambios?

Jean-Baptiste Michel y Erez Lieberman Aiden, matemáticos y doctores en biología de la Universidad de Harvard, han encontrado una herramienta que quizá les permita responder cuantitativamente a estas preguntas: Google Books, el polémico proyecto de la multinacional para digitalizar todos los libros publicados desde que Gutenberg fabricase la primera imprenta de tipos móviles en el siglo XV.

Junto con otros colaboradores, los autores recopilaron en una base de datos todas las palabras contenidas en unos 5 millones de libros digitalizados por Google Books. El texto acumulado asciende a un 4% de todos los libros publicados a lo largo de la historia y suma unos 500.000 millones de palabras en 7 idomas: inglés (361.000 millones de palabras), francés (45.000 millones), español (45.000 millones), alemán (37.000 millones), ruso (35.000 millones), chino (13.000 millones) y hebreo (2000 millones).

Para evitar problemas con los derechos de autor, los investigadores agruparon todo el texto en una única base de datos que no permite reconstruir las obras, pero sí hacer estadística fiable sobre la frecuencia de uso de las palabras. En partícular, resulta posible extraer la frecuencia relativa con la que, entre los años 1800 y 2000, han aparecido publicadas cadenas de hasta 5 palabras. Por ejemplo: ¿qué porcentaje de veces, relativo a todas las palabras publicadas ese año, apareció la palabra "Cuba" en las obras en español aparecidas en 1898? ¿Y cómo evolucionó la frecuencia relativa de empleo de la palabra desde entonces hasta nuestros días? El siguiente gráfico nos da la respuesta:


  • Frecuencia de aparición de la palabra "Cuba" en las obras publicadas en lengua castellana entre 1800 y 2000. El eje de ordenadas indica el porcentaje de menciones respectivas sobre el total de vocablos registrados cada año. Los dos máximos principales coinciden en el tiempo con la independencia y la revolución cubanas.

En su artículo, publicado la semana pasada en la edición online de la revista Science, los autores investigan varios aspectos relacionados con la frecuencia de uso de ciertos términos o cadenas de términos. Por ejemplo, concluyen que casi de la mitad de las palabras registradas en inglés (tras eliminar cadenas alfanuméricas, erratas o extranjerismos) no se hallan recogidas en ningún diccionario. También estudian algunos aspectos referentes a la evolución de la gramática, como el proceso de desaparición de los verbos irregulares, un tema que ya les mereció un artículo en Nature en 2007. Por ejemplo, es fácil ver cómo, desde el punto de vista léxico, algunas palabras han sido reemplazadas por otras a lo largo del tiempo:



  • Evolución entre 1800 y 2000 de la frecuencia de uso de las palabras "obscuro" y "oscuro" en la literatura en español incluida en la base de datos. La suma de ambas se mantiene aproximadamente constante, pero se aprecia cómo un vocablo reemplaza al otro.

Al margen de los aspectos puramente lingüísticos, los autores analizan otros factores que interpretan como relacionados con la memoria colectiva o con las tendencias culturales. Por ejemplo, razonan que el número de menciones a un año ("1982") probablemente pueda interpretarse como reflejo del interés colectivo por lo que sucedió en ese año. Como cabría esperar, la gráfica del uso de "1982" exhibe un pico en torno a 1982. Pero más interesante es preguntarse cómo evoluciona con el paso del tiempo el interés por un año concreto. El siguiente gráfico lo ilustra muy bien:



  • Evolución entre 1800 y 2000 de la frecuencia con que se han registrado menciones escritas a diferentes años.

Hay una tendencia muy clara: 1) La altura de los picos aumenta con el tiempo. 2) Con relación a la altura del pico, la curva decae cada vez más deprisa. Al respecto, los autores concluyen que "existe un aumento de interés por el momento presente", pero también que "olvidamos nuestro pasado cada vez más rápido".

Otras inferencias curiosas pueden extraerse a partir de las menciones a personajes o fenómenos concretos, que se corresponderían con el auge y declive de su fama. El mismo procedimiento también permite identificar episodios de censura histórica.

Lieberman Aiden y Michel ya se habían ocupado de estos temas en el pasado. En 2007 publicaron un artículo en Nature en el que analizaban la frecuencia con la que, en inglés, los verbos irregulares tienden a convertirse en regulares. Su conclusión fue que la "vida media" de un verbo irregular es proporcional a la raíz cuadrada de su frecuencia de uso: un verbo que se emplea 100 veces menos que otro se "regulariza" 10 veces más rápido.

Los autores interpretan su estudio como un primer paso en una disciplina que, en analogía con la genómica, bautizan como "culturómica": el estudio estadístico y la modelización matemática de fenómenos lingüísticos y culturales. Quizá pueda sonar algo pretencioso, al menos por el momento (por ejemplo, no sabemos cuán representativa es la muestra del 4% incluida en la base de datos), pero puede que la idea sí represente un primer paso hacia la obtención de modelos evolutivos del lenguaje.

En cualquier caso, la iniciativa y la sola posibilidad de analizar semejantes cantidades de datos no dejan de sorprender. Al igual que hace unos días reseñábamos otro trabajo que relacionaba las fluctuaciones bursátiles con las búsquedas de ciertos términos en Google, también en este caso se trata de una investigación que solo la gran cantidad de datos almacenados por el gigante informático ha hecho posible. Parece que las herramientas del buscador sirven para mucho más que para resolver las necesidades momentáneas de sus usuarios.



La base de datos es de acceso libre. Cualquiera puede acceder y experimentar con ella a través de 
www.culturomics.org

Más información en Science.

Artículo de los mismos autores sobre la evolución de los verbos irregulares en Nature.

La voz materna activa el lenguaje

DESARROLLO
La voz materna activa el lenguaje
23/12/2010

  • Las imágenes de EEG revelan que los recién nacidos procesan en especial las palabras de la madre. Los investigadores investigaron a los bebés mientras dormían. Crédito: © Centro de investigación del Hospital universitario Sainte-Justine


Para un recién nacido, no es lo mismo que le hable la propia madre que una persona desconocida. Así, la voz de materna activa el área del cerebro responsable del aprendizaje del lenguaje en el bebé, mientras que la de un individuo no logra tal reacción. Según los  investigadores de la Universidad de Montreal y del centro de investigación del Hospital universitario Sainte-Justine. El equipo de investigación descubrió en niños con una edad media de 24 horas que el cerebro responde con fuerza a la voz de la madre. “Muestra que la voz de la madre es especial para los bebés”; indica Maryse Lassonde, de la Universidad de Montreal y responsable de la investigación.

Los investigadores aplicaron electrodos en las cabezas de 16 recién nacidos mientras dormían. (Diversos estudios demuestran que en determinadas fases del sueño los bebés perciben su entorno.) A continuación se solicitó a las respectivas madres que repitiesen el sonido corto ‘a’ a su bebé. El mismo ejercicio se volvió a realizar después con una enfermera del laboratorio. Según se pudo comprobar a través de imágenes de electroencefalografía (EEG), al emitir la madre el sonido, acontecían reacciones en el hemisferio izquierdo del cerebro del bebé, en particular, el área destinada al procesamiento del lenguaje y las habilidades motoras. Por el contrario, al hablar la persona extraña,  se activaba el hemisferio derecho. Dicho hemisferio se asocia con reconocimiento de voz.

Hasta ahora se sabía que los bebés poseen algunas capacidades de lenguaje natural, no obstante, los investigadores apenas están comenzando a entender cómo son y funcionan. Por ejemplo, cuando un bebé escucha el sonido ‘a’, adopta con la boca la forma necesaria para emitir la misma vocal, aunque no haya visto nunca antes cómo se hace. Según afirman los responsables del estudio, los resultados de la investigación confirman que la madre es el principal iniciador de la lengua. Asimismo sugieren que existe una relación neurobiológica entre la adquisición del lenguaje prenatal y las habilidades motoras implicadas en el habla.



Fuente: UdeM / Spektrumdirekt
Más información en Cerebral Cortex

Compostaje doméstico y compostaje industrial

TRATAMIENTO DE RESIDUOS
Compostaje doméstico y compostaje industrial
27/12/2010

  • A la izquierda, obtención de compost a nivel industrial (izquierda). A la derecha, instalación doméstica para preparar compost doméstico. (Crédito: UAB)


En el proceso se tratan los residuos orgánicos para obtener un producto final, el compost, que se puede utilizar como abono o enmienda orgánica, con lo que se cierra así el ciclo de este componente.
Su interés reside también en el hecho de que se puede realizar no sólo en instalaciones industriales, sino también a pequeña escala, a nivel doméstico.

El compostaje es un proceso biológico bastante complicado, y sometido a varios parámetros de control (humedad, temperatura, oxígeno y porosidad) que deben mantenerse en condiciones óptimas para obtener un producto final de máxima calidad.

En un estudio realizado por científicos de la UAB, se comparó la eficiencia y el impacto ambiental entre el compostaje casero y el producido a nivel industrial.
Para comparar ambas escalas de compostaje, se decidió utilizar la técnica del análisis de ciclo de vida (ACV), de forma que todos los posibles impactos ambientales quedaran cuantificados: toxicidad, consumo de recursos (agua y energía), emisiones de gases de efecto invernadero, lixiviados, potencial de eutrofización, etcétera.

Durante el compostaje doméstico se liberó una cantidad cinco veces superior del gas amoniacal, metano y óxido nitroso que durante el compostaje industrial. Ello se debe a que en el compostaje casero no se hace tratamiento de los gases emitidos, lo que es una práctica habitual en el caso del compostaje industrial mediante lavadores de gases y biofiltros. Pero la segunda estrategia conllevó un mayor consumo de recursos (energía, agua, infraestructura) y emisiones de compuestos orgánicos volátiles que la primera.

En conclusión, el compostaje casero constituye una técnica perfectamente válida para obtener compost de alta calidad y estable, y los impactos ambientales son sensiblemente menores que los del compostaje industrial.



Fuente: UAB

Más información en Waste Management

Qubits con nanohilos semiconductores

COMPUTACIÓN CUÁNTICA
Qubits con nanohilos semiconductores
29/12/2010

Como es bien sabido, para almacenar información, los ordenadores emplean bits: variables que pueden adoptar uno de dos valores posibles, 0 o 1. El funcionamiento de los ordenadores cuánticos, en cambio, se basa en el empleo de bits cuánticos, o qubits. Un qubit es un sistema cuántico de dos niveles. Ello quiere decir que, en general, su función de onda se encuentra en una superposición o "mezcla" de dos (y solo dos) estados base: digamos, |0> y |1>.
Solo cuando efectuamos una medida sobre el estado del qubit, la función de onda "colapsa" y el resultado de la medida arroja un valor definido: bien 0, o bien 1 (la probabilidad de obtener 0 o 1 queda determinada por la superposición particular de los estados |0> y |1> en la que se halle el qubit en el momento de la medida).
En el contexto de un ordenador cuántico, medir el estado de un qubit es el equivalente a extraer la información: preguntarle al ordenador por el resultado de un cálculo. Pero, mientras el ordenador calcula, sus qubits individuales se hallarán en "una mezcla de ceros y unos". Es justo esta particularidad la que permite que los ordenadres cuánticos puedan calcular muchísimo más rápido que los ordenadores clásicos.


El problema radica en que todo esto funciona muy bien, pero solo en teoría. A día de hoy, nadie ha conseguido fabricar un ordenador cuántico. ¿Por qué? Para ello habría que disponer de un sistema de qubits acoplados que fuese posible controlar a voluntad, y semejante objetivo se muestra técnicamente muy difícil.
No obstante, candidatos a qubits no faltan. Uno de los ejemplos más sencillos y mejor estudiados de un sistema cuántico de dos niveles lo proporciona una partícula de espín 1/2, algo tan común como el electrón. En tal caso, el espín de la partícula (que puede describirse como la magnitud de su rotación intrínseca con respecto a un cierto eje) queda descrito por una superposición de dos estados, que podemos llamar "arriba" o "abajo". Por tanto, las características de una partícula con espín 1/2 se corresponden con las de un qubit. El problema reside en cómo manipularlas.  
El espín de un electrón puede controlarse mediante campos magnéticos. Esa es la propiedad en la que se basan los métodos de resonancia magnética empleados en las técnicas de formación de imágenes en medicina. Sin embargo, el método solo es viable cuando se trata de un gran número de electrones. Controlar el espín de un único electrón mediante campos magnéticos, como requeriría un ordenador cuántico, sigue siendo un objetivo complicado.
Recientemente, Leo Kouwenhoven y colaboradores de la Universidad de Tecnología de Delft, en Holanda, han conseguido implementar y controlar quibits individuales empleando para ello nanohilos de arseniuro de indio, un material semiconductor. Para ello han recurrido a una de las propiedades del electrón bien conocidas por los estudiantes de física atómica: la interacción espín-órbita.
Cuando un electrón orbita en torno a un núcleo atómico, se produce una interacción entre el movimiento orbital del electrón y su espín (a modo de metáfora, vendría a ser algo así como si el movimiento de la Tierra alrededior del Sol afectase a la rotación del planeta en torno a su propio eje). Una manera sencilla de entender el origen de dicho acoplamiento es la siguiente: en el sistema de referencia en el que el electrón se halla en reposo, el núcleo es una carga positiva en rotación, por lo que crea un campo magnético, y ese campo magnético afecta al espín del electrón.
En el caso de los nanohilos semiconductores (hilos de tan solo algunos nanómetros de espesor) de arseniuro de indio, el movimiento orbital de los electrones puede controlarse mediante la aplicación de campos eléctricos sobre el nanohilo; además, el acoplamiento espín-órbita es muy intenso. A la postre, ello permite un control eficiente del espín de un electrón mediante un circuito eléctrico. Por otro lado, las propiedades semiconductoras del arseniuro de indio facilitan el control sobre electrones individuales gracias a una propiedad de confinamiento espacial de los electrones conocida como "puntos cuánticos" (quantum dots). Así pues, el resultado allana el camino para integrar y controlar qubits individuales en circuitos eléctricos, tal y como requeriría un futuro ordenador cuántico.
Kouwenhoven y sus colaboradores fueron capaces de aislar dos electrones y los hicieron funcionar como qubits. Sus resultados, que varios expertos han calificado como de avance importante en el programa de investigación en computación cuántica, aparecieron publicados la semana pasada en la revista Nature.



Más información en Nature.
Artículos recomendados:
"Computación cuántica", por Agustín Rayo, en 
IyC 6/2010.
"Procesamiento cuántico de la información", por Antonio Acín, en IyC 9/2006 (
ver PDF).

Causas de la reacción al melocotón

ALERGIAS
Causas de la reacción al melocotón
28/12/2010

A pesar de que diversos estudios describen las taumatinas como alérgenos en varias frutas, como manzana, kiwi, cerezas, y plátano, así como en pólenes, nadie las había relacionado con la alergia al melocotón. Hasta ahora. De hecho, se consideraba que la proteína descrita como alérgeno principal responsable de la alergia al melocotón era la Pru p 3, su proteína de transferencia de lípidos.
Los ensayos llevados a cabo por investigadores de la Escuela Técnica Superior de Ingenieros Agrónomos (ETSI) de la Universidad Politécnica de Madrid (UPM), en colaboración con diferentes hospitales del sistema de sanidad español, sugieren que estas proteínas deben incluirse en el diagnóstico de rutina de la alergia, al menos en el área mediterránea.
En concreto, se han identificado tres isoformas, pertenecientes a la familia de las taumatinas, como alérgenos principales en el molocotón. Su prevalencia, observada en estudios in vitro, ex vivo e in vivo en los análisis, apunta a que se trata de alérgenos importantes.
Para identificar y caracterizar a los miembros de la familia de las taumatinas presentes en el melocotón y estudiar su papel alergénico, los científico han utilizado electroforesis en dos dimensiones de extractos melocotón, así como la intervención de un grupo de pacientes alérgicos a esta fruta. Así, se han purificado a través de diferentes sistemas cromatográficos tres formas de proteínas perteneciente a la familia de las taumatinas, caracterizando su secuencia amino terminal, su masa molecular, además de analizar la actividad enzimática de dichas proteínas (b-1,3-glucanasa), así com su capacidad de inhibir el crecimiento de hongos.
Su capacidad alergénica se determino por su capacidad de unir IgE (inmunoglobulina responsable de las reacciones alérgicas), mediante ensayos de ELISA (acrónimo del inglés "Enzyme-Linked ImmunoSorbent Assay", 'Ensayo por inmunoabsorción ligado a enzimas) y pruebas cutáneas en pacientes alérgicos al melocotón.
De esta manera, se identificaron y purificaron dos taumatinas de melocotón (Pru p 2.1 y Pru p  2.2), mientras que una tercera, la Pru p 2.3, fue clonada y producida como proteína recombinante en un sistema de levadura. Las tres formas se caracterizaron como taumatinas mediante la técnica western-blot o inmunoblot (técnica analítica para detectar proteínas específicas en una muestra determinada (una mezcla compleja de proteínas, como un extracto tisular). con anticuerpos frente a la taumatina de castaña. Todas ellas mostraron actividad b-1,3-glucanasa e inhibieron la proliferación de hongos.
Las tres taumatinas fueron reconocidas en alrededor del 50% de los pacientes alérgicos a melocotón analizados. Las tres dieron una respuesta positiva a las pruebas cutáneas realizadas, por lo que han sido identificadas como alérgenos principales en melocotón.



Fuente: UPM/ SINC
Más información en Clinical and Experimental Allergy

La inyección de cemento ortopédico, nueva técnica para eliminar el dolor de las fracturas vertebrales

Internet Medical Publishing

La inyección de cemento ortopédico, nueva técnica para eliminar el dolor de las fracturas vertebrales

Dos de cada cinco mujeres tendrán al menos una fractura osteoporótica a partir de los 50 años de edad, según datos del Consenso de la Sociedad Española de Reumatología (SER) sobre la osteoporosis posmenopáusica, siendo las fracturas vertebrales (localizadas en la región dorsal y lumbar) las que aparecen de forma más temprana.

Con frecuencia la fractura vertebral produce un dolor muy intenso e invalidante, y es habitual que, sin tratamiento, se fracturen nuevas vértebras, ocasionando cifosis -pérdida progresiva de la talla- y un aumento de la morbilidad.

Para tratar estas fracturas vertebrales, los especialistas reunidos en el V Congreso de la Sociedad Murciana de Reumatología (SMR) acaban de presentar una técnica novedosa y mínimamente invasiva: la vertebroplastia percutánea. Este tratamiento, aún poco extendido, consiste en inyectar cemento ortopédico a través de una aguja en el hueso fracturado.

"Esta intervención se basa en la cementación de un cuerpo vertebral fracturado y doloroso, accediendo al mismo mediante punción percutánea de los pedículos vertebrales. Tanto el acceso a la vértebra como la posterior inyección del cemento médico se realizan bajo control fluoroscópico y no es necesaria anestesia general", explica el Dr. Manuel José Moreno Ramos, del Servicio de Reumatología del Hospital Universitario Virgen de la Arrixaca de Murcia.

Mejoría y desaparición del dolor en las primeras 24 horas

Para el experto, "la vertebroplastia percutánea tiene un riesgo muy bajo de complicaciones, requiere un corto ingreso hospitalario -de dos o tres días- y los pacientes refieren mejoría o incluso desaparición del dolor en las primeras 24 horas tras la intervención, mientras que los tratamientos conservadores y farmacológicos pueden tardar semanas o meses en hacer efecto".

Gracias a esta técnica, muchos pacientes con osteoporosis vuelven a ser autónomos en sus actividades diarias habituales. "La calidad de vida del paciente mejora de forma significativa, ya que se consigue eliminar el dolor producido por la fractura y rompemos el círculo vicioso que genera más dolor vertebral: la osteoporosis produce fracturas, éstas producen inmovilización, lo que se traduce en mayor osteoporosis y una nueva fractura", señala el Dr. Moreno.

Esta técnica está indicada en pacientes "con fracturas vertebrales agudas o subagudas, de entre uno y seis meses de evolución, que no han respondido a un tratamiento médico adecuado, aunque también se obtiene mejoría clínica en pacientes con fracturas de mayor antigüedad", matiza el Dr. Mariano Espinosa, del Servicio de Radiología del Hospital Universitario Virgen de la Arrixaca de Murcia.

Según añade el Dr. Espinosa, "en todos los casos se debe realizar previamente una Resonancia Magnética (RM) con secuencias T1, T2 y STIR, que nos dirá si la vértebra colapsada sufre un fenómeno inflamatorio agudo (presencia de edema). Este hallazgo indica que estamos ante un proceso patológico activo, susceptible de tratamiento con Vertebroplastia Percutánea".

Utilización de vertebroplastias percutáneas múltiples

"Además, debemos tener en cuenta que en estudios de biomecánica hemos visto que mientras que las vértebras fracturadas y cementadas aumentan su resistencia, las adyacentes no lo hacen, por lo que, teóricamente, serían más susceptibles de fracturarse", subrayan los expertos.

Como solución, proponen "una mejor planificación de la intervención, ya que conociendo las líneas de fuerza en la columna vertebral y viendo si existen cambios morfológicos en las vértebras adyacentes a la fracturada, podemos plantear una Vertebroplastia Percutánea múltiple, es decir, cementar varias vértebras fracturadas en el mismo acto quirúrgico".

Aunque las fracturas vertebrales de origen tumoral también son susceptibles de tratarse con esta técnica, se deben plantear otras estrategias quirúrgicas, "si existe importante invasión del canal medular o déficit neurológico secundario al colapso vertebral".

Hasta el momento, más de 150 pacientes en Murcia ya se han beneficiado de esta técnica, la mayoría con fracturas osteoporóticas y, en muchos casos, se han realizado vertebroplastias percutáneas múltiples. Para su implantación en el resto de hospitales del país como una técnica habitual "es necesaria la asociación entre los Servicios de Reumatología y los de Neurorradiología Intervencionista", concluye el Dr. Moreno.

Nuevas estrategias de abordaje de las enfermedades autoinmunes sistémicas

"Los nuevos conocimientos, tanto clínicos como terapéuticos, y la evolución de las Enfermedades Autoinmunes Sistémicas en los últimos 25-30 años, con el desarrollo de morbilidad, daño vascular, daño óseo, etc., nos han enseñado que tenemos que empezar a cambiar las estrategias tanto en la valoración del paciente como en las pautas del tratamiento, con el fin último de realizar una valoración integral de la persona que padece alguna enfermedad de este tipo", indica el Dr. Lucio Pallarés, coordinador del Grupo de Trabajo de Enfermedades Autoinmunes (GEAS) de la Sociedad Española de Medicina Interna (SEMI). 

Así, continúa el Dr. Pallarés, "las enfermedades con mayor prevalencia en la población, y sobre las que el GEAS ha desarrollado sus principales líneas de trabajo son el Lupus Eritematoso Sistémico, el síndrome de Sjögren, la esclerodermia, las vasculitis sistémicas y las miopatías inflamatorias, entre otras. Si no se diagnostican y controlan de forma correcta, pueden ocasionar daño y afectar de una manera importante a la salud".

Por ello, otro de los temas de gran importancia que se va a tratar en el marco de esta reunión es el tratamiento. Ya que a lo largo de la última década se ha incorporado un gran número de fármacos nuevos, que permite un mejor manejo de los pacientes, con mayor seguridad y con menos efectos secundarios. "Es necesario cambiar las pautas que desde hace años se han venido aplicando, por otras que reducen la morbilidad. Un ejemplo claro son los corticoides y algunos fármacos inmunosupresores. En este sentido, un objetivo fundamental del GEAS es transmitir a los asistentes la tendencia a dar cada vez menos dosis de corticoides y durante el menor tiempo posible", afirma el Dr. Pallarés.

En esta reunión destaca la inclusión del estudio de los aspectos genéticos, incorporando así a profesionales que se dedican a la medicina básica, es decir, no directamente de cara al paciente, pero que tratan los aspectos moleculares genéticos.

II Curso de Terapias Biológicas en las Enfermedades Autoinmunes

Para este experto, "es necesario reducir el tiempo que suele pasar desde que se conoce un avance, o un resultado, hasta que se aplica finalmente en las consultas, que es donde se beneficia realmente cada paciente. Asimismo, es imprescindible facilitar la cooperación y la suma de los esfuerzos, elementos básicos para avanzar en el conocimiento de estas entidades, y aplicarlo a posteriori en el tratamiento y control del paciente".

Por ello, en el marco de esta reunión se va a celebrar, a su vez, el II curso de Terapias Biológicas en las Enfermedades Autoinmunes, que permitirá conocer mejor el papel de estas nuevas terapias en el tratamiento.

Futuro: Unidades de Enfermedades Autoinmunes

El futuro de estas enfermedades en relación con su diagnóstico y tratamiento se basa fundamentalmente en las perspectivas investigadora y clínica. En el primero de los casos, "ha de pasar por la genética, epigenética y proteómica, claves para entender por qué se inicia la enfermedad en una persona, y por qué en otra no. Además, es esencial profundizar en el conocimiento del funcionamiento del sistema de defensa, que permite la creación de fármacos muy específicos y dirigidos a receptores concretos: son los conocidos como fármacos biológicos", indica el Dr. Pallarés.

También "es fundamental alcanzar un equilibrio entre el beneficio del tratamiento y la calidad de vida que se consigue, evitando el daño asociado al tratamiento. Para ello, es necesario tener cada vez más experiencia en el manejo de estas patologías, para poder realizar una valoración y estrategia personalizadas, a medida para cada paciente, lo que a su vez requiere la consolidación de las Unidades de Enfermedades Autoinmunes, que garanticen la calidad en la atención de estos pacientes", concluye el Dr. Pallarés.

Artritis de Takayasu

Nombre de la enfermedad y sinónimos
Es una enfermedad rara caracterizada por la inflamación de la aorta (arteria principal del corazón) y de sus ramificaciones mayores.
También suele denominarse esta enfermedad como:
Enfermedad de Takayasu
Isquemia braquiocefálica
Síndrome del arco aórtico
Coartación inversa
Enfermedad de la ausencia de pulsos
Tromboaorteriopatía oclusiva
Síndrome de Martorell
Arteritis idiopática de Takayasu

Causas-Etiología
La arteritis de Takayasu es una enfermedad inflamatoria que afecta preferentemente a mujeres jóvenes y niños.
La causa de la misma se desconoce, aunque la mayoría de los que la padecen son de ascendencia asiática o africana.
Parece ser que es de naturaleza autoinmune, donde las células inmunes del organismo se dirigen de forma equivocada contra los tejidos del propio cuerpo.

Datos relevantes
Se produce una inflamación progresiva de muchas arterias del organismo (panarteritis), especialmente la aorta y la arteria pulmonar, lo que produce una reducción del flujo de sangre. El riego de la cabeza y de los brazos puede verse afectado, lo que puede dar lugar a la pérdida de los principales pulsos del organismo, como el pulso radial (muñeca). Asimismo, se produce dolor en el brazo y en el antebrazo.
La inflamación de las arterias carótidas, las que irrigan el cerebro, puede causar problemas de visión o neurológicos, como mareo y apoplejía. La disminución del flujo sanguíneo a los riñones da lugar a hipertensión. Se pueden formar aneurismas que conducen a la ruptura de los vasos afectados.
Se producen una serie de síntomas generales como fatiga, fiebre, erupción, sudoración nocturna, artralgias (dolor en las articulaciones), pérdida de peso, mialgias (dolores musculares).
En algunos casos de arteritis de Takayasu se produce estenosis segmentaria (estrechamientos irregulares) de las arterias grandes, cardiomegalia (aumento del tamaño del corazón), insuficiencia cardiaca por hipertensión aórtica o pulmonar, síncope (pérdida de consciencia), cefaleas, pericarditis (inflamación del pericardio o membrana que recubre al corazón)y pleuritis (inflamación del revestimiento de los pulmones).
Diagnóstico
Se realizan una serie de exámenes para realizar el diagnóstico de esta enfermedad, entre otros: inmunoelectroforesis en suero, radiografía de tórax, arteriograma, tasa de sedimentación y electrocardiograma.
Tratamiento
El tratamiento de esta enfermedad es complicado, pero si es el apropiado los resultados son buenos. El diagnóstico temprano es importante. Se suele tratar en principio con esteroides e inmunosupresores, reservando la cirugía para las complicaciones debidas al estrechamiento de las arterias.
Puede resultar mortal, pero si se maneja adecuadamente la supervivencia a largo plazo es del 90%, siendo mayor dicha tasa en adultos que en niños.

Síndrome de Goodpasture

Sinónimos
Púrpura pulmonar por glomerulonefritis. 
Síndrome renal pulmonar. 
Glomerulonefritis rápidamente progresiva con hemorragia pulmonar. 
Hemorragia pulmonar por glomérulonefritis. 
Enfermedad por anticuerpos contra la membrana basal glomerular.

Causas - Etiología
La causa exacta del síndrome de Goodpasture se desconoce, pero se sabe que es una enfermedad autoinmune, en la cual el sistema inmunológico produce anticuerpos que se depositan en la membrana basal del glomérulo renal y en los alvéolos pulmonares atacando a estos órganos. 

Afecta aproximadamente a 1 de cada 100.000 personas y se puede observar en hombres entre los 16 y los 61 años de edad, pero particularmente alrededor de los 20 años de edad. Se puede presentar después de una infección respiratoria viral reciente. Existe una predisposición hereditaria para padecer esta enfermedad y se han asociado el consumo de cigarrillo y la inhalación de gasolina o solventes de hidrocarburos como factores de riesgo.

Datos relevantes
Clínicamente se manifiesta como una glomerulonefritis rápidamente progresiva (una inflamación del glomérulo del riñón) que implica una reducción progresiva de la función del riñón, acompañada de tos con esputo sanguinolento. Por ello el paciente puede presentar dificultad para respirar, palidez, disminución del volumen de orina, excreción de proteínas y sangre en la orina. A medida que la función del riñón se deteriora se puede desarrollar un edema (hinchazón) en el cuerpo. En algunos casos se puede observar una erupción cutánea. También se puede presentar anemia por deficiencia de hierro, como también anemia que se asocia con la insuficiencia renal de la enfermedad. 

En la valoración diagnóstica se hacen evidentes en la analítica la presencia de anemia y deterioro de la función renal (creatinina y nitrógeno uréico aumentados), acompañados de presencia en la orina de proteínas, sangre y cilindros. Se observan alteraciones en la radiografía de tórax y la biopsia tanto de pulmón como de riñón muestran los depósitos de anticuerpos. 

El tratamiento se orienta a retardar el progreso de la enfermedad y es más efectivo cuando se empieza tempranamente, antes de que la función del riñón se haya deteriorado hasta el punto de requerir diálisis. Los corticosteroides se pueden emplear para reducir la respuesta inmune, con resultados variables, así como agentes inmunosupresores tales como la ciclofosfamida o la azatioprina. 

Se puede realizar un procedimiento por medio del cual el plasma sanguíneo, que contiene anticuerpos, se extrae del cuerpo y se reemplaza con líquidos o plasma donado (plasmaféresis), diariamente durante 2 ó más semanas para remover los anticuerpos circulantes. En caso de que la función del riñón sea deficiente, se puede requerir una diálisis y en algunos casos es necesario el trasplante de riñón. 

Se desconoce la forma de prevenir el síndrome de Goodpasture, pero se debe evitar la inhalación de pegamentos, extraer gasolina con sifón, al igual que suspender el consumo de cigarrillo con el fin de disminuir el riesgo en aquellas personas con antecedentes familiares de insuficiencia renal . Un diagnóstico y tratamiento oportunos pueden retardar la progresión de la enfermedad.