jueves, 4 de noviembre de 2010

Neveras magnéticas: un frío prometedor

El rincón de la CienciaI.S.S.N.: 1579-1149
nº 37 (septiembre-2006)
Neveras magnéticas: un frío prometedor (RC-93)

I. Alvarez Serrano (IES Victoria Kent, Torrejón de Ardoz)

REFRIGERACIÓN CONVENCIONAL
Las máquinas de frío nacen de la necesidad de conservar los alimentos, más allá de su elaboración. Antiguamente, se recogía nieve o hielo en invierno y se guardaba durante el verano en contenedores de barro cocido o en “pozos de hielo”, unas cavidades excavadas en zonas frescas, de sombra. El primer frigorífico doméstico, ¡accionado a mano!, data de 1913 y en 1918 apareció el primer frigorífico a motor eléctrico creado por Kelvinator. En 1927 recibió la denominación de electrodoméstico, cuando General Electric sacó al mercado el modelo Monitor Top, con compresor hermético. Con el frigorífico llega una pequeña revolución: dejan de ser necesarias las especias, los salados y los ahumados para conservar la carne, y con él nace también una nueva industria.
Las neveras convencionales –como las de uso doméstico- son dispositivos capaces de enfriar; es decir, extraer el calor de los alimentos y expulsarlo al exterior (si pasamos la mano por la parte trasera de un frigorífico notamos el aire caliente). Pero, ¿cómo funcionan?
El funcionamiento de un frigorífico se basa en la compresión de gases y la evaporación de líquidos; es decir, en el calor implicado en los cambios de estado. Los líquidos al evaporarse absorben calor: si estamos mojados, por ejemplo por transpiración, “nos quedamos fríos” hasta que nos secamos: el agua "roba" calor de nuestra piel para evaporarse –el llamado calor latente de vaporización-; de hecho, es éste un mecanismo del cuerpo humano para regular su temperatura. Pues bien, unas sustancias particularmente bien dotadas para estos procesos son los llamados freones o CFCs. Cuando se empezó a fabricar neveras, se usaba mayoritariamente como gas refrigerante butano (C4H10) o propano (C3H8) (hidrocarburos, derivados del petróleo), ambos inflamables. En 1931, DuPont incorporó los CFCs no inflamables y, en principio, inocuos. Más tarde se descubrió que son causantes del agujero en la capa de ozono estratosférico y se prohibieron a nivel mundial en 1995. En sustitución a éstos, se usan principalmente dos gases:
a) R134a, un hidrofluorocarbono, HFC poco perjudicial para la capa de ozono, pero señalado por el protocolo de Kyoto como agente contra el cambio climático (de 1000 a 3000 veces más que el dióxido de carbono, CO2). Al acabar la vida de la nevera, este refrigerante queda como residuo contaminante que debe tratarse de forma específica; La legislación europea establece que la fabricación de HCFCs tiene que ir disminuyendo progresivamente y parar a partir de 2026, pero para los HFCs no concreta ninguna medida;
b) R600a: un isobutano inflamable, pero la tecnología actual permite usar en una nevera muy poca cantidad, por lo que el peligro se minimiza, no habiendo problema de residuos tóxicos al terminar la vida de la nevera.
Como ya se ha indicado, el proceso se basa en el calor implicado en el cambio de estado líquido-gas, por lo que un componente fundamental de cualquier frigorífico es el compresor, cuta misión es licuar el gas:
REFRIGERACIÓN MAGNÉTICA
En esta nueva forma de refrigeración se pretende sustituir el uso de refrigerantes y compresores –ruidosos, voluminosos- por otro dispositivo que se basa en la física de un fenómeno distinto: el calor asociado a algunos cambios que sufren determinadas sustancias bajo la acción de un campo magnético; éste es el llamado efecto magnetocalórico. Fue el físico alemán Emil Warburg quien se topó por  primera vez -en 1881- con este efecto: observó que una pieza de metal se calentaba al ponerla cerca de un imán potente. ¿Cómo puede explicarse este hecho?
Magnetismo en la materia
La materia suele describirse como formada por átomos y algunos de ellos (Fe, Ni, Co) se comportan como pequeños imanes; se dice entonces que tienen un momento magnético asociado (que depende del número de electrones desapareados, “sueltos”, del átomo). Normalmente, la orientación de estos imanes es al azar –paramagnetismo- pero, cuando se aplica un campo magnético adecuado, capaz de vencer la agitación térmica, los momentos se alinean y se habla de orden magnético –ferromagnetismo-. (En algunos materiales, el orden ferromagnético se alcanza, incluso sin campo externo, por debajo de una temperatura crítica, llamada temperatura de Curie; por ejemplo, la TCurie del hierro es750ºC ). Esta transición implica un aumento de orden interno (o, alternativamente, una disminución de entropía) que lleva asociada una variación de energía, y ésta  se registra en forma de calor liberado. Por tanto, las variables que regulan este proceso, para un material dado, son el campo magnético aplicado y la temperatura. Aunque no nos detendremos en ello, merece la pena reflexionar sobre este tipo de fenómenos llamadoscooperativos: no tiene sentido preguntar si un átomo de hierro es ferromagnético, la propiedad se establece a partir de la interacción de muchos átomos juntos.
 
En vez de usar gases, se emplean sólidos magnéticos; en vez de ciclos de compresión-expansión, se trabaja con ciclos de imanación-desimanación.
La refrigeración magnética se ha usado con éxito en sistemas de licuación de gases (un ejemplo relevante, cuyo interés ha hecho avanzar mucho la investigación en este campo de forma colateral, es la licuación de hidrógeno, de punto de ebullición -253ºC ; la finalidad es licuarlo de forma barata  para usarlo como combustible), aplicaciones criogénicas y actualmente se trabaja en él como gran candidato para la refrigeración doméstica y acondicionamiento de aire. Teniendo estas ideas en cuenta, ya somos capaces de diseñar un frigorífico magnético: bastará con imanar y desimanar cíclicamente el material e incorporar adecuadamente sendos circuitos de, por ejemplo, agua capaces de:  
a) aportar el calor requerido por el material para desordenarse, en ausencia de campo; 
b) retirar el calor sobrante cuando el material se ordena, en presencia de campo. 
Un dispositivo que ya se ha utilizado en laboratorios para alcanzar temperaturas bajísimas, cercanas al cero absoluto, del orden de milésimas de grados Kelvin, emplea gadolinio (Gd) como material. Éste es un metal perteneciente a la familia de los lantánidos o tierras raras, con un momento magnético triple que el del hierro y cuya T= 293 K. Dicho dispositivo se basa en el llamado proceso de desimanación adiabática (es decir, con aislamiento térmico del exterior), y podría esquematizarse así:
El material, sometido a la acción de un campo magnético, está ordenado en (1). Cuando abandona dicho campo, absorbe calor (que toma del interior de la nevera, de los alimentos: por eso éstos se enfrían) y se va desordenando hasta llegar a (2). El ciclo se completa desplazando el material de nuevo hacia la zona donde está el imán: vuelve a producirse un ordenamiento que lleva asociada la expulsión de calor a la atmósfera (o a un circuito alternativo, por ejemplo de agua)
Existen otros montajes experimentales alternativos en los que, por ejemplo, la imanación-desimanación se consigue haciendo subir y bajar la muestra por un carril que se introduce en un campo magnético o lo abandona, respectivamente, de forma cíclica. En cualquier caso, se requiere un material magnético con buenas aptitudes para el efecto magnetocalórico y un campo magnético suficientemente intenso. Veamos cómo estos requerimientos delimitan el estado actual de este “frío prometedor”:  
Dificultades experimentales:
-Se necesita disponer de materiales eficaces para operar a temperaturas próximas a la ambiente.
-Es necesario alcanzar campos magnéticos de intensidad suficiente sin necesidad de utilizar superconductores (que requieren, a su vez, muy bajas temperaturas)
-Resulta una condición industrial irrenunciable el llegar a sintetizar materiales que permitan abaratar los dispositivos. En este sentido, algunos materiales que están siendo objeto de investigación actualmente son: aleaciones del tipo Gd5Si2Ge2 o FeRh con diferentes dopantes, sistemasLa(Fe 1-xSix)13, óxidos mixtos de manganeso con estructura tipo perovskita (mucho más baratos y estables), nanocomposites de hierro (capaces de trabajar a 32ºC , según se ha publicado en los últimos meses),...
Medida experimental del efecto magnetocalórico :
Puede realizarse siguiendo dos procedimientos:
-a partir de datos directos de DT, en condiciones adiabáticas, con campo magnético externo.
-a partir de la variación de la magnetización con el campo magnético a temperaturas próximas a la de Curie. Alternativamente , pueden medirse capacidades caloríficas. La expresión de Maxwell relativa a la termodinámica permite establecer posteriormente relaciones con DT.
 



Nuevas herramientas para profesionales en internet

Formación Médica Continuada en Atención Primaria
Nuevas herramientas para profesionales en internet
pulse sobre visualizar documento

Atención Primaria
Información sobre medicamentos en Internet: necesaria y mejorable

ARTE / ARTE Lo más caro de Juan Gris

ARTE / ARTE

Lo más caro de Juan Gris

Christie's subasta «Violin et guitarre» por 25,5 millones de dólares

Día 04/11/2010 - 00.54h
La obra "Violin et guitarre", de Juan Gris, ha logrado un precio récord para la obra del pintor español al ser adjudicada por 25,5 millones de dólares, durante la primera gran subasta de la temporada de otoño en la sede neoyorquina de Christie's. Con esa suma, la pintura, concebida durante el verano de 1913, batió el anterior récord conseguido en 2008 por "Livre, pipe et verres", una pieza de 1915 que se subastó entonces también en la sede neoyorquina de Christie's por 20,8 millones de dólares.
EFE
«Violin et guitarre», de Juan Gris
La pieza, una de las favoritas del propio pintor, pertenece a una serie de trabajos que Juan Gris (1887-1927) inició durante una estancia en el sur de Francia con la que halló "su lenguaje pictórico de una forma más fluida", explicó el director del departamento de arte moderno e impresionista de Christie's, Conor Jordan.
Matisse y Léger, a subasta
La obra del considerado el tercer hombre del cubismo, junto a Pablo Picasso (1881-1973) y Georges Braque (1882-1963), ha sido una de las protagonistas de una puja compuesta por 85 lotes entre los que hay diversos óleos de Fernand Léger (1881-1955) y una majestuosa escultura de Henri Matisse (1869-1954). La escultura de Matisse, "Nu de dos, 4 état", valorada entre 25 y 30 millones de dólares, es una de las grandes esperanzas de los responsables puja de Christie's.
La pieza es un ejemplo de la trayectoria escultórica de Matisse, una de las facetas más desconocidas del artista francés, y una muestra de como "transformó gradualmente, en el curso de veinte años, nuestro lenguaje visual hasta lo abstracto", señaló la casa de subastas.
EFE
«Nu de dos, 4 état», de Matisse
Otra de las obras destacadas de la puja fue el óleo "L'Air", una pintura de Joan Miró realizada en 1938 y que ha sido expuesta en grandes retrospectivas sobre el artista español en París y Nueva York. La pintura fue adjudicada en la primera gran puja de Christie's en la temporada de otoño por 9,1 millones de dólares, cuando partía con un precio estimado de entre 12 y 18 millones. Se trata, según explicaron los responsables de Christie's, de "un paisaje surrealista con cielo azul y una montañas con tonalidades amarillas que evocan la España natal de Miró", y que cuenta con "los colores de la bandera española así como de la región natal del artista, Cataluña".
EFE
«L'Air», de Miró

NEUROCIENCIA Cómo decide el cerebro

NEUROCIENCIA
Cómo decide el cerebro
15/09/2010

A través de técnicas de neuroimagen, un equipo de científicos ha descrito las áreas neuronales relacionadas con el grado de seguridad o confianza (confidence) que el cerebro presenta a la hora de tomar decisiones. El equipo  —formado por Gustavo Deco, director de la Unidad de Investigación en Congnición y Cerebro de la Universidad Pompeu Fabra (UPF), en colaboración con los investigadores Edmundo T. Rolls, del Oxford Centre for Comuptacional Neurocience, y Fabian Grabenhorst, del Departamento de Psicología Experimental de la Universidad de Oxford—, ha desarrollado un modelo computacional que explica cómo el cerebro opera para computar el grado de confianza en el momento de decidir.

Según las conclusiones del estudio, el área del cerebro implicada en la toma de decisiones se situada en la región dorsolateral del córtex prefrontal. Hasta ahora, los mecanismos neuronales subyacentes a dicha función cerebral cognitiva no estaban suficientemente explicados hasta ahora. De esta manera, la investigación pone de manifesto que una red neuronal concreta establece las conexiones de tipo excitador entre cèlulas corticales piramidales, de tal modo que supone una arquitectura no sólo válida en la toma de decisiones, sino que también podria intervenir en la memoria.

El trabajo se ha llevado a cabo a través de técnicas de neuroimagen basadas en la resonancia magnética funcional depenendiendo del nivel de oxigenación sanguínea (fMRI BOLD), una variable relacionada con la dificultad de la toma de decisiones según se apliquen estímulos diferentes. En este caso se ha trabajado con estímulos térmicos, así como olfativos relacionados con la obtención de recompensa y placer subjetivo.
Modelo computacionalPor otro lado, los autores han utilizado un modelo computacional biológicamente plausible con la toma de decisiones, con el fin de establecer hipótesis cuantitativas procedentes de las técnicas de neuroimagen fMRI. La combinación de los datos obtenidos por los mismos investigadores en estudios anteriores han ayudado a relacionar el proceso cognitivo analizado según diferentes tipos de estímulos de recompensa.

El modelo, que incorpora efectos biofíscos y estadísticos, es capaz de realizar predicicones de tipo cuantitativo a diferentes niveles del proceso cerebral: desde las corrientes sinàpticas que se establecen entre las redes neuronales, pasando por la actividad neuronal, el comportamiento, hasta la fiabilidad de la elección en la toma de decisiones.



Fuente: 
UPF
Más información: Neuroimage

Ilustración: UPF

PEDIATRÍA La salud futura de los bebés prematuros

PEDIATRÍA
La salud futura de los bebés prematuros
14/09/2010

Se ha desarrollado un método para determinar el riesgo futuro de enfermedades en los bebés prematuros. Se trata de un sistema de puntuación, PhysiScore, que no exige realizar pruebas invasivas de laboratorio y resulta más exacto que otros métodos.

Los investigadores tuvieron en cuenta la edad gestacional y el peso al nacer, junto con un flujo de datos en tiempo real recogidos de forma rutinaria en las unidades de cuidados intensivos. Emplearon los datos registrados durante las tres primeras horas después del nacimiento de 138 bebés, como parte de un algoritmo informático que predijo el riesgo del bebé de desarrollar enfermedades graves.

Se comprobó que los parámetros fisiológicos, en particular la variabilidad a corto plazo de las frecuencias respiratoria y cardíaca, ayudaban a predecir mejor la morbilidad que las pruebas invasivas de laboratorio. El sistema superaba también las pruebas de Apgar, el método estándar desde hace más de medio siglo para evaluar el bienestar físico del recién nacido.

El PhysiScore fue especialmente preciso en la predicción del riesgo de infecciones y complicaciones cardiopulmonares, aún cuando éstas no se diagnostiquen hasta días o semanas después.

Los hallazgos podrían contribuir a orientar mejor la intervención médica especializada y reducir los costes de atención de salud.
 



Fuente: SINC

Más información: Science Translational Medicine

BIOLOGÍA CELULAR Nuevas claves sobre la apoptosis

BIOLOGÍA CELULAR
Nuevas claves sobre la apoptosis
05/10/2010

  • En la imagen, la proteína DRP-1 (en rojo) deforma la estructura de los lípidos de la membrana mitocindrial, lo que provoca la activación de BAX (en azul).
    Foto: CSIC




A diario, nuestro cuerpo elimina de forma controlada más de 100 millones de células defectuosas mediante un procedimiento denominado “suicido celular” o apoptosis. Se trata de un proceso de gran complejidad, cuyos desajustes pueden originar graves enfermedades, entre las que destaca el cáncer. Durante las últimas dos décadas ha sido posible identificar los distintos componentes celulares implicados en la apoptosis. Sin embargo, aún quedan importantes cuestiones por resolver sobre el funcionamiento de algunas piezas claves de este gran rompecabezas celular.

El trabajo, dirigido por el Profesor Jean-Claude Martinou, del departamento de Biología Celular de la Universidad de Ginebra (Suiza), y en el que han colaborado la Unidad de Biofísica CSIC-UPV/EHU, las universidades de Salzburgo (Austria), Hanover (Alemania), y Florida (EE.UU),  evidencía que tres componentes esenciales del proceso apoptótico -las proteínas BAX, DRP-1 y el lípido cardiolipina- actúan de forma conjunta para producir un gran agujero en la membrana externa de la mitocondria, el cual resulta letal para la célula.
Pero, probablemente, el aspecto más novedoso del estudio es que los investigadores han conseguido descifrar un nuevo 'lenguaje' utilizado por BAX y DRP-1 para comunicarse: estas dos proteínas no interaccionan físicamente entre sí, como ocurre habitualmente, sino que lo hacen a través de los lípidos de la membrana. “Específicamente, lo que hace una de las proteínas (DRP-1) es deformar la bicapa lipídica de la membrana y la estructura resultante es la que aparentemente posibilita la activación de la segunda proteína (BAX)”, explica Gorka Basañez, de la Unidad de Biofísica (CSIC-UPV/EHU), uno de los autores de la investigación.
Los hallazgos podrían abrir nuevas vías para el desarrollo racional de fármacos antitumorales específicamente dirigidos contra estos componentes de la maquinaria apoptótica celular.



Fuente: UPV/EHU y CSIC
Más información en Cell

DEPRESIÓN

DEPRESIÓN
Influencia en la alteración cerebral
08/10/2010

La depresión afecta a una sustancia fundamental para el funcionamiento del cerebro: la noradrenalina. El estudio, que  se ha desarrollado en muestras cerebrales post-autopsia de una serie de pacientes que fallecieron diagnosticados de trastorno depresivo mayor, la forma más severa de depresión, ha permitido a un de grupo de investigación de Receptores de Neurotransmisores del Instituto de Biomedicina y Biotecnología de Cantabria (UC-CSIC) en colaboración con otros equipos de investigación (Centro de Investigación Biomédica en Red de Salud Mental, el Instituto Carlos III y el Consejo Superior de Investigaciones Científicas).
Así, pues, la enfermedad depresiva altera el funcionamiento de las células cerebrales que se comunican por medio de la noradrenalina, un neurotransmisor a nivel postganglionar simpático. Esta alteración es especialmente compleja. Por un lado, los enfermos deprimidos tienen aumentado el número de proteínas cerebrales sobre las que actúa directamente la noradrenalina, pero por otra parte, la actividad química que tales proteínas deben poner en marcha a lo largo del cerebro está disminuida.  Los resultados de este trabajo pueden contribuir a un mejor desarrollo de nuevos fármacos antidepresivos.
Incidencia en ascensoLa depresión mayor es una patología cerebral grave. Afecta a unos 6 millones de personas en España, según datos del Centro de Investigación Biomédica en Red de Salud Mental. Su prevalencia a lo largo de la vida es de 8,9 % para hombres y del 16,5 % para mujeres; su incidencia está aumentando en las últimas décadas. La depresión se caracteriza por alteraciones anímicas, conductuales y somáticas; es a menudo recurrente, se cronifica en un 25 % de los casos y puede presentarse a cualquier edad, causando una gran discapacidad a los enfermos que la padecen. De hecho, según el estudio publicado por la Organización Mundial de la Salud, la depresión mayor será la segunda causa de discapacidad en el año 2020. Dicho trastorno está presente en el 70% de los suicidios consumados.



Fuente: Universidad de Cantabria

Más información en  
Biological Psychiatry

Caminar para recordar

SALUD
Caminar para recordar
15/10/2010

Una investigación reciente sugiere que caminar por lo menos 10 kilómetros semanales puede proteger el tamaño del cerebro, a la vez que preservar la memoria en edades avanzadas, según publica la Academia Americana de Neurología.
“La masa cerebral se reduce en las etapas finales de la edad adulta, un hecho que deriva en problemas de memoria. Nuestros resultados deberían fomentar ensayos bien diseñados de ejercicio físico en las personas adultas de avanzada edad como enfoque prometedor para prevenir la demencia y la enfermedad de Alzheimer”, comenta Kirk I. Erickson, autor del estudio e investigador en la Universidad de Pittsburgh (EEUU).
Para el estudio, los investigadores registraron en 299 personas sin demencia y con una media de edad de 78 años los kilómetros que recorrían en una semana. Después de nueve años, los científicos realizaron escáneres cerebrales de los probandos para medir la masa cerebral. Cuatro años más tarde, se evaluó a los mismos participantes para comprobar si habían desarrollado demencia o deterioro cognitivo. El estudio demostró que las personas que habían caminado unos 10 kilómetros semanales como mínimo presentaban mayor volumen de materia gris que los sujetos que no habían andado tanto. No obstante, los datos apuntan que caminar la distancia sugerida o más no conlleva un mayor aumento del volumen de la masa gris en  el cerebro. Unos cuatro años más tarde, el equipo observó que 116 personas de todos los participantes (un 40 %) habían desarrollado demencia o deterioro cognitivo. Los investigadores concluyeron que aquellos sujetos que manifestaron caminar más, consiguieron reducir a la mitad el riesgo de desarrollo de problemas de memoria.
"Si el ejercicio regular en la mediana edad puede mejorar la salud del cerebro, así como el pensamiento y la memoria en la vejez, debería ser una razón más para incorporar la práctica regular de ejercicio a todas las edades como un imperativo dentro de la salud pública", apunta Erickson. El estudio ha contado con el apoyo del Instituto Nacional sobre el Envejecimiento de los Estados Unidos.



Fuente: SINC y American Academy of Neurology
Más información en Neurology

Teflón: tan útil como peligroso

409 -OCTUBRE 2010


Apuntes - Teflón: tan útil como peligroso Moyer, Melinda W.


DORLING KINDERSLEY Getty Images
Aunque los alimentos no se peguen al teflón, éste sí se pega a nosotros. Las fábricas productoras de sartenes antiadherentes afectan al entorno y contaminan las aguas con ácido perfluorooctanoico, un subproducto. Este compuesto, que no es biodegradable, ha conseguido acceder al cuerpo de más del 95 por ciento de los habitantes de EE.UU. y, según la EPA, la Agencia de Protección Medioambiental de ese país, probablemente tenga efectos cancerígenos en los humanos. Otros estudios lo han relacionado con la infertilidad, trastornos inmunitarios y problemas de crecimiento prenatal. El teflón también puede causar problemas en la cocina: cuando supera los 270 grados centígrados (algo posible si se calienta una sartén vacía durante varios minutos) el recubrimiento se agrieta y libera vapores tóxicos.
El teflón ha provocado bastantes dolores de cabeza a DuPont, fabricante del recubrimiento. En 2005, la compañía fue multada con 16,5 millones de dólares (la mayor sanción administrativa jamás impuesta por la EPA) por ocultar resultados que demostraban que el ácido perfluorooctanoico estaba contaminando el agua potable en las inmediaciones de una fábrica de DuPont al oeste de Virginia, y que el compuesto atravesaba la placenta y pasaba de madre a hijo. Desde entonces, DuPont se ha comprometido a eliminar este producto químico del proceso de fabricación del teflón antes de 2015 y sustituirlo por productos alternativos biodegradables. Renee Sharp, del Grupo de Trabajo Medioambiental, un organismo de control sin ánimo de lucro, afirma que hay pocos datos disponibles: "No podemos estar seguros de que el producto que saldrá al mercado sea más seguro".

ONCOLOGÍA Un caballo de Troya contra el cáncer

ONCOLOGÍA
Un caballo de Troya contra el cáncer
21/10/2010

  • Células cancerosas en arteriola pulmonar

Desde hace años, se están diseñando nanopartículas que transporten medicamentos tóxicos a las células cancerosas. Los fármacos se transportan dentro de una envoltura con el fin de no afectar a los tejidos sanos y evitar el ataque del sistema inmunitario. Una vez alcanzado su objetivo, las nanopartículas liberan su carga y eliminan las células dañadas.

En la actualidad, después de numerosas investigaciones con cultivos celulares y animales, se hallan en fase de ensayo clínico en humanos casi una docena de fármacos a base de nanopartículas, la mayoría de ellos ideados para tratar o diagnosticar el cáncer. Otros compuestos se hallan en estudios preclínicos y están a punto de estudiarse en humanos. Aunque se necesitarán varios años para comprobar la inocuidad y eficacia de los compuestos, los científicos esperan obtener resultados positivos, lo que representaría un gran avance en la lucha contra el cáncer.

Hoy en día el cáncer suele tratarse con los mismos tratamientos drásticos que los oncólogos han utilizado desde hace decenios, como la cirugía, la irradiación y la quimioterapia. Muchas de las quimioterapias que se administran a los pacientes ejercen un efecto tóxico no sólo en las células cancerosas sino también en las células normales.

La nanomedicina tiene el potencial de cambiar esta situación. A diferencia de las medicinas tradicionales, los nuevos fármacos pueden diseñarse para llevar a cabo distintas funciones. Para tratar el cáncer, un fármaco debe ser soluble en agua para ser transportado por la circulación sanguínea; debe burlar la defensa de las células inmunitarias y evitar el aclaramiento renal o hepático; y por último, debe alcanzar su objetivo y eliminar las células cancerosas. Las medicinas tradicionales deben reunir todas esas propiedades en una sola molécula. En cambio, las nanomedicinas pueden dividir las distintas funciones entre diferentes componentes. La superficie de la partícula puede crearse de forma que sea soluble, resista al sistema inmunitario y alcance su objetivo, mientras que la carga de la partícula debe destruir las células cancerosas.


 



Más información en Science

Fotos: Wikimedia Commons

¿Qué es el fractal de Mandelbrot?

MATEMÁTICAS
¿Qué es el fractal de Mandelbrot?
22/10/2010

Consideremos la siguiente función compleja:
f(z) = z2 + c,
donde c es un parámetro. El conjunto de Mandelbrot se define como el conjunto de todos los puntos c del plano complejo para los cuales la siguiente sucesión:
0, f(0), f(f(0)), f(f(f(0))), ...
no diverge. Por ejemplo, es inmediato ver que c=0 pertenece al conjunto. Y es fácil convencerse de que c=-1 o c=i también, pero que c=1 ya no. En principio, para cada punto c del plano complejo habría que considerar la sucesión correspondiente y calcular si la misma diverge o no.

Supongamos que hacemos esto para cada punto del plano complejo y que decidimos pintar de negro los puntos que pertenecen al conjunto. ¿Qué aspecto tendría el resultado?

Puede demostrarse que el conjunto de Mandelbrot es compacto (es decir, que para pintarlo no necesitaríamos una cantidad infinita de pintura -un círculo, por ejemplo, es compacto, pero el plano complejo o la recta real no lo son-) y conexo (es decir, es "de una sola pieza": podríamos pintarlo sin necesidad levantar la brocha del plano en ningún momento -por ejemplo, un circulo es conexo, pero el conjunto formado por dos círculos separados, no-). Su aspecto viene a ser algo así:



Como vemos, la frontera del conjunto parece muy intrincada. De hecho, lo es: esa línea, con sus infinitos "pelillos", ramificaciones y subramificaciones, es lo que se conoce comofractal de Mandelbrot.

La belleza del fractal se pone de manifiesto cuando intentamos determinar con más y más precisión la geometría de esa curva. ¿Qué ocurriría si tomáramos una lupa para examinar, cada vez con mayor detalle, la forma de sus ramificaciones? Veríamos que su forma es infinitamente complicada; tanto que, de hecho, cada vez aparecen figuras nuevas. El siguiente video lo ilustra:



Los puntos que no se encuentran pintados de negro son aquellos que no pertenecen al conjunto. Los colores que se les han asignado constituyen un efecto visual para resaltar la geometría del fractal (los puntos que pertenecen al conjunto siguen siendo aquellos de color negro).

Por supuesto, la imagen que muestra el final del video no significa que ésos sean los detalles más pequeños del fractal: sólo indica que, en ese momento, el programa de ordenador ha detenido sus cálculos. Sin embargo, la complejidad en los detalles jamás deja de crecer. Una infinidad de formas nuevas sigue esperando a todo aquel que tenga paciencia para calcularlas.

Apuntes - Potenciadores de la memoria López Aranda, M. F. La pérdida de memoria afecta a la mayoría de las personas que padecen enfermedades neurológicas y neurodegenerativas. El elevado coste del tratamiento y el deterioro de la calidad de vida de los pacientes constituyen un grave problema social. El trastorno es, además, uno de los que más castiga a la población anciana, que ve mermada su autonomía. En nuestro laboratorio de neurobiología, junto con Zafar U. Khan, J. F. López Téllez, I.Navarro y M. Masmudi Martín, hemos descubierto que la estimulación con la proteína RGS-14 (que participa en la regulación de la señalización intracelular) de la corteza visual secundaria V2, una diminuta región cerebral, puede mejorar la memoria. Los experimentos se realizaron con ratas, cuya memoria se midió mediante la prueba de reconocimiento de objetos. Los múridos que sobreexpresaban la proteína inyectada en V2 retuvieron la información de un objeto durante meses; los animales control, en cambio, fueron incapaces de almacenar la misma información durante más de 45 minutos. Asimismo, los animales inyectados con RGS-14 almacenaron el triple de información que los no inyectados. Las ratas sometidas al tratamiento recordaron múltiples objetos; los animales sin tratar, sólo dos. La importancia del hallazgo, publicado en Science en julio de 2009, radica en la repercusión social de sus aplicaciones. La proteína RGS-14 podría convertirse en un fármaco que remediase las deficiencias en la memoria de ancianos y pacientes con patologías neurológicas o neurodegenerativas.

Apuntes - Potenciadores de la memoria López Aranda, M. F.

La pérdida de memoria afecta a la mayoría de las personas que padecen enfermedades neurológicas y neurodegenerativas. El elevado coste del tratamiento y el deterioro de la calidad de vida de los pacientes constituyen un grave problema social. El trastorno es, además, uno de los que más castiga a la población anciana, que ve mermada su autonomía.
En nuestro laboratorio de neurobiología, junto con Zafar U. Khan, J. F. López Téllez, I.Navarro y M. Masmudi Martín, hemos descubierto que la estimulación con la proteína RGS-14 (que participa en la regulación de la señalización intracelular) de la corteza visual secundaria V2, una diminuta región cerebral, puede mejorar la memoria.
Los experimentos se realizaron con ratas, cuya memoria se midió mediante la prueba de reconocimiento de objetos. Los múridos que sobreexpresaban la proteína inyectada en V2 retuvieron la información de un objeto durante meses; los animales control, en cambio, fueron incapaces de almacenar la misma información durante más de 45 minutos. Asimismo, los animales inyectados con RGS-14 almacenaron el triple de información que los no inyectados. Las ratas sometidas al tratamiento recordaron múltiples objetos; los animales sin tratar, sólo dos.
La importancia del hallazgo, publicado en Science en julio de 2009, radica en la repercusión social de sus aplicaciones. La proteína RGS-14 podría convertirse en un fármaco que remediase las deficiencias en la memoria de ancianos y pacientes con patologías neurológicas o neurodegenerativas.

LOS RITMOS BIOLÓGICOS EN LOS SERES VIVOS

 Biologia
 Los Ritmos Biológicos en los Seres Vivos. (Primera Parte).18 de Mayo de 2001
 
LOS RITMOS BIOLÓGICOS EN LOS SERES VIVOS (Primera Parte)
Introducción
Ritmo biológico es la recurrencia de cualquier fenómeno dentro de un sistema biológico a intervalos más o menos regulados. Los ritmos biológicos tienen un caracter hereditario, es decir, están genéticamente determinados. Gran parte de los ritmos biológicos están sincronizados porfactores del entorno. Estos factores externos capaces de sintonizar o reajustar el ritmo de un individuo a la evolución del ciclo externo se denominan sincronizadores.
Uno de estos sincronizadores más característicos es el ciclo luz-oscuridad. La acción de los sincronizadores sobre los ritmos se puede comprobar evitando su presencia, es decir, manteniendo constante el entorno. En esta situación no desaparece normalmente el ritmo, sino que entra en lo que se denomina libre curso: el ritmo no depende ya del sincronizador sino que es generado por el organismo, demostrando su caracter endógeno. En esta situación el ritmo se suele desfasar del ciclo del sincronizador, pero es reajustable tan pronto como se restituye la acción del sincronizador. Los ritmos geofísico- dependientes son muy resistentes a la temperatura y a la acción de sustancias químicas.
Clasificación de los Ritmos Biológicos
Los fenómenos biológicos de tipo repetitivo abarcan un amplio rango. Los más evidentes suelen agruparse alrededor de señales del entorno. Una parte importante de estos ritmos son los ritmos circadianos, dependientes del ciclo luz-oscuridad. Otros ritmos son los circamerales, circalunares y circaanuales, según se aproximen respectivamente al ciclo de las mareas, el mes lunar y al año sideral. Los ritmos de menos de 6 h y más de 30 minutos se llaman ultradianos, y los de más de 28 h y menos de seis días se denominan infradianos. Otra manera de clasificación es ordenarlos por la frecuencia: alta (0.5 milisegundos a 30 minutos), media (30 minutos a 6 días) y alta (6 días a varios años).
Ritmos Geofísico-Dependientes
Ritmos Circadianos
Todos los parámetros fisiológicos medidos en eucariotas presentan una oscilación circadiana, aunque no todos los parámetros oscilan al unísono respecto de la misma referencia. Determinadas especies prefieren el medio más luminoso, cálido y seco del fotoperiodo (fase iluminada), mientras que otras han elegido el medio más oscuro, frío y húmedo (la noche). El ritmo circadiano endógeno de los animales diurnos es ligeramente más corto y el de los nocturnos más largo de 24h. Experimentalmente se puede observar cómo el ritmo circadiano endógeno se ajusta al ciclo luz-oscuridad hasta ciertos límites Por ejemplo una rata con un cilo 12 horas luz - 12h oscuridad se adapta perfectamente, pero con un cilo 6h luz- 18h oscuridad, entra en libre curso, desicronizándose. La temperatura, ruido ambiental, disponibilidad de alimento, magmetismo terrestre, presión, humedad, etc. tienen efectos sincronizadores, pero no tan efectivos como la luz.
Ritmos Circamerales
El ciclo de dos mareas altas y dos bajas durante el día lunar incide grandemente sobre los ritmos de las especies que viven en la interfase tierra- agua. Determinadas especies tienen sus cimas de actividad durante la pleamar (caracoles, almejas, ostras, percebes), mientras otras desarrollan gran parte de sus actividades motoras durante la bajamar (cangrejo violinista, aves marinas, diatomeas).
Ritmos Circalunares
Otros ritmos se adaptan al ciclo de 29.5 días del mes lunar. Este ritmo incide sobre el ciclo de las mareas (dos mareas máximas en luna llena y luna nueva) y dos mínimas (cuartos lunares). El ritmo menstrual de algunos primates está también relacionado con el mes lunar.
Ritmos Circaanuales
En el transcurso de un año cambian bastante las características ambientales de muchos territorios. Para pasar temporadas adversas los animales se adaptan con procesos como la hibernación en invierno. Los ritmos reproductores de muchas especies están sometidos también a estos ritmos.
Ritmos No Geofísico-Dependientes
Ritmos Ultradianos
Se describen con una periodicidad de 30 minutos a 6 horas. Influyen en la conducta motora, alimentaria y exploratoria de roedores y primates, aunque el nivel atencional, la conducta copulativa y la capacidad de aprender están sujetos también a ritmos ultradianos. La frecuencia del ritmo ultradiano en las distintas especies de mamíferos está en razón inversa al peso corporal y en razón directa a la tasa metabólica, y en razón inversa a la edad. Estos ritmos no sólo se dan durante el fotoperiodo sino también durante el sueño.
Ritmos de Frecuencia Alta
Al contrario que los ritmos geofísico dependientes, éstos y los procesos bioquímicos son muy sensibles a la acción de la temperatura, venenos metabólicos, etc. Estos ritmos carecen de sincronizadores externos y dependen de las propiedades de las neuronas y/o de las redes neuronales. Ritmos de este tipo son los del sistema respiratorio, circulatorio, etc.
Mecanismo de Generación y Aspectos Aplicados al Hombre
Autor: A.M. Publicado el 16 de mayo de 2000.

El Agua y sus Peculiares Propiedades

 Biologia
 El Agua y sus Peculiares Propiedades.18 de Mayo de 2001
 
EL AGUA Y SUS PECULIARES PROPIEDADES
El agua es el principal componente inorgánico de los seres vivos y constituye aproximadamente desde un 60 hasta un 95% de la materia global de los mismos. Esto la hace imprescindible para la vida en el Planeta Azul. Y tiene unas características físicas y químicas únicas que la hacen aún más preciada.
Las propiedades del agua dependen de una estructura molecular que se puede representar como un tetraedro irregular, con el átomo de oxígeno situado en el centro entre dos de hidrógenos. El oxígeno forma enlaces covalentes con el hidrógeno y a la vez presenta un porcentaje de enlace iónico de un 33%: la molécula se comporta como un dipolo eléctrico. Esto genera atracciones electrostáticas entre la carga local positiva de los hidrógenos de una molécula y la carga local negativa del oxígeno de otra molécula próxima (puentes de hidrógeno).La disposición angular de la molécula, la formación de dipolos y la constitución de enlaces de hidrógeno son las causantes de las propiedades únicas y excepcionales del agua.
Densidad
Un líquido a presión atmosférica normal, aumenta su densidad según va disminuyendo la temperatura. El agua sigue esta misma ley, pero al llegar a los 4ºC invierte esta tendencia y baja su densidad según disminuye más la temperatura. Esto permite que el hielo sea menos denso que el agua, y por tanto, flote en vez de hundirse. Y esta propiedad impide que los mares se congelen.
Propiedades Térmicas
Los puntos de fusión y de ebullición son muy altos debido a la alta cohesión molecular debido a las uniones por puentes de hidrógeno. Esto es lo que permite que el agua sea líquida a temperatura y presión normales.
Siguiendo el razonamiento anterior, sabemos que para calentar una masa determinada de agua se necesita más calor que para cualquier otro líquido, lo que va a permitir que nuestro cuerpo pueda regular una temperatura interna constante a pesar de los cambios de temperatura ambiental. De la misma manera, el agua conduce muy mal el calor, por lo que un aumento localizado de temperatura se amortigua muy facilmente. (De ahí su uso universal como refrigerante, algo que no inventamos los hombres, sino la Naturaleza, que lo viene haciendo desde que los animales son capaces de sudar).
Tensión Superficial
También podemos observar que el agua tiene elevada tensión superficial. La tensión superficial de un líquido es la resistencia que opone a la penetración de cuerpos en él. El agua tiene máxima tensión superficial de entre los líquidos salvo alguna excepción como el mercurio. Esto hace posible que algunos insectos "anden" sobre el agua. Influyen en este parámetro las sales disueltas y las sustancias contaminantes. Las sustancias hidrófobas rebajan la tensión superficial (tensioactivos), se concentran en la parte superior de los líquidos y forman fácilmente espumas (los jabones).

Autor: A.M. Publicado el 1de marzo de 2000.



Curiosidades
El agua tiene una gran capacidad para penetrar en materiales como la madera o la gelatina, generando una gran fuerza al provocar que éstas se hinchen. Tanto es así que se dice que la piedra para la construcción de las antiguas pirámides de Egipto fue extraída de las canteras introduciendo cuñas de madera entre la roca y mojándolas después con agua, de forma que al hincharse la madera, la roca se rompía y se desprendía.
El líquido elemento en la Red:
http://www.arrakis.es/~lluengo/biologia.html: Extensa exposición de la estructura y propiedades del agua. Forma parte del conjunto de documentación del temario de biología para Selectividad española. Muy útil para los estudiantes que no tengan los apuntes de clase ;-), y para todo aquel que le guste un poco la física y la química de los elementos. (Español).
http://www.unc.edu/~ivaisman/water.htm: Para los que les gusta ir más alla, está breve página les presenta un análisis estadístico de la estructura del agua. (Inglés).
http://www.um.es/~molecula/sales01.htm: Explicación medianamente sencilla y amena de la estructura del agua en sus distintas formas. Con buenos gráficos donde se presenta la molécula de agua. (Español).
http://horton.tamu.edu/ch02.web/: Todo lo que siempre quisiste saber sobre el agua, por apartados. Web muy completa. (Inglés).

Método para diagnosticar el cáncer de mama en casa [Fecha: 2010-10-29]

Fecha: 2010-10-29]
Ilustración del artículo
En un futuro las mujeres podrán comprobar de forma rápida, eficaz y cómoda desde su propia casa si padecen cáncer de mama gracias al invento revolucionario de un profesor de la Escuela de Ingeniería Eléctrica y Electrónica de la Universidad de Manchester (Reino Unido). El profesor Zhipeng Wu ha inventado un dispositivo portátil de exploración que funciona con tecnología de radiofrecuencia y que permite mostrar en cuestión de un segundo en la pantalla de un ordenador la presencia de tumores malignos y benignos de pecho.

Hasta ahora investigadores de Canadá, Reino Unido y Estados Unidos ya han demostrado que la tecnología de radiofrecuencia o microondas puede emplearse para detectar el cáncer de pecho. Sin embargo, para obtener una imagen hacían falta varios minutos y las pruebas debía efectuarlas personal hospitalario o de un centro especializado. El profesor Wu ha solucionado esta desventaja y ahora pueden obtenerse imágenes de vídeo en tiempo real de un tumor.

Según indicó, su método de diagnóstico no sólo es más rápido y menos invasivo, sino que pueden realizarse controles de cáncer en la consulta de médicos de cabecera. Así se podría acortar drásticamente los tiempos de espera para conseguir citas con especialistas y, en algunos casos, evitar la aplicación de rayos X para mamografías innecesarias. El dispositivo de exploración podría incluso utilizarse en casa para comprobar continuamente la salud del pecho.

«Hemos creado un sistema portátil que permite obtener imágenes al instante», lo cual «reduce las probabilidades de pasar por alto un tumor durante la exploración», aseguró el profesor Wu. Además, recalcó que su invento ofrece otras ventajas con respecto a las demás tecnologías existentes. «En otros sistemas hay que usar algún líquido o gel especial, como ocurre en las ecografías, pero el nuestro puede funcionar con aceite, leche, agua e incluso se puede dejar puesto el sostén», afirmó.

El dispositivo de radiofrecuencia, que ya se ha patentado, realiza tomografías computerizadas y funciona con la misma tecnología que cualquier teléfono móvil, pero con una fracción ínfima de su energía. Por tanto, es seguro y económico, y también muy compacto y portátil, ya que los circuitos electrónicos se pueden instalar en una carcasa del tamaño de una fiambrera, mientras que los otros sistemas existentes son mucho más voluminosos.

En 2008 se diagnosticó cáncer de mama en todo el mundo a 1,38 millones de personas, lo cual supone la décima parte de los cánceres diagnosticados cada año y casi la cuarta parte de los diagnosticados a mujeres. Las tasas de incidencia más elevadas de cáncer de mama se registran en Europa. Concretamente, se calcula que en 2008 se diagnosticaron 332.000 casos nuevos en la UE-27.

El método más común para detectarlo es la mamografía, que según los investigadores del sistema referido es eficaz en las mujeres mayores de 50 años y depara resultados con una precisión de hasta el 95%. Sin embargo, matizaron que la mamografía es mucho menos eficaz en las mujeres menores de 50 años (el 20% del total de los casos de cáncer de mama), colectivo en el que su eficacia puede ser de apenas el 60%. Según los autores, un diagnóstico temprano y la administración del tratamiento oportuno pueden salvar miles de vidas, de ahí la importancia del invento del profesor Wu.

La principal diferencia entre la mamografía y su técnica de radiofrecuencia es que la primera estudia densidades, mientras que la segunda se basa en contrastes dieléctricos entre los tejidos mamarios normales y patológicos. En el sistema del profesor Wu, que cuenta con un sensor que detecta contrastes tisulares en las frecuencias de radio, en cuanto se coloca el pecho en el receptáculo de exploración, aparece en pantalla una imagen, mostrándose el posible tumor u otra anomalía en rojo.

La tecnología correspondiente se ha incluido entre las nominadas a los Premios de la Innovación del Instituto de Ingeniería y Tecnología (IET) del Reino Unido, cuyo fallo se anunciará en noviembre.
Para más información, consulte:

Universidad de Manchester:
http://www.manchester.ac.uk

Premios a la Innovación del IET:
http://conferences.theiet.org/innovation-awards/index.htm
DOCUMENTOS RELACIONADOS: 2988432234
Categoría: Varios
Fuente: Universidad de Manchester

Documento de Referencia: Basado en información de la Universidad de Manchester
Códigos de Clasificación por Materias: Investigación científica; Medicina, Sanidad; Servicios de salud ; Tratamiento de la información, Sistemas de información; Aplicaciones de tecnología de la información y la comunicación
RCN: 32716