sábado, 18 de diciembre de 2010

Entrevista al Dr. José Luis Molinuevo con motivo del Día Mundial del Alzheimer

Entrevista al Dr. José Luis Molinuevo con motivo del Día Mundial del Alzheimer21/09/2010
Dr. José Luis Molinuevo

Unidad de Alzheimer y otros trastornos cognitivos. Servicio Neurología, ICN Hospital Clínic i Universitari, Barcelona. Codirector del Área de Demencia de Revista de Neurología.
Pregunta. Parece que tiene fuerza la tendencia a considerar el constructo DCL (deterioro cognitivo leve) como poco consistente en su capacidad para predecir la evolución a enfermedad de Alzheimer (EA) y a ser reemplazado por el de EA prodrómica. ¿Opina que va a ser así?
Respuesta. ¡Sí, sin duda! Esto es debido a que el DCL es un concepto sindrómico, mientras que la EA prodrómica es etiológico. Es decir, la EA prodrómica, en definitiva, implica el diagnóstico etiológico y precoz de la EA. Etiológico mediante el uso de biomarcadores y precoz porque la sintomatología presente es mínima, habitualmente sólo es un problema de memoria episódica.
P. ¿Cree que la inclusión de pacientes con DCL en ensayos clínicos puede ser responsable de fallos o de escasa potencia estadística de éstos?
R. Sí, creo que es responsable de numerosos falsos negativos. Pensemos que un 40% de pacientes con DCL no tiene un sustrato anatómico de EA, por lo que es fácil entender que si probamos un fármaco que funciona para la EA, en una población en la que un 40% de sujetos no la tiene, lo más probable es que el ensayo sea negativo, ya que la población incluida no es la adecuada y no se debe necesariamente a que el fármaco no funcione. De hecho, estudios post-hoc de estos ensayos con poblaciones ‘biomarcadas’ (p. ej., ApoE4 +) han demostrado la eficacia del fármaco.
P. ¿Podría definir brevemente los criterios de la EA prodrómica? ¿Considera que en un plazo corto se abandonarán los criterios diagnósticos que se han utilizado estas últimas décadas?
R. En los nuevos criterios de investigación de la EA, la fase prodrómica se define como la fase sintomática predemencia de la EA, que se caracteriza por la presencia de síntomas que no son lo suficientemente graves como para cumplir los criterios diagnósticos actuales de la EA. De acuerdo con estos criterios, la EA probable se define por un criterio central, que es la alteración de la memoria episódica, junto con la presencia de un marcador biológico, biomarcador, anormal. La aplicación de estos criterios permitiría diagnosticar la EA tanto en fase prodrómica como en fase de demencia. Como ya hemos mencionado, la EA prodrómica, en definitiva, implica el diagnóstico etiológico y precoz de la EA. Etiológico mediante el uso de biomarcadores y precoz porque la sintomatología presente es mínima, al tener sólo un problema de memoria episódica.
P. Sin embargo, los nuevos criterios diagnósticos se basan, en buena medida, en el uso de biomarcadores que tienen una capacidad predictiva limitada de la progresión de la enfermedad. ¿Estamos muy lejos de disponer de signos patognomónicos precoces?
R. No exactamente, el problema de la sensibilidad y especificidad de los biomarcadores que actualmente utilizamos (especialmente los de amiloide) es la discriminación entre controles y EA. Esto se debe a que muchos de estos controles son biomarcadores positivos, por lo que es muy probable que se encuentren en fase preclínica de la enfermedad (falsos controles). Por esta razón, al realizar las curvas COR los valores no son óptimos. Esto no es un problema para la fase prodrómica, pues el diagnóstico se establece al unir un síntoma clínico con la positividad del biomarcador, pero sí para la preclínica. A partir de esto, es fácil entender los resultados publicados recientemente enArch Neurol, donde el 100% de sujetos con pérdida de memoria y presencia de niveles bajos de β-amiloide acababan con una demencia tipo EA (¡obviamente porque ya tenían una EA en fase prodrómica!).
P. ¿Qué grado de correlación se da entre los patrones neuropsicológicos y la expresión en términos de biomarcadores en los pacientes con Alzheimer?
R. En la EA, las correlaciones no son muy buenas porque ya es muy tarde, pero en fases previas existe una correlación dinámica entre biomarcadores y cognición en el continuo entre controles sanos y EA prodrómica muy buena. Resultados recientes de nuestro grupo también muestran esta correlación en la fase preclínica, lo cual sugiere que, en un futuro, espero que cercano, deberemos desplazarnos a estas fases para buscar tratamientos realmente eficaces.
P. Mientras tanto la previsión de la progresión hacia Alzheimer seguirá teniendo un componente probabilístico, de modo que es posible que estemos medicando a sujetos que no vayan a evolucionar a Alzheimer. ¿Se ha valorado el impacto coste-beneficio de esta posibilidad si se tienen en cuenta los efectos adversos?
R. Eso no será así si el diagnóstico se establece con un soporte biológico añadido de biomarcadores, tal como hemos explicado en las preguntas previas. Por su argumento, impacto coste-beneficio, y otros muchos, como es la necesidad de un diagnóstico precoz, ésta será la realidad en un futuro no lejano.
P. Han sido frecuentes los ensayos clínicos que han fracasado. Tal vez una de las implicaciones más graves de estos fallos sea mostrar la debilidad de los modelos animales que han sustentado estos desarrollos con el consiguiente dispendio de recursos apuntando en direcciones equivocadas. En vista de los nuevos criterios de definición de EA prodrómica, ¿sería exigible que a partir de ahora los modelos animales fueran validados por expresar el mismo fenotipo en términos de marcadores que los pacientes con Alzheimer?
R. Personalmente no creo que éste sea el problema fundamental. Tengo el firme convencimiento de que el verdadero problema radica en la inclusión en el ensayo de una población con una enfermedad excesivamente avanzada. La mayoría de los fracasos de pruebas con fármacos que modifican el curso evolutivo de la enfermedad se ha producido en pacientes con una EA en fase de demencia, lo cual, sin duda, es demasiado tarde. Espero que la industria y las autoridades sanitarias abran los ojos a esta realidad y se planteen un cambio radical en la política de realización de ensayos clínicos.
P. La dificultad en el progreso pone de manifiesto nuestra ignorancia sobre la fisiopatología de la enfermedad. ¿Podría definir el hallazgo más relevante a la vez que consistente de los últimos años?
R. El problema radica en que nos centramos en tratar de modificar una vía fisiopatológica en un momento de la enfermedad en que simultáneamente se han disparado numerosas cascadas patogénicas. Yo destacaría la importancia de la secuencia de ‘positivización’ de los marcadores diferentes desde la fase preclínica a la clínica; en este sentido nuestro grupo ha obtenido unos hallazgos muy interesantes que esperamos poder comunicar en breve.
P. Parece muy relevante la iniciativa de la Coalición contra las enfermedades mayores (CAMD), liderada por el Critical Path Institute de la FDA, de constituir una base de datos común a partir los resultados de 11 ensayos clínicos fallidos. ¿Qué expectativas cree que se derivan? Por otro lado, parece que el liderazgo en iniciativas ambiciosas como ésta, que conllevan la convergencia de 12 entidades biofarmacéuticas, lo asume Estados Unidos, mientras que las posiciones europeas resultan más conservadoras, ¿vería correcta esta apreciación?
R. Sí, creo que debemos admitir que Estados Unidos sigue siendo, para bien y para mal, el motor en el desarrollo biomédico (al menos en nuestro campo). Esta iniciativa es importante, porque siempre se aprende más de los errores que no de los aciertos.
P. Se han abierto expectativas en relación con el análisis de los resultados del tratamiento precoz con intención preventiva en sujetos con Alzheimer de aparición temprana, portadores de una mutación dominante del gen de la presenilina 1 como los descritos por Lopera en Medellín. De hecho, este estudio parece considerarse fundamental para la iniciativa de prevención del Alzheimer (API). Pero, ¿son representativos estos pacientes de los enfermos con Alzheimer más frecuentes?
R. Estos pacientes no son representativos, pero el desarrollo e inicio de estas iniciativas genera y contribuye al cambio conceptual, que es muy importante. Es esencial que nos acerquemos a la fase preclínica para realmente generar un impacto terapéutico eficaz. Sin duda, esta iniciativa pone la diana en el objetivo adecuado, aunque no sea representativo.
P. ¿Considera que hay una protocolización apropiada de la terapéutica del Alzheimer en sus distintos grados de progresión?
R. No; principalmente, porque no hay nada científicamente definido en las fases prodrómicas y preclínicas que suponen unos 15 años silentes de la enfermedad. La fase de demencia está abordada en numerosas guías, aunque la acción final está sometida a tantas circunstancias, que depende del buen hacer de cada médico ante cada paciente concreto.
P. Parece que está fuera de duda la eficacia de las unidades interdisciplinarias de Alzheimer, sin embargo no se han desarrollado conforme a su potencialidad, ¿lo atribuiría a alguna razón?
La razón es fundamentalmente económica junto a la falta de visión de nuestros dirigentes; no sé si la responsabilidad pertenece a políticos o gestores de hospitales. Llegará el día en que podremos establecer el diagnóstico y tratamiento en fases muy precoces y realizar una profilaxis secundaria respecto a la aparición de la demencia. Esto inicialmente será costoso, por lo que muchos dirigentes se opondrán, pero a largo plazo será coste-eficaz, lo cual espero ayude a abrir los ojos a los inversores y asesores políticos. Que conste que mis palabras no pretenden criticar a nadie, sino corresponsabilizarles y hacerles tomar conciencia de la magnitud del problema y dónde se debe actuar en la lucha hacia la curación de esta enfermedad.
Prof. Dr. Juan V. Sánchez-Andrés
Depto. Médico, Viguera eds.

Paradoja de la obesidad y recuperación funcional en sobrevivientes a un primer infarto cerebral: estudio PREMIER

Paradoja de la obesidad y recuperación funcional en sobrevivientes a un primer infarto cerebral: estudio PREMIER
OriginalCastellano   English
[REV NEUROL 2010;51:705-713] PMID: 21157732 - Original - Fecha de publicación: 16/12/2010
E. ChiqueteC. Cantú-BritoJ. Villarreal-CareagaL.M. Murillo-BonillaR. Rangel-GuerraC. León-JiménezA. Ochoa-GuzmánA. Ramos-MorenoA. ArauzF. BarinagarrementeríaA. PanduroJ.L. Ruiz-Sandoval
Introducción. Se denomina ‘paradoja de la obesidad’ al descenso del riesgo de muerte por enfermedad cardiovascular, con un índice de masa corporal (IMC) alto, aun cuando éste es un factor de riesgo para vasculopatía. Nuestro objetivo fue analizar la influencia de la obesidad en la recuperación funcional que sigue a un ictus isquémico. Pacientes y métodos. Analizamos 510 pacientes con un primer infarto cerebral, sin historia de ictus y sin recurrencia o muerte en 12 meses de seguimiento. A 501 sujetos sanos se les evaluó mediante bioimpedancia tetrapolar, para comparar el índice cintura/talla (ICT), perímetro abdominal e IMC en la discriminación de adiposidad, para aplicarlos a pacientes con ictus. Resultados. En individuos sanos, el ICT se desempeñó notablemente mejor que el IMC o el perímetro abdominal para identificar adiposidad corporal. En un modelo de riesgos proporcionales de Cox ajustado por múltiples covariables, la edad (riesgo relativo, RR = 1,11; intervalo de confianza del 95%, IC 95% = 1,08-1,14), puntuación de la National Institutes of Health Stroke Scale (RR = 1,03; IC 95% = 1,01-1,05) e ICT > 70 (RR = 2,44; IC 95% = 1,33-4,48) se asociaron a mayor riesgo de alcanzar una puntuación mayor o igual a 3 en la escala de Rankin modificada a los 12 meses, mientras que un IMC > 35 (RR = 0,33; IC 95% = 0,11-0,98) fue protector. Conclusión. El exceso de adiposidad, según el ICT, aumenta la probabilidad de discapacidad grave después del ictus. Dado que el IMC refleja también masa magra, es arriesgado concluir que existe un efecto protector de la obesidad en la recuperación del ictus, pero es posible que cierta masa corporal sea necesaria para prevenir una discapacidad grave.

Efectividad de la rehabilitación neuropsicológica en el daño cerebral adquirido (II): funciones ejecutivas, modificación de conducta y psicoterapia, y uso de nuevas tecnologías

Efectividad de la rehabilitación neuropsicológica en el daño cerebral adquirido (II): funciones ejecutivas, modificación de conducta y psicoterapia, y uso de nuevas tecnologías
RevisiónCastellano   English
[REV NEUROL 2010;51:733-744] PMID: 21157736 - Revisión - Fecha de publicación: 16/12/2010
D. de NoreñaI. Sánchez-CubilloA. García-MolinaJ. Tirapu-UstárrozI. Bombín-GonzálezM. Ríos-Lago
Introducción. Las consecuencias del daño cerebral adquirido incluyen alteraciones en el funcionamiento cognitivo, emocional y conductual de las personas afectadas. La neuropsicología proporciona técnicas que permiten tratar dichas alteraciones; de ahí la importancia de establecer cuáles, de entre todas las herramientas disponibles, son las más eficaces para este objetivo. Desarrollo. El presente artículo revisa los estudios existentes sobre efectividad de la rehabilitación neuropsicológica, centrándose en aquellas áreas y procesos cognitivos alterados con más frecuencia. El fin último del artículo es servir de guía y orientar la rehabilitación neuropsicológica de estos pacientes a partir de las evidencias más sólidas existentes en la bibliografía. En esta segunda parte, nos centraremos en la rehabilitación de las funciones ejecutivas, la modificación de conducta y la psicoterapia aplicadas en este ámbito, así como el uso de nuevas tecnologías. Conclusión. Existen evidencias suficientes para recomendar la rehabilitación neuropsicológica de las funciones ejecutivas, así como el uso de las técnicas antes mencionadas en población con daño cerebral adquirido.

¿Toman demasiada cafeína los niños?


¿Toman demasiada cafeína los niños?
Hay pocos datos del consumo de cafeína en la población infantil aunque los últimos que acaban de publicarse apuntan a que los menores podrían estar ingiriendo 'sobredosis' de este ingrediente a diario.
FUENTE | El Mundo Digital17/12/2010
Lluis Serra, presidente de la Academia Española de la Nutrición y Ciencias de la Alimentación aclara a ELMUNDO.es que "los excesos en su consumo en pequeños se producen mayoritariamente por la ingesta de productos que contienen cafeína como es el chocolate. Por este motivo recomendamos, como el resto de países de la UE, que los pequeños tomen bebidas sin cafeína".

William Warzk, del Centro Médico de Nebraska en Ohama (EE.UU.), es el autor principal de un ensayo con 228 familias reclutadas de clínicas pediátricas que documenta que el 75% de los niños de entre cinco y 12 años consumen cafeína en exceso. La media de ingesta diaria es de 52 mg en el grupo de menores de cinco a siete años y hasta de 109 mg diarios, en los de siete a 12 (una lata de un refresco de cola contiene unos 40 mg de cafeína).

Sin embargo, "y a pesar de que la FDA (agencia estadounidense del medicamento) aún no ha desarrollado guías pediátricas en las que se determine cuánta cantidad deben tomar los niños, existen algunas, como las realizadas en Canadá, que establecen que los niños de cuatro a seis años no ingieran más de 45 mg al día de cafeína, mientras que el límite para los de 10 a 12 años está en no sobrepasar los 62 mg y los 85 mg diarios , respectivamente", comentan los autores en el trabajo publicado en 'Journal of Pediatrics'.

Para el doctor Serra las cantidades encontradas en la investigación son "algo excesivas. Aunque en España no hay guías de consumo infantil de cafeína, sí hay recomendaciones. Creemos que no se deben exceder los 20 a 50 mg. No hay mucha información de su ingesta dentro de nuestras fronteras, pero de momento las pocas evidencias constatan que se mantiene dentro de los límites normales, salvo casos en los que sí se producen excesos y que deben ser consultados".

La nueva investigación desvela, además, que un mayor consumo "de cafeína se correlaciona con un menor número de horas de sueño en los pequeños". Sin embargo, y contrariamente a la creencia popular y a pesar, también, de que la cafeína es diurética, "en nuestro estudio no encontramos que su consumo elevara la enuresis (escapes de orina nocturna) infantil", destacan los autores.

Insisten, además, en que "de acuerdo con los resultados de otros estudios, los niños más mayores son los que más dosis de este ingrediente consumen. En nuestro estudio toman el doble de la cantidad recomendada en las guías canadienses. Sorprendentemente, su ingesta no se asocia de forma significativa a la enuresis, por lo que suprimir su ingesta de la dieta, un tratamiento típico para los niños afectados, no se sostiene científicamente con estos datos", añaden.

Recuerdan a los padres "la importancia de vigilar el consumo de cafeína de sus hijos dado su efecto potencialmente negativo sobre el sueño de los niños. Por este motivo, los pediatras de Atención Primaria deberían preguntar a los progenitores sobre los hábitos de ingesta de los pequeños y aconsejarlos".

El presidente de la Academia Española de la Nutrición y Ciencias de la Alimentación recuerda que "la cafeína en dosis adecuadas no es perjudicial ya que, al parecer, mejora la atención en el colegio y el rendimiento. Los padres tienen que saber que se trata de un ingrediente de absorción lenta, por lo que tarda tres horas en actuar, de ahí que se recomiende que los niños no ingieran productos que la contengan después de las horas de comer".

Autor:   Patricia Matey

Una máquina cuántica que desafía la realidad, el invento del año


Una máquina cuántica que desafía la realidad, el invento del año
La prestigiosa revista Science ha presentado su tradicional «top ten» con los descubrimientos científicos más importantes de 2010 y, posiblemente, ha sorprendido con su elección. Este año, corona el ranking la primera máquina cuántica.
FUENTE | ABC Periódico Electrónico S.A.17/12/2010
Para muchos puede ser un invento desconocido, pero es el primer dispositivo hecho por el ser humano que no responde a las leyes de la mecánica clásica, sino al mismo conjunto de normas que rige el comportamiento de las moléculas o los átomos. Es diminuto, sí, pero visible al ojo humano. Para hacernos una idea de su importancia, puede ser un primer paso para averiguar si algún día seremos capaces de estar en dos sitios a la vez al mismo tiempo. Este ingenio ha superado en la lista de los editores de la "biblia" científica incluso a la famosa célula artificial de Craig Venter o a la secuenciación del genoma del Neandertal. Estas son las diez grandes investigaciones:

LA PRIMERA MÁQUINA CUÁNTICA:

Hasta este año, todos los objetos hechos por el hombre han sido realizados de acuerdo a las leyes de la mecánica clásica. En marzo, sin embargo, un grupo de investigadores presentaba en la revistaNature y ante una reunión de la Sociedad Física Americana en Portland un aparato cuyo funcionamiento responde a la mecánica cuántica, el conjunto de normas que rige el comportamiento de las cosas pequeñas, como las moléculas, los átomos y las partículas subatómicas. Para Science, este experimento es el mayor avance científico del año, debido a que rompe el conocimiento establecido, al ingenio que encierra su creación y a sus numerosas aplicaciones potenciales.

Los físicos Andrew Cleland y John Martins de la Universidad de California en Santa Bárbara y sus colegas enfriaron un diminuto remo de metal o «baqueta cuántica», de unos 30 micrómetros de longitud, pero visible al ojo humano, que vibra cuando se coloca en movimiento en un rango de frecuencias. Después, conectaron el remo a un circuito eléctrico superconductor para que alcanzara el estado cuántico, una meta largamente buscada por los científicos. Entonces, y debido a las extrañas reglas de la mecánica cuántica, consiguieron colocar simultáneamente el remo en movimiento... mientras se mantenía quieto. El remo, simultáneamente, estaba vibrando y no vibrando. Los investigadores demostraron que los principios de la mecánica cuántica pueden aplicarse a objetos cotidianos. "Nadie había demostrado hasta la fecha que, si tomas un objeto grande, con billones de átomos, la mecánica cuántica se aplique a su movimiento", dijo en su día el propio Cleland.

Este descubrimiento puede abrir muchas puertas en el mundo de la física, desarrollar nuevos dispositivos para controlar los estados cuánticos de la luz o, en última instancia y aunque parezca ciencia ficción, investigar los límites de nuestro sentido de la realidad. El último gran objetivo es colocar un objeto macroscópico, algo tan grande como un ser humano, por ejemplo, en dos lugares a la vez.

LA PRIMERA CÉLULA SINTÉTICA:

John Craig Venter, uno de los "padres" del genoma humano, anunció en mayo la primera célula sintética fabricada por el ser humano, un híbrido con la estructura natural de una bacteria viva y el material genético artificial. Para lograrlo, el científico generó un cromosoma sintético, una réplica del genoma de la bacteria Mycoplasma myoides, y después lo trasplantó a otra bacteria viva (M.Capricolum), que actuó como recipiente para crear un nuevo ser. En el futuro, los investigadores prevén la creación de genomas sintéticos a la carta, para generar biocombustibles, productos farmacéuticos u otros compuestos químicos.

TODOS SOMOS NEANDERTALES:

El investigador del Instituto Max Planck de Antropología Evolutiva, Svante Pääbo, con la colaboración de decenas de científicos de todo el mundo, entre ellos varios españoles, presentó en octubre la culminación de su proyecto más ambicioso: la secuenciación del genoma del hombre de Neandertal. Descubrió algo asombroso: un 2% de nuestro genoma proviene de esta especie. Todos los seres humanos, excepto los africanos, llevamos estos genes. Esto implica un cruce entre neandertales y humanos.

EL MAYOR PASO DE PREVENCIÓN DEL VIH:

2010 es el año en el que más pasos en prevención del sida se han dado. A falta de una vacuna eficaz, se ha demostrado que unas pastillas y un gel vaginal reducen a la mitad las probabilidades de contagio. El fármaco utilizado en la investigación se llama «Truvada», un antirretroviral «dos en uno» que combina en una tableta dos fármacos (tenofovir y emtricitabina). Miles de seropositivos utilizan ya este tratamiento para frenar en su organismo el avance del VIH, pero no se había demostrado su capacidad de prevenir la infección. Un estudio con más de 2.500 homosexuales sanos de seis países demostró que puede reducir en un 44 por ciento las posibilidades de infectarse. Pero en los casos en los que el cumplimiento es total y los afectados fueron fieles al medicamento, la eficacia superó el 90%, según se publicó en la revista «New England Journal of Medicine». Es la mejor noticia en prevención del sida que se tiene en muchos años. Los beneficiarios serían las personas que no pueden o no quieren utilizar preservativo, están en riesgo de sufrir una violación o temen no protegerse cuando están bajo los efectos del alcohol. Funcionaría como una fórmula de protección sin tener que negociar con la pareja. La segunda opción es un gel microbicida que, aplicado en la vagina o en el ano antes de mantener relaciones sexuales, puede reducir el riesgo de VIH en casi un 40% y de infección por herpes genital en un 51%. Es la primera vez que un microbicida de uso tópico resulta eficaz, informa N. Ramírez de Castro.

LA SECUENCIACIÓN DE LOS GENES DE ENFERMEDADES RARAS:
El mundo científico cuenta con una nueva herramienta para encontrar una mutación genética que causa una enfermedad. Después del genoma han secuenciado el exoma. Ahora en lugar de buscar una alteración genética en los 3.000 millones de pares de bases del genoma, los genetistas podrán hacerlo con los exones, la fracción pequeña de ADN que codifica para proteínas. La secuencia del exoma ha dado paso a una larga lista de mutaciones que están detrás de una docena de misteriosas enfermedades que provocan niveles muy bajos de colesterol, deformidades faciales o malformaciones cerebrales, informa N. Ramírez de Castro.

SIMULACIONES DE DINÁMICA MOLECULAR:

Los investigadores han aprovechado el poder de una de las computadoras más poderosas del mundo para rastrear los movimientos de los átomos de una pequeña proteína durante una duración cien veces mayor que cualquier intento previo.

EL SIMULADOR CUÁNTICO:

Para describir lo que ven en el laboratorio, los físicos elaboran teorías basadas en ecuaciones que pueden ser muy difíciles de resolver. Este año, sin embargo, científicos han descubierto un atajo haciendo simulaciones cuánticas, cristales artificiales en los que puntos de luz láser desempeñan el papel de los iones y los átomos atrapados en la luz hacen de electrones. El ingenio procura respuestas rápidas a problemas teóricos de la física de materia condensada y que, eventualmente, podrían ayudar a resolver misterios como la superconductividad.

LOS 1.000 GENOMAS Y UNO MÁS:

Las tecnologías de secuenciación del genoma cada vez más rápidas y baratas están permitiendo la elaboración de estudios a gran escala del ADN. El proyecto de los 1.000 genomas, por ejemplo, ha identificado gran parte de la variación genómica que nos hace humanos, y otras investigaciones trabajan en revelar más sobre la función que juega el genoma.

LA REPROGRAMACIÓN CELULAR:
Las técnicas que permiten reprogramar células de manera para que se comporten como células madre no especializadas ya son habituales en los laboratorios. Este año, unos investigadores han encontrado una forma de hacerlo con RNA sintético, una técnica cien veces más eficaz, mucho más rápida y potencialmente segura para su utilización terapéutica.

EL RETORNO DE LA RATA:

Los ratones han gobernado el mundo de los animales de laboratorio, pero los investigadores prefieren utilizar ratas para muchos de sus trabajos. Es más fácil trabajar con ellas y anatómicamente son muy similares a los seres humanos. Su gran problema es que los científicos todavía no han conseguido aplicar en ellas la técnica que se utiliza para conseguir ratones knockout o ratón KO, un ratón modificado por ingeniería genética para desactivar algunos de sus genes y comprender su función. Sin embargo, una investigación desarrollada este año promete traer ratas knockout a los laboratorios.

Autor:   Judith de Jorge

INTERACTIVE FEATURE: The 10th Annual Year in Ideas

INTERACTIVE FEATURE: The 10th Annual Year in Ideas

A high-to-low, silly-to-serious selection of ingenuity and innovation.

ideas

El posible cierre de delicious: reflexiones sobre bookmarking y algunas alternativas.

Posted: 17 Dec 2010 04:37 AM PST
No se encontró modelo de negocio para delicious, así que no nos sorprende demasiado, ni la información sobre que estudian su cierre, ni la petición que corre en paralelo de reinvindicarlo en versión open source (creo que ya parte de ello, de hecho) para la comunidad.
Marcador social mítico, especialmente utilizado en los ámbitos del diseño y la educación, he querido dedicarle, por lo que pueda pasar y para eliminar miedos, esta entrada, reciclada de otra anterior y totalmente actualizada, en la que profundizábamos sobre el tema genérico de las folcsonomías, sus usos y los posibles servicios que en breve podrían convertirse en “alternativas” (Diigo, Evri y MrWong, en mi opinión):
Marcar o no marcar…
El tagging, las folksonomías, los servicios de marcado social han sido uno de los ámbitos de evolución de la nueva web, cada vez más caótica, inabarcable y necesitada de filtros (semánticos, sociales) de sus contenidos.
Emergía, a partir del lanzamiento de Delicious 2.0 y renace hoy, a partir del rumor sobre su cierre, la discusión entorno al bookmarking.
Se discutía la utilidad de cosas como el tradicional y popular delicious pero también sobre Diigouna herramienta menos tradicional pero mucho más rica (quizás la más polivalente), Mrwong algo ninguneado pero esencial en educación primaria y secundaria, Mahalo, controlado por mentes “humanas” (pero que prefiere resultados en inglés y provocó mi abandono hace un tiempo) o Evri (sustituyo al malogrado Twine), como herramienta enriquecida que añade el santo grial, el salto cualitativo que necesita la web actual: lo semántico.
Seguíamos entonces hablando sobre bookmarking en general, sobre la convivencia de las distintas comunidades o redes de intereses:
Es una discusión frecuente en los últimos días, nacida en la esfera anglo y con reflejos en la nuestra (recibía hace unos días la invitación de Héctor Milla desde Diigo a participar en la discusión entorno al tema), plantear la utilidad o pérdida de tiempo que supone la utilización de cualquiera de ellos. ¿Delicious, Diigo, Twine (ahora Evri), ninguno?
En mi caso uso distintos servicios: Del.icio.us, como principal, Diigo y el propio Twine (Ahora Evri), así como, de forma eventual Mrwong, Blinklist, Technorati, Reddit (para mis artículos en inglés), StumbleUpon o la funcionalidad correspondiente en Friendfeed, Googlereader (shared items) o Twitter.
Y el porqué los uso es sencillo: No tengo tiempo de escribir acerca de todo lo que considero relevante. Además, atendiendo a mi responsabilidad social como blogger, considero que, si no puedo (por tiempo otra vez o porque no me considero experta en el tema) aportar algo realmente relevante a una noticia o discusión, prefiero, simplemente informaros de su existencia, enlazando la fuente original.
Los uso para compartir, informar, definir, de alguna forma, el universo de El caparazón. Y eso desde el punto de vista que trataremos al final de este post, de seguir considerando el blog como centro de la web2.0.

¿Porqué seguir perdiendo el tiempo en los marcadores sociales?
Para Nova Spivak (Ex-CEO de Twine), la gente añade marcadores para dos objetivos básicos:
(1) Informar a los demás sobre los intereses que compartimos. . Aprendizaje social
(2) Descubrir, mostrar a Twine, como herramienta de recomendaciones, en qué cosas estamos interesados.
Plantea, en este contexto, una interesante teoría entorno al Bookmarking, como funcionalidad que ha ido evolucionando en la web 2.0 hacia la futura web 3.0 organizada:
Etapa 1: Bookmarking solitario, como forma de autoorganización.
Etapa 2: Bookmarking vouyeur: La intención inicial de delicious iba en ese sentido: ver lo que otros etiquetaban. No nació para compartir marcadores, no fue ese su objetivo inicial.
Etapa 3: Bookmarking altruista, para compartir fuentes y contenidos, así como para descubrir nuevos contenidos. El beneficio es recíproco: compartimos con Twine y nuestros contactos contenidos que enriquecen la plataforma, mejorando las sugerencias que nos devuelve.
No es la única herramienta que nos permite eso: Stumbleupon, Digg (filtros sociales), Diigo, etc…estarían también en esta fase.
De la promoción al spam, autobombo
Es una visión algo utópica, que deberíamos matizar con algunas de las últimas opiniones negativas sobre al tagging:
Así, se suceden opiniones que cuestionan su utilidad, que destacan los usos menos amables, más agresivos, de este tipo de herramientas:
A veces no marcamos los sitios como recurso organizativo y mucho menos con ánimos de alimentar la inteligencia colectiva, sino, simplemente y partiendo de una premisa errónea (¿significa que marquemos algo que somos expertos en la materia? para promocionar nuestra imagen de expertos (The race to be famous, la carrera para ser famoso).
O peor aún: el bookmarking como elemento de márketing (buzz) o, en sus versiones menos disimuladas, spam (¿enlaces a programas de referidos por los cuales se ingresan de forma directa distintas cantidades?)
Por tus intereses te conocerán. Por tus intereses, conocerás.
Esta segunda (o tercera generación) de servicios de Social Bookmarking, cooperativa, colaborativa y colectiva se acercaría en mayor media al concepto de comunidad de intereses. Debería además abarcar no solo los enlaces que nos parecen interesantes respecto a determinado ámbito temático sino también reflejar cualquier manifestación de nuestro trabajo en la web (textos directos, comentarios directos, fotografía, video, etc…), reflejando el concepto de lifestreaming (flujo vital).
En ese punto es importante la integración: Tanto los servicios de marcas sociales, como las redes sociales, como los propios blogs tratan acerca de algo común: los intereses. Las redes de intereses, basadas en redes, marcadores y blogs…esa es la siguiente evolución de los medios sociales.
Va también en esa línea la futura integración de Twine con delicious, la posibilidad que ya ofrece Diigo de importar los marcadores en esta tradicional pero algo desfasada herramienta o la integración en nuestros perfiles sociales y blogs de los marcadores que vamos recomendando. Sin ánimo ególatra, tenéis en el widget de Friendfeed que reside en la barra lateral de este blog y gracias a una buena herramienta de mashup o puesta en común de todo esto, una muestra de ello.
Por tu blog te conocerán:
He escrito, mencionábamos al principio del post al blog como herramienta central de lo 2.0: Marcar o no marcar….en mi caso depende de laintegración que me ofrezcan, tanto entre servicios como, sobre todo, con el blog, plataforma en la que matizo, contextualizo, analizo, amplío, tomo contacto con nuevas personas y difundo las cosas que me interesan. Cualquier perfil en cualquier sistema, cualquier listado de marcadores será parcial.
En cuanto a nuestros intereses, creo que la herramienta más productiva, versátil y comunicativa será el propio blog.
Según esta visión y el compromiso con un lenguaje universal y menos interesado para la web, el semántico, si debo elegir, elijo Twine, pidiéndole, además de que facilite su integración con Friendfeed o los distintos servicios de lifestreaming, que trabaje junto a los bloggers, al estilo de los posts automáticos en delicious o diigo.
Al fin y al cabo el blog sigue y seguirá siendo el lugar en el que “refinamos”, aportamos valor a los temas que son de nuestro interés.
Volviendo al tema del día… ¿Mi consejo? Exportar desde ya, para evitar colapsos del sistema, vuestros marcadores a un sistema que lo permite: Diigo (dejo enlace a mi cuenta).
Es una buena alternativa, muy similar a Delicious, con interesantes opciones para integración con móviles (Android en mi caso) y con características avanzadas, como los autoposts que ayudan a construir los posts de enlaces que lanzamos cada semana o las anotaciones.
Si trabajáis en educación, sin embargo, es posible que en MrWong.es encontréis mucho material de vuestro interés.
¿A alguien se le ocurre alguna alternativa mejor?

The 3rd World Congress of Total Intravenous Anaesthesia

Congress Information
Scientific Information
Registration
Accommodation
Sponsorship & Exhibition
Useful Links



GENERAL INFORMATION 

Venue

Suntec Singapore
International Convention & Exhibition Centre
1 Raffles Boulevard, Suntec City, 
Singapore 039593

Language

The official language of the Congress is English.

Dates

March 31 – April 2, 2011

Climate                  

The weather in Singapore in April is quite warm. The average daytime temperature is approximately 30°C.
Rainfall and humidity are steady year-round. Rain arrives in torrential downpours, but is soon replaced by sunshine. Please be sure to bring a raincoat and appropriate shoes.

Visas

Please check with your travel agent if you require a visa for entry to Singapore.

Letter of Invitation

Participants requiring a formal letter of invitation to enable them to make their arrangements to participate in the Congress - may receive a letter automatically once they have registered. Please note that this letter cannot be regarded as a commitment regarding scheduling or financial support from the organizers.

Prizes

Prizes will be awarded for the best abstract presentations. Details of how to apply will be listed at www.kenes.com/tiva-tci

Sponsorship & Exhibition

A professional exhibition will be held concurrently with the Congress.
For details please contact Karen Sharir at ksharir@kenes.com 

Agents for Italian Participants

TWT - TEAM Magia Travel srl
Via Cagliari 13
00198 Rome
ITALY
Tel: +39 06 44249321
Fax: +39 06 44249326
E-mail: alupidi@twt-team.it
ID Skype: annalupidi
Website: www.twt-team.it

Liability and Insurance

The Congress Secretariat and Organisers cannot accept liability for personal accidents or loss of or damage to private property of participants and accompanying persons. Participants are advised to take out their own personal travel and health insurance for their trip.

Congress Organizers

Please do not hesitate to contact the Organizers if you require any additional information or assistance. Please address all correspondence to:
3rd World Congress of Total Intravenous Anaesthesia - TCI
c/o Kenes International – Global Congress Organizers and Association Management Services
1-3, Rue du Chantepoulet; P.O. Box 1726
CH-1211 Geneva 1, Switzerland
Tel: +41 22 908 0488; Fax: +41 22 908 9140
E-mail: tivatci@kenes.com 

Tendencias de manejo de la fibrilación auricular post cirugía cardíaca y Síndrome cardiorrenal en diabetes mellitus

Tendencias de manejo de la fibrilación auricular post cirugía cardíaca
Atrial fibrillation post cardiac surgery trends toward management
Awad A.R. Alqahtani
Department of Cardiology and Cardiothoracic Surgery, Hamad Medical Corporation, Doha, Qatar
Heart Views 2010:11: 57-63.  DOI: 10.4103/1995-705X.73212

Post operative atrial fibrillation (POAF) is more common than before due to increased numbers of cardiac surgeries. This in turn is associated with increased incidence of post operative complication, length of hospital stay and subsequent increase the cost of hospitalization. Therefore preventing and/or minimizing atrial fibrillation by pharmacological or nonpharmacological means is a reasonable goal. POAF has also been associated with postoperative delirium and neurocognitive decline. The precise pathophysiology of POAF is unknown, however most of the evidence suggests it is multifactorial. Different risk factors have been reported, and many studies have evaluated the prophylactic effects of different interventions. This review article highlights the incidence, risk factors, and pathogenesis, prevention, and treatment strategies of POAF


Síndrome cardiorrenal en diabetes mellitus
The cardiorenal syndrome in diabetes mellitus
Hussein H. Karnib, Fuad N. Ziyadeh
Diabetes Res Clin Pract. 2010 Sep;89(3):201-8.

Abstract
The cardiorenal syndrome in patients with diabetes mellitus represents a systemic condition that affects both the cardiovascular and renal systems. Diabetes is a well established risk factor for cardiovascular disease (CVD), and a significant proportion of diabetic patients go on to develop clinically significant nephropathy. In the diabetic state the kidney is involved by progressive sclerosis/fibrosis and proteinuria, due most likely to overactivity of the transforming growth factor-beta system and, to some extent, the vascular endothelial growth factor system, respectively. The pathogenesis of CVD in diabetes is multifactorial, involving hemodynamic forces, humoral/metabolic factors, and oxidative stress. Additionally, it has been suggested that endothelial dysfunction may lead to simultaneous development and progression of renal and cardiac pathology in diabetes. The risk of microvascular complications can be reduced by intensive glycemic control in patients with type 1 and type 2 diabetes mellitus whereas benefit to the cardiovascular system is less clear. However, intensified intervention involving other CVD risk factors like hypertension and dyslepidemia and interception of the rennin-angiotensin-aldosterone system in patients with type 2 diabetes have been shown to be associated with significant reduction in the risk for renal disease progression that was paralleled by a significant reduction in cardiovascular disease burden.

Lea este artículo completo en el siguiente enlace;

Atentamente
Dr. Enrique Hernández-Cortes
Anestesiología y Medicina del Dolor