martes, 18 de enero de 2011

Basura espacial

Basura espacial
Han bastado poco más de 50 años de carrera espacial para que tengamos girando alrededor de la Tierra restos de objetos fabricados por el hombre que pueden causar graves problemas. A estos objetos los conocemos como basura espacial y pueden poner en peligro a los satélites operativos, a los astronautas que se puedan encontrar en órbita terrestre o incluso a todos los que nos encontramos en la Tierra. Por este motivo, distintas agencias como ESA o NASA ya se han planteado cómo abordar esta problemática.
Manuel Prieto y Sebastián Sánchez 
Grupo de Investigación Espacial. Universidad de Alcalá


Desde el lanzamiento del primer satélite artificial, el Sputnik 1, el 4 de octubre de 1957, la humanidad no ha cesado en su empeño de colocar más y más ingenios en órbita terrestre para distintos propósitos. Inicialmente fueron una muestra de la capacidad tecnológica de las dos superpotencias de la guerra fría, la antigua Unión Soviética y los Estados Unidos. Con el tiempo, los satélites artificiales se han convertido en elementos clave en distintos campos tales como la meteorología, las telecomunicaciones, la defensa, el posicionamiento global a través de GPS, la observación de la Tierra, etc. La información aportada por estos ingenios tiene tanto aplicación científica como comercial.
En estos más de 50 años de actividad se han colocado en órbita más de 6.000 satélites, de los cuales quedan en activo alrededor de unos 800. El resto ha pasado a ser lo que se denomina basura espacial o en términos anglosajones, spacedebris. La basura espacial no la componen únicamente viejos satélites, ya que si así fuese, no plantearía muchos problemas. La realidad es que también la componen otros elementos más difíciles de controlar y establecer su seguimiento, como restos de explosiones y colisiones, etapas finales de vehículos de lanzamiento, residuos de motores de propulsión de combustible sólido, restos de pintura o basura generada por el impacto de pequeñas partículas. Ejemplos recientes que han contribuido a un incremento sustancial de la basura espacial son la destrucción del satélite chino Feng-Yun 1C en enero de 2007 o la colisión a una velocidad relativa de 11,7 km/s entre el satélite estadounidense de comunicaciones Iridium 33 y un satélite ruso militar denominado Kosmos-2251 en febrero de 2009.

En total se calcula que tenemos alrededor de la Tierra unos 20.000 objetos mayores de 10 cm, unos 500.000 entre 1 y 10 cm y más de 10 millones menores de 1 cm. Los objetos mayores de 10 cm son vigilados por la denominada SpaceSurveillance Network de los Estados Unidos. Objetos cuyo tamaño sea de hasta 3 mm pueden ser detectados por radares terrestres, pero los objetos de menor tamaño sólo sabemos que existen por los impactos dejados en la superficie de satélites recuperados como es el caso del Long Duration Exposure Facility (LDEF) de NASA o como los paneles solares del Hubble, y no pueden ser detectados ni por radares ni por instrumentos ópticos. Todos estos objetos se encuentran mayoritariamente en las órbitas LEO (Low Earth Orbit), por debajo de los 2.000 kmy GEO (Geoestationary Earth Orbit) a 36.000 km, que son las órbitas más utilizadas. La mayor densidad de residuos se encuentra entre los 800 y los 850 km.
La opción más efectiva para evitar el crecimiento de la basura espacial consiste en no generarla

La vida media de la basura espacial depende de la altitud de la órbita en que se encuentren, cuanto mayor sea ésta, mayor es el tiempo que tardarán en caer de nuevo a la Tierra. Los objetos que se encuentran en órbitas por debajo de los 600 km tardan un máximo de 25 o 30 años en caer, los que se encuentran a 800 km tardan décadas y los que se encuentran por encima de 1.000 km tardan siglos.

La razón de que estos residuos se consideren peligrosos reside en su velocidad relativa. Un objeto que se encuentre en una órbita LEO viaja entre 7 y 8 km/s. La velocidad media de impacto con otro objeto en esa órbita es de unos 10 km/s, y como consecuencia, la energía del hipotético impacto sería enorme. Para hacernos una idea, un objeto de 160 g a 10 km/s, tiene la misma energía que un vehículo de una tonelada a 144 km/h. Un impacto con un objeto de esas características tendría consecuencias fatales si chocase contra la Estación Espacial Internacional, contra un satélite operativo o contra un lanzador que en su fase de ascenso encontrase un plano orbital plagado de esos objetos. Otro problema de la basura espacial esel de la posible caída incontrolada de estos restos a la Tierra, puesto que en su reentrada puede que no se desintegren, sobre todo los elementos más grandes. Este es el caso de Skylab (1978), los fragmentos de la estación soviética Salyut 7 (1991) o el tanque propulsor de Delta 2(1997). Este problema se ve agravado cuando los satélites contienen reactores nucleares o pilas de plutonio, utilizados entre 1961 y 1988 por EE.UU. y la URSS en satélites militares. En 1978 el satélite Kosmos 954 se estrelló en Canadá con aproximadamente 30 kg de uranio enriquecido dejando un área radiactiva de unos 100 km2.

Por estos motivos es necesario tomar medidas para evitar este tipo de accidentes, ya que al ritmo actual de puesta de satélites en órbita, se calcula que en 50 años tendremos un espacio impracticable. Ello se debe a que más satélites en órbita darán lugar a un mayor número de colisiones con basura espacial, que a su vez generará nuevos fragmentos que a su vez provocarán nuevas colisiones. De esta manera podemos entrar en un círculo vicioso que sature el espacio de restos, amenazando el futuro inmediato.

La opción más efectiva para evitar el crecimiento de la basura espacial consiste en no generarla. Todas las nuevas misiones llevan asociadas unas mayores restricciones en cuanto a generación de basura espacial se refiere. A modo de ejemplo, hay que evitar la pérdida de tuercas y abrazaderas en la fase de liberación de los cohetes propulsores, o hay que descargar el combustible sobrante y apagar los sistemas eléctricos en las naves sin servicio para evitar explosiones. Otra técnica que se ha implantado en los satélites actuales y de aplicación también a futuros, consiste en incorporar una carga adicional de combustible para realizar maniobras de evasión al final de la vida operativa. De este modo los satélites con órbitas LEO pueden reducir su altitud y como consecuencia acabar cayendo de nuevo a la Tierra debido a la fricción con la atmósfera, siendo destruidos en su proceso de reentrada. Los satélites con órbita GEO pueden dar un impulso final para alejarse definitivamente y liberar la zona estratégica de 36.000 km. Otra posibilidad consiste en mover los satélites al final de su vida útil a órbitas de poco uso denominadas órbitas "cementerio".

Se han propuesto otras técnicas y proyectos bastante ingeniosos para evitar o para eliminar la basura espacial. Este es el caso de un proyecto ruso para empujar a 600 viejos satélites hacia órbitas bajas para que acaben cayendo a la Tierra. Otro ejemplo consiste en incorporar globos al satélite que serán hinchados con helio al final de su vida útil para que la resistencia aerodinámica aumente y así se precipiten a Tierra rápidamente. Otra propuesta trata de reducir la velocidad de los satélites mediante el empleo de amarras electrodinámicas. En este caso, al final de la vida útil del satélite se despliega un cable que lo frena y como consecuencia acaba precipitándolo a Tierra. Para concluir nos gustaría manifestar nuestro optimismo respecto a la eliminación de la basura espacial. Todas las agencias ESA, NASA, JAXA, etc. conocen el problema, están de acuerdo en sus planteamientos y están poniendo medios para solucionarlo. Es bien sabido que el primer paso para solucionar un problema es ser conscientes de que tal problema existe y que haya voluntad de solucionarlo. El hecho de no hacerlo nos podría llevar, tal y como en su momento sugirió Hazel Henderson cuando habló del programa de defensa Star Wars, a que la humanidad pudiese quedar prisionera en su propio planeta.

Antibióticos: medicinas que dejan huella

Antibióticos: medicinas que dejan huella

Al tomar un medicamento esperamos que nos cure y cuando así ocurre lo lógico es que ya no lo necesitemos, por eso una de las propiedades que se precisan para usar una sustancia como medicina es que, además de curar, sea fácil de eliminar por la orina. También pasa así con los antibióticos, por lo que nos sorprendería que sus efectos pudieran notarse meses o años después de dejarlos de tomar. Sin embargo hay datos recientes que dicen lo contrario, que tras un corto tratamiento con un antibiótico los efectos sobre la flora intestinal persisten incluso años. Se producen así desequilibrios que a veces son perniciosos, pero también está ya disponible una de las formas que pueden ayudar en el futuro a corregirlos, se trata de los transplantes fecales, que se están utilizando como terapia para vencer algunas infecciones intestinales recalcitrantes.
3216fig1
Representación de lo que ocurre en el intestino grueso al administrar un antibiótico. Al iniciar el tratamiento (primera flecha roja) aumenta el número de bacterias resistentes al mismo (bastones violeta) mientras el resto de las bacterias disminuye. Las bacterias resistentes pueden venir de un pequeño número ya preexistente y aumentar porque las competidoras no resistentes se mueren, y también porque los genes de resistencia se pueden transferir (flecha blanca) desde las resistentes a las que no lo son. La diversidad de la flora disminuye. ALgunas bacterias sensibles pueden quedar protegidas por la mucosa (franja amarilla). Al final, pasados a veces varios años, el equilibrio se restablece. Fuente: ver referencia 1.
Al acabar un tratamiento con antibióticos y superar una infección no es que el cuerpo retenga los antibióticos, sino que el tratamiento elimina tanto a los microbios patógenos como a otros que no lo son y a la vez favorece la persistencia de las bacterias que son resistentes. El intestino del adulto alberga casi un millar de especies de bacterias diferentes, que en su conjunto alcanzan una masa de aproximadamente un kilo. A esa diversidad y abundancia llegamos paulatinamente desde el momento en que nacemos, en el que ningún microbio habita el intestino. Todas ellas viven en armonía entre sí y con nuestro cuerpo, una situación que es un elemento esencial para la salud. Cualquier antibiótico, incluso los más eficaces e inocuos para nosotros, como pueden ser la penicilina y sus análogos perturban la composición de la flora intestinal. A finales de 2010 se publicó una revisión sobre los datos disponibles. En resumen resulta sorprende, porque hay muchos antibióticos que ejercen efectos sobre la composición de la flora de los pacientes que son todavía perceptibles más de dos años después de acabar su administración.
Una de las observaciones relatadas se obtuvo analizando la abundancia de Bacteroides, un género de bacterias que contribuye a mantener el equilibrio entre los habitantes del intestino y cuyo número disminuye tras la administración de antibióticos como la clindamicina. Cuando losBacteroides disminuyen otras bacterias como Clostridium difficile pueden proliferar demasiado y provocar diarreas nada fáciles de curar, un efecto que se ha observado en los pacientes tratados con ese antibiótico.
Por otra parte también apareció a fines de año un comentario sobre un posible tratamiento para ayudar a eliminar las infecciones por Clostridium difficile. Se trata del transplante fecal, que dicho así suena un tanto asqueroso. Consiste en suministrar un conjunto de bacterias obtenidas de las deposiciones de personas sanas para que colonicen el intestino de un enfermo. La lógica del procedimiento se basa en que así se proporciona al enfermo una población de diversas bacterias que deben estar en las mismas proporciones relativas que las del intestino sano.Clostridium difficile es una bacteria que, además de producir toxinas que alteran el intestino, produce esporas que son muy perdurables por lo que su infección resulta difícil de eliminar. El transplante fecal consigue al parecer acabar con ella en el 90% de los casos.
REFERENCIAS:
1.- C. Jernberg, S. Löfmark, C. Edlund, and Janet K. Jansson. 2010. Long-term impacts of antibiotic exposure on the human intestinal microbiota. Microbiology , 156: 3216–3223.
2.- C. Luiggi. Same poop, different gut. The Scientist,  published 3 November 2010.

Información inteligente para un tráfico más seguro


Información inteligente para un tráfico más seguro
Imagine la siguiente situación: se dispone a atravesar la ciudad en coche para encontrarse con un amigo. Antes de partir, despliega un mapa de la ruta a seguir en el navegador de su automóvil. Anticipando el tráfico esperado durante los próximos veinte minutos y el tiempo aproximado de conducción, su navegador le sugiere la ruta que debería estar menos congestionada. Usted hace clic para aceptar dicha ruta y la sigue hasta su destino sin incidencias.
FUENTE | Spain Technology18/01/2011
En un mundo ideal, los responsables del tráfico tendrían que poder ver el futuro a corto y largo plazo para evaluar las opciones de control de tráfico. ¿Cómo afectará el cierre de una carretera al flujo de vehículos? ¿Cuáles con las mejores rutas para desviar a los automóviles y autobuses? Si se produce un imprevisto como un accidente, ¿cuáles son las mejores opciones de desvío para facilitar la circulación?

Este escenario no está tan distante en el futuro. Las empresas españolas, que destacan a escala internacional en planificación y simulación de tráfico, iluminación y señalización, y sistemas de guiado de vehículos, aprovechan los últimos avances tecnológicos y trabajan para que el escenario descrito se convierta en realidad en ciudades de todo el mundo.

SISTEMAS DE PREDICCIÓN

Con sede en Madrid, Tekia Ingenieros (Tekia) se ha especializado en la planificación y control del tráfico en túneles. Hasta la fecha, el proyecto más ambicioso de la empresa conllevó estudiar las necesidades de seguridad de un nuevo tramo de túnel de reciente construcción de una de las carreteras de circunvalación de Madrid; transcurre por debajo de un río y los túneles tienen una longitud superior a los 50 Km, lo que la convierte en la infraestructura viaria para automóviles subterránea más extensa del mundo.

Los ingenieros de Tekia examinaron meticulosamente las posibles amenazas a la seguridad del túnel, como las procedentes de un tráfico intenso, accidentes, fuegos o explosiones. Reunieron a un panel de expertos de seguridad durante un año. Utilizando toda la información especializada y los posibles escenarios contemplados dentro del programa, Tekia diseñó a continuación un sistema operativo especializado para ayudar a los responsables municipales a decidir en tiempo real qué soluciones resolverían mejor los problemas que se planteasen, con el objetivo de lograr los mejores resultados para cada escenario.

Dicho software de simulación del tráfico es la especialidad de Transportation Simulations Systems(TSS), una empresa de modelos de simulación de tráfico radicada en Barcelona que acumula más de 25 años de experiencia en ayudar a las ciudades a planificar los flujos de tráfico.

TSS desarrolló un programa de modelos de simulación, Aimsun, que aprovecha las investigaciones realizadas en la Universidad de Barcelona. En aquel momento, en los años ochenta, los fundadores de la empresa se dieron cuenta de que los modelos de simulación regional generales que se empleaban para la planificación estratégica podían predecir el crecimiento del tráfico y la población a gran escala, pero que no servían de mucha ayuda a la hora de establecer las mejores soluciones para cambios del tráfico de pequeña envergadura.

Los ingenieros de la empresa querían desarrollar un modelo que permitiera examinar el comportamiento a escala reducida. "¿Qué ocurriría si se realizan obras en una arteria principal por la que también circula un tranvía y un tráfico intenso? Se pueden introducir ajustes para que la situación sea más tolerable -se puede cambiar la configuración de los semáforos, restringir el acceso a algunas carreteras o mandar la policía a dirigir la circulación", manifiesta Alex Gerodimos, Director Comercial de TSS. Pese a la capacidad informática mucho más reducida disponible en esa época, los nuevos modelos de TSS podían predecir con precisión los resultados de estas intervenciones de magnitud más reducida.

Con todo, y aunque ello era útil para planificar, esos modelos no podían ayudar a la gestión del tráfico en tiempo real. Desde entonces, los avances en la capacidad informática de los ordenadores, unidos a la mayor cantidad de información en tiempo real de que ahora se dispone sobre los pormenores del flujo de tráfico, han hecho posible una revolución en los modelos de simulación: TSS y sus socios han desarrollado modelos Aimsun a gran y pequeña escala, que pueden emplear los gestores del tráfico urbano para determinar, en tiempo real, las consecuencias de cambios en el tráfico, lo que les permite adoptar decisiones rápidas basadas en previsiones derivadas de los modelos.

Por ejemplo, hace falta que una ambulancia llegue al lugar de un accidente, pero el accidente ya ha provocado cambios en el tráfico con repercusiones sucesivas. Los modelos pueden generar imágenes de posibles rutas para la ambulancia y sugerir cuál será la más rápida.

En el centro municipal de control del tráfico de Madrid, las simulaciones gráficas se muestran en una pantalla, lo que permite que el controlador visualice las consecuencias de elecciones concretas a una velocidad 10 ó 20 veces más rápida de lo que se produciría en el mundo real. El software Aimsun empleado en ese centro se utiliza para simular el tráfico de otras ciudades en 60 países, incluida la totalidad del territorio nacional de Singapur.

Telvent emplea un programa de simulación para sus sistemas de control y ha sido capaz de incorporar la meteorología y las condiciones de la calzada en los sistemas de gestión del tráfico de ciudades como Alberta (Canadá). "Podemos emplear la información meteorológica con fines específicos. Por ejemplo, podemos predecir las condiciones de la calzada para las próximas horas", explica Cáceres.

INFORMACIÓN INTELIGENTE PARA VIAJEROS MAS SEGACES

En la actualidad, los conductores pueden consultar rápidamente diversas páginas web que aseguran mostrar las condiciones del tráfico en ese momento. "En nuestra opinión, esta información es de inferior calidad-o inútil en algunos casos", señala Alex Gerodimos. "A menudo se basa en lo que ya conocemos". Con todo, si la información no está disponible, porque no se controla el tráfico de una calle determinada, ésta aparece como sin tráfico, con independencia de las condiciones reales. Según Gerodimos, un modelo de simulación puede resolver ese problema, al realizar una extrapolación para toda la ciudad.

Además, el segundo problema que él refiere es que el conductor todavía no ha abandonado su domicilio y que el tráfico puede cambiar con rapidez. Gerodimos vislumbra un futuro en el que los modelos de previsión estarán disponibles no sólo para los responsables del control de tráfico, sino también para los usuarios. Con un software como Aimsun instalado, el sistema de GPS del automóvil podría ofrecer no sólo las condiciones actuales del tráfico, sino recomendar la mejor ruta para un trayecto de 30 minutos en base a las pautas de circulación futuras.

"Si facilitamos a los usuarios información inteligente sobre las opciones de movilidad, mejoraremos tanto la movilidad como la eficiencia de las infraestructuras", asegura Francisco Cáceres, directivo deTelvent.

Suministrar una información fácilmente accesible es el objetivo del sistema diseñado por Telvent para Nueva York, San Diego y Tennessee. El sistema transmite información sobre el tráfico y el transporte público en tiempo real a través de Internet. Los usuarios también pueden llamar al número 511 para escuchar locuciones permanentemente actualizadas proporcionadas por un sistema interactivo de respuesta por voz generada por ordenador.

En la actualidad son numerosos los usuarios que reciben información sobre el tráfico mientras están en la carretera conduciendo, a través de señales luminosas denominadas paneles de mensaje variable. Estos paneles -que normalmente son LED- parecen simples, según Tony Batlló, Director General de Imago Screens, uno de los principales fabricantes de pantallas LED del mundo para tráfico y eventos como los deportivos. "En realidad, las necesidades del tráfico [a diferencia de las pantallas para eventos deportivos] son mucho mayores", añade. "Se precisa una seguridad, funcionalidad y rendimiento del 100 por cien, las 24 horas del día. La fiabilidad es esencial".

Los propios diodos LED constituyen la base de los paneles y los ingenieros de la empresa han diseñado cuidadosamente la óptica y los sistemas de control para obtener un brillo, contraste y luminosidad diferentes en función de las condiciones solares de cada país e incluso de un día concreto. "Es importante poder ver la señal con claridad", puntualiza Batlló. "Porque si es demasiado brillante molesta a los ojos y no se puede leer". Sensores incorporados a la pantalla detectan las condiciones lumínicas y ajustan su brillo automáticamente.

Los sensores de los paneles LED pueden ofrecer información adicional a los responsables del tráfico. Según explica Batlló, "puede programarse el panel para que le diga al controlador: 'Está lloviendo, ¿desea mostrar un mensaje sobre la lluvia?' El operador puede decidir qué hacer. En el futuro, las carreteras contarán con dispositivos que podrán comunicarse entre sí como en una red, con cámaras, sensores, estaciones meteorológicas y una red de información que incluirá hasta el vehículo del usuario en la calzada."

NUEVAS FORMAS DE DETECTAR A LOS CONDUCTORES IMPRUDENTES

En fechas tan recientes como 2005, España tenía una de las cifras de accidentes por habitante más elevadas de Europa occidental. Con el uso de las nuevas tecnologías, el país ha conseguido reducir drásticamente las muertes: "Las hemos reducido a menos de la mitad en menos de cinco años", comenta Alberto Arbaiza, responsable de los proyectos ITS de la Dirección General de Tráfico delMinisterio del Interior.

En materia de control de la velocidad, las técnicas habituales se han basado hasta ahora en emplazamientos fijos, ya fuera un radar de la policía para medir la velocidad o un panel que muestra la velocidad de los vehículos que pasan. El inconveniente de estas posiciones fijas es que es relativamente fácil para el conductor frenar en seco y después pisar inmediatamente el acelerador.

Para sustituirlas, el Grupo Cegasa ha desarrollado un sistema para lo que se conoce como control de velocidad por tramos. Esta técnica consiste en captar primero la posición de un automóvil en un punto determinado y después en otro posterior en la carretera, calculando la velocidad empleada en recorrer dicho tramo. Se registran los números de matrícula de los conductores imprudentes y se remiten a las autoridades. "No sólo se trata de una forma alternativa de medir la velocidad, sino que también es más segura y justa", aclara Alfonso Vázquez, Director de Ventas Internacional; además, ralentiza la velocidad global del tráfico.

Los accidentes de tráfico también son provocados por conductores que se saltan semáforos en rojo. En la actualidad, la tecnología más avanzada para cruces se basa en un lazo inductivo colocado bajo la calle; cuando el semáforo se pone en rojo y un automóvil pasa sobre el lazo, se disparan unas cámaras que recogen la imagen del mismo. La barcelonesa Quercus Technologies ha presentado recientemente el primer sistema del mundo que se basa en un pequeño sistema de cámaras móviles, que funcionan independientemente de los semáforos o los controladores de tráfico.

Quercus ha aprovechado su experiencia en visión artificial -son uno de los principales fabricantes del mundo de sistemas de reconocimiento de matrículas. "Es lo que llamamos tecnología de lazos virtuales", en palabras de Silvia Vilanova, Directora de Marketing de Quercus. "Todo el reconocimiento necesario lo realiza la cámara, sin que hagan falta sensores en la carretera".

La cámara mira al semáforo y detecta la posición de la luz que proviene del mismo. Cuando el semáforo cambia de verde a rojo cambia la posición de la luz y se activa la cámara, que toma varias fotografías si un vehículo atraviesa el cruce. Este producto, lanzado en marzo de 2010, ofrece diversas ventajas añadidas: es mucho más barato que las alternativas y no precisa de obras adicionales en la calle. Además, las investigaciones han demostrado que después de instalar un sistema para detectar infractores en un semáforo, ese cruce concreto gana en seguridad en un año o dos. Además, la infraestructura tradicional que utiliza lazos es demasiado cara para desplazarla. En cambio, las cámaras de Quercus pueden desmontase fácilmente y adaptarse a las característica de un cruce distinto.

Una mosca puede revolucionar la informática


Una mosca puede revolucionar la informática
Los expertos de la Universidad de Carnegie Mellon, en Pittsburgh (Estados Unidos), aseguran que un nuevo algoritmo basado en la forma en que la humilde mosca de la fruta organiza sus diminutos pelos -verdaderos sensores que les permiten "sentir" el mundo- tiene el potencial de proporcionarnos la solución a los problemas que plantean las redes inalámbricas. Parece que la forma en que se organiza el sistema nervioso del insecto es mucho más simple y eficiente que cualquier red elaborada por los humanos.
FUENTE | ABC Periódico Electrónico S.A.18/01/2011
Desde sus inicios, la informática mantiene una extraña relación con los insectos. Desde los primeros "bugs", pequeñas polillas que buscando el calor de los tubos de vacío provocaban cortocircuitos capaces de paralizar ordenadores más grandes que una casa, hasta los más modernos y sofisticados "gusanos" que, junto a otras alimañas cibernéticas, pueden derribar enormes redes de ordenadores reproduciéndose como lo haría un ser vivo, los expertos en informática han buscado en el reino animal ejemplos o ideas en las que basar sus diseños. En las últimas horas se ha conocido un trabajo elaborado por los expertos de la Universidad de Carnegie Mellon, en Pittsburgh (Estados Unidos) que indicaría que la mosca de la fruta -uno de los insectos mejor comprendidos por el hombre- podría tener la clave para solucionar algunos de los problemas más complejos de la informática distribuida.

ORGANIZADOS COMO INSECTOS

Mantener comunicados de forma eficiente dos ordenadores es una tarea trivial. Pero a medida que el número de integrantes de la red comienza a aumentar, la situación se complica rápidamente. Las redes actuales, que en muchos casos superan los cientos o incluso miles de ordenadores, suelen ser muy poco eficientes, sobre todo cuando el sistema de conexión elegido es el inalámbrico. El trabajo, que se ha publicado en el ejemplar de la revista "Science", muestra cómo los investigadores se inspiraron en la forma en la que la diminuta mosca de la fruta organiza sus diminutas "antenas" -los "sensores" que la "conectan" con el mundo- para conseguir mejores aplicaciones de computación distribuida. Al igual que en una red de ordenadores basada en la arquitectura cliente-servidor, las células del sistema nervioso de la mosca de la fruta se organizan de tal manera que un pequeño porcentaje de ellas funcionen como "centros" que proporcionan las conexiones necesarias con las demás células nerviosas.

Los expertos han creado un algoritmo informático que imita esta forma de trabajo, y descubrieron que esta manera de organizarse puede utilizarse para optimizar aquellas redes de ordenadores en las que el número y posición de los nodos que la componen no están rígidamente establecidos. Las redes WIFI, los sistemas de recolección de datos basados en sensores inalámbricos o grupos de robots autónomos pueden beneficiarse de lo aprendido de la mosca de la fruta.

Los ingenieros han desarrollado varias formas de "controlar" las conexiones que hacen posible la existencia de las redes informáticas distribuidas. Desde la búsqueda de datos en Internet hasta la elaboración automática de informes a partir del contenido de diversas bases de datos, los sistemas implementados por el hombre parecen ser innecesariamente más complejos que el que la naturaleza ha proporcionado mediante la evolución al sistema nervioso de la mosca. Los autores del trabajo aparecido en Science creen que podrán imitar la forma en que la mosca de la fruta utiliza sus pequeños "pelos" para detectar el mundo exterior y la forma en que esos datos son utilizados por una célula nerviosa denominada precursor del órgano sensorial (POS). Cada POS se conecta a otras células nerviosas que tiene a su alrededor, pero nunca con otro POS. Podría crearse un sistema de cómputo distribuido en el que un pequeño grupo de microprocesadores se comunica velozmente con el resto de los integrantes de la red, algo a lo que los teóricos refieren como conjunto independiente máximo (CIM). Al igual que en el sistema nervioso del insecto, cada unidad de computo que integra la red es un líder, un miembro del CIM, o está conectado a él, pero los líderes no se conectan entre sí.

SIMPLE Y PRÁCTICO

Durante décadas los ingenieros han buscado la mejor forma de conectar entre sí los miembros de una red. Ahora sabemos cómo lo hace el insecto: durante el desarrollo de la mosca a lo largo de las fases de larva y crisálida, su sistema nervioso utiliza un método probabilístico para seleccionar cuales de sus células que se convertirán en POS. Si bien las células no tienen información sobre cómo están conectadas entre sí, a medida que algunas de ellas se van convirtiendo en POS generan señales químicas que indican a las células cercanas que no deben convertirse también en POS. Este proceso continúa hasta que todas las células son o bien POS, o bien vecinas a una POS. En ese momento, la mosca deja de ser una crisálida.

La principal diferencia que existe entre el sistema utilizado por la mosca para crear su "red" y los algoritmos utilizados por el hombre en los últimos 30 años para conectar sus ordenadores estriba en que en el insecto la probabilidad de que cualquier célula se autoseleccione como POS aumenta en función del tiempo. En un algoritmo típico de CIM utilizado en las redes informáticas aumenta como una función del número de conexiones. El método de la mosca no requiere conocer al detalle la forma en que se organiza la red, sino que la topología de la misma evoluciona de forma de ser la más simple posible.

¿Cómo no hemos sido capaces de hacer algo así antes? Al fin y al cabo, se trata de algo muy lógico, y que la naturaleza ha logrado "desarrollar" sin utilizar nada más complejo que el método del ensayo y el error. Noga Alon, experto en matemática e informática de la Tel Aviv University y del Institute for Advanced Study de Princeton, Estados Unidos, coautor del artículo, reconoce esta situación explicando que "se trata de una solución tan simple e intuitiva que cuesta creer que no hayamos descubierto su valor 25 años antes." Junto a otros investigadores que participantes del proyecto -Ziv Bar-Joseph, Yehuda Afek, Naama Barkai, Eran Hornstein y Omer Barad- Alon Ha conseguido fondos del National Institutes of Health y la National Science Foundation estadounidenses que deberían permitirles convertir toda esta teoría en un sistema práctico. ¿Podrán lograrlo? Ellos creen que sí. Y esperamos que tengan éxito, ya que estas mejoras harán de nuestras redes algo mucho más eficiente.
 

Dying for Discovery

January 16, 2011, 5:35 PM

Dying for Discovery

SpecimensSpecimenslooks at how species discovery has transformed our lives.
Al Gentry examined leaves during Conservation International’s Rapid Assessment Program expedition to Ecuador in January 1991.Randall HymanAl Gentry examined leaves during Conservation International’s Rapid Assessment Program expedition to Ecuador in January 1991.
Almost 20 years ago now, in western Ecuador, I traveled with a team of extraordinary biologists studying a remnant of forest as it was being hacked down around us. Al Gentry, a gangling figure in a grimy T-shirt and jeans frayed from chronic tree climbing, was a botanist whose strategy toward all hazards was to pretend that they didn’t exist. At one point, a tree came crashing down beside him after he lost his footing on a slope. Still on his back, he reached out for an orchid growing on the trunk and said, “Oh, that’s Gongora,” as casually as if he had just spotted an old friend on a city street.
SLIDE SHOW
One Group’s Sacrifice for Discovery
75 ThumbnailThe story of the naturalists who died in the 1800s gathering specimens for the National Museum of Natural History in Leiden.
The team’s birder, Ted Parker, specialized in identifying bird species by sound alone. He started his work day before dawn, standing in the rain under a faded umbrella, his sneakers sunk to their high-tops in mud, whispering into a microcassette recorder about what he was hearing: “Scarlet-rumped cacique … a fasciated antshrike … two more pairs of Myrmeciza immaculata counter-singing. Dysithamnus puncticeps chorus, male and female …”
Gentry and Parker come to mind just now because I’ve been thinking about how often naturalists have died in the pursuit of new species. A couple of years after that trip, the two of them were back in the same region making an overflight when their pilot became disoriented in the clouds and flew into a mountaintop forest. They lingered there overnight, trapped in the wreckage, and died in the morning. “It was beautiful forest,” a survivor, Parker’s fiancée, later told a reporter, “and they were very happy. Lots of birds.”
Ted Parker listened to birds during the 1991 expedition to Ecuador.Randall HymanTed Parker listened to birds during the 1991 expedition to Ecuador.
In truth, the history of biological discovery is a chronicle of such hazards faced not just willingly, but with a kind of joy. In the 18th and 19th centuries, young naturalists routinely shipped out for destinations that must have seemed almost as remote as the moon is to us now, often traveling not for days, but for months or years. They went of course without G.P.S. devices, or anti-malarial drugs, or any of the other safety measures we now consider routine.
Disease was the unrelenting killer. But death also came by drowning, shipwreck, gun accidents, snakebites, animal attacks, arsenic poisoning, ritual beheading, or almost any other means you care to name. In California on his honeymoon, one birder rigged a safety rope and climbed a tall pine tree to reach a nest. But the rope slipped when he fell and he choked to death as his bride looked on. On expeditions for the Dutch Natural History Commission to what is now Indonesia, 11 naturalists died over a period of 30 years. Click here to see a slide show of this group’s discoveries and sacrifices.
Survival had its own perils: Rumphius, a 17th-century naturalist in the East Indies, was struck blind at 42, lost his wife and daughter to an earthquake, saw his collections destroyed by fire, sent off the first half of his magnum opus on a ship that sank, and finally, after re-doing his work, found that his employer meant to keep it proprietary. (Happily, Rumphius’s “Ambonese Herbal” will be published in English for the first time this spring, only 300 years too late.)
GeckoNational Natural History Museum, Leiden, The NetherlandsGecko (Platyderma monorchis). Drawing by Pieter van Oort from an expedition in 1828.
No doubt the species seekers undertook such risks partly for the adventure. (“Hunted by a tiger when moth-catching,” one wrote. “Hunt tigers myself.”) They also clearly loved the natural world. “I trembled with excitement as I saw it coming majestically toward me,” Alfred Russel Wallace wrote, of a spectacular butterfly in the East Indies, “& could hardly believe I had really obtained it till I had taken it out my net and gazed upon its gorgeous wings of velvet black & brilliant green, its golden body & crimson breast … I have certainly never seen a more gorgeous insect.” Naturalists were also caught up body and soul in the great intellectual enterprise of collecting, classifying and coming to terms with the diversity of life on Earth.
It would be difficult to overstate how profoundly they changed the world along the way. Many of us are alive today, for instance, because naturalists identified obscure species that later turned out to cause malaria, yellow fever, typhus, and other epidemic diseases. And a month after capturing that butterfly, Wallace pulled together the ideas that had been piling up during his years of field work and, trembling with malarial fever, wrote Darwin the proposal that would become their joint theory of evolution by natural selection.
This brings me to a small proposal: We go to great lengths commemorating soldiers who have died fighting wars for their countries. Why not do the same for the naturalists who still sometimes give up everything in the effort to understand life? (Neither would diminish the sacrifice of the other. In fact, many early naturalists were also soldiers, or, like Darwin aboard H.M.S. Beagle, were embedded with military expeditions.) With that in mind, I constructed a very preliminary Naturalists’ Wall of the Dead for my book, “The Species Seekers,” to at least assemble the names in one place. (A version of it can be viewed here.)
But it also occurs to me that they might prefer to be remembered some other way than on a stone monument, or on paper. So here is another idea: On their first trip as part of Conservation International’s Rapid Assessment Program, Gentry and Parker helped bring international attention to an Amazonian region of incredible, and unsuspected, diversity. (Parker found 16 parrot species there and projected that it might be home to 11 percent of all bird species on Earth.) As a result in 1995, Bolivia created the Madidi National Park, protecting 4.5 million acres, an area the size of New Jersey, and all the species within it. Peru soon designated the adjacent slope of the Andes as the Bahuaja-Sonene National Park, protecting an additional 802,750 acres.
Like many species seekers, Gentry and Parker did not live to see their discoveries bear fruit. But I am pretty sure that this would be their idea of a fitting memorial.
Honoring the dead is good. We can do it by protecting the living.

Special thanks to Chris Smeenk of the National Natural History Museum, Leiden, The Netherlands (NCB Naturalis), and Andreas Weber of the University of Leiden for collecting the images for the slide show.
Richard Conniff
Richard Conniff’s work has appeared in Smithsonian, National Geographic, Time, The Atlantic, The New York Times Magazine, and on National Public Radio. He is the author of several books, most recently, “The Species Seekers: Heroes, Fools, and the Mad Pursuit of Life on Earth.” He blogs at strangebehaviors.com. Twitter: @RichardConniff.

Fibrinolisis en los pacientes más ancianos con ictus isquémico agudo


REMI envía todos sus contenidos gratuitamente por correo electrónico a más de 8.800 suscriptores. [Suscripción]
La revista se publicó por primera vez en enero de 2001, y este mes cumple 10 años. Lee el mensaje de presentación de hace 10 años.
Artículo nº 1591. Vol 11 nº 1, enero 2011.
Autor: Beatriz Sánchez Artola

Fibrinolisis en los pacientes más ancianos con ictus isquémico agudo
Artículo original: Thrombolysis in very elderly people: controlled comparison of SITS International Stroke Thrombolysis Registry and Virtual International Stroke Trials Archive. Mishra NK, Ahmed N, Andersen G, Egido JA, Lindsberg PJ, Ringleb PA, Wahlgren NG, Lees KR. BMJ 2010; 341: c6046. [Resumen] [Artículos relacionados]

Introducción: La edad ha sido hasta ahora un criterio absoluto para desestimar la fibrinolisis en el ictus isquémico. Los pacientes de más de 80 años son excluidos sistemáticamente de los ensayos clínicos en este campo, cuando paradójicamente son la principal población diana de esta enfermedad. Pero disponemos de datos clínicos procedentes de centros que tratan a estos enfermos. Un metaanálisis previo de datos agregados [1] no encontró un mayor riesgo de hemorragia intracerebral (principal argumento en contra de la indicación en la población añosa), siendo atribuibles los peores desenlaces en este grupo de edad a las comorbilidades.

Resumen: Se comparan los datos de los pacientes sometidos a fibrinolisis del registro SITS-ISTR (Safe Implementation of Treatment in Stroke-International Stroke Thrombolysis Registry), con un grupo control de pacientes no trombolisados, procedentes de ensayos clínicos sobre neuroprotección del registro VISTA (Virtual International Stroke Trials Archive). Incluyeron 23.334 pacientes del SITS-ISTR con 90 días de seguimiento y 6.166 controles del VISTA. El pronóstico global a los 3 meses, valorado mediante la escala de Rankin modificada, fue más favorable en el grupo de tratamiento (OR 1,6 IC 95% 1,5-2,7). La ventaja se mantenía al estratificar por edad con una OR ajustada de 1,4 (IC 95% 1,3-1,6) en los mayores de 80 años. En el análisis secundario (dicotomizando la escala Rankin) los resultados siguen siendo mejores con el uso de fibrinolisis en los mayores, con OR 2,1 (IC 95% 1,7-2,5) para pronóstico favorable (Rankin 0-2), OR 1,9 (IC 95% 1,5-2,3) para pronóstico excelente (Rankin 0-1) y OR 0,89 (IC 95% 0,76-1,04) para mortalidad. El NNT para conseguir un Rankin de 0-2 en los mayores de 80 años fue de 8. En el análisis por grupos de edad sectorizados en décadas, los desenlaces fueron mejores con fibrinolisis en todos excepto en los menores de 21 y los mayores de 90. La incidencia de hemorragia intracerebral sintomática no fue significativamente mayor en los fibrinolisados mayores de 80 años que en los más jóvenes (2,5% frente a 1,9%; OR 1,3; IC 95% 0,96-1,8).

Comentario: A pesar de los potenciales defectos de ajuste por no tratarse de un ensayo clínico, los resultados parecen demostrar que la edad avanzada es una contraindicación infundada para la fibrinolisis, más basada en el temor que en datos objetivos. Teniendo en cuenta el rápido aumento del grupo de población mayor de 80 años y las características epidemiológicas del ictus isquémico probablemente deban replantearse las contraindicaciones [2].
Beatriz Sánchez Artola
Hospital Infanta Leonor, Madrid
©REMI, http://remi.uninet.edu. Enero 2011.

Enlaces:
  1. Intravenous thrombolysis in stroke patients of > or = 80 versus < 80 years of age--a systematic review across cohort studies. Engelter ST, Bonati LH, Lyrer PA. Age Ageing 2006; 35(6): 572-580. [PubMed]
  2. Intravenous alteplase for stroke in those older than 80 years old. Ford GA, Ahmed N, Azevedo E, Grond M, Larrue V, Lindsberg PJ, Toni D, Wahlgren N.Stroke 2010; 41(11): 2568-2574. [PubMed]
Búsqueda en PubMed:
  • Enunciado: Artículos recientes sobre la fibrinolisis en el ictus en pacientes de más de 80 años
  • Sintaxis: acute ischemic stroke AND thrombolysis AND "published last year"[Filter] AND "aged, 80 and over"[mh]
  • [Resultados]
Palabras clave: Ictus isquémico agudo, Ancianos, Fibrinolisis.

lunes, 17 de enero de 2011

La investigación experimental busca acorralar a la atrofia muscular espinal

UNA PATOLOGÍA RARA, PERO RELATIVAMENTE COMÚN

La investigación experimental busca acorralar a la atrofia muscular espinal

La atrofia muscular espinal es una patología rara, pero relativamente común que afecta a una de cada 6.000-10.000 personas. Actualmente están en marcha tres líneas de investigación principales que se han mostrado muy eficaces en ratones, por lo que se espera que en los próximos años se intenten trasladar a especies superiores y después a humanos.
Karla Islas Pieck. Barcelona - Jueves, 2 de Diciembre de 2010 - Actualizado a las 00:00h.



com
     
  •  
Eduardo Tizzano
Eduardo Tizzano, del Servicio de Genética del Hospital San Pablo, de Barcelona.
Tres líneas de investigación que plantean abordajes bien diferentes pretenden encontrar una solución para los pacientes con atrofia muscular espinal, una patología rara pero relativamente común que está causada por la pérdida y degeneración de las neuronas motoras del asta anterior de la médula espinal. En el II Simposio Internacional Los genes SMN y la atrofia muscular espinal: quince años de progreso, organizado por el Hospital de San Pablo, de Barcelona, se han dado cita los expertos más reconocidos a nivel mundial en este campo.
En la reunión científica ha participado Judith Melki, de la Universidad de París y el Hospital Bicêtre, en Francia, que fue la que identificó y clonó el gen SMN 1 (Survival Motor Neuron) en el año 1995. Este gen, que es el determinante de la enfermedad, tiene la función de producir la proteína esencial SMN completa. En los pacientes con atrofia muscular espinal este gen está ausente o mutado.Asimismo, se sabe que el gen homólogo SMN2 está presente en todos los pacientes y es capaz de producir la proteína SMN, pero de forma incompleta y no funcional. Esto es suficiente para vivir, pero provoca que aparezca la enfermedad.
Eduardo Tizzano, del departamento de Genética del Hospital de San Pablo, ha explicado que una de las posibles terapias que se están investigando se centra precisamente en la presencia del SMN2, y está enfocada en intentar que produzca más proteína SMN por medio de fármacos como el fenilbutirato y el salbutamol.Otro de los abordajes actuales, que está probando Adrian Krainer, de los Laboratorios Cold Spring Harbor, en Nueva York (Estados Unidos), plantea el uso de oligonucleótidos que se pegan al ARN y desencadenan un efecto de terapia antisentido para facilitar la producción de la proteína SMN completa.
Otra de las líneas de trabajo que está probando Arthur Burghess, de la Universidad de Ohio, en Columbus (Estados Unidos), es intentar introducir el gen SMN1 por medio de terapia génica utilizando unos adenovírus denominados scAAV9 como vector, que se han mostrado capaces de atravesar la barrera hematoencefálica en ratones y han logrado aumentar la supervivencia de 15 ó 20 días a 200 días.
El grupo de Tizzano, en San Pablo, está investigando in vitro el efecto de algunos fármacos sobre células de pacientes para comprobar si el axón, la unión neuromuscular o el músculo son también órganos diana y no sólo las neuronas motoras. Estos científicos ya cuentan con algunas evidencias al respecto y con la hipótesis de que podrían tener una participación activa en la fisiopatología de la enfermedad.