jueves, 24 de noviembre de 2011

"Leer sigue siendo la base del conocimiento"


"Leer sigue siendo la base del conocimiento"
El continuo desarrollo tecnológico ha modificado los modos de enseñar y de aprender irremediablemente, pero esta alfabetización digital es mucho más que manejarse entre ratones y teclas.
FUENTE | El País Digital24/11/2011
Así lo ha defendido Lluís Font, secretario de Políticas Educativas del Departament d'Ensenyament de la Generalitat de Catalunya, en la tercera jornada de la XXVI Semana Monográfica de la Educación que Fundación Santillana dedica este año a los retos docentes planteados por la sociedad digital. "La tecnología tiene que ser propedéutica e instrumental, no está justificada si no logra un objetivo educativo aunque aporte motivación a los alumnos", advierte Font. "La escuela no requiere una googlelización, sino herramientas innovadoras que complementen a las tradicionales", ha añadido. El secretario de Políticas Educativas de la Generalitat catalana se suma a la postura crítica que expone Finkielkraut Alain, profesor de filosofía de la École polytechnique, en Internet: el éxtasis inquietante. La obra cuestiona la utilidad de las TIC para mejorar el rendimiento escolar de los alumnos, que tienden a distraerse con el formato, más allá de los contenidos.

Font considera que tecnología puede dar buenos resultados en las aulas si se matiza la propuesta a las necesidades de cada centro. Propone que los colegios e institutos puedan escoger el presupuesto que quieren invertir en digitalizarse y que dependa de ellos la decisión de aplicar filtros en los ordenadores o dejar a los alumnos libertad en el uso de la Red. "La alfabetización digital puede contribuir a democratizar aún más la educación y a alimentar la inteligencia colectiva, pero la sociedad necesita tiempo para digerir este paso. Si apresuramos el cambio de paradigma sin marcar una hoja de ruta clara podemos distorsionarlo y permitir que nos devore la industria", cita en referencia crítica al consumo masivo de nuevas tecnologías. "El modelo deseable es el que combina el libro tradicional con recursos digitales. Leer sigue siendo la base de la adquisición de conocimiento", opina el secretario de Políticas Educativas del Departament d'Ensenyament de la Generalitat de Catalunya. 

Ferran Ruiz, presidente del Consejo Escolar de Cataluña ha puesto en duda que las TIC condicionen en exclusiva el futuro de la educación: "La calidad de la enseñanza se basa más en las sinergias del profesorado que en su virtuosismo. Si nos centramos en la utilización de recursos digitales sin una buena guía del tutor, vamos camino de la perdición".

Ruiz ha expuesto distintos escenarios para la escuela futura que van desde un sistema fuertemente institucionalizados y en recesión donde la falta de financiación ancle al claustro en anclarse en 'lo de siempre' a otro integrado por colegios privados mercantilizados que condicionen sus elecciones a la rentabilidad y su posicionamiento en rankings de competitividad. "No está claro que va a pasar, por eso hay que mantener una actitud crítica y vigilante", concluye. 

Marta Codina y Laura Mateo, directora y coordinadora de Bachillerato del Instituto Guillem Catà de Manresa (Barcelona), han obviado las predicciones para narrar la experiencia actual de su centro, que se encuentra en un barrio de la periferia de Manresa y cuenta con un 36% de alumnado inmigrante, con una situación socioeconómica media-baja. El instituto se salta los tópicos y cuenta con pizarras digitales, ordenadores y proyectores en el 90% de las aulas. Los profesores llevan elaborando materiales digitales de creación propia desde 2007 y utilizan software libre para potenciar las buenas prácticas informáticas. "Al principio había reticencias por parte del profesorado, no porque no se sintieran capaces de adaptarse o porque no les faltara motivación. Tenían dudas sobre cómo controlar que los chicos accedieran a páginas inadecuadas o si darían un buen uso a los materiales. También los padres nos preguntaban cómo podían ayudar a su hijo a hacer los deberes sin conocer el funcionamiento del libro digital", recuerda Codina. En Guillem Catà se rigen por el Programa EduCAT 1x1 que está basado en el modelo un ordenador por alumno. Eso les permite una mayor autonomía del estudiante en el uso de las TIC y que pueda llevárselo a casa para continuar trabajando con él. Sin embargo, su acogida es más bien tibia en el entorno escolar, porque para justificar la inversión sería necesario acreditar un uso intensivo que, hoy por hoy, no parece exigirse en la enseñanza primaria y secundaria, pero que va extendiéndose con rapidez en el sector universitario. La crisis también ha ralentizado el programa de este centro de Manresa y los alumnos de 1º de ESO tienen que conformarse con que la digitalización la lidere el profesor con un ordenador y una pizarra digital por aula. "No hay recetas mágicas, pero tampoco sería bueno negarse este sinfín de posibilidades", ha concluido Mateo. 

Autor:   Aurora Muñoz

martes, 22 de noviembre de 2011

edu4java, extraordinario vídeo tutorial en español para aprender a programar apps Android


edu4java, extraordinario vídeo tutorial en español para aprender a programar apps Android

0 comentariosadminPor Juan Luis Bermúdez El 22 de November de 2011
   
      votar
Esta misma mañana he mantenido una conversación, con un contacto de mis círculos de Google Plus, relativa a manuales o guías de programación para Android en idioma español. Sin duda, Android atrae el interés de los desarrolladores al tratarse de una plataforma con gran proyección de futuro, que ya copa un elevado porcentaje de smartphones, tablets y netbooks.
Aunque se pueden encontrar algunas guías online, para quienes desean iniciarse en la programación de aplicaciones para Android, creo que nada mejor que un vídeo tutorial donde se nos explica detalladamente cada uno de los pasos que debemos seguir, al mismo tiempo que podemos verlos.
Y para encontrar esta guía en vídeo lo mejor es echar un vistazo al canal en YouTube deedu4java. Aquí podemos encontrar más de un centenar de vídeos sobre programación Java, con explicaciones detalladas y muy fáciles de asimilar. Os dejo el enlace a la playlist del tutorial de Android, de este canal, y el primer vídeo de la colección.

lunes, 21 de noviembre de 2011

ATLAS CELESTE


http://www.odisea2008.com/2011/11/atlas-celeste.html

LUNES 21 DE NOVIEMBRE DE 2011

ATLAS CELESTE

John Flamsteed, (1646 - 1719) fue un astrónomo británico, Primer Astrónomo Real, quien tuvo a su cargo la creación del Observatorio de Greenwich. Es el autor del catálogo estelar Atlas Coelestis.

Nació en Denby, Derbyshire, Inglaterra. Fue ordenado diácono y se preparaba para establecerse en Derbyshire, cuando fue invitado a Londres. El 4 de marzo de1675, fue designado, por decreto real, como "Observador Astronómico del Rey”, primer Astrónomo Real británico. En junio de 1675, otro decreto real proveyó lo necesario para el establecimiento del observatorio de Greenwich, poniendo Flamsteed la primera piedra en agosto de dicho año. En febrero de 1676, fue admitido como Miembro de la Royal Society, y en julio se trasladó al observatorio, donde vivió hasta 1684, cuando finalmente fue ordenado ministro de la parroquia de Burstow, Surrey. Mantuvo dicho cargo, así como el de "Astrónomo Real", hasta su muerte. Fue enterrado en Burstow.

Flamsteed calculó con precisión los eclipses solares de 1666 y 1668. Fue responsable de una de las primeras observaciones del planeta Urano, a pesar de haberlo confundido con una estrella y catalogarlo como 34 Tauri.

Flamsteed en 1704 elaboró un documento con el contenido de lo que sería su obra Coelestis Historiae y lo distribuyó a una serie de amigos y aunque no era su intención fue leído en una reunión de la Royal Society. Una delegación de la Sociedad, encabezada por Newton presiono ante el príncipe Jorge de Dinamarca, consorte de la Reina, que accedió a financiar la publicación. La edición de las observaciones de Flamsteed se llevo a cabo pero muy lentamente, cuando murió el príncipe se le encomendó a Halley la tarea de publicar el resto de las observaciones y el catálogo de estrellas incompleto, Halley hizo numerosos cambios, altero la descripción de las estrellas y añadió algunas que no estaban en el original. Esta versión muy alterada e incompleta fue publicada en 1712, lo que enfureció a Flamsteed.

En 1715 después de hacer una solicitud a los señores de la Tesorería, Flamsteed tuvo éxito en la obtención de los 300 ejemplares no vendidos de la Coelestis Historia. A continuación, hizo "un sacrificio s a la verdad celestial" haciendo una hoguera con ellos en Greenwich. Flamsteed siguió preparando su propia versión de la obra, pero murió antes de que se completara. Su esposa y sus dos ex asistentes, José Crosthwait y Sharp Abraham, prepararon su publicación. Finalmente, apareció en 1725, tal y como Flamsteed lo había querido, la Historia Coelestis Britannica. La obra, contenía sus observaciones para el período de 1675 a 1719, incluyendo un catálogo de alrededor de 3.300 estrellas, significativamente más preciso que cualquier otro trabajo anterior, incluidos los catálogos de Tolomeo y Landgrave. Esta fue considerada como la primera contribución significativa del Observatorio de Greenwich. Posteriormente en 1729 el Atlas Coelestis completa la obra.

Se realizaron muchas ediciones del Atlas Coelestis, cuyas láminas son accesibles en línea en varias web, en distintas resoluciones y tamaños, les indico a continuación algunos link y veremos algunas de las imágenes que pueden encontrar en ellos.

Comenzamos por Atlas Coelestis de Felice Stoppa http://www.atlascoelestis.com/ un proyecto para la publicación en la web de los trabajos de los astrónomos y artistas que realizaron la cartografía celeste desde el cinquecento ( 500 d.C), donde tienen una reproducción del Atlas coelestis, Londra Edizione del 1753 colorata a mano (Atlas Coelestis editado en Londres en 1753 coloreado a mano) de John Flamsteed ENLACE , con 25 laminas representando todas las constelaciones del hemisferio boreal, mas dos últimos grabados que reproducen la carta general del hemisferio y que no son atribuidas a Flamsteed, este atlas recoge el trabajo del primer director del Observatorio de Greenwich en sus cuarenta y tres años de observaciones.

Les aconsejo amplíen las imágenes picando sobre ellas y un vez en el servidor escojan el tamaño original, en el formato utilizado para editarla en el blog no se aprecian bien.

001-Geminis y el Auriga-Atlas Coelestis-coloreado a mano edicon de 1753 Londres-John Flamsteed

002-Piscis-Atlas Coelestis-coloreado a mano edicon de 1753 Londres-John Flamsteed

003-La Osa Mayor-Atlas Coelestis-coloreado a mano edicon de 1753 Londres-John Flamsteed

004-Ofiucus y la Serpiente-Atlas Coelestis-coloreado a mano edicon de 1753 Londres-John Flamsteed

005-El pastor la Cabellara de Verenice y el Can-Atlas Coelestis-coloreado a mano edicon de 1753 Londres-John Flamsteed

006-Seccion del Planisferio Boreal-Atlas Coelestis-coloreado a mano edicon de 1753 Londres-John Flamsteed

En la Special Collections of the University of Michigan Shapiro Science Library ENLACEpueden ver una primera edición de 1729 de la obra (con mapas en blanco y negro), en el mayor tamaño y resolución que he encontrado en Internet. Pueden ver y/o descargar las imágenes en Tiff en dimensiones desde 103x126 pixeles hasta prácticamente tamaño poster 6648 x 8110.

007-Acuario-Atlas Coelestis 1729- John Flamsteed- University of Michigan Shapiro Science Library

008-Atlas Coelestis 1729- John Flamsteed- University of Michigan Shapiro Science Library

009-Andromeda-Perseo y el Triangulo-Atlas Coelestis 1729- John Flamsteed-University of Michigan Shapiro Science Library

010-Hemisferio Boreal-Atlas Coelestis 1729- John Flamsteed-University of Michigan Shapiro Science Library

Imagen a 4638 x 4302 pixeles, tamaño 64,42 x 59,75 cms. Y aun tienen la posibilidad de descargarla ¡al doble de tamaño!.

011- Taurus y Orion-Atlas Coelestis 1729- John Flamsteed-University of Michigan Shapiro Science Library

012-Ofiuco y la serpiente-Atlas Coelestis 1729- John Flamsteed-University of Michigan Shapiro Science Library

013-El lince y el Leon Menor-Atlas Coelestis 1729- John Flamsteed-University of Michigan Shapiro Science Library

014-Hercules-Lira y Corona-Atlas Coelestis 1729- John Flamsteed-University of Michigan Shapiro Science Library

015-Virgo-Atlas Coelestis 1729- John Flamsteed-University of Michigan Shapiro Science Library

En la National Library of Australia tienen una edición del Atlas de 1753 a tamaño mediano, aunque pueden ampliar en línea mediante zoom. ENLACE

016- Taurus-Atlas Coelestis 1753- John Flamsteed- National Library of Australia

En Linda Hall Library tienen varias ediciones del Atlas además de láminas sueltas a mediano tamaño ENLACE

017-Flamsteed, John, 1804, Atlas celeste arranjado por Flamsteed, John. Gemini

En Panteek encuentran láminas coloreadas de una edición de 1795, pero…con marca de agua incorporada ENLACE

018-Sagitario-Atlas Coelestis 1795-John Flamsteed-Panteek

En la Rare book collections the Vienna University Observatory se pueden descargar en pdf dos versiones de una edición de 1753 B&W medium (14.6 MB) Colour medium (16.8 MB)aunque la calidad no es magnífica precisamente, aquí tienen una lámina del primero:

019-Libra-Atlas Coelestis 1753- John Flamsteed- Rare book collections the Vienna University Observatory

¡Y esto es todo amigos!, que diría Bugs Bunny.

Saludos.

Síndrome de abstinencia en neonatos


Actualización del manejo farmacológico de los neonatos con síndrome de abstinencia.
Update on the pharmacologic management of neonatal abstinence syndrome
L L Bio, A Siu and C Y Poon
Journal of Perinatology (2011) 31, 692-701; doi:10.1038/jp.2011.116; published online 25 August 2011
Although a statement on Neonatal Drug Withdrawal was published in 1998 by the American Academy of Pediatrics, pharmacologic management of neonatal abstinence syndrome (NAS) remains a challenge. Published clinical trials are limited, restricting treatment decision making to practitioner's experience and preference rather than evidence-based medicine. To optimize withdrawal symptom prevention, drug selection is often based on the offending agent (opioids versus polysubstance exposure), clinical presentation, mechanism of action (agonist versus partial agonist/antagonist, receptor effects), pharmacokinetic parameters and available drug formulations. This review addresses risk factors and pathophysiology of NAS, summarizes parameters of common drugs used for the management of NAS, and reviews published literature of standard therapies as well as newer agents. Based on the current literature, paregoric is no longer recommended and oral morphine solutions remain the mainstay of therapy for opiate withdrawal. Other potential therapies include methadone, buprenorphine, phenobarbital and clonidine with the latter two agents as adjunctive therapies.
Keywords: buprenorphine; methadone; morphine; opioids; tincture of opium
http://www.nature.com/jp/journal/v31/n11/pdf/jp2011116a.pdf
 
Manejo ocasional de la exposición de neonatos a narcóticos
The occasional management of narcotic exposure in neonates.
Kelly L, Minty B, Madden S, Dooley J, Antone I.
Division of Clinical Sciences, Northern Ontario School of Medicine, Sioux Lookout, Ont. lkelly@mcmaster.ca
Can J Rural Med. 2011 Summer;16(3):98-101.
Abuse of long-acting oxycodone is becoming commonplace  in northwestern Ontario. Among the many social and medical problems that arise from this is an increased incidence of use during pregnancy, leading to passive exposure and withdrawal in neonates. There are few Canadian data on the incidence of maternal narcotic abuse or neonatal abstinence syndrome (NAS). Standardization of diagnosis and treatment is still developing in the literature, as are treatment protocols among institutions. This paper will summarize relevant research findings and practical
treatment options for rural clinicians.
http://www.cma.ca/multimedia/staticContent/HTML/N0/l2/cjrm/vol-16/issue-3/pdf/pg98.pdf  
Atentamente
Dr. Enrique Hernández-Cortez
Anestesiología y Medicina del Dolor

Mejora en la detección precoz del cáncer de mama


Mejora en la detección precoz del cáncer de mama
Un estudio realizado en la Universidad Politécnica de Madrid (UPM) consigue una importante mejora en la clasificación de datos de cáncer de mama.
FUENTE | UPM - mi+d21/11/2011
Investigadores del Grupo de Automatización en Señal y Comunicaciones de la Universidad Politécnica de Madrid (GASC/UPM) han aplicado un nuevo método de aprendizaje para redes neuronales artificiales inspirado en la metaplasticidad sináptica de las neuronas biológicas, que ha permitido clasificar los patrones de cáncer de mama de la base de datos Wisconsin (WBCD), referencia internacional en mamografías, con una exactitud del 99.63%.
cancer mama
Neuronas biológicas (arriba) y unión sináptica en detalle (abajo)
El cáncer es una de las principales causas de mortalidad en todo el mundo y la investigación en su diagnóstico y tratamiento se ha convertido en un tema de vital importancia para la comunidad científica. La prevención sigue siendo un reto, y la mejor manera de aumentar la supervivencia de los pacientes es a través de la detección temprana. Si las células cancerosas son detectadas antes de su diseminación a otros órganos, la tasa de supervivencia es superior al 97%. Por esta razón, el uso y perfeccionamiento de clasificadores automáticos que den soporte al diagnóstico médico se ha incrementado notablemente en los últimos tiempos. Estos sistemas de clasificación tratan de minimizar los posibles errores producidos por los especialistas, aumentar el número de diagnosis que pueden realizar en un tiempo dado, y su porcentaje de éxito. La mayoría de estos sistemas están basados en técnicas de inteligencia artificial combinadas con procesado de señal, principalmente: redes neuronales artificiales, análisis wavelet, análisis de imágenes mediante modelos Bayesianos, máquinas de vector soporte, lógica difusa y modelos fractales entre otras potentes técnicas matemáticas. 

Es concretamente una red neuronal artificial (AMMLP), entrenada con un nuevo método (Metaplasticidad Artificial) propuesto por el profesor Diego Andina y aplicado a datos de cáncer por el investigador Alexis Marcano-Cedeño, ambos pertenecientes al Grupo de Automatización en Señal y Comunicaciones de la Universidad Politécnica de Madrid (GASC/UPM), la que ha conseguido los mejores resultados hasta el momento. 

METAPLASTICIDAD
El concepto de la Metaplasticidad biológica fue definido en 1996 por Abraham W.C. El prefijo “meta” viene del griego y significa “más allá” o “por encima”, y la palabra “plasticidad” está relacionada con la capacidad que tienen las neuronas de modificar el valor de la fuerza de las uniones sinápticas. Abraham definió la metaplasticidad como la inducción de los cambios sinápticos en función de la actividad sináptica previa, es decir, que la metaplasticidad depende en buena medida del historial de activación de las sinapsis, y formuló la hipótesis de que la metaplasticidad juega un importante papel en la estabilidad (homeóstasis), eficiencia del aprendizaje y mecanismo de memoria biológica. 

BASE DE DATOS DEL CÁNCER DE MAMA DE WISCONSIN (WBCD) 
Esta base de datos es una de las más conocidas y utilizada para probar algoritmos de clasificación de patrones de cáncer de mama. La WBCD consta de 699 muestras. Cada registro de la base de datos tiene nueve atributos. Se asignan valores enteros de 1 a 10 a las evaluaciones, siendo 1 el más cercano benigno y 10 el más cercano a maligno. Cada muestra se asocia también con una etiqueta de clase, que puede ser “benigno” o “maligno”. Este conjunto de datos contiene 16 entradas con valores de atributos desaparecidos que en este estudio se excluyeron del análisis. La base de datos contiene 444 (65,0%) muestras benignas y 239 (35,0%) muestras malignas. 

COMPARACIÓN Y DISCUSIÓN
cancer mama
Diagnosis sobre mamografías asistida por ordenador
Los resultados obtenidos en este estudio se compararon con otros resultados, concretamente con los algoritmos actuales de mayor éxito, sobre la base de datos de Wisconsin. 

El AMMLP obtuvo una exactitud en la clasificación de 99,63% en la mejor simulación y un 99,58% como promedio, mejorando los resultados del resto de clasificadores. Además el AMMLP, en comparación con otros algoritmos, exhibe un bajo costo computacional y es fácil de implementar. El éxito del sistema propuesto refuerza algunas de las hipótesis de Abraham, y establece otras nuevas, lo que podría dar lugar a consecuencias relevantes no sólo en medicina, sino en la psicología y la cibernética. 


Bibliografía: A. Marcano-Cedeño, J. Quintanilla-Dominguez, D. Andina. “WBCD Breast Cancer Database Classification Applying Artificial Metaplasticity Neural Network”. Expert Systems with Applications. Vol. 38(8) pp. 9573-9579. 2011
Wiickliffe C. Abraham“Metaplasticity: Key Element in Memory and Learning?”. News in Physiological Sciences, Vol. 14, No. 2, 85, April 1999 

¿Cómo reacciona nuestro cerebro ante acontecimientos inesperados?


¿Cómo reacciona nuestro cerebro ante acontecimientos inesperados?
Investigadores de la Universidad Complutense de Madrid (UCM) han llevado a cabo un estudio que revela que el cerebro responde a desenlaces emocionales inesperados independientemente de la dirección del cambio emocional y sugiere la posibilidad de que la fuerza de expectativas positivas y negativas pueda ajustarse antes de la experimentación de acontecimientos inesperados.
FUENTE | UCM - mi+d21/11/2011
Continuamente estamos procesando el entorno y, de modo consciente o no, detectamos congruencias y divergencias con lo que esperamos que ocurra. En Psicología se ha demostrado la existencia de sesgos o ilusiones positivas en personas psicológicamente saludables en tres dominios: en el concepto de uno mismo (autoestima), en el grado de control que uno considera que ejerce sobre su entorno (ilusión de control), y en la predicción de acontecimientos futuros (sesgos positivos). Los estudios de la actividad eléctrica cerebral humana pueden constituir una formidable ventana a los procesos a través de los cuales se regulan nuestras expectativas de futuro (positivas o no). Estos estudios llamados de ERPs, por sus siglas en inglés de Event-Related Potentials, han demostrado que en tareas de comprensión lectora existe un componente (la N400) muy sensible al grado de expectativa de una palabra en un contexto. 

EL CASO CONCRETO DE LA EXPECTATIVA DE UNA PALABRA AL FINAL DE UNA FRASE

Un estudio realizado por investigadores de la Universidad Complutense de Madrid explora las respuestas del cerebro -a través de la actividad eléctrica cerebral- al procesamiento de expectativas positivas y negativas, cumplidas e incumplidas, durante la tarea de comprensión de una frase. 

La expectativa de una palabra en un contexto específico se mide a priori a través de cuestionarios llamados de “probabilidad de cierre” en los que se presentan oraciones incompletas a una muestra solicitando a los participantes que indiquen cual sería la palabra más altamente esperada en ese contexto. Por ejemplo, “Cuando volví de vacaciones salí al jardín y regué las...”. Estas frases se emplean posteriormente en estudios en los que se examina la respuesta cerebral de otros participantes leyendo las oraciones mientras se registra su electroencefalograma (EEG). Es entonces cuando el componente N400 del ERP revela ser un indicador del grado de expectativa, puesto que su amplitud es mayor para lo inesperado (ej. margaritas) que para lo altamente esperado (ej. plantas). 

“Para este estudio diseñamos una extensa batería de oraciones intencionadamente sesgadas para generar la expectativa de una palabra concreta dentro de un contexto emocional negativo o positivo. Por ejemplo, “En el borde del acantilado, alguien vino por detrás y le...” (contexto sesgado negativamente) ó “Después de 10 años de matrimonio, todavía seguían estando muy...” (contexto sesgado positivamente). Medimos la probabilidad de generar espontáneamente palabras que mostraban expectativas negativas en la oración sesgada negativamente (p. ej.: la palabra “empujó” fue elegida por el 79% de los participantes) y positivas en la oración sesgada positivamente (p. ej.: “enamorados” fue elegida por el 73% de los participantes)”, explica Carmelo Vázquez Valverde, catedrático de Psicopatología de la UCM y coautor del estudio publicado en la revista Biological Psychology. Con este esquema se seleccionó finalmente un conjunto de oraciones con el requisito de que las palabras esperadas como final de oración fueran igualmente esperadas independientemente de la emocionalidad del contexto, es decir que no hubiera diferencias significativas entre la probabilidad de generar expectativas negativas ó positivas, al menos sobre el papel. Estas frases fueron el conjunto de estímulos experimentales que se utilizó en las sesiones de lectura y registro del EEG. Cada frase fue presentada aleatoriamente bien con su final altamente esperado o bien con otra palabra de menor probabilidad (0.8%) que alteraba el sentido emocional de lo esperado en el contexto (por ejemplo, “rescató” en la oración negativamente sesgada y “mal” en la oración positivamente sesgada). De este modo se conseguía que los sujetos se vieran forzados a procesar un final inesperado que constituía una sorpresa agradable (mejor de lo esperado) o una decepción (peor de lo esperado). Como condición experimental de control se introdujeron finales de oración sin sentido (por ejemplo, “inventó” y “soleados” en las oraciones negativa y positivamente sesgadas, respectivamente), dado que el componente N400 alcanza su máxima amplitud en respuesta a violaciones semánticas manifiestas. 
cerebro
Figura 1: Ejemplos de oraciones y de los finales que aleatoria e impredeciblemente se presentaron asociados a ellas. Fuente: adaptada de la figura 1B del artículo Biological Psychology 88 (2011) 131-140.
LA MAYOR AMPLITUD DE N400 SE REGISTRA EN LOS CASOS DE FINALES DE ORACIÓN SIN SENTIDO
Los resultados del estudio mostraron que la respuesta cerebral a un sinsentido en un contexto emocional genera una amplia N400 independientemente de la emocionalidad del contexto (Fig. 1a). La respuesta a los finales emocionalmente opuestos generó también una respuesta N400 de menor amplitud puesto que dichos finales eran improbables o inesperados pero, a pesar de ello, eran plausibles (Fig. 1b). Además, estos finales generaron a continuación de la N400 una positividad en electrodos frontales (post N400 frontal positivity) cuya interpretación funcional es todavía incierta pero que probablemente se asocia al coste de una predicción o de una expectativa muy intensa que se incumple. Lo más sorprendente es que los finales altamente esperados y equiprobables (“empujó” y “enamorados”), que por definición generan una N400 de reducida amplitud por su grado de previsibilidad, revelaron diferencias de amplitud en el componente N400 (Fig. 1c). Así, los finales emocionalmente negativos generaron una N400 de menor amplitud (menor “sorpresa”) que los finales positivos (mayor “sorpresa”). Estos datos indican que en situaciones experimentales en las que las expectativas de tipo emocional pueden resultar violadas inesperadamente al azar, los sujetos parecen reajustar la fuerza de sus expectativas en el momento, de modo que estas son más fuertes para lo negativo que para lo positivo o más débiles para lo positivo que para lo negativo. En cualquier caso, parece que existen estrategias cognitivas que tratan de evitar que encontremos sorpresas desagradables y que maximizan nuestra capacidad de sorpresa frente a eventos positivos, dando el cerebro muestras de ello. 

Estos resultados abren el campo para el estudio de los procesos de regulación emocional en humanos usando como medida la actividad cerebral que se registra en tareas tan comunes como las de comprensión lectora, lo que en definitiva nos permite evaluar cuales son los modelos de la realidad que manejamos al procesar nuestro entorno y, en concreto, qué es lo que hay en nuestras cabezas más allá del estímulo externo que en un momento dado nos ha “tocado” procesar. 

Los resultados de esta investigación han sido publicados en la revista Biological Psychology 88 (2011) 131-140 y presentados oralmente en el Symposium sobre “Predicción e integración en la comprensión lingüística” en el 17th Meeting of the European Society for Cognitive Psychology (septiembre 2011). 

Autor:   Eva M. Moreno Montes / Carmelo Vázquez Valverde

La tecnología y la educación: una dosis de realismo


La tecnología y la educación: una dosis de realismo
En educación existen dos puntos de vista extremos con respecto al uso de la tecnología. Por una parte, están sus defensores a ultranza, a quienes se ha dado en llamar evangelistas, y que recuerdan que una integración óptima de la tecnología permitiría cambiar el paradigma de la educación escolar, centrándolo mucho más en la actividad del alumno. Por otra parte, también hay voces que sostienen que la tecnología no es ni más ni menos que una fuente de entretenimiento que no hace más que distraer a los alumnos, y a sus docentes, de lo sustancial: aprender cosas serias.
FUENTE | El País Digital21/11/2011
Curiosamente, ninguna de estas dos perspectivas parece responder a las preguntas que un profesional de la docencia generalmente se hace y que básicamente tienen que ver con la mejora de las prácticas de enseñanza y aprendizaje, y de los resultados educativos. Por esta razón, comienza a cobrar fuerza una nueva visión centrada en el realismo: ¿Servirán estas soluciones a 'docentes como yo', es decir, a profesionales que ni pretenden ser paladines de la tecnología ni tampoco acérrimos protectores de la pizarra, sino sencillamente buenos docentes?

A estas alturas no debería ser necesario recordar las razones por las que cabría esperar que la tecnología tuviera ya una mayor presencia en las aulas. Para empezar, las hay relacionadas con los cambios en las demandas de los mercados laborales; de hecho, sabemos a ciencia cierta que la mayor parte de los alumnos que hoy están en las aulas de la ESO tendrán trabajos en los que la tecnología y el conocimiento tecnológico serán capitales. En segundo lugar, está la cuestión de la brecha digital. Ahí la escuela sigue siendo un bastión muy importante. En tercer lugar hay que recordar una vez más el flaco favor que conceptos como el de nativos digitales hacen a la educación al presuponer, erróneamente como se ha demostrado de forma empírica en multitud de ocasiones, que por el mero hecho de ser diestros en el manejo de determinados dispositivos, aplicaciones o servicios son automáticamente maduros en términos de competencias requeridas y de valores y usos responsables de la tecnología. ¿Dónde, si no es en la escuela, se puede aprender a manejar responsablemente la información y a transformarla en conocimiento? ¿Dónde se puede aprender a cooperar y a no plagiar? 

En todo caso, es innegable que las tecnologías digitales forman parte indisociable del paisaje escolar: el 93% de los alumnos de 15 años de la OCDE asisten a una escuela en la que cuentan con acceso a un ordenador y prácticamente el mismo porcentaje (92,6%) dispone igualmente de acceso a Internet. España se encuentra, en este sentido, ligeramente por debajo de la media (90%), pero ciertamente con una cifra nada despreciable. 

Pese a todo, cuando se examinan con detalle los datos acerca de los usos escolares de la tecnología emerge una imagen extremadamente compleja. Por una parte, el porcentaje de alumnos de 15 años de edad en los países de la OCDE que usa como mínimo 60 minutos a la semana el ordenador en el aula es siempre inferior al 4% en todos ellos y apenas alcanza el 1,7% en el caso del área de matemáticas. Y son estos mismos alumnos los que, en un 50%, utilizan prácticamente a diario la tecnología para realizar sus tareas escolares... en casa. Por otra parte, más del 75% de los docentes utiliza casi diariamente el ordenador para la preparación de sus clases o para la realización de tareas administrativas, por no hablar de los usos privados, cuando apenas se sirve de él en el aula. 

De esta realidad tan compleja hay quien hace lecturas extremadamente simplistas, ya sea para denigrar las inversiones realizadas o, lisa y llanamente, para enviar un mensaje de desconfianza hacia la escuela y los docentes, a quienes se les exige un esfuerzo titánico de cambio de paradigma. Sin embargo, la complejidad de los datos exige una buena dosis de realismo: lo que funciona en tecnología y educación son aquellas soluciones que permiten llevar a cabo el trabajo escolar de forma más eficiente. Esto explica por qué, por ejemplo, los alumnos utilizan masivamente la tecnología para sus trabajos escolares, aunque siendo, como muchos son, huérfanos digitales de cualquier tipo de influencia educativa sobre esta materia, confundan eficiencia con plagio o prescindan de cualquier esfuerzo de procesamiento crítico de la información -razón de más para insistir de nuevo en la importancia de la escuela en este ámbito-.

Y esta misma búsqueda de la eficiencia explica también por qué los docentes encuentran óptimas las soluciones que la tecnología les ofrece para preparar sus clases o presentar mejor los contenidos en el aula, pero no todavía para cambiar sus formas de enseñanza. Muy probablemente las soluciones tecnológicas que se proponen no son suficientemente convincentes para la gran mayoría de "docentes como yo", probablemente porque el esfuerzo que exige su adopción no parece suficientemente recompensado, ni por el sistema en forma de incentivos para la carrera profesional, ni por los resultados obtenidos, ya que la forma y los contenidos de lo que hoy se evalúa no se corresponden todavía con las expectativas y las necesidades de la sociedad y de la economía del conocimiento. 

Los datos sobre la intensidad y la variedad de los usos de la tecnología en el aula no transmiten la imagen que tal vez cabría esperar de la escuela de la sociedad del conocimiento. El análisis de las buenas prácticas en materia de tecnología y escuela muestra que uno de los factores más importantes es el maridaje entre el compromiso profesional docente, con un marco institucional favorable y un liderazgo escolar que le apoye. Si realmente se desea que las buenas prácticas se generalicen, el sistema escolar en su conjunto debe ser permeable a la innovación sistémica; es decir, debe contar con herramientas que permitan examinar con realismo en qué tareas o para qué problemas docentes pueden existir soluciones tecnológicas apropiadas, que mejoren la eficiencia del trabajo escolar o, sencillamente, que lo hagan aún más interesante. 

Puede que la tan deseable revolución en el paradigma de la educación escolar todavía tarde en llegar, pero la escuela y muchos docentes, lo mismo que los alumnos, se están moviendo: han depositado su confianza en unas soluciones tecnológicas que les permiten trabajar de forma más eficiente. Y, en el caso docente, este trabajo consiste hoy en buscar fórmulas que permitan que los alumnos aprendan más, mejor y, probablemente, distinto. 

Autor:   Francesc Pedró (Jefe de la Oficina de Tecnologías de Información y la Comunicación de la Unesco)

Acólito


 
acólito
En el castellano de hoy, 'acólito' es el monaguillo o ayudante del sacerdote que celebra algún servicio religioso. La palabra nos llegó del latín medieval acolytus, derivada del griego akholoutos 'seguidor' o, más propiamente, 'el que sigue el mismo camino conmigo'. El vocablo griego se formó mediante el prefijo a- 'juntos' ykeleuthos 'senda', 'camino'. En Grecia, los akholoutos constituían una clase privilegiada de esclavos que se desempeñaban como acompañantes de sus amos, adondequiera que estos fuesen.
En la Iglesia católica, el acólito es también el eclesiástico que tiene el ministerio del acolitado. En este sentido, en la Vida de Sanct Isidoro, obra escrita en el siglo XV por el Arcipreste de Talavera, Alfonso Martínez de Toledo, se explicaban así las funciones del acólito:
E al Acólito pertenesçe aparejar los çirios en el sagrario e levarlos delante del preste e aparejar las hostias e el vino que es menester para serviçio del altar.

Guías 2011 del ACLS


Guías 2011 del ACLS
Advanced Cardiac Life Support guidelines 2011.
Anantharaman V, Gunasegaran K.
Department of Emergency Medicine, Singapore General Hospital, Outram Road, Singapore 169608. anantharaman@sgh.com.sg
Singapore Med J. 2011 Aug;52(8):548-55; quiz 556.
Abstract
The main emphasis in the Advanced Cardiac Life Support (ACLS) guidelines are in the areas of good quality chest compressions, ensuring normoventilation, removal of atropine from the cardiac arrest algorithm, removal of the use of the endotracheal route for drug administration, and renewed focus on the care provided after return of spontaneous circulation. In addition, the need for monitoring of quality of the various care procedures is emphasised. While the various ACLS procedures are being carried out, there is a need to minimise interruptions to chest compressions for maintenance of coronary perfusion pressures. In addition, the resuscitation team needs to continually look out for reversible causes of the cardiac arrest.
http://smj.sma.org.sg/5208/5208ra4.pdf
 
¿Puede el formato del curso influenciar el rendimiento de los estudiantes en el programa ACLS?
Can course format influence the performance of students in an advanced cardiac life support (ACLS) program?
Garrido FD, Romano MM, Schmidt A, Pazin-Filho A.
Departamento de Clínica Médica, Universidade de São Paulo, Ribeirão Preto, SP, Brasil.
Braz J Med Biol Res. 2011 Jan;44(1):23-8. Epub 2010 Nov 19.
Abstract
Advanced cardiac life support (ACLS) is a problem-based course that employs simulation techniques to teach the standard management techniques of cardiovascular emergencies. Its structure is periodically revised according to new versions of the American Heart Association guidelines. Since it was introduced in Brazil in 1996, the ACLS has been through two conceptual and structural changes. Detailed documented reports on the effect of these changes on student performance are limited. The objective of the present study was to evaluate the effect of conceptual and structural changes of the course on student ACLS performance at a Brazilian training center. This was a retrospective study of 3266 students divided into two groups according to the teaching model: Model 1 (N = 1181; 1999-2003) and Model 2 (N = 2085; 2003-2007). Model 2 increased practical skill activities to 75% of the total versus 60% in Model 1. Furthermore, the teaching material provided to the students before the course was more objective than that used for Model 1. Scores greater than 85% in the theoretical evaluation and approval in the evaluation of practice by the instructor were considered to be a positive outcome. Multiple logistic regression was used to adjust for potential confounders (specialty, residency, study time, opportunity to enhance practical skills during the course and location where the course was given). Compared to Model 1, Model 2 presented odds ratios (OR) indicating better performance in the theoretical (OR = 1.34; 95%CI = 1.10-1.64), practical (OR = 1.19; 95%CI = 0.90-1.57), and combined (OR = 1.38; 95%CI = 1.13-1.68) outcomes. Increasing the time devoted to practical skills did not improve the performance of ACLS students.
Atentamente
Anestesiología y Medicina del Dolor