domingo, 23 de octubre de 2011

Academia.edu


domingo 23 de octubre de 2011

Academia.edu


Academia.edu is a platform for academics to share and follow research. Academics upload their papers to share them with other academics in over 100,000 research areas. They can also follow other academics, and see new papers and other research updates from those academics in their News Feeds.

Nobel de economía, desarrollaron la crisis?


Libia - Libre?


Una investigación analiza el iPad como soporte de lectura


Ciencias Sociales y Jurídicas: Pedagogía

Una investigación analiza el iPad como soporte de lectura

Una investigación desarrollada por la Fundación Germán Sánchez Ruipérez y por el laboratorio OrionMediaLab de la Facultad de Comunicación de la Universidad Pontificia de Salamanca se propone analizar las virtudes y defectos del iPad como dispositivo de lectura. Esta iniciativa, en la que participan niños y jóvenes de la localidad salmantina de Peñaranda de Bracamonte, supone la continuación del proyecto Territorio e-book, que ha estudiado el uso que hacen de los libros electrónicos lectores de diferentes edades.
Una investigación analiza el iPad como soporte de lectura
Niños con el iPad en clase. Foto: DICYT.
DICYT | 20.05.2011 17:37
Dentro del proyecto Territorio e-book, "estamos trabajando en todos los rangos de edad, desde niños a personas mayores, pero al diseñar la investigación, vimos que para jóvenes y niños la tinta electrónica de los libros electrónicos tenía menos sentido, porque los encontrarían muy diferentes a los gadgets que están acostumbrados a utilizar, por eso pensamos en hacer una investigación con iPads", explica a DiCYT Javier No Sánchez, decano de la Facultad de Comunicación de la Pontificia y miembro del laboratorio OrionMediaLab.
Para ello, los investigadores han creado dos grupos, uno de niños de 9 a 13 años y otro de adolescentes de 14 a 18, cada uno con propuestas diferentes. Las actividades del primer grupo han girado en torno al libro de ilustraciones Artistas insólitos, mientras que para el segundo se ha tomado como referencia El joven Lennon.
A su vez, en cada rango de edad, los participantes se han dividido en un grupo experimental y otro grupo de control. A ambos se les presta un iPad, con el libro y las mismas aplicaciones complementarias (por ejemplo, aplicaciones musicales), pero en el caso del grupo experimental se añaden una serie de actividades complementarias, encuentros y animaciones, diseñadas por los técnicos de la Fundación Germán Sánchez Ruipérez.
El trabajo de los profesores de la Universidad Pontificia es diseñar la investigación y recoger los datos de estas experiencias y, después de los primeros meses trabajando en esta línea, están extrayendo los resultados. "Estamos empezando a apreciar la importancia de la labor de acompañamiento que hacen los monitores frente a la opción de dejarles simplemente el dispositivo", indica Javier No.
Técnicas
Las técnicas que utiliza el estudio son variadas, cualitativas y cuantitativas. "Recogemos muchos datos de cada grupo, queremos tener una visión transversal desde los pequeños a los mayores de su adaptación a las diferentes herramientas de lectura", asegura. Entre los objetivos está "medir la satisfacción del usuario con el iPad y la apropiación, es decir, si lo integran en su vida diaria, si a través del iPad leen más, si se puede fomentar la lectura".
Una de las herramientas es la medición de la satisfacción del usuario, con preguntas acerca de sus impresiones en el uso de la tecnología, tanto generales como específicas acerca de la lectura y de las aplicaciones del dispositivo. También "tenemos un cuestionario para ver qué han leído, cuánto tiempo permanecen leyendo y qué otros usos le han dado en sus quehaceres cotidianos, lo que nosotros llamamos apropiación". Otra técnica es que "ellos mismos van escribiendo cómo se van sintiendo con el uso del dispositivo y sus diferentes aplicaciones". Finalmente, "seleccionamos a algunos de los que han participado y hacemos un grupo de discusión", apunta el decano de Comunicación.
En el caso de los niños, los tablets también se están utilizando en un proyecto educativo del colegio Miguel Delibes, en Macotera, a cargo del Centro de Internacional de Tecnologías Avanzadas (CITA) de la Fundación Germán Sánchez Ruipérez y los responsables de analizar sus resultados también van a ser los profesionales de OrionMediaLab. "La iniciativa integra pizarras electrónicas, WiFi y por primera vez iPads, de manera que nosotros vamos a realizar un proceso sistemático de recogida de datos para ver cómo ha cambiado el estilo docente y las nuevas estrategias en el aula. Ellos llevan trabajando dos o tres meses con el iPad, pero la parte de investigación de OrionMediaLab está empezando", comenta Javier No.
Mayores y jóvenes
A falta de los resultados finales de esta parte de la investigación, el equipo cuenta ya con una amplia experiencia en el proyecto Territorio e-book como para sacar algunas conclusiones preliminares. Por ejemplo, que una de las ventajas de la tableta de Apple o de otros tablets es que vienen bien para libros ilustrados como el que se está utilizando con el grupo más joven, mientras que los libros de tinta electrónica no dan esas posibilidades.
Principalmente, entre e-book y tablets "lo que cambia es la tecnología de presentación de la información". "La tinta electrónica es mucho menos versátil, pero al no ser retroiluminada, al no tener luz, permite que uno pueda leer de continuo mucho tiempo sin cansancio, de forma muy similar al papel. Además, permite dispositivos con muy poco peso, con lo cual se pueden almacenar muchos documentos. Es muy transportable y con una calidad visual similar al papel", comenta el experto.
Sin embargo, "el iPad tiene una conectividad muy alta, una interactividad elevada y permite contar con otras aplicaciones, casi como las de un ordenador y con menos peso, aunque más que un libro electrónico".
En general, parece que las personas mayores se quedan con el e-book, ya que se parece más al papel, no les cansa la vista y siguen el texto de la misma forma que en un libro tradicional. Por el contrario, en edades inferiores, "se espera más de un dispositivo, incluso en los libros electrónicos que permiten navegar, se les queda cortos tecnológicamente y le pedirían más.
En el caso de la aplicación de las tabletas a la educación, que se comenzará a estudiar en Macotera, los resultados pueden ser aún más interesantes, aunque "se ve necesario un periodo de formación por parte de los profesores y para los propios alumnos, porque usarlo de forma eficaz no es tan fácil aparte de las aplicaciones básicas".

Los CMS como pieza fundamental en el despliegue de la Web semántica


Los CMS como pieza fundamental en el despliegue de la Web semántica

Hace ya algún tiempo que las tecnologías de la Web semántica han creado la suficiente masa crítica que permite pasar de una fase de laboratorio a otra de exploración y explotación de las posibilidades que ofrecen. Algunas iniciativas, como Linked Open Data, destacan por su atractivo y empuje, al tiempo que la necesidad de muchas instituciones para incorporarse a este nuevo mundo precisa de una serie de inversiones para el desarrollo de nuevos proyectos. Por tanto, se precisan herramientas diseñadas para representar datos, información y conocimiento, al tiempo que permitan la interoperabilidad de sistemas de forma precisa, eficiente y escalable.
Este cambio conlleva una evolución en la política de gestión de información en el seno de las organizaciones. No se precisan grandes inversiones para adquirir o implantar nuevas tecnologías, sino más bien realizar modificaciones en la planificación estratégica de los servicios y productos de información, así como en las herramientas a utilizar. Estamos ante un nuevo escenario que precisa necesariamente de un cambio de mentalidad corporativa apoyándose en tres factores determinantes:
- El auge del software libre y de código abierto que permite afianzar un modelo de creación de herramientas y aplicaciones de calidad, con el compromiso de comunidades de usuarios dedicadas a su desarrollo y actualización (Fitzgerald, 2006). Ya no es sostenible el viejo argumento de que este tipo de software no ofrece garantías en su uso. El código abierto permite una revisión de las funciones del software y la detección de problemas de seguridad. Por otro lado, las posibilidades de adaptabilidad e interoperabilidad, uso de estándares y especificaciones abiertas, la independencia de proveedores y el ahorro en los costes de adquisición de licencias suponen una serie de ventajas obvias.
- El desarrollo, en el ámbito de la Web, de estándares y especificaciones abiertas para la representación de datos de un modo transparente y evolutivo a través de niveles de abstracción cada vez mayores. Su creación y mantenimiento es realizada por comunidades participativas de usuarios (formadas por investigadores, docentes, desarrolladores y empresas), cuyo trabajo es coordinado y supervisado por el W3C. Se trata de un modelo colaborativo de desarrollo tecnológico de largo recorrido y que ha dados frutos tales como XML, RDF, OWL, SKOS o Sparql1.
- La difusión abierta de datos y contenidos, como parte de una política de productos y servicios de información de las organizaciones. Este aspecto se está llevando a cabo en Administraciones públicas, instituciones culturales, empresas, proyectos de investigación o iniciativas de comunidades de usuarios. Para la Administración pública resulta fundamental compartir datos según unos criterios de interoperabilidad, que faciliten la comunicación transparente de la Administración con ciudadanos y empresas (Alanis et al, 2007 y Ding et al, 2010). Espacios como el Government Linked Data (GLD) Working Group o iniciativas como Europeana parten de un apoyo claro a este tipo de iniciativas.
Muchas instituciones han encontrado, en este nuevo contexto, la solución a múltiples problemas que bloqueaban el desarrollo de proyectos asociados a la colaboración dentro de comunidades heterogéneas de usuarios2. Estas tecnologías hacen posible la coordinación a nivel institucional, ya sea adoptando esquemas de descripción compartidos, o utilizando soluciones propias que puedan mapearse entre sí3.
Dentro del diverso grado de evolución de los elementos de la Web Semántica, RDF se vislumbra, por su solidez y grado de implantación, como el instrumento para representar vastas cantidades de datos. Éstos pueden ser utilizados directamente por aplicaciones sin que tengan que realizarse costosos procesos de conversión o traducción, puesto que se utilizan mecanismos compartidos de representación.
Definiendo el campo de batalla: infraestructura de software para la integración de los CMS en la Web semántica
Los planteamientos expuestos anteriormente deben considerar que la mayor parte de los contenidos que alberga la Web no se encuentran en formatos adecuados para la Web semántica. En este sentido, ha de considerarse que la Web con la que trabajan las personas precisa de una interfaz para la consulta de información, en donde las técnicas de accesibilidad, usabilidad y arquitectura de la información representan los ejes centrales en el diseño de los contenidos. Así pues, ¿debe hablarse a partir de ahora de dos Webs separadas, una para personas y otra para las máquinas?, ¿se formarán dos universos paralelos de desarrollo de aplicaciones y tecnologías pero separados para contenidos en html y datos RDF? Aquí es donde los sistemas de gestión de contenidos (CMS) tienen mucho que decir.
Una de las principales características de estos sistemas radica en la superación del modelo de edición centrado en la gestión de ficheros a otro más cercano a procesos de organización y estructuración de contenidos definidos a partir de criterios de arquitectura de la información. También debe tenerse en cuenta a los CMS especializados, cuyo campo de trabajo es la creación de repositorios digitales, la gestión de foros de debate, wikis o plataformas educativas (Lcms).
Este paradigma de gestión de sitios web, sólidamente establecido, se fundamenta en la definición de taxonomías, tipos de contenidos, sistemas de navegación facetados, uso de plantillas de presentación, reutilización de objetos e información y conexión con fuentes de datos externas. Además, la mayoría de estos sistemas utilizan sistemas de bases de datos relacionales (Sgbdr) para almacenar los componentes informativos de los contenidos (y otros aspectos operativos), separando estructura, información y presentación.
Puesto que tenemos información -con un alto grado de estructuración- almacenada en bases de datos, es razonable plantear la cuestión acerca de si es posible utilizar un CMS para:
- Reutilizar los datos almacenados, utilizados en principio para la elaboración de las páginas de un sitio web, e incorporarlos a la ámbito Web semántica.
- Añadir información semántica, procesable por máquinas, dentro de un contenido pensado inicialmente para su consulta por personas.
- Explotar fuentes externas de datos RDF para enriquecer los contenidos de un sitio web4.
Tal como se ha mencionado anteriormente, la mayoría de los CMS existentes utilizan Sgbdr para almacenar los datos. La Web semántica se basa en el uso de un modelo de descripción totalmente distinto (RDF) que difiere considerablemente del modelo relacional (Allemang y Hendler, 2011:23; Velegrakis, 2010).
Esto supone un inconveniente, puesto que el uso de soluciones relacionales para el soporte de base de datos del CMS (la inmensa mayoría: MySQLMariaDBPostgreSQL,OracleSQLiteSQL Server, etc.) no permite operar directamente con RDF. Es necesario utilizar una capa intermedia que permita almacenar datos RDF en tablas relacionales. De este modo se facilita enormemente el desarrollo de aplicaciones que utilicen la misma infraestructura de Sgbdr con la que funciona el CMS al tiempo que se trabaja con datos RDF. Las aplicaciones informáticas solucionan este tipo de problema utilizando una capa de abstracción que suele tomar la forma de librerías o algún tipo de middleware (BishopKarne, 2003), que en este caso interactúan con el CMS a través de algún tipo de API en combinación con Sparql para recuperar datos RDF.
Esta integración de software resulta compleja en las fases iniciales de desarrollo, pero una vez que se pone en marcha y se comprenden los principios básicos de funcionamiento y gestión resulta más sencilla. Las funcionalidades de los CMS suelen ampliarse agregando módulos o plugins que hacen uso de las librerías o del middleware para realizar ciertas operaciones. Éstas se refieren a procesos encargados del almacenamiento de datos en untiplestore5, uso y definición de Sparql Endpoints para obtener y exponer datos, parseado, extracción y conversión de RDF.
En entornos PHP es muy popular el uso de ARC, que proporciona una potente librería para la manipulación de datos RDF y su almacenamiento en un Sgbdr. En el caso de Javadebemos referirnos a Jena, que además ofrece un motor de inferencia basado en OWL. Si buscamos cierta independencia con respecto al soporte de lenguaje de programación web utilizado puede utilizarse Sesame, aunque la solución más potente y versátil tal vez seaVirtuoso Universal Server que combina un servidor web, con un framework de desarrollo/ejecución de aplicaciones y un completo soporte de base de datos y gestor de datos estructurados. Virtuoso puede almacenar los datos directamente en RDF, pero permite “virtualizar” cualquier Sgbd relacional, por lo que podríamos instalar y manejar cualquier CMS de forma totalmente transparente, y ampliar sus funcionalidades para la Web semántica mediante módulos de terceros o desarrollos propios.
Publicar, semantizar y reutilizar: un camino de ida y vuelta
Una de las primeras tareas que se desea realizar con un CMS en el ámbito de la Web semántica es ofrecer ciertos contenidos en RDF. Normalmente, la explotación de información generada por una aplicación web se realiza a través de servicios web utilizando algún tipo de protocolo para el intercambio de datos. Es decir, una aplicación se conecta a una url y accede a un conjunto de datos. Por regla general, estos datos suelen encontrarse en formato xml. RDF puede codificarse con XML (RDF/XML) y supone una primera aproximación a la publicación en la Web semántica de los contenidos gestionados por un CMS.
Otro método supone la creación y uso de Sparql Endpoints. Se trata de servicios web que utilizan Sparql como lenguaje de consulta y como protocolo para obtener los datos RDF recuperados. Podríamos decir que se trata del SQL de RDF. Lo interesante es que pueden ser utilizados por personas o por aplicaciones. De este modo no siempre es necesaria la publicación de vastos conjuntos de datos RDF/XML accesibles a través de una url para que otras aplicaciones puedan descargar ficheros y reutilizar los datos de nuestro sitio. Es posible acceder a información más específica, enviando una consulta al Sparql Endpointque a su vez devuelve los datos en un formato determinado. Este mecanismo proporciona mayor flexibilidad en el desarrollo de aplicaciones recolectoras de datos que el uso de protocolos como OAI-PMH con un conjunto limitado de instrucciones.
Ya se utilice una u otra opción, es necesario mapear los elementos de los contenidos gestionados por el CMS a sus correspondientes elementos de vocabularios RDF. Precisamente aquí reside la principal dificultad para que muchos CMS aporten contenidos a la Web semántica y participen en el universo Linked Data. No se trata de “volcar” tablas de una base de datos relacional a RDF/XML y por supuesto estamos buscando algo más que ofrecer canales o fuentes RSS. El proceso es más complicado, puesto que hay que tomar decisiones: qué vocabulario es el más adecuado para representar un determinado campo de un tipo de contenido, qué elemento debe utilizarse, qué nivel de detalle y agregación, etc.
Algunos CMS, como Liferay y Drupal, disponen de soluciones que permiten publicar datos utilizando RDF e incluso ofreciendo Sparql Endpoint. En el caso de Liferay existen algunas soluciones, como el módulo Liferay Linked Data, que precisa de D2R-Server.Drupal ofrece soporte RDF en su núcleo que se amplia mediante la combinación de la librería ARC y módulos, como RDF Extensions y Views Datasource o RESTful Web Services, que permiten publicar nodos individuales o vistas en cualquier formato (entre los cuales se encuentra RDF/XML) , así como la definición de Sparql Endpoint limitado al contenido de nodos y taxonomías.
Pero participar en la Web semántica no conlleva participar en la corriente Linked Open Data. De hecho, Linked Data utiliza un subconjunto de las tecnologías desarrolladas al amparo de la Web semántica. Cualquier sitio web puede incorporar información semántica dentro de cualquier página html6. Para ello debemos tener en cuenta que RDF es para las máquinas lo que html para las personas. Pero, ¿existe alguna forma de que ambas versiones coexistan en una única url de la que personas y máquinas puedan consultar información y extraer información respectivamente?
En efecto, es posible “insertar” declaraciones RDF dentro del código html de una página. Para ello podemos utilizar RDFa, de forma que es posible reutilizar el código html para insertar información semántica (Pemberton, 2009).
Un ejemplo: para indicar el título de un documento en su contenido informativo se usaría el siguiente código:
<h1>Título del documento</h1>
con RDFa el código podría quedar:
<h1 about=”http://ejemplo.org/documento.html” property=”dc:title”>Título del documento</h1>
Su funcionamiento es muy similar al de los microformatos, pero en este caso se utiliza RDF como modelo para describir un elemento de información del contenido. A través de aplicaciones conocidas como RDFa extractors es posible obtener los datos RDF del propio código html para su posterior procesamiento.
Otra de las posibilidades que ofrece la Web semántica es la incorporación a nuestro sitio web de datos externos. Esta funcionalidad es, con diferencia, la mejor resuelta en la mayoría de los CMS. No importa el sistema utilizado: JoomlaWordPressDrupal,OpenCMSLiferayeZ PublishMediawikiphpBBPlone… todos disponen de algún módulo o incorporan alguna funcionalidad para recuperar, procesar, formatear e interactuar con datos RDF. El principal motivo se debe a que la mayoría de los CMS incorporan en su instalación básica herramientas para la sindicación de fuentes RSS, entre cuyos formatos encontramos RSS 1.0 (RDF Site Summary).
Evidentemente, el CMS siempre puede descargar un fichero de datos RDF. Pero un funcionamiento eficiente precisa de los refinamientos adicionales que ofrece Sparql.Typo3Drupal y Liferay destacan en este apartado. En los tres casos el funcionamiento de los módulos es muy similar: se registra en el sistema un Sparql Endpoint externo y a continuación se utiliza el lenguaje de consulta Sparql para establecer los criterios de selección de los datos externos. Cuando se lanza la consulta se recuperan una serie de datos que, a partir de ese momento, se manipulan como si fueran contenidos generados por el propio CMS. Por regla general, la recuperación de datos, y por tanto su visualización, se realiza de forma dinámica. Es decir, los datos no suelen incorporarse al propio CMS, sino que éste actúa de interfaz para su recuperación y visualización. Sin embargo, en algunas circunstancias, estos datos se utilizan para crear nuevos contenidos gestionados por el CMS, generalmente por motivos de rendimiento. En este caso el sistema actúa de un modo similar a como lo hace un agregador OAI-PMH.
Alcanzando metas mediante la integración de componentes: simplificando lo aparentemente complejo
El panorama descrito muestra un conglomerado de sistemas, arquitecturas, elementos de software y especificaciones que funciona. Los CMS son capaces de publicar datos, reutilizar fuentes externas RDF e incluir información semántica en sus contenidos. Incluso podrían ser el soporte para crear contenidos y modelos de interacción que se adapten a diferentes tipos de plataformas y dispositivos. La combinación de datos RDF interrelacionados, su integración en contenidos web y la adaptación de su consulta a las posibilidades del dispositivo final del usuario abren un mundo nuevo de ideas y aplicaciones. Es decir, se va más allá de la adaptación de contenidos a través de hojas de estilo CSS personalizadas a cada tipo de dispositivo: la información marcada semánticamente permite su reutilización hasta el límite que marque el nivel de detalle de los datos que la conforman.
En este sentido, no sería descabellado pensar en aplicaciones avanzadas para unSmartphone, que utilicen información marcada semánticamente y que puedan indicar, por ejemplo, qué restaurante es el mejor valorado en un radio de 50 metros. O bien otras aplicaciones para planificar un trayecto entre dos ciudades que precise el uso de varios medios de transporte y realizar la compra de los billete correspondientes. Incluso acceder a imágenes de obras y documentos sobre Leonardo da Vinci de cualquier biblioteca o museo de Europa según unos criterios de búsqueda.
Un mismo contenido podría interactuar con el usuario de un modo diferente en función de si se visualiza con una pantalla táctil, si se cuenta con una superficie de visualización amplia o si el dispositivo utilizado dispone capacidad Gprs. Son algunos de ejemplos de aplicaciones que mostrarían datos de un modo atractivo y totalmente transparente al usuario, que no tiene porqué saber que la información consultada se basa en datos RDF o en la ejecución de inferencias.
Pero, frente a la pregunta “¿puede utilizarse un único CMS para realizar todas estas funciones y conseguirlo de un modo sencillo?”, no sería atrevido contestar con un “No”, pero con ciertos matices.
Una vez adquirida una visión de conjunto de las posibilidades de los CMS en la Web semántica, es difícil no tener una considerable sensación de dispersión de tecnologías y sistemas. La existencia de diferentes entornos de desarrollo, por ahora, como son PHP yJava, complica aún más si cabe la situación. Existen diversas soluciones, entre las cuales, las basadas en Java, están obteniendo una mayor aceptación en el desarrollo de proyectos de envergadura, asociados a la creación de repositorios, iniciativas Linked Data y la publicación y manejo de grandes conjuntos de datos RDF.
Por contra, los CMS más utilizados actualmente y que ofrecen una mayor flexibilidad y capacidad de personalización se basan en PHP. Además, la realidad en algunas organizaciones (universidades, Administración regional, proyectos europeos) tiende también a la dispersión tecnológica. Incluso CMSs o gestores de portales basados en Javacarecen de un soporte nativo global para una integración completa en la Web semántica.
Como puede verse, es una situación a veces incomprensible, que produce una brecha entre diferentes tipos de necesidades (publicar contenidos y publicar datos) que conduce, a su vez, a contemplar de un modo separado la gestión de sitios web, el potencial de datos que ofrece la Web semántica, y la integración de éstos en aquéllos, y viceversa.
Y por si esto fuera poco, las soluciones basadas en plugins o módulos de ampliación de las funciones de los CMS aportan mayor confusión. No es inusual encontrarse con un complejo ecosistema de módulos, en donde no se termina de resolver una necesidad de forma completa e integral con una única opción. A veces hay que instalar varios módulos que interactúen con un middleware específico y actualmente muchas de estas soluciones se encuentran en fase beta o de desarrollo inicial.
Pese a todo lo anterior, es muy posible que se alcance una simplificación del escenario actual. Se observa una tendencia a la integración, en el núcleo de algunos CMS, de ciertas funcionalidades de la Web semántica. Las nuevas versiones de OpenCMSDrupal oLiferay “absorben” o integran módulos y plugins relacionados con la Web semántica. Así pues, conforme se produzca esta integración, la optimización y eficiencia en la manipulación de datos RDF se incrementará considerablemente, lo que conducirá inevitablemente a que los CMS lleguen a utilizarse como frameworks para el desarrollo de interfaces entre datos de la Web semántica y contenidos de los sitios web que gestionen7. Mientras tanto, identificamos que algunos CMS, en especial Drupal y phpBB, hacen uso de RDFa a un nivel muy básico siguiendo un modelo de representación de sus contenidos con RDF8.
La hoja de ruta de la incorporación de los CMS en la Web semántica pasa ineludiblemente por la instalación y configuración de todo el software (entornos de ejecución,middlewares, CMS, módulos…) de un modo sencillo, para acelerar la productividad de los sistemas y comenzar rápidamente a publicar ciertos tipos de contenido a través de Sparql Endpoints, generar urls de fuentes de datos RDF para su acceso por parte de otras aplicaciones o integrar fuentes de datos de, por ejemplo, Europeana o Dbpedia.
En definitiva, se precisan soluciones del tipo “instalar y listo” esenciales para simplificar la complejidad que supone el uso de software heterogéneo sin tener que caminar (y posiblemente perderse) en el laberinto “modular” de los CMS. Todo lo anterior, con un objetivo claro: evitar los problemas que, en la era de la Web semántica, acarrearía el hecho de que datos y contenidos sigan dos caminos divergentes en su gestión y uso.
El futuro demostrará en qué grado y en qué forma se cumplirán todas estas expectativas y necesidades.
Notas
1. XML, RDF, OWL y Sparql con especificaciones del W3C. XML (eXtensible Markup Language) define una sintaxis para el intercambio de datos entre aplicaciones. RDF es el modelo de descripción de recursos fundamental de la Web semántica, basado en tripletas del tipo sujeto-objeto-predicado que conforman grafos complejos. OWL se usa junto con RDF y permite definir ontologías que describen aspectos lógicos de las relaciones entre recursos. SKOS es una ontología OWL para la representación de sistemas de organización del conocimiento muy utilizado para el desarrollo de tesauros y clasificaciones. Sparql es un lenguaje de consulta para interrogar y recuperar datos de los grafos RDF.
2. Existen infinidad de catálogos sobre Open Linked Data. A este respecto existe un mapa con todas las iniciativas de este tipo de la Fundación Ctic:
También puede consultarse un registro de la Open Knowledge Foundation con datasetsde Linked Open Data en:
3. La expresión “mapeado” proviene del término inglés “mapping” que se asocia a la definición de correspondencias entre elementos de diferentes conjuntos. En este caso se trataría de definir equivalencias o similitudes entre elementos de diferentes especificaciones de descripción.
4. Para una comprensión global de lo que estas tres funciones implican a nivel de especificaciones de la Web semántica, puede consultarse la obra de 2011 de Heath yBizer referenciada en la bibliografía.
5. Un triplestore es una base de datos que almacena triplets (declaraciones RDF). Suele utilizarse mediante una interfaz de usuario, un Sparql Endpont o mediante una API que permite el diseño de aplicaciones que utilicen el triplestore para almacenar datos.
6. Al referirme a html también lo estoy haciendo a Xhtml.
7. Es muy sugerente el ejemplo de Islandora que integra Drupal y Fedora:
8. A modo de ejemplo puede consultarse:
http://blog.semantic-web.at/semantic-web-and-drupal
Referencias bibliográficas
Alani, H.Dupplaw, D.Sheridan, J.O’Hara, K.Darlington, J.Shadbolt, N.;Tullo, C. “Unlocking the potential of public sector information with semantic web technology”. ISWC/ASWC, 2007, pp. 708–721.
http://www.computer.org/portal/web/csdl/doi/10.1109/MIC.2002.1020330
Allemang, D.Hendler, J. Semantic Web for the Working Ontologist: Effective Modelling in RDFS and OWL.(2ª ed). Morgan Kaufmann, 2011.
Berners-Lee, Tim. Linked data, 2006.
http://www.w3.org/DesignIssues/LinkedData.html
Bishop, T. A.Karne, R. K. “A Survey of Middleware”. En: 18th International Conference on Computers and Their Applications, March 26-28, 2003. 
http://triton.towson.edu/~karne/research/middlew/surveym.pdf
Bizer, C. “The Emerging Web of Linked Data”. En: Journal IEEE Intelligent Systems archive, 2009, v. 24,, n. 5, pp. 87-92.
http://lpis.csd.auth.gr/mtpx/sw/material/IEEE-IS/IS-24-5.pdf
Ding, L.Michaelis, J.McGuinness, D.L.; Hendler, J. “Making Sense of Open Government Data”. En: Proceedings of the WebSci10: Extending the Frontiers of Society On-Line, April 26-27th, 2010.
http://journal.webscience.org/394/2/websci10_submission_112.pdf
Fitzgerald, B. “The Transformation of Open Source Software”. En: MIS Quarterly, 2006, v. 30, n. 3, pp. 587-598.
http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.159.5834&rep=rep1&type=pdf
Heath, T.Bizer, C. “Linked Data: Evolving the Web into a Global Data Space”. En:Synthesis Lectures on the Semantic Web: Theory and Technology, 2001, v. 1, n. 1, pp. 1-136.
http://linkeddatabook.com/book
Hedstrom, M.King, J. L. On the LAM: Library, archive, and museum collections in the creation and maintenance of knowledge communities. Paris, Francia: Organización para la Cooperación y el Desarrollo Económico (OCDE), 2003.
http://www.oecd.org/dataoecd/59/63/32126054.pdf
Hiramatsu, K.Reitsma, F. “GeoReferencing the Semantic Web: ontology based markup of geographically referenced information”. En: Joint EuroSDR/EuroGeographics workshop on Ontologies and Schema Translation Services, Paris, Abril 2004.
http://www.mindswap.org/2004/geo/geoStuff_files/HiramatsuReitsma04GeoRef.PDF
Pemberton, S. RDFa for HTML Authors. W3C/CWI, 2009.
http://www.w3.org/MarkUp/2009/rdfa-for-html-authors
Velegrakis, Y. “Relational Technologies, Metadata and RDF”. En: Virgilio, R. de; Giunchiglia, F.; Tanca, L. (eds). Semantic Web Information Management: A Model-Based Perspective. Heidelberg; New York: Springer, 2010, p. 41-66.
http://disi.unitn.it/~velgias/docs/Velegrakis10.pdf
Cómo citar este artículo:
Pastor-SánchezJosé-Antonio. “Los CMS como pieza fundamental en el despliegue de la Web semántica”. Anuario ThinkEPI, 2012, v. 6, pp. ¿¿-??.