martes, 27 de diciembre de 2011

Google Scholar Citations y la emergencia de nuevos actores en la evaluación de la investigación


Google Scholar Citations y la emergencia de nuevos actores en la evaluación de la investigación


El lanzamiento hace escasos meses de Google Scholar Citations1, la herramienta para medir el impacto de los investigadores en las publicaciones indizadas por el popular buscador, nos da pie a revisar ésta y otras aplicaciones de índole bibliométrica encaminadas a medir la visibilidad de académicos e investigadores en la Web.
Este impacto no sólo se limita a los medios tradicionales (citas recibidas desde otros trabajos científicos) sino que abarca a las nuevas vías de comunicación científica y a sus indicadores asociados, como el número de descargas de un trabajo, las personas que lo almacenan en su gestor de referencias o las veces que una presentación es visionada online. Asimismo se discute brevemente en qué medida puede afectar la emergencia de estas nuevas herramientas a las bases de datos tradicionales para la evaluación de la ciencia, Thomson Reuters-Web of Science2, y Scopus-Elsevier3.
La joven estrella: Google Scholar Citations
Google Scholar Citations fue oficialmente lanzado en pruebas en julio de 2011, generando de inmediato un importante eco en la Web. Su propuesta es muy sencilla, recopila la producción científica de un investigador y la muestra agregada en una página personal, con información del número de citas de cada ítem. El investigador, una vez dado de alta, puede editar los registros de Google Scholar, corrigiendo (normalizando) la información del buscador, unir registros duplicados e incluso añadir de forma manual otros trabajos que hayan escapado a las garras de Google.
Además, presenta tres indicadores bibliométricos: el número total de citas de los trabajos, el índice h del investigador y el índice i10, esto es, el número de trabajos con más de diez citas, tanto para toda la carrera académica como para el período más reciente.
En este apartado hay que mencionar que Google ha prescindido de la métrica más sencilla: el número total de trabajos de un investigador así como de otras medidas como el promedio de citas por trabajo o indicadores relativos al impacto de las revistas. Pero quizá lo más interesante es que la información sobre las citas recibidas y la producción se actualizan de forma automática a medida que va siendo indexada por Google, sin necesidad de concurso por parte del académico, que encuentra siempre su información al día. Las posibilidades que abre este producto son enormes, tanto en la medición del impacto personal como de cara a la visibilidad del investigador en la Web.
En cuanto a lo primero, y pese a que no es aconsejable el uso de Google Scholar como herramienta para la evaluación científica4, cada vez es más usado especialmente en áreas de ciencias sociales y humanidades como medio para recuperar las citas de un trabajo, datos tenidos muy en cuenta tanto en los procesos de solicitud de sexenios de investigación como en las acreditaciones a los cuerpos docentes universitarios.
Respecto a la visibilidad académica, el investigador se vincula a las materias en las que es especialista, de manera que se va generando un directorio temático de expertos, ordenados en función del número total de citas de sus trabajos. Además de esta función para localizar expertos en un área determinada, los perfiles de los investigadores dados de alta aparecen integrados en los resultados de las búsquedas por autores, por lo que se puede acceder de forma rápida a toda la producción científica de un investigador.
Sin embargo, algunos autores, como la creadora del software Publish or Perish5Anne-Wil Harzing, expresan sus temores acerca de la honestidad de los autores, y si éstos no serán capaces de falsear sus datos en busca de un ascenso académico, o como manera de aumentar su visibilidad en la Web6.
Desde noviembre de 2011 el servicio está abierto a todos los investigadores, y en los primeros días de libre acceso al producto comienzan a verse ya un buen número de profesores y profesionales de la documentación, muchos de ellos españoles7. Sin embargo, cabe preguntarse si llegará a ser significativo el número de los que se creen su perfil, requisito indispensable para aparecer en estos directorios.
Otra duda acerca del producto es la manera de ordenar a los investigadores en el directorio por materias. Actualmente esta ordenación se hace en función del número total de citas, una clasificación demasiado tosca ya que favorece a los investigadores de disciplinas grandes, así como a los de mayor recorrido y con mayor número de trabajos publicados. De facto, Google Scholar Citations está estableciendo rankings de investigadores por materias en función de un único criterio (fácilmente manipulable, además), lo cual es un arma de doble filo. Como señalaba Harzing, cualquiera puede falsear sus datos para aparecer en posiciones prominentes, sin embargo parece poco probable ya que sería rápidamente detectado por el resto de usuarios, cayendo en el descrédito científico.
Otra duda que nos asalta es si los investigadores con escaso impacto académico crearán su perfil, ya que podrían quedar en evidencia respecto a otros compañeros de disciplina o de departamento, con currículos mucho más lucidos. Al final, se corre el riesgo de crear un directorio de científicos altamente citados, que no sea representativo de la investigación que se da en un campo. Pese a la juventud del producto, ya surgen los primeros análisis en algunos blogs, como el que realiza Brian Kelly, de las más destacadas universidades británicas8, o el del bibliotecario holandés Wouter Gerritsma, que presagia que en cinco años Google habrá cambiado completamente el mercado de las bases de datos científicas9.
El actor secundario: Microsoft Academic Search
El producto de Google viene precedido por los movimientos que otro de los gigantes de la Web, Microsoft, ha venido realizando en los últimos meses con su buscador Microsoft Academic Search10.
Este producto, heredero de Windows Live Academic y de Live Search Academic, surgió en su actual denominación en 2009, sólo para el campo de la informática, pero cubre desde septiembre de 2011 todos los ámbitos del conocimiento. También permite la creación de perfiles personales a partir de la información recogida por el buscador, proporcionando hasta el momento más indicadores y funcionalidades de las que ofreceGoogle.
Asimismo admite la edición y modificación de registros, subir pdfs con el texto completo de los trabajos, insertar el listado de publicaciones en otra página web, o incluso ver el contexto en el que un trabajo ha sido citado, un viejo sueño de la bibliometría evaluativa. Además el producto de Microsoft no se ciñe a la escala personal sino que permite seguir la pista a la producción científica de una institución e incluso efectuar comparaciones entre ellas, tomando los parámetros habituales de producción y citas como términos de la ecuación. Otra de sus fortalezas es la posibilidad de explorar la red de colaboraciones de un investigador, así como las relaciones a través de las citas. Además, se pueden encontrar los perfiles de cualquier investigador, no sólo de los registrados, ya que esto no es imprescindible.
Sin embargo, en comparación con Google Scholar Citations, el proceso de actualización del CV es más pesado, tarda unos días ya que debe ser revisado por el equipo del producto, y además la cobertura parece bastante menor que la de Google, si bien no disponemos de un listado de las fuentes que cubre ninguno de los dos productos.
En este pequeño estudio de la producción de siete investigadores británicos11 se observa la gran diferencia entre los resultados que ofrece Academic Search y los que arrojaGoogle Scholar Citations11. Además se aprecian importantes problemas de normalización, una de las críticas principales que también cabe hacer a Google.
En cuanto a aplicaciones que permiten la confección de currículos vitae personales, también es necesario reseñar ResercherID12, producto impulsado por Thomson Reuters, que trabaja únicamente sobre la información recogida en la Web of Science. Al contrario que Google Scholar Citations o MS Academic Search, la actualización de la producción no es automática, es decir, cada vez que un nuevo artículo nuestro sea recogido en Web of Science, deberemos actualizar manualmente nuestro perfil en ResearcherID. Herramientas como la red social científica ResearchGate13 o el gestor de referenciasMendeley14 también proporcionan espacio para que el investigador incluya sus publicaciones en una página personal.
Los actores alternativos: las iniciativas alt-metrics
Aprovechando las diferentes aplicaciones para investigadores surgidas en los últimos años en el entorno de la ciencia 2.015, son varias las iniciativas dirigidas a medir el impacto de los materiales publicados online, de forma más amplia que con el recuento de citas.
Dentro de estas iniciativas, conocidas genéricamente como alt-metrics o métricas alternativas16, han aparecido aplicaciones como ScienceCard17, un metaproducto que hace uso de APIs externas para ofrecer para cada investigador, además de su producción indizada en MS Academic Search o el número de citas según Scopus, las veces que un trabajo ha sido marcado como favorito en Citeulike18, o las personas que lo han almacenado en el gestor de referencias bibliográficas Mendeley.
La idea que subyace es que hay múltiples maneras de medir la influencia de los investigadores en la Web y que el número de citas es sólo una de ellas.
Otra iniciativa reciente es Total Impact19 donde, en la misma línea, podemos descubrir métricas de las presentaciones colgadas en Slideshare20, las veces que se ha compartido un artículo científico en Facebook21 o el número de grupos en Mendeley donde se ha recopilado un determinado trabajo. Estas iniciativas siguen el camino trazado por las estadísticas a nivel de artículo22 implementadas por la editorial Public Library of Science(PLoS), que lleva tiempo ofreciendo, además de las citas que un artículo atrae, datos sobre el número de descargas de un trabajo, el número de comentarios que genera o el número de blogs que lo enlazan23.
Los actores consolidados: ISI Web of Science y Scopus
En este sentido hay que mencionar que los actores tradicionales en el campo de la evaluación de la ciencia no se han quedado de brazos cruzados. Thomson Reuters, además de incrementar en los últimos años considerablemente su cobertura de revistas científicas de alcance regional, acaba de lanzar Book Citation Index24, su índice de citas con información de libros, dirigido principalmente a las humanidades y las ciencias sociales, áreas donde estos vehículos de difusión juegan un papel importante. Por su parte, Scopusha incorporado las métricas SNIP y SJR25 a su base de datos para ayudar a los bibliómetras. Además ha sacado al mercado aplicaciones (Apps) para dispositivos móviles26 y ofrece asimismo conexiones con su base de datos mediante APIs27, que permiten por ejemplo mostrar en repositorios institucionales el número de citas cosechadas por los trabajos recogidos en la fuente de datos de Elsevier.
Consideración final
Desde el plano de la política universitaria y de evaluación de la investigación, la pregunta que cabe realizarse es si alguno de los productos mencionados, tanto de Microsoft como de Google principalmente, pero también de las iniciativas alt-metrics, pueden ser serios competidores en un futuro próximo para las dos grandes bases de datos que proporcionan información bibliométrica, de importante coste económico, especialmente en una época marcada por los recortes presupuestarios.
Los productos tradicionales son más solventes y estables que los nuevos, ofreciendo un amplio abanico de posibilidades y de métricas asociadas, no sólo a los trabajos sino también a las revistas en las que éstos se publican. Además su uso está extendido y existen unas métricas validadas por los profesionales de la bibliometría así como por parte de las agencias con responsabilidad en materia investigadora.
Sin embargo es legítimo el debate acerca de si dichas bases de datos son imprescindibles en los procesos de evaluación investigadora. En nuestra opinión, en la actualidad estas bases de datos (ISI Web of Science o Scopus, no son necesarias las dos) son imprescindibles para la evaluación. Sin embargo, la nueva generación de sistemas de información científica (CRIS)28, junto a buscadores científicos de acceso gratuito comoGoogle Scholar y las métricas basadas en el uso de la información, pueden aportar nuevas soluciones a la evaluación de la ciencia, haciendo a medio plazo quizá menos necesarios los costosos índices de citas.
Haciendo prospectiva-ficción, cabría pensar cómo cambiaría el mercado de la información y evaluación científica si Google decidiera lanzar su propio “índice de impacto” a partir de la información que indiza, lo cual no parece descabellado ya que su popular sistema de ordenación de búsqueda PageRank se basa en un principio que ya aplican otros índices bibliométricos. En cualquier caso lo que es indudable es que los nuevos productos y herramientas a disposición de investigadores y evaluadores facilitan tanto la difusión como la recuperación de información científica y abren nuevas posibilidades para el intercambio de la información científica y su evaluación.
Notas
2. Thomson Reuters-Web of Science.
http://www.accesowok.fecyt.es
3. Scopus-Elsevier.
http://www.scopus.com
4. Torres-SalinasDanielRuiz-Pérez, Rafael; Delgado-López-CózarEmilio. “Google Scholar como herramienta para la evaluación científica”. El profesional de la información, 2009, v. 18, n. 5, pp. 501-510.
http://ec3.ugr.es/publicaciones/d700h04j123154rr.pdf
5. Publish or Perish.
http://www.harzing.com/pop.htm
6. HertherNancy K. “Scholar Citations—Google Moves into the Domain of Web of Science and Scopus”. Information Today, 4 agosto, 2011.
http://newsbreaks.infotoday.com/NewsBreaks/Scholar-CitationsGoogle-Moves-into-the-Domain-of-Web-of-Science–Scopus-76917.asp
7. Directorio de investigadores listados bajo la materia “Information Science” en Google Scholar Citations.
http://scholar.google.com/citations?view_op=search_authors&hl=en&mauthors=label:information_science
8. KellyBrian. “Surveying Russell Group University Use of Google Scholar Citations”.UK Web Focus, 24 noviembre, 2011.
http://ukwebfocus.wordpress.com/2011/11/24/surveying-russell-group-university-use-of-google-scholar-citations
9. Gerritsma, Wouter. “How Google Scholar Citations passes the competition left and right”. WoW! Wouter on the Web.
http://wowter.net/2011/11/21/how-google-scholar-citations-passes-the-competition-left-and-right
10. Microsoft Academic Search.
http://academic.research.microsoft.com
11. KellyBrian. “Thoughts on Google Scholar Citations”. UK Web Focus, 22 noviembre, 2011.
http://ukwebfocus.wordpress.com/2011/11/22/thoughts-on-google-scholar-citations
12. ResercherID.
http://www.researcherid.com
13. ResearchGate.
http://www.researchgate.net
15. Cabezas-Clavijo, Álvaro; Torres-SalinasDanielDelgado-López-Cózar,Emilio. “Ciencia 2.0: catálogo de herramientas e implicaciones para la actividad investigadora”. El profesional de la información, 2009, v. 18, n. 1, pp. 72-79.
http://www.elprofesionaldelainformacion.com/contenidos/2009/enero/09.pdf
16. Alt-metrics.
http://altmetrics.org
17. ScienceCard.
http://sciencecard.org
18. Citeulike.
http://www.citeulike.org
19. Total impact.
http://total-impact.org
20. Slideshare.
http://www.slideshare.net
22. Article-level Metrics – Public Library of Science.
http://article-level-metrics.plos.org
23. Cabezas-ClavijoÁlvaroTorres-SalinasDaniel. “Indicadores de uso y participación en las revistas científicas 2.0: el caso de PLoS One”. El profesional de la información, 2010, v. 19, n. 4, pp. 431-434.
http://ec3.ugr.es/publicaciones/2010-Cabezas_Torres_Indicadores_de_uso_participacion_revistas_cientificas_2.0_el_caso_plos_one.pdf
25. Journal metrics: SNIP, SJR. Scopus.
http://www.journalmetrics.com
26.  SciVerse Mobile ApplicationsSciverse.
http://www.info.sciverse.com/sciverse-mobile-applications
28. Torres-SalinasDaniel; Cabezas-ClavijoÁlvaro. “Herramientas para la evaluación de la ciencia en universidades y centros I+D: descripción y usos”. Anuario Thinkepi, v. 6, pp. ¿¿??.
http://www.thinkepi.net/herramientas-para-la-evaluacion-de-la-ciencia-en-universidades-y-centros-id-descripcion-y-usos
Cómo citar este artículo:
Cabezas-ClavijoÁlvaroTorres-SalinasDaniel. “Google Scholar Citations y la emergencia de nuevos actores en la evaluación de la investigación”. Anuario ThinkEPI, 2012, v. 6, pp. ¿¿-??.

9 respuestas a Google Scholar Citations y la emergencia de nuevos actores en la evaluación de la investigación

  1. José-Luis Ortega
    REDES SOCIALES CIENTÍFICAS EN LÍNEA
    Muy interesante artículo sobre estos dos nuevos productos de Google y Microsoft. Sólo un par de apuntes y opiniones personales sobre estos nuevos servicios.
    La filosofía de ambos servicios creo que es muy acertada y que tendrán una gran proyección en el futuro. Primero Microsoft, y luego Google en respuesta, han puesto en el centro de sus bases de datos científicas al investigador, frente al modelo clásico deScopus y WoS, donde el artículo y la revista es el elemento clave de sus bases de datos. Es cierto que sus indicadores bibliométricos están muy por detrás de Scopus y Wos(Google ni tan siquiera nos dice cuántos artículos tiene un autor!), pero su implementación es bastante sencilla y creo que con el tiempo se irán incorporando indicadores más potentes.
    Mi opinión personal, y esto es más un ejercicio de imaginación, es que ambos servicios buscan la creación de redes sociales científicas en línea, como un Facebook científico, ya que una vez que cada investigador tenga su perfil se le puede añadir herramientas sociales como mensajería, foros, chat, etc., como hace ResearchGate y otros. En definitiva, creo que son movimientos de dos grandes por posicionarse en el naciente mercado de la Ciencia 2.0 o las redes sociales científicas, que obligará, espero, a ScopusWoS a mover ficha en esta dirección.
    Otra cuestión relevante es la cobertura. No sé cuántos perfiles posee MicrosoftGoogle Citations, según mis cálculos, puede rondar los 30 mil usuarios a día de hoy, pero estimo que tendrá un crecimiento exponencial en los próximos años. En vuestra opinión, una de las limitaciones, sobre todo con Citations, es que los perfiles son voluntarios y puede causar que algunos investigadores no participen del servicio, con lo cual el mapa que se pueda extraer no sea enteramente representativo de la ciencia hoy en día. Estoy pensando en investigadores con escasa relación o destreza con la Web, investigadores seniors o consagrados que no estén muy preocupados en su visibilidad web, etc. Pero creo que el enfoque debe ser que estos servicios no son un reflejo de la ciencia en sí, sino un reflejo de la actitud de los científicos por su presencia web.
    Si en estos servicios hay una sobrerrepresentación de informáticos frente a humanistas, por ejemplo, no debe ser entendido como una desventaja sino como una constatación diferenciada de actitudes a la hora de participar en estos servicios y a la existencia de procesos de comunicación científica diferentes, como sucede con áreas donde la comunicación científica se expresa de forma diferente (libros para humanistas o congresos para físicos o informáticos).
    En resumen, creo que debemos dar la bienvenida a estos servicios ya que para bibliómetras/evaluadores de la actividad científica, estos servicios aportan nuevas posibilidades en el entendimiento de actuales y nuevas formas de comunicación científica.
  2. Álvaro Cabezas-Clavijo
    PRODUCTOS CENTRADOS EN EL INVESTIGADOR, Y NO EN LA REVISTA
    Pensamos como tú en que una de las fortalezas de estos proyectos es poner al investigador en el centro y no a la revista. WoS y Scopus lo están intentando muy tímidamente ahora, pero es curioso que dispongamos de decenas de listados de impacto de revistas y pocos de investigadores.
    Sobre la integración con redes sociales, es una de las perspectivas desde la que se puede abordar el tema, aunque hemos preferido centrarnos en la evaluación. Las redes sociales científicas que han aparecido no parece que estén teniendo mucho éxito (estamos en varias como ReseachGate o Mendeley y hay poco movimiento), y de momento las funciones sociales de estos productos son poco útiles (digo las funciones sociales, porqueMendeley es un excelente gestor bibliográfico y organizador de la biblioteca de pdfs).
    Google tampoco parece tener mucho éxito con Google Plus, por lo que la integración deScholar con GPlus parece algo secundario ahora mismo, si bien desde luego a medio plazo parece un paso evidente.
    Sobre los investigadores que no prestan atención a la Web, desde luego no es un problema de Google sino de los investigadores; aunque de cara al evaluador, no tener un retrato completo de las disciplinas es un hándicap en dicha labor. Y quien no quiere aparecer en listados por el miedo a la comparación se está retratando a sí mismo. A nosotros nos parece mucho más interesante bucear en los investigadores “que no investigan”, que en los que tienen miles de citas, y creemos que a las universidades también les debería interesar. Pero esto es entrar en otra cuestión.
    Muchas gracias, José-Luis por tu aportación.
  3. Daniel Torres-Salinas
    PROBLEMAS EN EL USO BIBLIOMÉTRICO DE ESTOS PRODUCTOS
    Creo que hay consenso y aceptamos que los productos reseñados y los indicadores que generan son importantes. Sin embargo, desde el punto de vista de la Bibliometría, presentan todavía problemas:
    1) No se pueden hacer descargas masivas con muchos campos y bien estandarizados y por tanto es difícil cruzar datos con otros productos (IF revistas, categorizaciones, etc…).
    2) Esto también nos lleva a que no se pueden recuperar documentos por afiliación, por tanto los estudios a nivel universidad son difíciles de llevar a cabo. Por ahora, hay que limitarse sólo a investigadores y papers.
    3) El entorno es poco controlado; en WoS o Scopus sabemos cuáles son las revistas y “lo que valen”.
    4) Viendo qué coge Google Citations está claro que tira mucho de repositorios (en mi caso todo lo que tengo en E-LIS y Digibug) y claro, me salen casi 100 ítems pero, ¿son todo papers e investigación? No. Hay mucho ppt y presentaciones, no todo es ciencia y lo tienen difícil para discriminar. Yo creo que ésta es la razón por la que no ponen el indicador de trabajos.
    5) ¿quiero decir que no son útiles? No, en la UN en el ICS (Centro de Humanidades y Sociales), como es una población pequeña y controlada, estamos empezando a sacar estos nuevos indicadores ya que los tradicionales no funcionan. Por ejemplo, todo los sites de los proyectos los tenemos controlados con Analytics, procuramos que se carguen (es difícil) los materiales en el repositorio para sacar estadísticas y en las “evaluaciones” tiramos de Google Scholar. Pero claro, una cosa es evaluar un proyecto, un grupo, y otra una universidad completa.
    6) Para terminar, siempre he pensado que si pudiéramos “obligar” a nuestros investigadores a tener un perfil en Research ID y ahora otro en Google Citations nos ahorraríamos muchísimo tiempo.
  4. CONTENIDOS EN REPOSITORIOS
    “…pero son todo papers e investigación? No. Hay mucho ppt y presentaciones, no todo es ciencia…”.
    Lo que sí resulta claro es que un repositorio, si se pretende usar como fuente para este tipo de cosas, debería discriminar en su política cuáles son los tipos de documentos que se pueden depositar o autoarchivar. Luego te encuentras unas cosas…
  5. Isidro F. Aguillo
    LA AMPLIACIÓN DE LA TIPOLOGÍA DE ACTIVIDADES CIENTÍFICAS EVALUABLES
    Creo que antes de considerar las limitaciones técnicas derivadas de nuestra experiencia con otros productos, no sé si habría que considerar cambiar algunas reglas de juego. Me refiero a la frase:
    “…pero son todo papers e investigación? No. Hay mucho ppt y presentaciones, no todo es ciencia…”.
    Entiendo que ciencia es todo lo que hacen los científicos y no sólo los papers, máxime cuando ésta no es la vía principal de comunicación en muchas disciplinas. Por ejemplo, yo siempre he preferido estudiar primero los ppt de Daniel en Slideshare y entiendo que son de mucha calidad.
    Pero quizá hay un aspecto práctico mucho más importante. Si nos ceñimos a los estudios tradicionales, los números obtenidos son bajísimos, con producciones medias de 2 ó 3papers por año o índices h que raramente alcanzan los dos dígitos. Si queremos hacer evaluaciones de calidad tendremos que ser más fidedignos en la representación de la actividad investigadora de los individuos, y eso pasa por ser más inclusivos en la tipología de las actividades evaluables. Por ejemplo, los informáticos están encantados con los indicadores que les ofrece Google Citations.
    Por último, animaría a todo el mundo a difundir la creación de perfiles. Es el primer paso de esta pequeña revolución.
  6. Jorge Serrano-Cobos
    MARKETING PARA CIENTÍFICOS
    Muy interesante el debate, gracias por tantas ideas…
    Por mi sesgo (no soy especialista en Bibliometría, como la mayoría de vosotros, y trabajo para una empresa privada), ¿os dáis cuenta de lo cerca que estáis del marketing?
    Yo lo llamo, probablemente mal, “marketing científico”, o “marketing para científicos”, que no “marketing con metodología científica” (aunque algo de eso hay, pero como tengo unos contratos de confidencialidad que no veas, pues no puedo publicar nada como os veo a algunos…).
    Con todo esto de los embedded librarians y los clientes que tengo, que me demandan análisis globales de marketing (y no sólo e-marketing) en los que está inserto un análisis bibliométrico, se abre toda una vía de especialización para los compañeros de profesión muy interesante, y que como en otros ámbitos, nos lleva a conocer otras disciplinas.
    Un ejemplo, véanse estas conferencias en las que no hubiera estado mal ver a alguno de los expertos presentes en esta lista. Sobre todo la charla de Elisa Montserrat, y que supongo que a Daniel Torres-Salinas le interesará porque habla de lo que están haciendo en la Universidad de Navarra.
    Obviamente está abierta la discusión sobre si es ético hacer esfuerzos para tener mayor visibilidad o deberíamos dejar que “la visibilidad fluya por la calidad científica del autor/es”, pero entiendo que en ese caso necesitaríamos un único y gran repositorio donde ninguna revista tenga de antemano ventajas históricas, y todos tengan las mismas posibilidades, etc. La cosa está como está y con esas armas jugamos todos.
    En fin, utopías aparte (a ver si Google compra o hunde a Reuters, espérate…, lo dicho, lástima que en muchas ocasiones los esfuerzos para generar marca de una universidad no contemplen integrar / cuidar la calidad y visibilidad de su producción científica, etc.
    En cualquier caso, muy interesante todo, gracias, participad en congresos de comunicación y marketing de universidades (o creadlos), os necesitan y no lo saben.
  7. EVALUACIÓN Y PLANIFICACIÓN DE LA ACTIVIDAD CIENTÍFICA
    Debe haber un nombre para ello, pero cuando el evaluado (investigador o institución) conoce la mecánica exacta de la evaluación, la adecuación de ésta a lo que pretende medir empieza a erosionarse.
    En un mundo ideal, los académicos serían evaluados por una instancia divina, de forma que actuarían movidos por el puro deseo de conocer y convencer, y la evaluación sería el justo reflejo de la calidad continuada de su trabajo.
    Quizá la evaluación de la ciencia debería tener algo de misterio sagrado, y los científicos-vicerrectores-mortales sólo vislumbrar el incierto reflejo de la luz divina, y los mensajes de sus sacerdotes. Conocer una serie de principios generales y actuar movidos por ellos, confiando en alcanzar el reino de los cielos o el impacto.
    Seguro que la mitad de nosotros pensamos que planificar la investigación y la actividad institucional pensando en el ranking es un error, porque produce principalmente una simulación del verdadero conocimiento, como las procesiones lo son de otros sentimientos, o como los regalos caros del amor.
    Propongo que AnecaCenai, y Rankings-Corporation, hagan como Google y modifiquen ligeramente cada cierto tiempo sus criterios de elaboración de indicadores, los guarden en secreto, y simplemente nos hagan dudar de que conocemos todos sus secretos.
    En todo caso, bienvenido sea cualquier esfuerzo de encontrar formas más sutiles de medir las aportaciones de forma plural (“ser mas fidedignos en la representación de la actividad investigadora de los individuos, y eso pasa por ser más inclusivos en la tipología de las actividades evaluables”, Isidro) y el posicionamiento natural (“que la visibilidad fluya por la calidad científica del autor/es”, Jorge).
  8. Daniel Torres-Salinas
    TODO ES ACTIVIDAD CIENTÍFICA, PERO HAY NIVELES
    Isidro, estoy a favor de que cuando evaluamos intentemos abarcar todas las tipologías documentales. Pero las hay menores y mayores, y las hay que tienen buenos filtros y las hay que no lo tienen, no es lo mismo preparar un artículo que resume los resultados de investigación de un proyecto del Plan Nacional que un ppt que resume cómo divulgar tus papers a través de Twitter, reflejan diferentes esfuerzos y diferentes conocimientos, aunque los dos bien es cierto pueden ser originales y muy útiles.
    Equiparar ppts a revistas científicas, aunque sean chulos, es algo arriesgado y puede quebrarnos las cuentas, creo que la tipología a seleccionar dependerá del objetivo de la evaluación.
    Si queremos por ejemplo evaluar la transferencia de conocimiento, por ejemplo al sector profesional, los contadores de Slideshare de cursos a bibliotecarios, como por ejemplo en mi caso (gracias por el piropo), pueden ser un indicador estupendo. Pero si hay que evaluar la generación de conocimiento científico, nada como un puñado de papers o de libros publicados en ***** University Press. Todo es actividad científica, de acuerdo, pero hay niveles.
    Efectivamente, las nuevas herramientas incrementan los “números bibliométricos” en volumen, y esto es estupendo, sobre todo en sociales y humanidades, donde andamos sobre arenas movedizas y a veces contamos con una simple letrica, como hacemos enCirc, para calificar la producción. Tenemos poca de donde tirar y, a veces, lo reconozco, puede llegar a ser un poco simplista. Como comenté en ese proyecto experimental de evaluación del centro ICS, estamos preparando indicadores de otro tipo. Con los clásicos es verdad no nos llega y con Analytics, los downloads y los hits en Scholar, al menos nos permiten tener otros elementos de juicio.
    Pero evidentemente si queremos tener otros elementos de juicio en éstas áreas es necesario tener en cuenta otras tipologías para tener digamos más “trabajos evaluables” en juego y aprovechar esas alt-metrics. Si no es imposible, lo que nos está costando en este Centro es que los investigadores pongan en juego sus materiales en la Web. Ojo, muchos son reticentes, ya que si no tienes visitas en la Web de tu proyecto, no se han descargado los materiales del repositorio, no se han citado en Scholar (como nos ocurre con algunos), dejan una evidencia más que palpable de que lo que estás investigando no tiene ni interés científico ni social; de ahí las reticencias y el poder de la Web como herramienta de evaluación.
    Otra cuestión interesante de las nuevas herramientas es el valor final que le pueden dar los “gestores” a los nuevos indicadores o productos. Os puedo asegurar que tienen muchas reticencias a ellos ya que los ven como un divertimento o una mera curiosidad. Todavía no ven el valor del que hablaba en el párrafo anterior. A fin de cuentas, los proyectos del Plan Nacional, los “Severo Ochoa” y las pegatas del CEI, que es lo trae la pasta a nuestras universidades, se consiguen a través de papers y citas, es lo que piden en las convocatorias.
    Imagino que poco a poco todo puede cambiar en sus cabezas, pero no debemos imponer indicadores, todos sabemos que éstos cuajan poco a poco. Los que vivimos el día a día de estas convocatorias no podemos perder esta perspectiva, no podemos decir al gestor que le diga a sus investigadores que publiquen todo en el repositorio y sean descargados y punto; la perspectiva ahora es que publiquen todo en el JCR 1º cuartil y sean citados; ésta es la moneda de cambio en la ciencia: “papers & citas” por dinero. Esto no lo imponemos los que nos dedicamos a la Bibliometría, sino los de arriba, los del Ministerio. A mí personalmente me gustaría evaluar de otra manera y evaluar otras cosas.
    En cuanto a lo que dice Jorge Serrano-Cobos, efectivamente emergen nuevos roles en torno a la producción científica/evaluación, es el momento de aprovecharlos. Las universidades necesitan herramientas de gestión y creo que nosotros podemos darles un poco de luz que les pueda ayudar a tomar decisiones. Pero ojo, no nos dedicamos al marketing, son más bien nuestros jefes los que utilizan nuestros indicadores para hacer marketing; proveemos los datos y ellos ven que salen bien en algo y nos piden una noticia de prensa. Yo hago este rol y creo que podemos perder perspectiva de análisis ya que al final sólo miramos lo bueno, lo vendible de las universidades, y suelen ignorar las debilidades. En ese sentido eso es marketing, intentar vender un producto que a lo mejor no es tan bueno.
  9. Álvaro Roldán-López
    MODIFICACIONES EN LOS CRITERIOS DE EVALUACIÓN
    Hola Tomás:
    Te puedo asegurar que algunos nos preocupamos de que la evaluación se vaya variando en función de las derivas curriculares que se van observando en evaluaciones anteriores. Las modificaciones en los criterios de evaluación hay que efectuarlas con tiento y mesura pero son útiles en este sentido, evitan una excesiva distorsión en la trayectoria curricular del científico. Y, en general, la experiencia nos dice que con unos pocos indicadores se asegura uno un ranking que poco cambiaría por muy fino que tratara uno de hilar.
    Lamentablemente, también nos dice la experiencia que la fe ciega en los números provoca injusticias; pocas, pero haberlas, haylas.

No hay comentarios: