jueves, 27 de noviembre de 2014

¿Evaluación sofisticada de las revistas científicas?
 
 
Alejandro Canales
UNAM-IISUE/SES
En los años noventa comenzó el desatado delirio por la evaluación como instrumento principal de la política pública. Hoy, casi un cuarto de siglo después, persiste y cada vez alcanza mayores proporciones. Las revistas científicas nacionales no han escapado a las medidas de regulación.
 
 
Sin embargo, a diferencia del despliegue público sobre la evaluación del desempeño individual, el de programas o el institucional, los cuales desde un inicio suscitaron, y siguen generando, reacciones encontradas, la evaluación de las revistas transita por un circuito más pequeño y acotado, pero con gran efecto sobre el conjunto del sistema científico y tecnológico. Ahora, como ocurre en otros terrenos de la evaluación, comienza a mostrar su agotamiento.
 
 
En el periodo de Fausto Alzati (1991-1994) se publicó la primera convocatoria para integrar el Índice de Revistas Mexicanas de Investigación Científica y Tecnológica (IREMICYT), aunque el entonces titular de Conacyt es mayormente recordado por sus incidentes mediáticos.
 
 
Un índice se elabora agregando diferentes variables que supone son parte de un mismo fenómeno y, al añadirlas, se les otorga un peso relativo, respecto de las demás, para sumar todos los efectos. No obstante, como el mismo Conacyt reconoció desde el comienzo, no intentaba crear un índice propiamente, como el Science Citation Index, ni hacerle frente a ese u otros similares; más bien intentaba diferenciar y seleccionar algunas revistas del conjunto existente en el país.
 
 
Según los principios que se enumeraron, la creación del IREMICYT buscaba: determinar cuáles revistas podían ser financiadas con base en criterios académicos; una jerarquización para el otorgamiento de los recursos financieros; constituir una referencia cualitativa para que los investigadores supieran donde publicar sus trabajos; y una forma objetiva de facilitar la evaluación de los patrones de publicación del personal académico.
 
 
El caso es que el IREMICYT, al comienzo, solamente utilizó dos grandes componentes para valorar la inclusión o no de las revistas: la calidad de su contenido, así como el formato y características de la revista. El primero centrado en verificar si los artículos publicados eran resultados de investigación y si la publicación estaba respaldada por un consejo editorial. A su vez este último debía estar integrado por investigadores reconocidos, de diferentes instituciones y, sobre todo, evitar que el director de la institución patrocinadora fuera ex oficio el director de la revista.
 
 
Los aspectos relacionados con el formato debían observar diferentes principios. Por ejemplo, contar con una antigüedad de por lo menos tres años, una periodicidad semestral mínima, los artículos con fechas claras de recepción y aceptación, datos de identificación institucional de los autores, entre otros.
 
 
Los datos se mueven continuamente pero se supone que existen en México cerca de dos millares de revistas y desde la primera convocatoria se presentan más de un centenar. Del total de solicitudes,  poco más de la mitad son aceptadas y sistemáticamente, cada convocatoria, el número disminuía. En el año más reciente suman 120 revistas aceptadas; más de la mitad son de humanidades y de ciencias sociales, lo cual se considera que no necesariamente es positivo.
 
 
Al comienzo, el Índice mostró cierta efectividad para regular y discriminar el panorama de las revistas. Pero, como también ocurrió en otros ámbitos, los mecanismos de evaluación paulatinamente se extraviaron, al añadir más y más elementos de evaluación, integrando un sistema minucioso y sofisticado, pero demencial y poco útil.
 
 
Por ejemplo, los criterios generales de evaluación de la convocatoria más reciente, solicita: “Entregar lista de árbitros activos durante el periodo de evaluación de la revista, incluyendo las tres últimas citas de los trabajos publicados por cada árbitro”. Una barbaridad que solamente puede imaginar alguien que desconozca el volumen y flujo de árbitros, dictámenes y artículos que circulan en una revista, tanto como el tiempo que se debe invertir para encontrar las citas de una sola persona.
 
 
En el transcurso de las últimas dos décadas hemos edificado un complejo, variable, sofisticado y costosísimo sistema de evaluación de actividades y personas. Desmontarlo es muy complicado, pero será peor persistir. Llegó el punto de retorno: conservar la rendición de cuentas y volver a un sistema más sencillo, basado en la confianza y la mejora.
 
 
(Publicado en Campus Milenio No. 586. Noviembre 27, 2014, p.5)

No hay comentarios:

Publicar un comentario