doi: http://dx.doi.org/10.18273/revsal.v51n1-2019001
Editorial
Salud UIS en The Lancet: visibilidad y calidad más allá del factor de impacto y el H5
Salud UIS in The Lancet: visibility and quality beyond the impact factor and the H5
En 2017, Colciencias cambió la forma de clasificar las revistas científicas, con un impacto enorme en las publicaciones nacionales. En general, las revistas bajaron de nivel en la clasificación, ubicándose más apropiadamente en el contexto de las revistas internacionales, lo cual llevó a un gran número de críticas por la falta de apoyo previo de Colciencias a las revistas y el impacto que tiene en los salarios de los profesores de universidades públicas1. Al respecto, el problema radicaba en los incentivos que había en publicar en revistas nacionales, de las que vale decir incrementaron en número excesivo, sin que se evidenciara un aumento en la calidad de las publicaciones. Esto en menoscabo de publicar en revistas internacionales de amplia difusión, pero que muchas veces sus implicaciones directas en el país pasan desapercibidas por no ser leídas al ser publicadas, en su mayoría en inglés u otros idiomas. La discusión de qué publicar en revistas nacionales o internacionales es un tema complejo para los investigadores y, en gran medida, dependiente de cada disciplina y del desarrollo de la misma en el país. La regla simple es la de publicar los temas de interés local en revistas nacionales, y lo de interés más amplio en revistas internacionales. Sin embargo, la consecuencia nefasta es que implicaría dejar las revistas nacionales en un plano estrecho, sin amplia difusión; en últimas, condenadas a su extinción en un tiempo más corto o más largo, o relegadas a un segundo plano dentro del contexto científico mundial.
Para las revistas comprometidas, como Salud UIS, la prioridad es mejorar la calidad de las publicaciones, sin importar el idioma en que se hagan; los autores mismos podrán definir el alcance de su trabajo y enviar los manuscritos en el idioma en que creen tendrá más difusión y lectores interesados. Estamos convencidos que no todo lo escrito en inglés es de buena calidad, y que no todo lo que está en español es de baja calidad2. Hay que superar esta falsa dicotomía y enfocar las acciones editoriales en el aseguramiento de una mayor calidad científica y relevancia de los artículos publicados. ¿Qué mejor evidencia que casi una tercera parte de los premios Nobel en literatura no son por obras en inglés, sino en otros idiomas?3 Pensar lo contrario si denota un colonialismo científico, que debemos superar poco a poco, con el esfuerzo mancomunado de toda la comunidad científica, donde las revistas tenemos un rol fundamental.
Reconocemos así que nuestra Revista, con un amplio enfoque en salud que no queremos perder, tiene dificultades para cumplir con las métricas que actualmente ha escogido Colciencias para clasificar, pero que estamos seguros no reflejan el esfuerzo mantenido en los últimos años de mejorar la calidad de los trabajos publicados. Un muy buen ejemplo de esto se presentó en 2018 para Salud UIS, en el que dos publicaciones recientes fueron citadas en The Lancet,una de las revistas médicas y del área de la salud más reputada. La citación de estos trabajos de Salud UIS es evidencia de lo relevante que se publica en nuestra Revista, así que revisemos cada uno de estos casos:
El primer artículo es un reporte de caso en salud pública que exploró los potenciales efectos adversos asociados con la contaminación generada en la mina abierta de ferroníquel de Cerro Matoso, en Montelibano, Córdoba; de manera especial el artículo en Salud UIS señala esta mina como una fuente no conocida de hidroarsenicismo, y muestra cómo al escuchar la población se puede entender cómo se presenta la contaminación y muestra las vías de exposición de los humanos4. A raíz de la histórica sentencia de la Corte Constitucional donde se indica que la mina sí causa daño ambiental y enfermedad entre quienes viven en sus alrededores, una carta al editor fue publicada sobre este tema en The Lancet,5 divulgando ampliamente una de las mayores problemáticas de salud ambiental en Colombia a toda la comunidad científica global. De esta manera se denunció internacionalmente un conflicto socioambiental con profundas repercusiones en la salud, que aún no ha sido bien dimensionado por las gigantescas fuerzas económicas involucradas, que prefieren mantener silente una problemática mayúscula.
El segundo artículo corresponde a un editorial sobre la histórica prohibición que el Ministerio de Salud y Protección hizo sobre el glifosato en 2015, donde se recuerda la historia de la fumigación de cultivos ilícitos con plaguicidas en Colombia, los estudios nacionales que han abordado el tema y sus similitudes con el informe de la Agencia Internacional para la Investigación sobre Cáncer (IARC, por sus siglas en inglés) que sirvió para clasificar al glifosato como potencialmente cancerígeno para humanos6. Este editorial fue citado por una carta al editor en The Lancet,7 en el que se denuncia que el gobierno colombiano presidido por Iván Duque decidió volver a usar el glifosato, ahora con drones, ignorando así la clasificación de la IARC y desconociendo las complejas realidades que viven los campesinos cultivadores de cultivos ilícitos. Colombia vuelve a ser el único país que tiene una estrategia antinarcóticos que usa la fumigación aérea con plaguicidas.
Estas citaciones, por tanto, son una clara muestra de la importancia de los temas publicados en Salud UIS que no son evidenciados por el factor de impacto o el índice H que usa Colciencias para clasificar las publicaciones. Por eso, más allá de los indicadores bibliométricos Salud UIS sigue comprometida con publicar artículos cada vez de mayor calidad y estar al día opinando de manera rigurosa y objetiva sobre los hechos más relevantes relacionados con la salud que ocurran en Colombia, los países latinoamericanos y el mundo en general. Este compromiso se confirma con la participación que Salud UIS hace de la Declaración DORA, la cual reproducimos a continuación.
Referencias
1. Jaimes F. Conocimiento, revistas científicas y las universidades en Colombia: lo bueno, lo malo y lo feo. IATREIA 2018; 31(1): 5-6.
2. Gibbs WW. Lost science in the third world. SciAm 1995;273:92-99. doi: http://10.1038/scientificamerican0895-92.
3. Meneghini R, Packer AL. Is there science beyond English? EMBO Reports 2007;8(2):112-6. http://10.1038/sj.embor.7400906.
4. Idrovo AJ, Rivero-Rubio C, Amaya-Castellanos C. Perception of pollution and arsenic in hair of indigenous living near a ferronickel open-pit mine (Córdoba, Colombia): public health case report. Rev Univ Ind Santander Salud. 2017; 49: 115-123. doi: https://doi.org/10.18273/revsal.v49n1-2017011.
5. Idrovo AJ. Cerro Matoso ferronickel mine, chemical mixtures and environmental justice in Colombia. Lancet 2018; 391(10137): 2320. doi: https://doi.org/10.1016/S0140-6736(18)30855-9.
6. Idrovo AJ. De la erradicación de cultivos ilícitos a la erradicación del glifosato en Colombia [editorial]. Revista Universidad Industrial de Santander. Salud 2015;47(2):113-114.
7. Idrovo AJ, Rodríguez-Villamizar LA. Moving back in policy banning glyphosate use in Colombia. Lancet 2018; 392(10154): 1194. doi: https://doi.org/10.1016/S0140-6736(18)31883.
Alvaro J. Idrovo
Editor Salud UIS
Editorial
Declaration on research Assessment DORA
Declaración de San Francisco de Evaluación de la Investigación
Poniendo ciencia en la evaluación de la investigación
Hay una necesidad apremiante de mejorar la forma en que los resultados de la investigación científica son evaluados por las agencias de financiación, instituciones académicas y otros.
Para solucionar este problema, un grupo de directores y de editores de revistas académicas se reunió durante la Reunión Anual de la Sociedad Americana de Biología Celular (BCSV) en San Francisco, CA, el 16 de diciembre de 2012. El grupo desarrolló una serie de recomendaciones, conocidas como la Declaración de San Francisco de Evaluación de la Investigación. Invitamos a los interesados en todas las disciplinas científicas que indiquen su apoyo al añadir sus nombres a la presente Declaración.
Los resultados de la investigación científica son muchos y variados, que incluyen: artículos de investigación que reportan nuevos conocimientos, datos, reactivos y software, propiedad intelectual, así como jóvenes científicos altamente capacitados. Los organismos de financiación, las instituciones que emplean los científicos y los propios científicos, necesitan, y es necesario, evaluar la calidad e impacto de la producción científica. Por tanto, es imperativo que la producción científica se mida con precisión y se evalúe con prudencia.
El índice de impacto de las revistas se utiliza con frecuencia como parámetro primario con el que comparar la producción científica de las personas y las instituciones. El índice de impacto de revistas, según los cálculos de Thomson Reuters, fue creado originalmente como una herramienta para ayudar a los bibliotecarios a identificar revistas que comprar, no como una medida de la calidad científica de la investigación en un artículo. Con esto en mente, es importante entender que el índice de impacto tiene una serie de deficiencias bien documentadas como herramienta para la evaluación de la investigación. Estas limitaciones incluyen:
A continuación se hace una serie de recomendaciones para mejorar la forma en que se evalúa la calidad de los resultados de la investigación. Los resultados que no sean artículos de investigación crecerán en importancia en la evaluación de la eficacia de la investigación en el futuro, pero el trabajo de investigación revisado por pares continuará como un resultado central para informar sobre la evaluación de la investigación. Por lo tanto, nuestras recomendaciones se centran principalmente en las prácticas relativas a los artículos de investigación publicados en revistas revisadas por pares, pero pueden y deben ampliarse mediante el reconocimiento de productos adicionales, tales como bases de datos, como resultados de la investigación importantes. Estas recomendaciones están dirigidas a los organismos de financiación, las instituciones académicas, las revistas, las organizaciones que suministran métricas, y a los investigadores individuales.
Una serie de temas recorren estas recomendaciones:
Reconocemos que muchas agencias de financiación, instituciones, editores e investigadores ya están alentando prácticas mejoradas en la evaluación de la investigación. Estas medidas están empezando a aumentar el impulso hacia enfoques más complejos y significativos para la evaluación de investigación que ahora se puede realizar y que son adoptadas por todos los principales grupos involucrados.
Los firmantes de la Declaración de San Francisco en la evaluación de la investigación apoyan la adopción de las siguientes prácticas en la evaluación de la investigación.
Recomendación General
1. No utilice métricas basadas en revistas, tales como índices de impacto de revistas, como una medida sustitutiva de la calidad de los artículos de investigación individuales, con el fin de evaluar las contribuciones de un científico, o en la contratación, promoción, o en las decisiones de financiación.
Para los organismos de financiación
2. Sea explícito acerca de los criterios utilizados en la evaluación de la productividad científica de los solicitantes de subvenciones y resaltar claramente, sobre todo para los investigadores en fase inicial, que el contenido científico de un artículo es mucho más importante que las métricas de publicación o la identidad de la revista en la que fue publicado.
3. A efectos de la evaluación de la investigación, considerare el valor y el impacto de los resultados de la investigación (incluidos los conjuntos de datos y software), además de las publicaciones de investigación, y considerare una amplia gama de medidas de impacto que incluya indicadores cualitativos del impacto de la investigación, como la influencia sobre la política y la práctica.
Para las instituciones
4. Sea explícito acerca de los criterios utilizados para llegar a la contratación, la tenencia y las decisiones de promoción, destacando con claridad, sobre todo para los investigadores en fase inicial, que el contenido científico de un artículo es mucho más importante que las métricas de publicación o la identidad de la revista en la que fue publicado.
5. A efectos de la evaluación de la investigación, considerare el valor y el impacto de los resultados de la investigación (incluidos los conjuntos de datos y software), además de las publicaciones de investigación, y considerare una amplia gama de medidas de impacto que incluya indicadores cualitativos del impacto de la investigación, tales como la influencia sobre la política y la práctica.
Para editoriales
6. Reduzca en gran medida el énfasis en la revista del índice de impacto como una herramienta de promoción, idealmente dejando de promover el índice de impacto o mediante la presentación de la métrica en el contexto de una variedad de métricas basadas en revistas (por ejemplo, índice de impacto de 5 años, Eigenfactores [8], SCImago [9], índice h, editorial y tiempos de publicación, etc) que proporcionan una visión más rica del rendimiento de la revista.
7. Ponga a disposición una serie de indicadores a nivel de artículo para fomentar un cambio hacia la evaluación basada en el contenido científico del artículo en lugar de métricas sobre la revista en que fue publicado.
8. Fomente prácticas de autoría responsables y la provisión de información sobre las contribuciones específicas de cada autor.
9. Si la revista es de libre acceso o suscripción, elimine todas las limitaciones de reutilización en las listas de referencias de artículos de investigación, que estarán disponibles bajo la licencia "Creative Commons Public Domain Dedication" [10].
10. Elimine o reduzca las restricciones en el número de referencias en artículos de investigación y, en su caso, dirija la citación de la literatura primaria en favor de las revisiones con el fin de dar crédito al grupo(s) que registró por primera vez un hallazgo.
Para las organizaciones que proveen métricas
11. Sea abierto y transparente, proporcionando datos y métodos utilizados para el cálculo de todos los indicadores.
12. Proporcione los datos bajo una licencia que permita la reutilización sin restricciones, y facilite el acceso a los datos de cálculo, siempre que sea posible.
13. Tenga claro que la manipulación inadecuada de los indicadores no será tolerada; sea explícito acerca de lo que constituye la manipulación inadecuada y qué medidas se tomarán para combatir esto.
14. Cuando se utilizan, agregan o comparan indicadores tenga en cuenta las diferencias existentes entre los distintos tipos de artículos (por ejemplo, revisiones frente a artículos de investigación), y en las diferentes áreas científicas.
Para los investigadores
15. Cuando participe en los comités de toma de decisiones sobre la financiación, la contratación, la tenencia, o la promoción, realice evaluaciones basadas en el contenido científico en lugar de en las métricas de publicación.
16. Siempre que sea necesario, cite la literatura primaria en que las observaciones fueron por primera vez publicadas con el fin de dar el crédito a quien merece ese crédito.
17. Use una variedad de métricas de artículos e indicadores sobre las declaraciones personales o de apoyo, como evidencia del impacto de los artículos publicados individuales y otros productos de la investigación [11].
18. Cambie las prácticas de evaluación de la investigación que se basan inadecuadamente en los índices de impacto y promueva y enseñe las mejores prácticas que se centran en el valor y la influencia de los resultados específicos de la investigación.
Referencias
1. Adler, R., Ewing, J., and Taylor, P. (2008) Citation statistics. A report from the International Mathematical Union. www.mathunion.org/publications/report/citationstatistics.
2. Seglen, P.O. (1997) Why the impact factor of journals should not be used for evaluating research. BMJ 314, 498-502.
3. Editorial (2005). Not so deep impact. Nature 435, 1003-1004.
4. Vanclay, J.K. (2012) Impact Factor: Outdated artefact or stepping-stone to journal certification. Scientometrics 92, 211-238.
5. The PLoS Medicine Editors (2006). The impact factor game. PLoS Med 3(6): e291 doi: 10.1371/journal.pmed.0030291.
6. Rossner, M., Van Epps, H., Hill, E. (2007). Show me the data. J. Cell Biol. 179, 1091-1092.
7. Rossner M., Van Epps H., and Hill E. (2008). Irreproducible results: A response to Thomson Scientific. J. Cell Biol. 180, 254-255.
8. http://www.eigenfactor.org/.
10. http://opencitations.wordpress.com/2013/01/03/open-letter-to-publishers.