El Factor de Impacto de las revistas científicas sigue siendo ese número que devora la ciencia española: ¿hasta cuándo?

  • Emilio Delgado-López-Cózar El profesional de la información
  • Alberto Martín-Martín
Palabras clave: Factor de Impacto, Journal Citation Reports, Indicadores bibliométricos, Recuentos de citas, Revistas científicas, Publicación científica, Evaluación científica, Rendimiento de los investigadores, Política científica, Política de evaluación,

Resumen

El objetivo de este ensayo es responder a la pregunta de por qué seguimos empleando en España el Factor de Impacto (FI) y demás indicadores bibliométricos de recuentos de citas para evaluar el rendimiento de científicos e instituciones. A pesar del nacimiento en las dos últimas décadas de nuevas fuentes de datos de citación e indicadores bibliométricos y de las críticas desatadas contra su uso por diversos manifiestos y declaraciones, en España la exigencia de publicar en revistas con FI (que se publican en los Journal Citation Reports) o sucedáneos, sigue siendo la precondición necesaria para ingresar y progresar en la carrera científica. El FI ha penetrado en todas las instituciones con responsabilidades sobre la investigación que se genera en el país (agencias de financiación, evaluación, universidades, centros de investigación, hospitales, centros culturales) aplicándose inmisericordemente a todos los niveles, desde autores o grupos a instituciones pasando por becas, programas, proyectos y planes de toda clase y condición. Tras mostrar cómo este requisito está omnipresente en los textos de las convocatorias promovidas por las principales agencias de evaluación y financiación de España, se intenta explicar cómo se ha llegado hasta aquí. Se repasa el origen del FI y las intenciones de su creador y se repasan las críticas que han ido surgiendo hasta hoy, por ejemplo con la redacción de manifiestos en contra de su uso indiscriminado como la Declaración de San Francisco o el Manifiesto de Leiden. Se finaliza indicando las razones que pueden explicar nuestra obcecación por mantener el FI como patrón oro de la evaluación en España. Se señala finalmente por qué consideramos que el mantenimiento de esta política está dañando la ciencia, en tanto en cuanto promueve el monocultivo científico, la cultura del publica o perece y la propagación de la impactitis, una enfermedad que está alterando severamente el comportamiento moral de los científicos españoles.

Citas

Braun, Tibor; Glänzel, Wolfgang (1995). “On a source of error in computing journal impact factors”. Chemical intelligencer, n. 1, 31–32.

Camí, Jordi (1997). “Impactolatria, diagnóstico y tratamiento”. Medicina clínica, n. 109, pp. 515-524. http://blogs.ujaen.es/cienciabuja/wp-content/uploads/2016/05/Impactolatria.pdf

Delgado-López-Cózar, Emilio (2010). “Claroscuros de la evaluación científica en España”. Boletin Medes: Medicina en Español, n. 4, pp. 25-29. http://hdl.handle.net/10481/35911

Delgado-López-Cózar, Emilio (2017a). “La edición académica a examen: Índices de impacto, rankings y agencias de evaluación”. En: VII Jornada Digital: Ecosistema, proyección e impacto del libro académico. Madrid, 1 de junio de 2017. http://hdl.handle.net/10481/4676

Delgado-López-Cózar, Emilio (2017b). “Sobre el uso, abuso, mal uso y efectos de la aplicación de los indicadores bibliométricos en la evaluación de la ciencia”. Debate: Avaluació de la ciència: aplicacions i límits dels indicadors bibliomètrics. Acto de clausura del postgrado Comunicació i Avaluació de la Ciència de la Universidad de Barcelona. Barcelona, 28 de noviembre. https://doi.org/10.13140/RG.2.2.30226.30406

Delgado-López-Cózar, Emilio (2018). De la ruta de oro a la ruta verde de la comunicación científica: negocio editorial y bibliométrico, publicación libre, acceso abierto, evaluación total e individualizada. http://doi.org/10.13140/RG.2.2.30852.78724

Delgado-López-Cózar, Emilio (2019). “La evaluación de revistas científicas en España: perversiones bibliométricas”. En: 9ª Conferencia internacional sobre revistas de Ciencias Sociales y Humanidades. Logroño, 23 de mayo de 2019. https://doi.org/10.13140/RG.2.2.19643.36644

Delgado-López-Cózar, Emilio; Ruiz-Pérez, Rafael; Jiménez-Contreras, Evaristo (2007). “Impact of the impact factor in Spain”. British medical journal, 20 april. https://www.bmj.com/rapid-response/2011/11/01/impact-impact-factor-spain

DORA (2018). Declaración de San Francisco sobre la evaluación de la investigación. Traducción por Beatriz Pardal-Peláez. https://sfdora.org/read/es

EASE (2007). EASE statement on inappropriate use of impact factors. European Association of Science Editors. http://www.ease.org.uk/publications/impact-factor-statement

Garfield, Eugene (1972). “Citation analysis as a tool in journal evaluation”. Science, v. 178, n. 4060, pp. 471-479. https://doi.org/10.1126/science.178.4060.471

Garfield, Eugene (1983a). “How to use citation analysis for faculty evaluation and when is it relevant? Part 1”. Current contents, n. 44, pp. 5-13. http://www.garfield.library.upenn.edu/essays/v6p354y1983.pdf

Garfield, Eugene (1983b). “How to use citation analysis for faculty evaluation and when is it relevant? Part 2”. Current contents, n. 45, pp. 363-372. http://www.garfield.library.upenn.edu/essays/v6p363y1983.pdf

Garfield, Eugene (1996). “Fortnightly review: How can impact factors be improved?”. British medical journal, v. 313, n. 7054, pp. 411-413. https://doi.org/10.1136/bmj.313.7054.411

Garfield, Eugene (1999). “Journal impact factor: a brief review”. CMAJ, v. 161, n. 8, pp. 979-980. https://www.cmaj.ca/content/161/8/979

Garfield, Eugene (2005). “The agony and the ecstasy. The history and meaning of the Journal Impact Factor”. En: International Congress on Peer Review and Biomedical Publication. http://garfield.library.upenn.edu/papers/jifchicago2005.pdf

Glänzel, Wolfgang; Moed, Henk F. (2002). “Journal impact measures in bibliometric research”. Scientometrics, v. 53, n. 2, pp. 171-193. https://doi.org/ 10.1023/A:1014848323806

Hicks, Diana; Wouters, Paul; Waltman, Ludo; De-Rijcke, Sarah; Rafols, Ismael (2015). “Bibliometrics: the Leiden Manifesto for research metrics”. Nature news, v. 520, n. 7548, pp. 429. https://doi.org/10.1038/520429a

Jiménez-Contreras, Evaristo; De-Moya-Anegón, Félix; Delgado-López-Cózar, Emilio (2003). “The evolution of research activity in Spain: The impact of the National Commission for the Evaluation of Research Activity (CNEAI)”. Research policy, v. 32, n. 1, pp. 123-142. https://doi.org/10.1016/S0048-7333(02)00008-2

Jiménez-Contreras, Evaristo; Delgado-López-Cózar, Emilio; Ruiz-Pérez, Rafael; Fernández, Víctor M. (2002). “Impact-factor rewards affect Spanish research”. Nature, v. 417, n. 6892, pp. 898. https://doi.org/10.1038/417898b

Monastersky, Richard (2005). “The number that’s devouring science”. The chronicle of higher education, v. 52, n. 8.

Orduña-Malea, Enrique; Martín-Martín, Alberto; Delgado-López-Cózar, Emilio (2017). “Métricas en perfiles académicos: ¿un nuevo juego adictivo para los investigadores?”. Revista española de salud pública, n. 90, e20006. https://www.ncbi.nlm.nih.gov/pubmed/27653216

Saha, Somnath; Saint, Sanjay; Christakis, Dimitri A. (2003). “Impact factor: a valid measure of journal quality?”. Journal of the Medical Library Association, v. 91, n. 1, pp. 42. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC141186

Seglen, Per O. (1992). “How representative is the journal impact factor?”. Research evaluation, v. 2, n. 3, pp. 143–149. https://doi.org/10.1093/rev/2.3.143

Seglen, Per O. (1994). “Causal relationship between article citedness and journal impact”. Journal of the American Society for Information Science, v. 45, n. 1. https://doi.org/10.1002/(SICI)1097-4571(199401)45:1%3C1::AID-ASI1%3E3.0.CO;2-Y

Seglen, Per O. (1997). “Why the impact factor of journals should not be used for evaluating research”. British medical journal, v. 314, pp. 498-502. https://doi.org/10.1136/bmj.314.7079.497

Vanclay, Jerome K. (2012). “Impact factor: outdated artefact or stepping-stone to journal certification?”. Scientometrics, v. 92, n. 2, pp. 211-238. https://doi.org/10.1007/s11192-011-0561-0

Wilsdon, James; Allen, Liz; Belfiore, Eleonora; Campbell, Philip; Curry, Stephen; Hill, Steven; Jones, Ri­chard; Kain, Roger; Kerridge, Simon Richard; Thelwall, Mike; Tinkler, Jane; Viney, Ian; Wouters, Paul (2016). The metric tide: Independent review of the role of metrics in research assessment and management. Sage. https://doi.org/10.13140/RG.2.1.4929.1363

Publicado
2019-12-29
Sección
E. Comunicación científica, edición y fuentes de información