La perversa trampa del ‘publica o muere’

La exigencia de publicar muchos artículos para ascender en la carrera científica ha desvirtuado el sistema de evaluación hasta el punto de que vale más haber firmado muchos que su calidad

La perversa trampa del ‘publica o muere’

La perversa trampa del ‘publica o muere’

Verónica Pavés

Verónica Pavés

¿Se puede publicar un artículo científico cada semana? La mayoría de los científicos estarían de acuerdo en que es casi imposible escribir tanto en tan poco tiempo y, sin embargo, hay miles en el mundo que lo logran. La carrera científica premia a quien disponga de más artículos publicados con mejores puestos de trabajo, más estabilidad y mejor remuneración. Un aliciente que, sin embargo, ha incentivado a su vez una «perversión» del sistema facilitando que aquellos que buscan fórmulas rápidas -en ocasiones hasta inverosímiles- de alcanzar sus objetivos, hoy desvelen el lado más oscuro de la ciencia. 

«Publicar o perecer» (publish or perish, en inglés) es el aforismo utilizado para describir esa presión que sienten los investigadores por publicar con la máxima regularidad posible trabajos académicos en revistas especializadas para progresar en su carrera. Ese mantra ha calado hondo entre algunos investigadores que buscan cualquier fórmula posible para tratar de conseguir mejoras laborales, ya sea incluyendo su nombre en artículos de investigación en los que solo han trasladado unos datos, intercambiando citas entre miembros de un mismo grupo o pagando por la publicación rápida de sus artículos en revistas de código abierto de dudosa fiabilidad. 

Esta presión ha sido descrita como una de las causas de que se envíen trabajos deficientes a revistas académicas. Algunos autores también consideran que el miedo al rechazo de los artículos genera que muchas veces se publiquen estudios poco rompedores para agradar a los revisores. Por otro lado, algunas áreas de conocimiento menos proclives a las publicaciones científicas -como ciencias sociales- se están subiendo al carro de «publicar o perecer» dejando de lado los estudios más profundos que históricamente se han transmitido en forma de libro. 

El impacto final es un escaso avance de la ciencia. Así lo corroboró a principios de este año, un artículo publicado en Nature. Tras analizar más de 45 millones de artículos científicos un grupo de investigadores concluyó que, aunque ahora se publica mucho más, los avances disruptivos han caído en picado. Entre 1945 y 2010 los estudios disruptivos han caído un 91% en el caso de las ciencias sociales y un 100% en físicas.  

«Se está pervirtiendo el sistema para alcanzar estos objetivos», advierte Aridane González, director de Investigación y Desarrollo Tecnológico de la ULPGC. «Como lo que se evalúa son publicaciones al kilo, los investigadores tratan de publicar en las revistas Q1 (las que tienen más citas y supuestamente más prestigio) que publiquen más rápido para conseguir antes un contrato o una acreditación», insiste González. «El sistema de publicación se está convirtiendo en una especie de charcutería académica, donde se publica mucho pero donde las lonchas no son del mismo grosor», resalta, por su parte, Roberto González Zalacaín, director de Secretariado de Institutos Universitarios y Publicaciones de la Universidad de La Laguna (ULL). 

Según los datos proporcionados por la base de datos bibliográfica Scopus y el ránking de investigadores españoles del Consejo Superior de Investigaciones Científicas (CSIC), el actual rector de la Universidad de Las Palmas de Gran Canaria (ULPGC), Lluís Serra, es el investigador más citado y con más publicaciones de Canarias. Antes de ocupar el puesto de mando en la universidad, Serra -uno de los mayores expertos de dieta mediterránea de España- acumuló una media de 46 publicaciones científicas anuales durante seis años consecutivos, lo que corresponde a una publicación por semana. El propio Serra justifica sus logros en un duro trabajo, de una media de 12 horas diarias, y en una amplia red de colaboración, que como insiste «es muy importante».

El equipo ha sido indispensable en la consecución de este logro. En un grupo en el que trabajan muchos investigadores y, donde además, la mayoría de ellos cuenta una carrera consolidada, «la perspectiva de publicaciones es muy alta», tal y como resalta Serra. Su contribución a todos ellos no ha sido la misma. El 77% de sus artículos publicados los firma como coautor, lo que supone que en la mayoría de ocasiones su papel se ha limitado a plantear objetivos, discutir resultados o revisar el artículo. Como él mismo admite, los puestos que merecen más implicación -el primer autor, el último o el de correspondencia- «están limitados» dentro de su gran grupo de investigación.

Con su ritmo de publicación, Serra está cerca de entrar en el exclusivo grupo de autores hiperprolíficos. Es la definición que un grupo de científicos liderados por Jonh Ioannidis, le ha dado a aquellos investigadores que publican mucho en poco tiempo, con el objetivo de ascender rápido en la carrera científica. Según este experto en medidas biomédicas de la Universidad de Standford, se contabilizan miles de científicos en esta situación en todo el mundo. Lo más común es que surja en ramas como la medicina o las ciencias físicas, donde los grupos de investigación son más amplios y donde es más sencillo colarse para sacar rédito a cambio de otros favores. 

En Canarias, a Serra le sigue el director del Instituto de Astrofísica de Canarias (IAC), Rafael Rebolo, que ha publicado 50 estudios anuales en dos ocasiones: 2014 y 2016. Ambas fechas coinciden con la publicación de los resultados del satélite Max Planck, en el que Rebolo fue uno de los 300 investigadores participantes. En general, el astrofísico no publica más de 25 trabajos al año. El resto de investigadores canarios que le siguen publican una decena de artículos al año, con picos máximos que pueden elevarse por encima de la veintena, pero solo en momentos muy concretos. 

El caso del experto en nutrición de la ULPGC, no obstante, está lejos de ser tan inverosímil como otros que se han destapado en España, como el del investigador José Manuel Lorenzo, un experto en carne que durante el año pasado firmó 176 trabajos, lo que significa que publica uno cada dos días; o del ecólogo Josep Peñuelas, que firma 112 artículos al año. Dos a la semana. Además, muchos de estos investigadores acaban escribiendo artículos que nada tienen que ver con su rama, cosa que no ocurre en el caso de Serra, ya que todos sus artículos publicados versan sobre epidemiología.

Lo contrario a publicar mucho tampoco es la mejor respuesta. De hecho, investigadores como Serra creen que a pesar de esto, en España «falta mucho peso». «Es el problema de este país, el 30% de los profesores universitarios ni investiga ni publica», recuerda. 

Revistas que depredan

Parte de este boom de publicaciones también se debe a los cambios en el sistema de edición de revistas científicas. Antes de 2015 se imponía un modelo de negocio en el que las editoriales cobraban a sus lectores por los artículos que publicaban. La suscripción sufragaba los gastos de publicación y permitía mantener el sistema a flote. Con internet llegó el acceso abierto (open access), democratizando el acceso a la información científica pero también poniendo patas arriba el sector que poco a poco fue imponiendo una nueva forma de negocio. En este punto surgen las editoriales privadas que empiezan a cobrar al autor para que pueda publicar sus estudios en acceso abierto. 

A día de hoy, un investigador puede invertir entre 6.000 y hasta 10.000 euros, dependiendo de la revista, en publicar un artículo. En España, este coste se suele sufragar con los fondos públicos de investigación o de los centros de investigación. «Se están lucrando con la suscripción de los centros de investigación, con quienes quieren publicar y con el open access», revela González Zalacaín. Otras empresas rebajan el precio de la publicación a aquellos que actúen como revisores para otros artículos. 

El open access ha abierto un camino a las empresas que hasta el momento se consideraba intransitable. En 2015 apenas había una decena de revistas dedicadas a la biomedicina que publicasen más de 2.000 artículos al año. Entre todas representaban el 6% de la producción total. Ahora ya existen 55 y juntas publican una cuarta parte de la literatura especializada. 

Pero como en cualquier negocio, cuanta más competencia más posibilidades de que se cometan malas praxis. Bajo el pretexto del código abierto algunas han decidido primar la cantidad -para obtener más beneficios-a costa de la calidad. Son las denominadas en el sector como «revistas depredadoras». Las revistas depredadoras -también conocidas como pseudo-journals- se definen como aquellas que publican artículos de investigación sin aplicar los estándares de calidad que se espera de las revistas académicas, sin llevar a cabo procesos de evaluación externa o peer review o siendo estos muy pobres. «En vez de tardar siete meses en publicar, estas revistas se pueden demorar tres, lo que resulta un aliciente para muchos investigadores», declara Aridane González, que recalca que estas prácticas se ven a veces incluso en revistas de gran calidad. 

Según el bibliotecónomo Jeffrey Beall en esta lista de publicaciones fraudulentas se encuentran 2.488 revistas, entre las que se han incluido algunas de reconocidos editores y que aparecen en bases de datos de prestigio como Scopus o Web Of Science. De esta forma consiguen la relevancia suficiente para que los artículos que se publican en ellas sean considerados de buena calidad, aunque su revisión sea menos estricta. 

La mitad de las revistas superpublicadoras pertenecen a la misma editorial: Multidisciplinary Digital Publishing Institute (MDPI). Una macroempresa que controla un conglomerado de 400 revistas en todo el mundo y que ha sido señalada en varios escándalos por realizar acciones que mermaban la calidad de los artículos. Sobre su caso concreto se ha generado tanto debate que se ha llegado a pensar incluirla en la lista de «revistas depredadoras», pero finalmente se ha dejado fuera. Algunos consideran que esta estrategia forma parte de una «guerra editorial». 

Serra, que es editor de la revista Nutrients (de MDPI) y ha publicado varios de sus 700 artículos en esta macroempresa editora, defiende su forma de trabajo. «En estas revistas de acceso abierto se cita más, se comparte más y se publica más. ¿Porque tiene estándares de calidad más bajos? Yo no diría eso». Serra recuerda que «los índices de retracción de MDPI (es decir, de retirada de artículos) son similares a los de otras revistas». Considera, además, que este tipo de plataformas permiten publicar «datos negativos». «La evidencia en medicina se construye analizando lo que corrobora una teoría y lo que no, de otra manera, la evidencia sale sesgada”, recalca. 

Considera que esto forma parte de una “guerra editorial” de criterios, en la que unas revistas priman que la publicación de resultados sean nuevos y otras que sean de calidad, aunque eso signifique no publicar todos los resultados. Eso genera un «sesgo», a ojos de Serra, porque «cuando haces una revisión sistemática lo que se ha publicado no es todo lo que se ha hecho al respecto».

El sistema español

Este problema, que es mundial, en España se retroalimenta de un sistema que premia aún más si cabe la cantidad frente a la calidad. «Es un sistema muy diferente al de otros lugares del mundo», explica Aridane González. Y es que en el Estado español, el sistema para acceder -a través de contratos pre y postdoctorales- o ascender -con la acreditación de la ANECA- en la carrera científica tiene muy en cuenta el número de artículos publicados. «En Francia, Alemania o Estados Unidos no solo se tienen en cuenta las publicaciones científicas, sino también se valoran las ideas, los proyectos y la innovación», revela. En España prima «la meritocracia». 

Se producen así paradojas como que los requisitos de acceso a algunos contratos postdoctorales (como el Ramón y Cajal) sean tan altos que ni «un premio Nobel podría acceder». El «publica o perece» cala incluso antes de comenzar la carrera científica. «Antes de la etapa predoctoral ya se piden publicaciones», argumenta Aridane González, que añade que es un requisito al que muchos estudiantes ni siquiera pueden aspirar. 

Tanto en la ULL como en la ULPGC están de acuerdo en que el sistema debe cambiar para acabar de raíz con este problema. «Hay que primar la calidad sobre todo en fases tempranas», insiste. Para ello cree que se deben modificar los índices de calidad y la forma de evaluar. 

Son varios los factores que han llevado al sistema científico español a adentrarse en esta espiral de perversión. Todo comienza en el hecho de que hay más personas que se dedican a la investigación pero con una inversión en I+D insuficiente para todos, ha llevado al país a crear formas de evaluación lo más objetivas (y rápidas) posibles. Y no es menor el hecho de que el prestigio de los centros de investigación, universidades y hasta los científicos esté supeditado a los ránkings internacionales. Porque en la búsqueda de una buena imagen internacional los lanza a conseguir buenos resultados basados, simplemente, en la publicación masiva de estudios para conseguir muchas citas. 

Los expertos consideran que el cambio debe darse en la misma evaluación por la que se rige el sistema científico español. «La evaluación debería valorar aspectos cuantitativos y cualitativos», afirma González Zalacaín. El responsable de investigación y desarrollo tecnológico de la ULGPC va más allá. «Esto se tiene que regular, debemos buscar índices de calidad que vayan más allá de la publicación de un paper», reclama. 

La Agencia Nacional de Evaluación de la Calidad y Acreditación (Aneca) está, precisamente, sumergida en un proceso de renovación en el que este aspecto se ha puesto sobre la mesa. La idea es, por ejemplo, valorar con mejor puntuación aquellos artículos de investigación donde el científico haya participado como primer autor, último o corresponding, es decir, el encargado de responder a las dudas que surjan sobre el trabajo. 

En ambos casos, sin embargo, insisten en que encontrar el equilibrio no es fácil. «Estamos hablando de recursos públicos y debe encontrarse la mejor fórmula para otorgarlos», insiste González Zalacaín. Aridane González recuerda que cualquier nuevo método que se cree deberá tener en cuenta el área del conocimiento porque «no es lo mismo publicar en física o química que en derecho». Ahora bien, ambos insisten que «por algún lado hay que empezar» para evitar que la ciencia siga sufriendo la perversión de quienes no la respetan.

Suscríbete para seguir leyendo