los investigadores más Citados del mundo, según los datos recientemente publicados, son un grupo curiosamente ecléctico. Premios Nobel y eminentes eruditos se codean con nombres menos familiares, como Sundarapandian Vaidyanathan de Chennai en India. Lo que salta a la vista sobre Vaidyanathan y cientos de otros investigadores es que muchas de las citas a su trabajo provienen de sus propios artículos, o de los de sus coautores.,
Vaidyanathan, un científico informático del Vel Tech r& D Institute of Technology, un instituto privado, es un ejemplo extremo: ha recibido el 94% de sus citas de sí mismo o de sus coautores hasta 2017, según un estudio en PLoS Biology este mes1. No está solo. El conjunto de datos, que enumera alrededor de 100,000 investigadores, muestra que al menos 250 científicos han acumulado más del 50% de sus citas de sí mismos o de sus coautores, mientras que la tasa media de autocitación es del 12.7%.,
el estudio podría ayudar a señalar potenciales autopromotores extremos, y posiblemente «granjas de Citas», en las que grupos de científicos se citan masivamente entre sí, dicen los investigadores. «Creo que las granjas de auto-citación son mucho más comunes de lo que creemos», dice John Ioannidis, un médico de la Universidad de Stanford en California que se especializa en meta-ciencia — el estudio de cómo se hace la ciencia — y quien dirigió el trabajo. «Aquellos con más del 25% de auto-citación no están necesariamente involucrados en un comportamiento poco ético, pero puede ser necesario un escrutinio más detenido», dice.,
los datos son, con mucho, la mayor colección de métricas de auto-citación jamás publicada. Y llegan en un momento en que las agencias de financiación, las revistas y otros se centran más en los problemas potenciales causados por la auto-cita excesiva. En julio, el Committee on Publication Ethics (COPE), un órgano asesor de editores de Londres, destacó la autocitación extrema como una de las principales formas de manipulación de citas. Este problema se ajusta a preocupaciones más amplias sobre una dependencia excesiva de las métricas de citas para tomar decisiones sobre contratación, promociones y financiación de la investigación.,
«Cuando vinculamos el avance profesional y prestamos demasiada atención a las métricas basadas en Citas, incentivamos la auto-cita», dice el psicólogo Sanjay Srivastava de la Universidad de Oregon en Eugene.
aunque muchos científicos están de acuerdo en que la autocitación excesiva es un problema, hay poco consenso sobre cuánto es demasiado o sobre qué hacer al respecto. En parte, esto se debe a que los investigadores tienen muchas razones legítimas para citar su propio trabajo o el de sus colegas., Ioannidis advierte que su estudio no debe conducir a la denigración de investigadores particulares por sus tasas de auto-citación, sobre todo porque estas pueden variar entre disciplinas y etapas de carrera. «Solo ofrece información completa y transparente. No debe usarse para veredictos como decidir que una auto-citación demasiado alta equivale a un mal científico», dice.
Data drive
Ioannidis y sus coautores no publicaron sus datos para centrarse en la auto-citación., Eso es solo una parte de su estudio, que incluye una serie de métricas estandarizadas basadas en Citas para los más Citados 100,000 investigadores en las últimas 2 décadas en 176 sub-campos científicos. Compiló los datos junto con Richard Klavans y Kevin Boyack en la firma de análisis SciTech Strategies en Albuquerque, Nuevo México, y Jeroen Baas, director de análisis en la editorial Elsevier con sede en Ámsterdam; todos los datos provienen de la base de datos Scopus de propiedad de Elsevier. El equipo espera que su trabajo permita identificar los factores que podrían estar impulsando las citaciones.,
pero la parte más llamativa del conjunto de datos son las métricas de auto-citación. Ya es posible ver cuántas veces un autor ha citado su propio trabajo buscando su registro de Citas en bases de datos de suscripción como Scopus y Web of Science. Pero sin una visión a través de los campos de investigación y las etapas de la carrera, es difícil poner estas cifras en contexto y comparar a un investigador con otro.
el récord de Vaidyanathan se destaca como uno de los más extremos, y ha traído ciertas recompensas., El año pasado, el político indio Prakash Javadekar, quien actualmente es el ministro de medio ambiente de la nación, pero en ese momento era responsable de la educación superior, entregó a Vaidyanathan un premio de 20,000 Rupias (US 2 280) por estar entre los principales investigadores de la nación por medidas de productividad y métricas de citas. Vaidyanathan no respondió a la solicitud de comentarios de la naturaleza, pero anteriormente defendió su registro de Citas en respuesta a preguntas sobre Vel Tech publicadas en Quora, la plataforma de preguntas y respuestas en línea., En 2017, escribió que debido a que la investigación es un proceso continuo,» el próximo trabajo no se puede llevar a cabo sin hacer referencia al trabajo anterior», y que la auto-cita no se hizo con la intención de engañar a los demás.,
otros dos investigadores que han ganado aplausos y se citan a sí mismos en gran medida son Theodore Simos, un matemático cuyo sitio web enumera afiliaciones en la Universidad Rey Saud en Riad, La Universidad Federal de Ural en Ekaterimburgo, Rusia, y la Universidad Demócrito de Tracia en Komotini, Grecia; y Claudiu Supuran, un químico medicinal en la Universidad de Florencia, Italia, que también enumera una afiliación en la Universidad Rey Saud., Tanto Simos, que acumuló alrededor del 76% de sus citas de sí mismo o de sus coautores, como Supuran (62%) fueron nombrados el año pasado en una lista de 6.000 «investigadores de clase mundial seleccionados por su excepcional rendimiento de investigación» producida por Clarivate Analytics, una firma de servicios de información en Filadelfia, Pensilvania, propietaria de Web of Science. Ni Simos ni Supuran respondieron a las solicitudes de comentarios de la naturaleza; Clarivate dijo que era consciente de la cuestión de los patrones inusuales de autocitación y que la metodología utilizada para calcular su lista podría cambiar.
¿qué hacer con las autocitaciones?,
en los últimos años, los investigadores han estado prestando más atención a la auto-citación. Un preprint de 2016, por ejemplo, sugirió que los académicos masculinos citan sus propios artículos, en promedio, un 56% más que las académicas femeninas2, aunque un análisis de replicación del año pasado sugirió que esto podría ser un efecto de mayor auto-citación entre autores productivos de cualquier género, que tienen más trabajos anteriores3., En 2017, un estudio mostró que los científicos en Italia comenzaron a citarse más a sí mismos después de que se introdujera una controvertida Política de 2010 que requería que los académicos cumplieran con los umbrales de productividad para ser elegibles para la promoción4. Y el año pasado, el Ministerio de investigación de Indonesia, que utiliza una fórmula basada en Citas para asignar fondos para la investigación y las becas, dijo que algunos investigadores habían jugado sus puntuaciones utilizando prácticas poco éticas, incluidas auto-citas excesivas y grupos de académicos citándose entre sí., El ministerio dijo que había dejado de financiar a 15 investigadores y planeaba excluir las autocitas de su fórmula, aunque los investigadores le dicen a Nature que esto aún no ha sucedido.
pero la idea de listar públicamente las tasas de auto-citación de los individuos, o evaluarlas sobre la base de métricas corregidas para la auto-citación, es altamente controvertida. Por ejemplo, en un documento de discusión publicado el mes pasado 5, COPE argumentó en contra de excluir las autocitas de las métricas porque, dijo, Esto «no permite una comprensión matizada de cuándo la autocita tiene buen sentido académico».,
en 2017, Justin Flatt, un biólogo de la Universidad de Zurich en Suiza, pidió más claridad en torno a los registros de auto-citación de los científicos6. Flatt, quien ahora está en la Universidad de Helsinki, sugirió publicar un índice de auto-citación, o s-index, siguiendo las líneas del indicador de productividad del índice h utilizado por muchos investigadores. Un índice h de 20 indica que un investigador ha publicado 20 artículos con al menos 20 citas; asimismo, un índice de 10 significaría un investigador ha publicado 10 artículos que habían recibido al menos 10 auto-citas.,
Flatt, que ha recibido una subvención para recopilar datos para el s-index, está de acuerdo con Ioannidis en que el enfoque de este tipo de trabajo no debe centrarse en establecer umbrales para las puntuaciones aceptables, o nombrar y avergonzar a los auto-citadores altos. «Nunca se ha tratado de criminalizar las autocitaciones», dice. Pero mientras los académicos continúen promocionándose usando el índice h, hay un caso para incluir el índice s para el contexto, argumenta.,
Context matters
Una característica inusual del estudio de Ioannidis es su amplia definición de auto-cita, que incluye citas de coautores. Esto está destinado a detectar posibles casos de cultivo de citas; sin embargo, inflan las puntuaciones de auto-cita, dice Marco Seeber, sociólogo de la Universidad de Gante en Bélgica. La física de partículas y la astronomía, por ejemplo, a menudo tienen artículos con cientos o incluso miles de coautores, y eso eleva el promedio de auto-citación en todo el campo.,
Ioannidis dice que es posible explicar algunas diferencias sistemáticas comparando a los investigadores con el promedio de su país, etapa profesional y disciplina. Pero más en general, dice, la lista está llamando la atención sobre los casos que merecen una mirada más cercana. Y hay otra manera de detectar problemas, examinando la proporción de citas recibidas con el número de artículos en los que aparecen esas citas. Simos, por ejemplo, ha recibido 10,458 citas de solo 1,029 artículos, lo que significa que en promedio, obtiene más de 10 Citas en cada artículo que menciona su trabajo., Ioannidis dice que esta métrica, cuando se combina con la métrica de auto-citación, es una buena bandera para la autopromoción potencialmente excesiva.
en un trabajo inédito, Baas de Elsevier dice que ha aplicado un análisis similar a un conjunto de datos mucho más grande de 7 millones de científicos: es decir, todos los autores enumerados en Scopus que han publicado más de 5 artículos. En este conjunto de datos, dice Baas, la mediana de la tasa de autocitación es de 15.,El 5%, pero hasta el 7% de los autores tienen tasas de auto-Citación por encima del 40%. Esta proporción es mucho más alta que entre los científicos más Citados, porque muchos de los 7 millones de investigadores tienen solo unas pocas citas en general o están al comienzo de sus carreras. Los científicos de carrera temprana tienden a tener mayores tasas de auto-cita porque sus artículos no han tenido tiempo de acumular muchas citas de otros (ver ‘el efecto de la juventud’).
de acuerdo con los datos de Baas, Rusia y Ucrania se destacan por tener altas tasas medianas de auto-citación (ver ‘país por país’). Su análisis también muestra que algunos campos sobresalen — como la física nuclear y de partículas, y la astronomía y la astrofísica-debido a sus muchos artículos de múltiples autores (ver ‘Physics envy?’). Baas dice que no tiene planes de publicar su conjunto de datos, sin embargo.
No es bueno para la ciencia?
aunque el estudio de PLoS Biology identifica algunos auto-citadores extremos y sugiere formas de buscar a otros, algunos investigadores dicen que no están convencidos de que el conjunto de datos de auto-cita sea útil, en parte porque esta métrica varía mucho según la disciplina de investigación y la etapa de la carrera. «La autocitación es mucho más compleja de lo que parece», dice Vincent Larivière, un científico de la información de la Universidad de Montreal en Canadá.,
Srivastava agrega que la mejor manera de abordar la auto-cita excesiva — y otros juegos de indicadores basados en Citas-no es necesariamente publicar tablas estandarizadas cada vez más detalladas y métricas compuestas para comparar a los investigadores entre sí. Estos podrían tener sus propios defectos, dice, y tal enfoque corre el riesgo de arrastrar a los científicos aún más a un mundo de evaluación por métricas a nivel individual, el mismo problema que incentiva el juego en primer lugar.
«deberíamos pedir a los editores y revisores que busquen autocitaciones injustificadas», dice Srivastava., «Y tal vez algunas de estas métricas aproximadas tengan utilidad como indicador de dónde mirar más de cerca. Pero, en última instancia, la solución debe ser realinear la evaluación profesional con el juicio de los expertos, no duplicar las métricas. Cassidy Sugimoto, un científico de la información en la Universidad de Indiana Bloomington, está de acuerdo en que más métricas podrían no ser la respuesta: «clasificar a los científicos no es bueno para la ciencia.»
Ioannidis, sin embargo, dice que su trabajo es necesario. «De todos modos, las personas ya dependen en gran medida de las métricas a nivel individual., La pregunta es cómo asegurarse de que la información sea lo más precisa y lo más cuidadosa y sistemática posible», dice. «Las métricas de citas no pueden ni deben desaparecer. Debemos hacer el mejor uso de ellos, reconociendo plenamente sus muchas limitaciones.”