verdens mest citerede forskere er ifølge nyligt frigivne data en nysgerrig eklektisk flok. Nobelprisvindere og fremtrædende polymater gnider skuldre med mindre kendte navne, såsom Sundarapandiske Vaidyanathan fra Chennai i Indien. Hvad springer ud om Vaidyanathan og hundredvis af andre forskere er, at mange af de citater til deres arbejde kommer fra deres egne papirer, eller fra dem af deres medforfattere.,
Vaidyanathan, en datalog ved Vel Tech R&D Institute of Technology, et privatejet institut, er et ekstremt eksempel: han har modtaget 94% af hans citater fra sig selv eller hans co-forfattere frem til 2017, er ifølge en undersøgelse i PLoS Biology dette month1. Han er ikke alene. Datasættet, der viser omkring 100,000 forskere, viser, at mindst 250 forskere har samlet mere end 50% af deres citater fra sig selv eller deres medforfattere, mens median selvcitationshastigheden er 12.7%.,
undersøgelsen kunne hjælpe med at markere potentielle ekstreme selvpromotører og muligvis ‘citation farms’, hvor klynger af forskere massivt citerer hinanden, siger forskerne. “Jeg tror, at selvcitationsbedrifter er langt mere almindelige, end vi tror,” siger John Ioannidis, en læge ved Stanford University i Californien, der er specialiseret i meta-videnskab-studiet af, hvordan videnskaben gøres — og som ledede arbejdet. “De med større end 25% selvcitation engagerer sig ikke nødvendigvis i uetisk adfærd, men det kan være nødvendigt med nærmere undersøgelse,” siger han.,
dataene er langt den største samling af selvcitationsmålinger, der nogensinde er offentliggjort. Og de ankommer på et tidspunkt, hvor finansieringsorganer, tidsskrifter og andre fokuserer mere på de potentielle problemer, der er forårsaget af overdreven selv-citation. I Juli fremhævede Udvalget for Publikationsetik (COPE), et forlagsrådgivningsorgan i London, ekstrem selvcitation som en af de vigtigste former for citationsmanipulation. Dette spørgsmål passer ind i bredere bekymringer om en overdreven afhængighed af citationsmålinger til at træffe beslutninger om ansættelse, kampagner og forskningsfinansiering.,
“når vi forbinder faglig udvikling og er opmærksomme for stærkt på citeringsbaserede målinger, stimulerer vi selvcitation,” siger psykolog Sanjay Srivastava ved University of Oregon i Eugene.
selvom mange forskere er enige om, at overdreven selvcitation er et problem, er der lidt enighed om, hvor meget der er for meget, eller hvad man skal gøre ved problemet. Til dels skyldes det, at forskere har mange legitime grunde til at citere deres eget arbejde eller kollegernes arbejde., Ioannidis advarer om, at hans undersøgelse ikke bør føre til ødelæggelse af bestemte forskere for deres selvcitationsrater, ikke mindst fordi disse kan variere mellem discipliner og karrierefaser. “Det tilbyder bare komplette, gennemsigtige oplysninger. Det bør ikke bruges til domme som at beslutte, at for høj selvcitation svarer til en dårlig videnskabsmand,” siger han.
datadrev
Ioannidis og hans medforfattere offentliggjorde ikke deres data for at fokusere på selvcitation., Det er kun en del af deres undersøgelse, som omfatter en række standardiserede citationsbaserede målinger for de mest citerede 100.000 forskere i løbet af de sidste 2 årtier på tværs af 176 videnskabelige underfelter. Han samlet data sammen med Richard Klavans og Kevin Boyack på analytics firma SciTech Strategier i Albuquerque, New Mexico, og Jeroen Baas, direktør for analytics på Amsterdam-baserede forlag Elsevier; de data, der alle kommer fra Elsevier ‘ s proprietære Scopus databasen. Holdet håber, at dets arbejde vil gøre det muligt at identificere faktorer, der kan køre citater.,
men den mest iøjnefaldende del af datasættet er selvcitationsmålingerne. Det er allerede muligt at se, hvor mange gange en forfatter har citeret deres eget arbejde ved at slå deres citationspost op i abonnementsdatabaser som Scopus og .eb of Science. Men uden udsigt på tværs af forskningsfelter og karrierefaser er det svært at sætte disse tal i sammenhæng og sammenligne en forsker med en anden.
Vaidyanathan rekord skiller sig ud som en af de mest ekstreme — og det har bragt visse belønninger., Sidste år, Indisk politiker Prakash Javadekar, der er i øjeblikket landets miljøminister, men på det tidspunkt var ansvarlig for de videregående uddannelser, der præsenteres Vaidyanathan med en 20.000-rupee (US$280) pris for at være blandt landets bedste forskere ved foranstaltninger af produktivitet og citations-data. Vaidyanathan svarede ikke på naturens anmodning om kommentar, men han har tidligere forsvaret sin citationsrekord som svar på spørgsmål om Vel Tech, der blev sendt på .uora, online Spørgsmål-og-svar-platformen., I 2017 skrev han, at fordi forskning er en kontinuerlig proces, “kan det næste arbejde ikke udføres uden at henvise til tidligere arbejde”, og at selvcitering ikke blev gjort med det formål at vildlede andre.,
To andre forskere, der har fået ros og nævner sig tungt er Theodore Simos, en matematiker, hvis hjemmeside lister tilhørsforhold på King Saud University i Riyadh, Urals Føderale Universitet i Yekaterinburg, Rusland, og Demokrit Universitet i Konstantinopel i Komotini, Grækenland; og Claudiu Supuran, et lægemiddel kemiker ved Universitetet i Firenze, Italien, der også indeholder et tilhørsforhold på King Saud University., Både Simos, der samlet omkring 76% af hans citater fra sig selv eller hans co-forfattere, og Supuran (62%) var sidste år ved navn på en liste af 6.000 “forskere i verdensklasse, der er valgt for deres enestående forskningsindsats” produceret af Clarivate Analytics, en informations-service advokatfirma i Philadelphia, Pennsylvania, som ejer Web of Science. Hverken Simos eller Supuran svarede på naturens anmodninger om kommentar; Clarivate sagde, at den var opmærksom på spørgsmålet om usædvanlige selvcitationsmønstre, og at den metode, der blev brugt til at beregne sin liste, kunne ændre sig.
Hvad skal man gøre ved selvcitationer?,
i de sidste par år har forskere været mere opmærksomme på selvcitation. En 2016 preprint, for eksempel foreslået, at mandlige akademikere citere deres egne papirer, i gennemsnit 56% mere end kvindelige akademikere do2, selv om en gentagelse analyse sidste år foreslog, at dette kan være en effekt af højere selv-citation blandt produktive forfattere af alle køn, der har flere tidligere arbejde til at cite3., I 2017 viste en undersøgelse, at forskere i Italien begyndte at citere sig mere kraftigt, efter at der blev indført en kontroversiel 2010-politik, der krævede akademikere at opfylde produktivitetstærskler for at være berettiget til promovering4. Og sidste år, Indonesien s forsknings-ministeriet, som bruger et citat-baseret formel til at afsætte midler til forskning og stipendium, sagde, at nogle forskere havde gamed deres scores ved hjælp af uetisk praksis, herunder overdreven selv-citater og grupper af akademikere, der citerer hinanden., Ministeriet sagde, at det var stoppet med at finansiere 15 forskere og planlagde at udelukke selvcitater fra dens formel, selvom forskere fortæller naturen, at dette endnu ikke er sket.
men ideen om offentligt notering enkeltpersoners selv-citation satser, eller evaluere dem på grundlag af målinger korrigeret for selv-citation, er meget omstridt. For eksempel argumenterede COPE i et diskussionsdokument udstedt sidste måned5 imod at udelukke selvcitationer fra målinger, fordi det sagde, at dette “ikke tillader en nuanceret forståelse af, hvornår selvcitation giver god videnskabelig mening”.,
i 2017 opfordrede Justin Flatt, en biolog derefter ved Universitetet i Switzerlandichrich i Sch .ei., mere klarhed omkring forskernes selvcitationsrekord6. Flatt, der nu er på University of Helsinki, foreslog at offentliggøre et selvcitationsindeks, eller s-indeks, i lighed med H-inde.produktivitetsindikatoren, der bruges af mange forskere. Et h-indeks på 20 indikerer, at en forsker har offentliggjort 20 papirer med mindst 20 citater; ligeledes, et s-indeks på 10 ville betyde, at en forsker havde offentliggjort 10 papirer, der hver havde modtaget mindst 10 selvcitationer.,
Flatt, der har modtaget et tilskud til at samle data for S-indekset, er enig med Ioannidis om, at fokus for denne form for arbejde ikke bør være at etablere tærskler for acceptable scoringer eller navngive og skamme høje selvcitere. “Det har aldrig været om at kriminalisere selvcitationer,” siger han. Men så længe akademikere fortsætter med at fremme sig selv ved hjælp af h-indekset, er der en sag for at inkludere s-indekset for kontekst, argumenterer han.,
Forbindelse spørgsmål
En usædvanlig funktion af Ioannidis ‘ s undersøgelse er dens bred definition af sig selv-citation, som indeholder citater af co-forfattere. Dette er beregnet til at fange mulige tilfælde af citationslandbrug; imidlertid, det opblæser selvcitationsresultater, siger Marco Seeber, en sociolog ved Gent University i Belgien. Partikelfysik og astronomi har for eksempel ofte papirer med hundreder eller endda tusinder af medforfattere, og det hæver selvcitationsgennemsnittet på tværs af feltet.,
Ioannidis siger, at det er muligt at redegøre for nogle systematiske forskelle ved at sammenligne forskere med gennemsnittet for deres land, karrierefase og disciplin. Men mere generelt, siger han, er listen opmærksom på sager, der fortjener et nærmere kig. Og der er en anden måde at få øje på problemer ved at undersøge forholdet mellem citater modtaget til antallet af papirer, hvor disse citater vises. Simos har for eksempel modtaget 10.458 citater fra kun 1.029 papirer — hvilket betyder, at han i gennemsnit får mere end 10 Citater i hvert papir, der nævner sit arbejde., Ioannidis siger, at denne metrisk, når den kombineres med selvcitationsmetrik, er et godt flag til potentielt overdreven selvpromovering.
I ikke-offentliggjort arbejde, Elsevier ‘ s Baas siger, at han har anvendt en lignende analyse på et langt større datasæt af 7 millioner videnskabsfolk: der er alle forfattere, der er anført i Scopus, der har udgivet mere end 5 papirer. I dette datasæt, siger Baas, er median selvcitationshastigheden 15.,5%, men så mange som 7% af forfatterne har selvcitationsrater over 40%. Denne andel er meget højere end blandt de mest citerede forskere, fordi mange af de 7 millioner forskere kun har få citater generelt eller er i starten af deres karriere. Tidlige karriereforskere har en tendens til at have højere selvcitationsrater, fordi deres papirer ikke har haft tid til at samle mange citater fra andre (Se ‘the youth effect’).
Ifølge for at Baas data, Rusland og Ukraine skiller sig ud som havende høj median selv-citation priser (se ‘Land’). Hans analyse viser også, at nogle felter holde ud — sådan som atomar partikel fysik og astronomi og astrofysik — på grund af deres mange multi-forfattet papirer (se ‘Fysik misundelse?’). Baas siger, at han ikke har nogen planer om at offentliggøre sit datasæt, imidlertid.
Ikke godt for videnskab?
selvom PLoS Biology-undersøgelsen identificerer nogle ekstreme selvcitere og foreslår måder at kigge efter andre på, siger nogle forskere, at de ikke er overbeviste om, at selvcitationsdatasættet vil være nyttigt, dels fordi denne måling varierer så meget efter forskningsdisciplin og karrierefase. “Selvcitation er meget mere kompleks end det ser ud til,” siger Vincent Larivi .re, en informationsforsker ved University of Montreal i Canada.,
Srivastava tilføjer, at den bedste måde at håndtere overdreven selv citerer — og andre spil af kilde-baserede indikatorer — ikke nødvendigvis at publicere stadig mere detaljerede standardiserede tabeller og sammensatte målinger til at sammenligne forskere mod hinanden. Disse kan have deres egne mangler, siger han, og en sådan tilgang risikerer at suge forskere endnu længere ind i en verden af evaluering ved hjælp af individuelle målinger, det meget problem, der stimulerer spil i første omgang.
“vi bør bede redaktører og korrekturlæsere om at passe på uberettigede selvcitationer,” siger Srivastava., “Og måske nogle af disse uslebne målinger har nytte som et flag, hvor man kan se nærmere. Men i sidste ende skal løsningen være at tilpasse professionel evaluering med ekspert peer judgment, ikke at fordoble metrics.”Cassidy Sugimoto, en informationsforsker ved Indiana University Bloomington, er enig i, at flere målinger måske ikke er svaret: “rangering af forskere er ikke godt for videnskaben.”
Ioannidis siger imidlertid, at hans arbejde er nødvendigt. “Folk er alligevel stærkt afhængige af målinger på individuelt niveau., Spørgsmålet er, hvordan man sikrer sig, at oplysningerne er så nøjagtige og så omhyggeligt, systematisk samlet som muligt,” siger han. “Citationsmålinger kan ikke og bør ikke forsvinde. Vi bør udnytte dem bedst muligt og fuldt ud anerkende deres mange begrænsninger.”