Tuesday, May 24, 2011

Ranglister over universiteter mangler troværdighed

Politiken, d. 23. maj, 2011 (Kultur side 8) Debat:
http://politiken.dk/debat/analyse/ECE1288875/universitetsranglister-mangler-trovaerdighed/
Universiteter. Ranglister mangler troværdighed
analyse: De årlige rangordninger har stor betydning for universiteterne. Det handler om synlighed og konkurrence. Men kan man regne med dem?
Af JESPER WIBORG SCHNEIDER

De internationale universitetsrangordninger ser ud til at være kommet for at blive, selvom mange i universitetsverdenen ikke bryder sig om dem. Rangordninger vurderer universiteterne ud fra en række varierende parametre, der vejes forskelligt i en uigennemsigtig og uoverskuelig blanding af størrelse, prestige, produktion og gennemslagskraft.
Valgene af forskellige parametre betyder, at universiteternes placering kan variere en del imellem de forskellige rangordninger.
Det kan naturligvis ses som en mangfoldighed, men ikke alle parametre er lige troværdige. Specielt de bibliometriske indikatorer - målinger af universiteternes publikations- og citationsaktivitet - varierer.
Man kan derfor med rette spørge, hvor anvendelige de nuværende universitetsrangordninger reelt er? Det har et netværk af nordiske forskningsadministratorer netop gjort i en ny rapport. Rapporten undersøger de metoder, der ligger til grund for de mest velkendte universitetsrangordninger, og beskriver, hvordan de nordiske universiteter er rangordnet på Shanghai Ranking, Times Higher Education, QS World University Ranking, HEEACT og Leiden Ranking.
Rapporten går et skridt videre i forhold til de nuværende rangordninger og foretager en af de hidtil mest grundige og valide bibliometriske analyser af nordiske universiteter og universitetshospitaler, som samlet set giver institutionerne et mere nuanceret og reelt sammenligningsgrundlag.

RAPPORTEN præsenterer ikke en nordisk tabel, hvor forskningsinstitutionerne er rangordnet efter en samlet internt afvejet indikator. Til gengæld karakteriseres universiteternes forskningsprofiler og forskningsperformance ud fra flere perspektiver og ved hjælp af mere transparente og valide indikatorer, end det gælder for de fleste rangordninger.
Et vigtigt formål med rapporten har været at skabe en grundlæggende bibliometrisk analyse, der strækker sig over en længere tidsperiode og anvender de mest valide indikatorer, sådan at de nordiske forskningsinstitutioner får et konstituerende bibliometrisk billede af sig selv. Det er vigtigt af flere grunde. De internationale rangordninger anvender simple indikatorer, og man ændrer ofte i de interne vægtninger imellem indikatorerne fra år til år. Det giver ' kunstige' udsving i rangordningerne, som sjældent er udtryk for reelle ændringer.

AT DER IKKE præsenteres en egentlig rangordning i rapporten er ikke ensbetydende med, at man ikke kan undersøge og sammenligne de enkelte universiteter. Det er faktisk et af formålene med rapporten. Blot skal sammenligningsgrundlaget være mere nuanceret end den ene dimension, de internationale rangordninger præsenterer.
Den nye rapport undersøger de nordiske universiteter og universitetshospitalers publikationsaktivitet, forskningsprofiler og forskningsperformance i perioden fra 2000 til 2009. Undersøgelsen omfatter 40 universiteter og 23 universitetshospitaler, heraf 6 danske universiteter og 3 universitetshospitaler. Institutionerne undersøges både generelt som en samlet enhed og specifikt inden for 8 forskellige emneområder inden for natur- og sundhedsvidenskab samt de tekniske videnskaber. Human- og samfundsvidenskaberne er ikke medtaget, idet datagrundlaget er for spinkelt til de pågældende analyser.
Analyserne er baseret på et særdeles grundigt forarbejde, hvor data er standardiseret i et hidtil uset omfang. Det er alment kendt, at hvis man skal gøre sig godt i de internationale rangordninger, kræver det et medicinsk fakultet. For første gang er det nu muligt at udskille og undersøge effekten af de medicinske fakulteter og universitetshospitalerne for sig.
Generelt set viser analyserne, at citationsaktiviteten varierer betragteligt mellem universiteterne, men - lige så vigtigt - også betragtelig inden for universiteterne imellem de forskellige emneområder, hvilket er et argument imod anvendelsen af én sammensat indikator. Rapporten viser også, hvordan performance hænger sammen med størrelse, hvor størrelse er karakteriseret som antal forskningspublikationer.

DET ER naturligvis fristende at spørge, hvordan de danske universiteter klarer sig? Og svaret må naturligvis være, at »det kommer an på ...«.
Hvis man beregner en sammensat indikator, som tager højde for emneområdernes forskellighed, ser man, at DTU og Aarhus Universitet har den højeste gennemsnitlige citationsaktivitet. Men vi ser også, at DTU's aktivitet er faldende i den undersøgte periode, og nok så interessant, at Københavns universitetshospitaler har en gennemsnitlig citationsaktivitet på højde med DTU og Aarhus Universitet.
Man kan også konstatere, at DTU har en større repræsentation end forventet af ofte citerede artikler inden for alle 8 emneområder, og at Aarhus Universitet relativt set har en særdeles stor repræsentation af ofte citerede artikler inden for kemi.
Samlet kan man konstatere, at dansk forskning og danske forskningsinstitutioner klarer sig godt på de målte parametre, både i nordisk og international sammenhæng.
Den nye rapport er naturligvis ikke det endelige bibliometriske svar, men det er et særdeles kærkomment supplement og korrektiv til de nuværende internationale universitetsrangordninger.
analyse [at] pol.dk


Jesper Wiborg Schneider, institutleder, ph. d., Det Informationsvidenskabelige Akademi. Han er en af forfatterne af rapporten Comparing Research at Nordic Universities using Bibliometric Indicators, der udgives af Noria-netværket Bibliometric Indicators for the Nordic Universities. Den offentliggøres i dag ved et seminar på Dansk Design Center.


Fakta: politiken analyse
INTERNATIONALE RANGORDNINGER I UNIVERSITETSVERDENEN
Rangordning af universiteter handler om synlighed og konkurrence. Konkurrence om forskere, studerende, forskningsmidler og sponsorer. I de seneste år er betydningen af rangordningerne steget voldsomt. Lidt firkantet kan man sige, at universiteterne bryster sig, når det går godt, og diskuterer ranglisternes validitet, når det går mindre godt.
Ét er sikkert: Rangordningerne er problematiske, og det er baggrunden for det nye nordiske samarbejde, der i dag fremlægger den hidtil mest omfattende sammenlignende bibliometriske analyse af nordiske universiteter. Rapporten skal tjene universiteterne som et supplement og korrektiv til de nuværende internationale rangordninger.


Billedtekst: RANGLISTEKAPLØB. Mens de danske universiteter er jublende lykkelige for de internationale ranglister , som sender dem højt op ad listen, begynder de straks at sætte spørgsmålstegn ved de ranglister , der sender dem ned ad listen. Arkivfoto: Sara Galbiati

http://www.nordforsk.org/en/programs/bibliometric-indicators-for-the-nordic-universities
rapporten: http://www.nordforsk.org/files/rapp.bib.2011.pub_21.5.11

http://bibliometriforum.wordpress.com/2011/05/12/comparing-research-at-nordic-universities-using-bibliometric-indicators/

***

http://bibliometriforum.wordpress.com/2011/05/05/oecd-rapport-om-bibliometriska-fordelningsmodeller/
OECD-rapport om bibliometriska fördelningsmodeller
Postat den 5 maj, 2011 av Ulf Kronman

OECD har kommit med en mycket intressant rapport som går igenom ett antal olika modeller för att fördela medel med hjälp av bibliometri:

Performance-based Funding for Public Research in Tertiary Education Institutions: Workshop Proceedings
Tyvärr vill OECD ha betalt för PDF-versionen av rapporten, men en fri version finns att ladda ned här: http://scienceofsciencepolicy.net/NewsAndEvents?q=node/1107

Direktlänk här: http://scienceofsciencepolicy.net/system/files/attachments/Performance_Based_Funding_2010.pdf

No comments:

Post a Comment