For et par uker siden kom rapporten Evaluering af den norske publiceringsindikator. Hovedkonklusjonen er at tellekantsystemet i det hele har fungert etter planen, men at det er noen utfordringer.
Rapporten er utarbeidet av Dansk center for forskningsanalyse ved Aarhus universitet på oppdrag av Universitets- og høgskolerådet (UHR). For de som ikke orker å lese selve rapporten i sin helhet, ligger det også ute en presentasjon som gir en noe mer kortfattet fremstilling av hovedfunnene.
Det er mange interessante ting man kan lese ut av rapporten:
- Den nåværende tellekantmodellen er enkel, velfungerende og relativt billig i drift.
- Modellen har lykkes i å stimulere til økt publisering, med en økning i publikasjonspoeng på 82% i løpet av en tiårsperiode.
- Mye av økningen kommer av at forskere som tidligere ikke har publisert, eller har publisert lite, har blitt mer aktive.
- Nivået av publikasjoner på nivå 2 har gått opp i rene tall, men ligger jevnt på 20 % gjennom perioden. Flere forskere oppgir at de har ambisjoner om å publisere på nivå 2.
- Kvaliteten på forskningen (målt i siteringer) har verken gått opp eller ned. Her spekulerer Curt Rice, prorektor i Tromsø, i om dette skyldes at den objektive kvalitetshevingen som har skjedd hos de beste forskerne har blitt “spist opp” av produksjonen hos de mange flere forskerne som har begynt å publisere.
- Fagfeltsnøytralitet trekkes frem en utfordring. I motsetning til det noen trodde (eller fryktet?) da modellen ble innført, er det faktisk HumSam-fagene som kommer best ut i gjennomsnittlig antall poeng. Dette kan forklares med at HumSam-forskere i større grad skriver som eneforfatter, mens MedNat-forskere ofte deler poeng med en rekke medforfattere.
- Det konkluderes også med at publikasjonsindikatoren brukes særlig aktivt som strategisk virkemiddel innen HumSam-feltet. Dette kan forklares med at MedNat-fagene allerede hadde et stort fokus på internasjonal publisering før tellekantsystemet ble innført.
- En utfordring som trekkes frem er at mange opplever at det er uklare kriterier for hvilke kanaler som havner på nivå 2.
Det er lett å kjenne seg igjen i mange av disse funnene. Fra et IMV-perspektiv ser jeg at indikatoren har ført til at flere forskere publiserer mer, og det har blitt en mye større bevissthet rundt publisering enn det var tidligere.
Men det finnes også utfordringer, og jeg vil her trekke frem noen slike.
Musikkvitenskap som fag ligger i grenseland mellom vitenskap og kunst, og flere av IMVs ansatte (meg selv inkludert) jobber nettopp i dette grenselandet. Nå er det slik at tellekantsystemet fokuserer på ren vitenskapelig forskningspublikasjon, men teller ikke kunstneriske resultater eller produksjon som i sin natur ligger ligger mellom kunst og vitenskap.
Et eksempel på produksjon midt mellom mellom kunst og vitenskap, er kritisk musikkedisjon. Dette dreier seg om fremstilling av spillbare musikalske partiturer akkompagnert av en kritisk kommentar. Med støtte fra et samlet Fagråd for musikk, arbeider vi nå for at nettopp kritisk musikkedisjon skal komme inn i tellekansystemet, på lik linje med kritisk tekstedisjon. Signalene er gode på at dette kan la seg gjøre, og det vil si at en del musikkvitenskapelige forskningsresultater endelig vil kunne la seg registrere på skikkelig måte.
Derimot er det større utfordringer knyttet til rent kunstneriske forskningsresultater. All den tid vi har fagpersoner som er ansatt på bakgrunn av kunstneriske meritter, er det rart at for eksempel en CD-utgivelse på et prestisjefylt forlag ikke skal gi uttelling på linje med en bokutgivelse. Dette er en problemstilling som har vært mye diskutert ved de spesialiserte høgskolene innen kunstfeltet, og saken har blitt utredet minst en gang.
I rapporten til Jørgensen-utvalget, Vekt på kunst, ble konklusjonen at det ikke var mulig å utvikle en tilfredsstillende indikator for kunstfaglig praksis. Det er ikke vanskelig å være enig i at det er vanskelig å telle kunstnerisk forskningsarbeid. Men mange mener også at det er vanskelig å telle resultatene av vitenskapelig forskningsarbeid. Det har man allikevel valgt å gjøre, og konklusjonen i den nå foreliggende rapporten viser at det faktisk har fungert ganske bra.
Jeg har stor sympati for at institusjoner som primært driver med kunstnerisk aktivitet ikke ønsker seg inn i tellekansystemet. Men for de kunstfaglige miljøene som befinner seg på institusjoner som teller vitenskapelig aktivitet, er mangelen på en indikator som teller kunstnerisk forskning et problem. Ved IMV er det ikke et veldig stort problem, men vi “mister” uten tvil noen poeng hvert år på grunn av mangelen på en kunstfaglig indikator. For andre institusjoner er det mer prekært, og det er også grunnen til at temaet nylig har blitt problematisert gjennom prosjektet kunst uten tellekanter ved HiOA.
En ting er poengene man “mister”, en helt annen er at dagens system i praksis driver vitenskapelig og kunstnerisk forskning fra hverandre. Som jeg har skrevet om tidligere, skulle jeg ønske at vi kunne få et system der vitenskapelig og kunstnerisk praksis ses på som to sider av samme sak.