Arkiver for juni, 2010

Ja, de penga… seminar om konsortieavtaler

Ian Rowlands, University College of London. Hvilken gevinst gir tilgang til e-ressurser for kvalitet i forskningen? 

112 universitet i Storbritannia har vært med på en undersøkelse hvor de har sett på hvordan de elektroniske tidsskriftene blir brukt av studenter og vitenskapelig personale. Nedlastninger  økte voldsomt fra 2003 til 2007, det fysiske bibliotek ble mindre brukt. Brukerne var veldig fornøyd med tilgjengeligheten. Raskt å søke opp en artikkel, sjekke en tabell osv. Brukerne leser innholdsfortegnelser og sammendrag for å se hva som er interessant. De «scanner» artiklene  raskt uten å lese nøye gjennom hele teksten.

Renear, A.H., Palmer, C.L. (2009). Strategic reading, ontologies, and the future of scientific publishing. Science, 325(5942), 828-832

Referansedatabaser er mye brukt eks. Pubmed, Web of science. Fra 1990-2007 har refereanselistene blitt lengre, referansene pr artikkel har økt. Referansene går også lenger tilbake i tid. Forskningen blir grundigere. E-tidsskrift spiller en stor rolle i undervisningen. Bachelor/master-studenter står for ca 20% av total e-tidsskrift-bruk. I UK bruker lærere vit. artikler fra 3. studieår for å øke kvaliteten på undervisningen. I 2009 var bruken av elektroniske tidsskrift fordelt slik: Akademikere: 44,8 %, stipendiater: 34,6 %, andre studenter 20,5 %. Hva får universitetene igjen for investeringene? Forskere som publiserer mye laster ned mange artikler og de skaffer penger til institusjonen sin. Høy bruk har stor betydning for god forskning. Uten å øke bibliotekets investeringer får vi ikke kvalitativ, god forskning. Det vil komme en artikkel om dette i Journal of information science sommeren 2010.

Ove Sundby. Status for konsortieavtalene

Finansdepartementet vil fortsatt ikke ha momsfritak på elektroniske ressurser. – Bibliotekene har dårlig økonomi, derfor kommer det få nye forslag til avtaler. Konsortiearbeidet i ABM flyttes til NVI (Norsk Vitenskapsindeks) under Kunnskapsdepartementet. Det er ønskelig at andre fagbibliotek som ikke tilhører undervisningsinstiusjoner blir invitert til å delta i konsortier. ABM-pakkene har betydd mye, særlig for mindre fagbibliotek. Den siste tiden har det vært en Big Deal-diskusjon på bibliotek.no-lista. Er det hensiktsmessig med pakker? ABM ønsker å fortsette med gode lisensavtaler i NVI. Årets forslag: Idunn, American Chemical society, SciFinder, Royal society of chemistry.

M’hamed Aisati, Elsevier. Article of the future

Prøveprosjekt på «life sciences». Elektronisk publisering av artikler gir mange flere muligheter enn papirpublisering. PDF gir kun lineær lesing, men teknologien gir mange flere muligheter med navigering, linker, supplerende datafiler, videosnutter. Men for mye informasjon kan forstyrre lesingen. Forlaget jobber mer med effektivt samarbeid med forfatteren. I tillegg til artikkelen blir det lagt inn «highlights» som øker muligheten for å sjekke om artikkelen er interessant. Artiklene blir utstyrt med «verktøylinje» med «mapper» hvor man kan klikke og komme direkte til figurer, diskusjon, introduksjon, referanser, konklusjon etc. Faglig kvalitet er forsatt viktig.  I løpet av 2010  og 2011 vil mye av dette bli mulig i Science Direct.

Vidar Røeggen, Universitetsforlaget. Hvordan overleve på norsk?

Universitetsforlaget utgir 40 norske/nordiskspråklige tidsskrift. Fra 1990-2005 kom det mange nye norske tidsskrift, det ble økt konkurranse om abonnenentene. Med utdanningseksplosjon ble det økt publiseringsbehov. Kraftig økning i abonnementspriser for utenlandske tidsskrift satte bibliotkenes budsjett under press. Tøffe kår for norske vitenskapelige tidsskrift. U-forlaget valgte å satse og etblerte Idunn 2004. Startet med 30 tidsskrift, i 2010 er det blitt 45. Samarbeid med ABM gjorde at utbredelsen av Idunn ble så stor. 500 000 brukere  har tilgang til Idunn, siste halvdel av 2009 ble 300 000 artikler lastet ned, gjennomsnittlig besøk hver dag er 1200. Mange bibliotek sier opp papirabonnement og siden Idunn er realisert på inntekt fra trykte abonnement går prosjektet med underskudd. Foreløpig løsning blir binding av papir/elektronisk ab., men kan Idunn bli økonomisk selvbærende. Er markedet villig til å betale? Elektronisk løsning er dyrt pga midler til drift, utvikling. Reduserte papiropplag sparer trykking, porto, men krever fortsatt forlagsarbeid. Andre forlag ønsker å publisere sine tidsskrift på Idunn, ingen andre norske forlag har satset slik. Norske publiseringskanaler er viktig for å holde norsk språk levende, økonomiske støtteordninger trengs, ønsker samarbeid med innkjøpssiden (bibliotekene), konsortieavtale er nødvendig.

Jørn Hurum, UiO. Forskeren og nye publiseringsmuligheter

Hvordan offentliggjøre fossilfunet «Ida»? Det vanlige er kongresser, høyt ansette vitenskapelige tidsskrift, invitere journalister, lage TV-dokumentar og senere utgi bok. Denne gangen ble det valgt å flytte perspektivet mot «vanlige» folk». Formidle funnet med en gang før forskningen er ferdig. TV-dokumentar følger forskningen, bok blir raskt utgitt. Hemmelige vitenskaplelige kongresser fungerer ikke lenger, alt blir kjent med en gang pga web.2.0. Amerikansk presekonferanse ble lagt ut som Open access, en versjon for hvert land. Artikler ble publisert på fagfellevurdert Open access. Alle uskrevne lover ble brutt. – Forlagene tar seg altfor godt betalt, leserne får ikke tilgang hvis ikke bibliotekene har råd til å betale. Samfunnet betaler flere ganger for artiklene. Forskerne jobber gratis som fofattere, redaktører av mindre tidsskrift, fagfeller. Hvorfor: forfengelighet, fagets beste, får noen ganger godt betalt. ved Open access jobber også forskerne gratis, men artiklene går direkte til leser. Artikkel om «Ida» ble publisert på PlusOne. Man må betale her også, men mye billigere enn f.eks. Elsevier. Man betaler for fagfellevurdering, editering. Forlagene kommer med beskyldninger mot OA: mangler impact-factor (Google scholar har), mangler peer-review (PlosOne , DOAJ har). Hurum mener forskerne må velge å publisere i OA og nekte å utføre review på artikler som ikke er OA. Forskningsrådet vurderer å kreve at artikler må publisereres i OA for å tildele penger. Universitetene bør kreve penger av forlagene for forskerenes arbeid.

Ingar Lomheim. Nasjonale lisenser på forhandlingsbordet

Etter initiativ fra UB’ene har ABM gitt oppdrag til en gruppe som ledes av Lomheim. Tilgang på informasjonsressurser til forskning og utdanning styres ikke av behov, men etter økonomisk evne. Støtter seg på Kristine Abelsnes anbefalinger i ABM-rapport fra 2008 og St.meld. 23 og 30 (2008/2009). UHRs bibliotekutvalg valgte i desember 2009 å satse på Science Direct som et 2 års pilotprosjekt. Basen er faglig viktig og kostbar – kostnad utgjør 55% av ABM-avtalene – og skal reforhandles i 2010. Lisensen skal omfatte alle offentlig finansierte utdannings- og forskningsinstitusjoner i Norge. Diskusjonen med Elsevier har gått på pris, tilgang, omfang, tidsramme. Kunnskapsdepartementet gir politisk støtte, men ingen lovnad om penger. Hvis piloten ikke gir gevinst for partene, kan konsortiemodellen gjeninnføres. Sannsynligvis vil ikke UBiS spare penger på dette, men mindre institusjoner får anledning til å være med. Det er behov for annen finansieringsmodell, nå betaler vi på grunnlag av tidligere papirabonnement. Tilbud fra Elsevier foreligger, forhandlinger i Amsterdam 1. juni, tilbud sendes ut juni/juli, avklaring september.  HK / KKE

Legg igjen en kommentar

Papirlesing versus digital lesing

Konferansens siste foredrag ble holdt av en av våre «lokale helter», førsteamanuensis Terje Hillesund. Han har forsket en del på hvordan en leser på skjerm i forhold til tradisjonell lesing, og var også tidlig ute med å prøve ut e-boklesere. Allerede for 10 år siden brukte han og et par kolleger mye tid på et prosjekt for Norsk Kulturråd, det varte i to år. Såklat Pocket-PC ble lansert på den tida, skulle være for e-bøker. Microsoft markedsførte dette ganske aggressivt, en trodde at e-bøker var på full vei inn. På en konferanse i Washington i 2000 var det den reneste halleluja-stemning. I Paris året etter var stemningen litt mer dempet, og de var opptatt av å innføre DRM på e-bøker, pga. musikkbransjens erfaringer med piratkopiering og ulovlig nedlasting. I 2002 ble det ikke holdt noen konferanse, og hele e-bokfenomenet gikk i dvale. Konklusjonen på rapporten Hillesund og kollegene hans leverte til NKR i 2002: 10-15 år til e-boka kommer i Norge. Der var de faktisk ganske treffsikre!

E-bøkene forsvant aldri fra bibliotekene: ebrary, Netlibrary og lignende har hele tiden vært tilgjengelig. USA i fjor: 300%  økning i e-boksalg, nå ca. 5% av total bokomsetning, opp fra 1,5%.

Materielle forhold rundt lesingen er forskjellig på skjerm og papir. Dette har betydning for måten vi leser og tolker en tekst. Får en tekst en ny presentasjon vil den endre karakter, en leser den på en ny måte. Skjermlesing er diskontinuerlig lesing, store undersøkelser viser dette. Det er psykologisk vanskelig å lese lenge og kontinuerlig på skjerm. Til nå har derfor skjermteknologi blitt brukt først og fremst for å finne fram til informasjon. En leser litt her og der. Akademisk lesing kjennetegnes ved å være sammenhengende, men diskontinuerlig. En hopper fram og tilbake i teksten, og mellom flere tekster. En leser lenge, men ikke sammenhengende. Lesing på nettet er ekstremt diskontinuerlig. ”Urge to click”, når en leser på nettet er det psykologisk vanskelig å unngå å klikke seg videre, vi dras mot muligheten til å gå videre og bort fra der vi er, selv om vi egentlig ikke har noe der å gjøre. Dette gjør det vanskelig å oppnå en hermeneutisk fordypning i teksten. ”Squirreling”, en samler informasjon til senere bruk. Dette skjer på papir, en tar utskrifter for lagring.

Jeg vet faktisk ikke helt hva som kan sies å være konklusjonen på dette, men jeg tror en kan si at papir og skjermlesing (PC, iPAD og lesebrett) vil eksistere side om side. Hillesund mente at skjermlesing vil egne seg best til lesing av skjønnlitteratur og mindre bra til faglesing. Dette vil nok være omstridt og en kilde til diskusjon.

John David

Legg igjen en kommentar

Elektronisk sikring

Jan Engh fra UiO holdt dette foredraget, som muligens var et av konferansens mest oppsiktsvekkende. Dette fordi han til en viss grad gikk mot en herskende trend innen fagbibliotekmiljøet: Begeistringen for digital publisering. Det Engh er redd for er at kun digital publisering ikke vil sikre informasjon for ettertiden. En skal også ha tilgang om ti år og hundre år, hvordan går det da med digitale kilder?

Trussel: Dels ytre forhold, dels indre datatekniske forhold. Digitale lagringsmedier holder kortere enn papir, og lagringsformatet kan ende opp med en dag ikke å bli gjenkjent. Noe kan også skje med forlaget eller utgiveren, og tilgangen kan plutselig forsvinne.

Nye programutgaver og konverteringer kan skape feil, men den største trusselen er direkte endring av tekstene i ettertid. Det er enkelt å endre digitale tekster, og motivene kan være flere: Fusk, politisk motiverte endringer, sabotasje. Endringene skjer desentralisert, de gjøres utenfor biblioteket. Dersom biblioteket ikke selv forvalter teksten og har den liggende på sin egen server vil dette være vanskelig å kontrollere og hindre.

Digitale kilder må lagres flere steder, en ha egen backup. Digitalisering er bare begynnelsen på en prosess, en må stadig overføre innholdet fra en programvare til en annen (migrering). Hvis dette ikke gjøres vil innholdet bare være tilgjengelig så lenge programvaren og maskinen fungerer. Vi kan ikke unngå denne prosessen, vi kan ikke vite om de som kommer etter oss vil kunne bruke dagens programvare. Krever institusjonell, økonomisk og politisk stabilitet. Migrering gir adgang til å endre tekstene, forskjellige typer kodesett kan også føre til problemer ved migrering. En skal ikke ha jobbet mye med webpublisering før en oppdager at kodingen som ligger bak det en ser på skjermen kan oppføre seg på rare måter… Engh mener at en nå faktisk er tilbake til sikkerhetsnivået før boktrykkerkunsten.

Vi må ikke kjøpe inn eller abonnere på noe vi ikke har full kontroll over, eller kjøpe maskin- eller programvare som leverandøren beholder kontrollen over, for eksempel iPad. Vi må også sikre at de digitale kildene finnes oppbevart, helst flere steder og i flere eksemplarer. I tillegg må det trykte eksemplaret av alle publikasjoner finnes tilgjengelig.

Noen tanker fra min side: Jeg synes dette var et tankevekkende foredrag, og jeg er enig i mye av det Engh sier. Likevel mener jeg det blir en overdrivelse å gå tilbake til at alle bibliotek skal ha alt i trykt utgave, det tror jeg kanskje heller ikke Engh mener. Trykt materiale tar som kjent mye plass, og det har en sjelden for mye av… Det som er viktig er at vi har gode nasjonale rutiner for oppbevaring av trykte utgaver, og også for den originale digitale utgaven av dokumenter. Dette er noe som ikke bare kan overlates til utgiver eller en internasjonal aktør, vi bør ha nasjonale ordninger for dette.

Et problem når det gjelder Enghs tanke om at en bør oppbevare trykte utgaver er at stadig mer av det som gis ut sannsynligvis kun vil komme i digital utgave. Da blir det desto viktigere å ha gode rutiner for å ta vare på den originale og uendrede utgaven.

Engh mener at vi ikke bør kjøpe inn noe som vi ikke har full kontroll over. Dette gjelder en del tidsskriftabonnementer, og faktisk også mye av Apples produkter. I disse tilfellene beholder selger ganske mye av kontrollen over produktene de selger, også etter at de har mottatt betaling. Jeg er prinsipielt sett enig med Engh, men det kan oppstå en konflikt her: Vi vil kanskje trenge disse produktene for å tilby våre brukere en fullverdig bibliotektjeneste. Hva gjør vi da?

John David

Legg igjen en kommentar

Undervisning i informasjonskompetanse

(Foredrag av Mariann Løkse, Universitetet i Tromsø.)

Det er en del forvirring ute på fakultetene angående hva biblioteket egentlig driver med på i undervisningen om informasjonskompetanse, mange faglig ansatte forstår hverken selve begrepet eller hva det er vi vil lære studentene. Studentene søker i Google, er fornøyd med det og problematiserer ikke resultatene de får. Det er en utfordring å få dem til å reflektere rundt dette og forstå at det kanskje finnes bedre løsninger for informasjonsinnhenting.

På kursene ved UiT snakker Løkse om verdien av å skrive godt og forståelig, hun gir en kjapp innføring i godt akademisk språk. Dette er noe studentene setter pris på, og det er helt sikkert veldig nyttig, men det er ikke sikkert at alle kan gjøre dette så godt som henne. Løkse har bakgrunn som litteraturviter, så hun har kanskje enkelte faglige forutsetninger de fleste andre ikke har

Studenter er interessert i begrepet “Digital natives”, de føler at det handler om dem.

I Tromsø går 75% av bibliotekets mediebudsjett (det er på til sammen 34,7 millioner) til innkjøp av digitale ressurser. Løkse pleier å opplyse om dette for å få studenter til å reflektere over at biblioteket er “gratis”. De har også praktiske øvelser i å skrive referanser, og de diskuterer plagiat. For å få i gang diskusjon om dette temaet henviser hun ofte til Jude Carroll.

Når det gjelder evaluering av kursene oppnår de høy svarprosent ved bruk av evalueringsskjemer på papir, som deles ut etter forelesningen. De får 90% svar på denne måten, mens lignende skjemaer som sendes ut digitalt ved hjelp av Questback kanskje får toppen 30%. Enkelte ting fungerer tydeligvis fortsatt best på papir.

Etter dette foredraget ble det en god diskusjon, noe det forøvrig har vært etter de aller fleste av foredragene på konferansen. Knut Hegna kom med et tankevekkende innlegg: Informasjonskompetanse er et uklart ord, og uklart sagt er uklart tenkt. Begrepet handler  i bunn og grunn om å finne og bruke litteratur. Vi må finne ut hva som er vår kompetanse, og hva som for eksempel er veileders ansvar. Han savner en debatt om avgrensning mot fagmiljøet. Hvem skal ta opp hva? Hva skal vi lære studentene, og hva er veileders eller andre fagpersoners ansvar?

Løkse har lagt ut hele presentasjonen sin på Slideshare.

John David

Legg igjen en kommentar

Samarbeids- og innovasjonskultur i fagbiblioteket

(Pål Magnus Lykkja, UiO)

Trykte monografier er nødvendige for å realisere det digitale bibliotek. Mange teknologiske faser og mye omstruktureringer i forlagsbransjen vil komme de nærmeste åra, det vil nok også bli en del konkurser. Derfor vil trykt materiale være viktig i mange år ennå, mens en ny kultur setter seg.

Vi går nå inn i fase to i den digitale revolusjon: Til nå har strukturene vært ganske like som før den nye teknologiens inntog, Lykkja kaller dette E-Science. Den nye teknologien har blitt brukt til å forbedre atbeidsflyten for de gamle arbeidsoppgavene og prosessene. Nå kommer Open Science. Alt blir spredt åpent, diskutert og delt. Dette fører til nye arbeidsformer som ikke kunne eksistert utenfor det digitale.

Vi går fra “Don’t screw up” til “Fail fast”. Beta er bra nok. Alt arbeid er arbeid under utvikling, en kan legge ut et produkt før det er 100% ferdig og la brukerne selv fullføre det. For eksempel åpner Sony nå opp systemene sine, satser på deling og åpne standarder. Copyright må fjerne friksjon mellom brukere og tilbydere.

Hackere, amatører og pirater lager framtidens bibliotek, forretningsmodeller, databaser, universitet osv. Kommer til å bli framtidens ledere i disse bransjene. Åpenhet er en helt grunnleggende verdi og helt sentralt for forståelse og innovasjon.

I dag bruker store selskaper bit-torrent (teknologi for fildeling), de ville forby det for noen år siden. Nå brukes denne teknologien blant annet til streaming av musikk og film, også av store selskaper og nye tjenester som Spotify.

John David

Legg igjen en kommentar

Fagreferenter – en truet art?

(Foredrag av Tove Knutsen fra NTNU, med avslutning av bibliotekdirektør Lisbeth Tangen.)

Knutsen fortalte om resultatene fra en utredning en arbeidsgruppe ved biblioteket på NTNU har kommet fram til, om fagreferentenes videre rolle. De kaller for øvrig fagreferenter for fagansvarlige.

Det finnes ulike løsninger for krav til kompetanse hos fagansvarlige. De krever i utgangspunktet mastergrad i det faget en skal ha ansvaret for, må ha vilje til å ta på seg tilgrensede fagområder. I de siste årene har de gitt fagansvar til bibliotekarer, ikke nødvendigvis med formalkompetanse innen fagområdet.

Arbeidsgruppe har gitt ganske detaljert beskrivelse av hva fagansvarlige skal jobbe med. Seks prioriterte satsningsområder:

  • Markedsføring
  • Utvalg og vedlikehold av ressurser
  • Tilgang til informasjonsressurser
  • Tjenesteutvikling
  • Brukerservice og brukeropplæring
  • Publiseringsstøtte

Behov for ny kompetanse, spisskompetanse. Vurdere en dypere kompetansekartlegging i organisasjonen. Dette er den kompetansen de mener må være på plass balnt de fagansvarlige:

  • Merkantil kompetanse
  • Formidlingskompetanse
  • Fagkompetanse
  • Juridisk kompetanse
  • Personlig egnethet
  • Bibliotekfaglig kompetanse

Bør ha personer med minimum mastergrad for å sikre forståelse av akademisk tenkning, forskning og metodikk. Rammebetingelser, som økonomi og personalressurser, er en utfordring. De vil ikke ha store endringer i organisasjonsstrukturen.

Mulige løsninger: Organisere fagansvarlige etter fag eller etter arbeidsoppgaver, delvis eller helt i team.

Elisabeth Tangen: Hvor skal vi møte våre brukere? De ser på seg selv som informasjonskompetente. Vi må gi fra oss definisjonsmakten for hva som er informasjonskompetanse. Vi må se framover slik Maradona spilte fotball. Han så ikke bare på hvor ballen var i øyeblikket, men hvor den snart ville være.

John David

Legg igjen en kommentar

Åpningsforedrag, Fagreferentkonferansen 2010

Bernt Hagtvet holdt åpningsforedraget under årets fagreferentkonferanse. Han er professor i statsvitenskap ved Universitetet i Oslo.

Legg igjen en kommentar