
Ansvarlig forskning
For tiden gjennomfører vi fortsatt en storstilt undersøkelse som involverer mange forskere for å forstå hvordan generativ KI bør brukes på en etisk og ansvarlig måte.
Retningslinjer for ansvarlig bruk av Generativ KI i forskning
Innledning
Integreringen av generativ kunstig intelligens i forskningsmetoder har et transformativt potensial for vitenskapelige undersøkelser. Det krever imidlertid streng overvåking for å bevare integriteten, nøyaktigheten og de etiske standardene i det vitenskapelige arbeidet. Disse retningslinjene har som mål å etablere et rammeverk for ansvarlig bruk av generativ KI i ulike forskningsfaser.
1. Omfang av bruk
-
Tillatt bruk: Forskere oppfordres til å bruke generativ KI til oppgaver som dataanalyse, litteratursøk og kartlegging, korrekturlesing, formatering, oppretting av stimuli og andre støttefunksjoner som øker produktiviteten uten å undergrave grunnleggende forskningsoppgaver.
Denne typen oppgave er kognitivt krevende og utmattende, og innebærer repeterende og monotone aktiviteter som ikke byr på mange kreative eller nye utfordringer. Det krever vedvarende mental anstrengelse og oppmerksomhet på detaljer, noe som fører til utmattelse uten at det stimulerer til intellektuelt engasjement eller innovasjon.
-
Forbudt bruk: generativ KI må ikke erstatte forskernes primære intellektuelle oppgaver, som formulering av forskningsspørsmål, primærskriving, tolkning av resultater og kritisk analyse. I tillegg bør ikke KI-genererte bilder og multimedier brukes direkte i de endelige forskningsresultatene, med mindre det er eksplisitt tillatt av tidsskriftet og relevant for forskningsdesignet.
2. Offentliggjøring og åpenhet
-
Obligatorisk offentliggjøring: all bruk av generativ kunstig intelligens må offentliggjøres eksplisitt i forskningsmanuskripter, særlig i metodedelen. Dette innebærer blant annet at de spesifikke rollene og resultatene til KI-verktøyene som brukes må beskrives i detalj.
-
Erklæring om KI-bidrag: selv om generativ KI ikke kan krediteres som forfatter, må bruken av KI i forskningsprosessen anerkjennes for å opprettholde åpenhet overfor fagfellevurderere, tidsskriftredaktører og det bredere vitenskapelige samfunnet.
3. Overvåking og verifisering
-
Menneskelig tilsyn: alle faser av forskning som involverer generativ KI, må overvåkes av menneskelige forskere for å sikre arbeidets validitet og integritet. Forskerne er ansvarlige for kritisk vurdering og verifisering av alt KI-generert innhold.
-
Fagfellevurdering og redigering: de fleste akademiske tidsskrifter forbyr bruk av generativ KI i fagfellevurderingsprosessen. Innsending av upubliserte manuskripter til generative KI-plattformer kan føre til datalekkasje. Vi fraråder derfor å bruke generativ KI til manuskriptgjennomgang.
4. Etiske betraktninger
-
Personvern og datasikkerhet: forskere må ta hensyn til personvernspørsmål, særlig i studier som involverer sensitive eller personlige data, og sørge for at KI-verktøyene er i samsvar med alle gjeldende personvernforskrifter.
-
Unngå feilinformasjon: det må sørges for å forhindre spredning av feilinformasjon gjennom grundig verifisering av KI-generert innhold og kryssjekking av KI-foreslåtte sitater og data.
5. Kontinuerlig læring og tilpasning
-
Opplæring og utvikling: forskere bør kontinuerlig oppdatere kunnskapen sin om generativ KIs muligheter og begrensninger.
Disse retningslinjene vil bli gjennomgått med jevne mellomrom for å tilpasse seg teknologiske fremskritt og utviklingen av forskningsetiske standarder. De har som mål å støtte det vitenskapelige samfunnet i utforskningen av fordelene med kunstig intelligens, samtidig som de grunnleggende prinsippene om forskningsintegritet og åpenhet ivaretas.
16. april 2024




