Fordeler og ulemper ved KI-assistert akademisk forskning: Fra effektivitet til grundig sannhetssøken
- Yuan Ren
- 15. juli
- 9 min lesing

Kunstig intelligens (KI) endrer det akademiske forskningslandskapet i et forbløffende tempo. Fra utvikling av forskningsidéer til datagenerering, fra manusskriving til tidsskriftpublisering, har KI begynt å gjennomsyre alle ledd i det akademiske økosystemet (Van Quaquebeke et al., 2025). I denne artikkelen publisert i The Leadership Quarterly påpeker Van Quaquebeke, Tonidandel og Banks at vi allerede befinner oss i en tid der KI er dypt involvert i kunnskapsproduksjonen. Det virkelige spørsmålet er derfor ikke lenger «bør vi bruke KI», men «hvordan kan vi bruke den prinsipielt og reflektert».
Inspirasjonspartner eller driver av homogenisering? – Hvordan KI omformer forskningsidéer
Generativ KI er i ferd med å bli en inkubator for akademisk inspirasjon. Forskere bruker store språkmodeller (LLM-er) til idémyldring, generering av forskningsspørsmål og til og med for å hente frem oversette tverrfaglige temaer (Bianchini et al., 2022). Empiriske studier viser til og med at forskningsidéer generert av KI vurderes som mer nyskapende enn forslagene til 100 NLP-eksperter (Si et al., 2024). I tillegg drar ikke bare nybegynnere nytte av dette — også erfarne forskere kan utfordre sitt etablerte tankesett gjennom «motspørring» (counter-prompting) i samspill med KI. KI kan til og med hjelpe forskere med å undersøke om lignende prosjekter allerede er publisert, og dermed styrke forskningens originalitet (Skarlinski et al., 2025).
Men når mange forskere bruker de samme KI-modellene, kan denne bekvemmeligheten ha sin pris. KI har en tendens til å produsere «gjennomsnittlige» svar, og dermed redusere rommet for virkelig banebrytende spørsmål, noe som skaper det som kalles en «algoritmisk monokultur» (Holzner et al., 2025). Samtidig kan verktøy for å forutsi populære temaer friste forskere til å velge opportunistiske forskningsfelt og dermed falle i fellen som beskrives av Goodharts lov – når et mål blir et styringsverktøy, slutter det å være et godt mål.
Derfor foreslår forfatterne: bruk KI som en kilde til kreativitet, men sørg samtidig for å mate modellen med heterogene ressurser og stille kontraintuitive spørsmål, som for eksempel: «Hvilke perspektiver har blitt systematisk oversett?» eller «Hvilke implisitte forutsetninger eksisterer i dette feltet?» (Lee & Chung, 2024). I tillegg fremheves konkrete strategier, som å først tenke selvstendig, deretter samhandle med KI, og til slutt diskutere idéene i team. Denne «offline-KI-team»-sekvensen kan effektivt redusere risikoen for konvergens i kollektivet (Paulus & Kenworthy, 2019).
En ny æra for litteraturforståelse: Effektivitet, dybde og skjevhet eksisterer side om side
KI har også vist stort potensial i arbeidet med litteraturgjennomganger. Én studie viser at det tok KI kun to dager å gjenskape og oppdatere hovedinnholdet i 12 Cochrane-systematiske gjennomganger – tilsvarende 12 års manuelt arbeid (Cao et al., 2025). I dag kan forskere bruke verktøy som AlphaXiv eller NotebookLM for å «samtale» med artikler, eller for å generere visuelle kart over logiske relasjoner mellom teoretiske antakelser. KI kan også bidra til å løse såkalte «jingle-jangle»-problemer – altså at ett begrep brukes om ulike fenomener, eller at ulike begreper refererer til det samme – noe som er særlig viktig i komplekse forskningsfelt som ledelse (Banks et al., 2018; Cronin et al., 2022).
Likevel finnes det betydelige risikoer ved bruk av KI i litteraturgjennomganger. Modellene trenes ofte på tekster uten tilgang til innhold bak betalingsmurer, og dermed kan viktige stemmer utebli. En storstilt analyse har vist at GPT-4o foretrekker å referere til artikler med korte titler, høy impact factor og nylig publisering, noe som forsterker den såkalte «Matteus-effekten» (Algaba et al., 2025). En dypere risiko ligger i at KI kan jevne ut motstridende filosofiske tradisjoner til en «glatt» og uproblematisk fortelling, og dermed svekke den teoretiske spenningen i forskningen. Forfatterne minner oss om at KI kan være en utmerket «assistent», men ikke en «dommer» over gjennomgangens konklusjoner (Malik & Terzidis, 2025).

Forskningsdesign: KI kan lage kartet, men ikke skrive reisen
KI kan ikke bare hjelpe med idéutvikling, men også bidra direkte i forskningsdesign – som utforming av variabler, utvikling og oversettelse av spørreskjemaer. Sammenlignet med tradisjonelle Brislin-metoden, gir KI-baserte verktøy som DeepL bedre balanse mellom semantisk nøyaktighet og kulturell tilpasning (Brislin, 1970). KI kan også bistå med statistiske strategier og valg av kontrollvariabler, basert på store samlinger av metodeartikler (Van Quaquebeke et al., 2025). Evnen til å simulere utvalg blir stadig mer sofistikert og gjør det mulig å estimere potensielle effekter før datainnsamling i felt (Argyle et al., 2023; Ashokkumar et al., 2024). Men hvor «ekte» disse simuleringene er, er fortsatt omdiskutert. Eksperimenter designet av KI kan være teoretisk perfekte, men samtidig ignorere kompleksiteten i den virkelige verden (Mei et al., 2024).
Den største risikoen er at forskere mister metodisk kontroll ved å overlate designarbeidet til KI, og gradvis mister evnen til å «forstå virkeligheten gjennom egne hender». Derfor understreker forfatterne at KIs forslag kun skal være et utgangspunkt – aldri en endelig løsning. Den metodologiske dømmekraften må fortsatt ligge hos forskeren selv (Resnik & Hosseini, 2025).
Datagenerering: Innovative forsøksdeltakere eller forurensede datakilder?
KI brukes i dag ikke bare til å generere virtuelle data, men også til å opptre som eksperimentelle deltakere («KI-konfødererte») og simulere komplekse sosiale interaksjoner. For eksempel kan KI opptre som en «dårlig lagkamerat» i et eksperiment og reagere kontekstuelt, noe som overgår begrensningene ved statiske manus (Krafft et al., 2016). I tillegg kan KI hente interaksjonsdata fra plattformer som Slack og Zoom, eller brukes til storskala digital etnografi. Det finnes til og med eksempler der KI deltok i Reddit-diskusjoner under falsk identitet (uten samtykke) for å teste overtalelsesevne. Men slike metoder reiser etiske varsellamper.
Dersom forsøksdeltakere mistenker at motparten ikke er et menneske, svekkes tilliten til datakvaliteten. Enda mer problematisk er det når deltakere selv bruker KI til å besvare spørsmål, og dermed «forurenser» dataene. Derfor hevder forfatterne at enhver bruk av KI i eksperimenter må oppgis fullstendig og transparent. KI-genererte data bør kun brukes som «teoretiske data» og aldri erstatte empiriske undersøkelser (Von Krogh et al., 2023).

Dataanalyse: Åpner døren til statistisk allmenndannelse, men kan tåkeføre forståelsen
KI har senket terskelen for avansert statistisk analyse, spesielt innen tekstanalyse og visualisering (Feuerriegel et al., 2025). Brukere kan laste opp tabeller, bilder eller SPSS-filer og få KI til å oppdage avvik og forklare funn. Likevel er dagens KI ofte overkonfidensielt, og kan få nybegynnere til å overse metodologiske forutsetninger. KI gjør noen ganger «logisk riktige feil» – den gjenkjenner mønstre korrekt, men ignorerer konteksten (Wenzel & Van Quaquebeke, 2018). Derfor må resultater alltid dobbeltsjekkes med menneskelig faglig dømmekraft.
Skriving og uttrykk: Et effektivt verktøy – med risiko for å miste stemmen
KI-støttet skriving kan redusere «startangst» og forbedre kvaliteten på utkast. En studie viste at ChatGPT reduserte skrivetiden med 40 %, og forbedret resultatene med 18 % (Noy & Zhang, 2023). KI hjelper også forskere som ikke har engelsk som morsmål med grammatikk og tone, noe som letter veien til publisering (Van Quaquebeke et al., 2025).
Problemet er imidlertid at KI-genererte tekster ofte er stilistisk like og har en «flat» språkføring. Enda verre er det at KI noen ganger refererer til falske eller oppdiktede kilder – spesielt farlig i litteraturgjennomganger (Letrud & Hernes, 2019). Og selv om individuell skriveevne styrkes, kan det redusere samarbeidet i skriveprosesser og dermed svekke akademisk diskusjon og kritikk (Hoffmann et al., 2024). Forfatterne understreker derfor at skrivingens kjerne ikke handler om struktur, men om å «bevare forfatterens stemme» – det er dette som utgjør faglig arv.
Publishing and Dissemination: From Closed Processes to “Living Papers”
KI er i ferd med å omforme redaksjonelle prosesser i tidsskrifter. Fra første siling av manus til valg av fagfeller, formulering av redaksjonelle tilbakemeldinger og oppfølging av revisjoner – KI kan bidra effektivt (Checco et al., 2021). Den kan til og med hjelpe forfattere med å skrive svarbrev og integrere tilbakemeldinger fra flere runder med vurdering (Van Quaquebeke & Gerpott, 2024).
Samtidig kan KI forsterke historiske skjevheter og avvise nye og ikke-mainstream bidrag (Pataranutaporn et al., 2025). En «optimalisert» artikkel for KI kan i praksis bare være en overtilpasning til dagens mål, ikke et reelt gjennombrudd. Enda verre er det at vi ubevisst kan begynne å «skrive for KI» i stedet for for akademia (Naddaf, 2025).

Avslutning: Bruk KI for å frigjøre tid og styrke refleksjon – ikke for å svekke dømmekraft
Forfatterne konkluderer med at KI kan overta nesten alle deler av den akademiske prosessen, men at den virkelige faren ikke ligger i at den erstatter mennesker – det er at forskere selv begynner å tilpasse seg KI-logikk og mister sin forestillingsevne. Derfor må vi bruke KI for å «tenke dypere», ikke for å «kopiere raskere» (Messeri & Crockett, 2024). Menneskelige forskere har fortsatt en uerstattelig rolle – å stille verdifulle spørsmål og bevare en kritisk og uavhengig stemme. KI kan øke effektiviteten, men kunnskapens dybde og mening må fortsatt skapes av oss.
Referanser:
Algaba, A., Holst, V., Tori, F., Mobini, M., Verbeken, B., Wenmackers, S., & Ginis, V. (2025). How deep do large language models internalize scientific literature and citation practices? https://doi.org/10.48550/arXiv.2504.02767
Argyle, L. P., Busby, E. C., Fulda, N., Gubler, J. R., Rytting, C., & Wingate, D. (2023). Out of one, many: Using language models to simulate human samples. Political Analysis, 31(3), 337–351. https://doi.org/10.1017/pan.2023.2
Ashokkumar, A., Hewitt, L., Ghezae, I., & Willer, R. (2024). Predicting results of social science experiments using large language models. https://docsend.com/view/ity6yf2dansesucf
Banks, G. C., Gooty, J., Ross, R. L., Williams, C. E., & Harrington, N. T. (2018). Construct redundancy in leader behaviors: A review and agenda for the future. The Leadership Quarterly, 29(1), 236–251. https://doi.org/10.1016/j.leaqua.2017.12.005
Bianchini, S., Müller, M., & Pelletier, P. (2022). Artificial intelligence in science: An emerging general method of invention. Research Policy, 51(10), 104604. https://doi.org/10.1016/j.respol.2022.104604
Brislin, R. W. (1970). Back‑translation for cross‑cultural research. Journal of Cross‑Cultural Psychology, 1(3), 185–216. https://doi.org/10.1177/135910457000100301
Cao, C., Arora, R., Cento, P., Manta, K., Farahani, E., Cecere, M., Selemon, A., Sang, J., Gong, L. X., Kloosterman, R., Jiang, S., Saleh, R., Margalik, D., Lin, J., Jomy, J., Xie, J., Chen, D., Gorla, J., Lee, S., & Bobrovitz, N. (2025). Automation of systematic reviews with large language models. https://doi.org/10.1101/2025.06.13.25329541
Checco, A., Bracciale, L., Loreti, P., Pinfield, S., & Bianchi, G. (2021). AI-assisted peer review. Humanities & Social Sciences Communications, 8(1), 1–11. https://doi.org/10.1057/s41599-020-00703-8
Cronin, M. A., Stouten, J., & van Knippenberg, D. (2022). Why Theory on “How Theory Fits Together” Benefits Management Scholarship. The Academy of Management Review, 47(2), 333–337. https://doi.org/10.5465/amr.2021.0517
Feuerriegel, S., Maarouf, A., Bär, D., Geissler, D., Schweisthal, J., Pröllochs, N., ... & Van Bavel, J. J. (2025). Using natural language processing to analyse text data in behavioural science. Nature Reviews Psychology, 4(2), 96-111.
Hoffmann, M., Boysel, S., Nagle, F., Peng, S., & Xu, K. (2024). Generative AI and the Nature of Work (No. 11479). CESifo Working Paper.
Hoffmann, S., Lasarov, W., & Dwivedi, Y. K. (2024). AI-empowered scale development: Testing the potential of ChatGPT. Technological Forecasting and Social Change, 205, 123488.
Holzner, N., Maier, S., & Feuerriegel, S. (2025). Generative AI and creativity: A systematic literature review and meta‑analysis (Version 1). https://doi.org/10.48550/ARXIV.2505.17241
Krafft, P. M., Macy, M., & Pentland, A. (2016). Bots as Virtual Confederates: Design and Ethics. arXiv.Org. https://doi.org/10.48550/arxiv.1611.00447
Lee, B. C., & Chung, J. (2024). An empirical investigation of the impact of ChatGPT on creativity. Nature Human Behaviour, 8(10), 1906–1914. https://doi.org/10.1038/s41562-024-01953-1
Letrud, K., & Hernes, S. (2019). Affirmative citation bias in scientific myth debunking: A three-in-one case study. PLoS One, 14(9), e0222213.
Malik, F. S., & Terzidis, O. (2025). A hybrid framework for creating artificial intelligence‑augmented systematic literature reviews. Management Review Quarterly. Advance online publication. https://doi.org/10.1007/s11301-025-00522-8
Messeri, L., & Crockett, M. J. (2024). Artificial intelligence and illusions of understanding in scientific research. Nature (London), 627(8002), 49–58. https://doi.org/10.1038/s41586-024-07146-0
Naddaf, M. (2025). AI is transforming peer review — and many scientists are worried. Nature (London), 639(8056), 852–854. https://doi.org/10.1038/d41586-025-00894-7
Noy, S., & Zhang, W. (2023). Experimental evidence on the productivity effects of generative artificial intelligence. Science (American Association for the Advancement of Science), 381(6654), 187–192. https://doi.org/10.1126/science.adh2586Qiaozhu Mei, Xie, Y., Yuan, W., & Jackson, M. O. (2024). A Turing Test: Are AI Chatbots Behaviorally Similar to Humans? arXiv.Org.
Pataranutaporn, P., Powdthavee, N., Achiwaranguprok, C., & Maes, P. (2025). Can AI Solve the Peer Review Crisis? A Large Scale Cross Model Experiment of LLMs’ Performance and Biases in Evaluating over 1000 Economics Papers (No. arXiv:2502.00070). arXiv. https://doi.org/10.48550/arXiv.2502.00070
Paulus, P. B., Kenworthy, J. B., & Nijstad, B. A. (2019). Effective Brainstorming. In The Oxford Handbook of Group Creativity and Innovation. Oxford University Press. https://doi.org/10.1093/oxfordhb/9780190648077.013.17
Resnik, D. B., & Hosseini, M. (2025). The ethics of using artificial intelligence in scientific research: new guidance needed for a new tool. Ai and Ethics (Online), 5(2), 1499–1521. https://doi.org/10.1007/s43681-024-00493-8
Si, C., Yang, D., & Hashimoto, T. (2024). Can LLMs generate novel research ideas? A large‑scale human study with 100+ NLP researchers (Version 1). https://doi.org/10.48550/ARXIV.2409.04109
Skarlinski, M., Nadolski, T., Braza, J., Storni, R., Caldas, M., Mitchener, L., Hinks, M., White, A., & Rodriques, S. (2025). Superintelligent AI agents for scientific discovery. FutureHouse. https://www.futurehouse.org/research-announcements/launching-futurehouse-platform-ai-agents
Van Quaquebeke, N., & Gerpott, F. H. (2024). Artificial Intelligence (AI) and Workplace Communication: Promises, Perils, and Recommended Policy. Journal of Leadership & Organizational Studies, 31(4), 375–381. https://doi.org/10.1177/15480518241289644
Van Quaquebeke, N., Tonidandel, S., & Banks, G. C. (2025). Beyond efficiency: How artificial intelligence (AI) will reshape scientific inquiry and the publication process. The Leadership Quarterly, 36, 101895. https://doi.org/10.1016/j.leaqua.2025.101895
von Krogh, G., Roberson, Q., & Gruber, M. (2023). Recognizing and Utilizing Novel Research Opportunities with Artificial Intelligence. Academy of Management Journal, 66(2), 367–373. https://doi.org/10.5465/amj.2023.4002
Wenzel, R., & Van Quaquebeke, N. (2018). The Double-Edged Sword of Big Data in Organizational and Management Research: A Review of Opportunities and Risks. Organizational Research Methods, 21(3), 548–591. https://doi.org/10.1177/1094428117718627
Kommentarer