top of page

人工智能辅助学术研究的正反两面:从追求效率到严谨求真

ree

人工智能(AI)正以惊人的速度改变学术研究的基本面貌。从研究构想到数据生成,从文稿撰写到期刊出版,AI正渗透进学术生态的每一环节(Van Quaquebeke et al., 2025)。在这篇发表于《The Leadership Quarterly》的文章中,Van Quaquebeke、Tonidandel 和 Banks 指出,我们早已处于AI深度参与知识生产的时代,而真正需要回答的问题,不再是“我们是否要使用AI”,而是“我们如何才能有原则地、反思性地使用它”。


灵感的伙伴,还是同质化的推手?——AI如何重塑研究构想


生成式AI正在成为学术灵感的孵化器。研究者们利用大型语言模型(LLMs)进行头脑风暴、生成研究问题,甚至借其检索被忽视的交叉领域主题(Bianchini et al., 2022)。实证研究甚至表明,AI生成的研究想法在新颖性评估中优于100位NLP专家的构想(Si et al., 2024)。此外,不仅初学者受益,经验丰富的学者也可通过“反驳式提示”(counter-prompting)与AI互动,突破固有思维。AI甚至可以帮助研究者检索是否有相似项目已被发表,提升研究独创性(Skarlinski et al., 2025)。


但如果众多学者都在使用同样的AI模型,这种便利就会带来代价。AI倾向生成“平均”的答案,从而压缩了真正颠覆性问题的空间,形成所谓“算法单一文化”(Holzner et al., 2025)。同时,热点预测工具可能诱导学者投机选题,从而陷入“Goodhart定律”的陷阱——当指标成为目标,它就不再是好的指标。


因此,作者建议:一方面借助AI激发创意,另一方面有意识地输入异质性资源,提出反直觉问题。例如:“哪些角度被系统性忽视了?”或“这个领域中有哪些隐含前提?”(Lee & Chung, 2024)。此外,一些具体策略也被提及,例如:先进行个体思考,再与AI互动,最后在团队中讨论生成的构想,这种“离线-AI-团队”交错流程能有效避免集体趋同(Paulus & Kenworthy, 2019)。


文献理解的新纪元:效率、深度与偏见并存


AI在文献综述中的潜力同样引人注目。一项研究指出,仅用两天时间,AI就能重现并更新12篇Cochrane系统综述的核心内容,相当于12年的人力投入(Cao et al., 2025)。目前研究者可以通过AlphaXiv或NotebookLM这类工具,与文章进行“对话式分析”,或生成可视化的逻辑图谱来识别理论假设间的隐含关系。AI也可以帮助解决“jingle-jangle”问题,即同一术语指代不同概念、或不同术语实为同一概念的现象,特别在领导力研究这类结构复杂领域尤为重要(Banks et al., 2018; Cronin et al., 2022)。


不过,AI综述系统也存在重大风险。其训练语料通常不涵盖付费墙背后的文献,导致输出可能缺失重要声音。一项大规模分析发现,GPT-4o生成的参考文献偏好短标题、新出版、高影响因子论文,从而放大“马太效应”(Algaba et al., 2025)。更深层次的风险是,AI可能将哲学上有冲突的学派整合成“平滑”叙述,削弱研究中的理论张力。作者提醒我们:AI可以成为出色的“助手”,但不能成为综述结论的“裁判”(Malik & Terzidis, 2025)。

从灵感到算法式趋同
从灵感到算法式趋同

设计研究:AI可导图,但不可代笔


AI不仅能帮助生成想法,也能具体介入研究设计,包括变量操作、问卷开发与翻译优化。比起传统的Brislin法,AI辅助翻译(如DeepL)更能在保留语义细节的同时处理文化差异(Brislin, 1970)。AI还可以基于大量方法文献,协助规划统计策略或挑选控制变量(Van Quaquebeke et al., 2025)。AI模拟样本的能力也日趋成熟,允许研究者在实地调研前对潜在效应进行估算(Argyle et al., 2023; Ashokkumar et al., 2024)。但这些“虚拟样本”的真实性依然是问题。AI设计的实验可能在理论上完美,却忽略真实环境中的复杂性(Mei et al., 2024)。


最根本的风险是研究者可能丧失对方法的掌控力,把设计完全交给AI,逐渐远离“动手理解现实”的能力。因此,作者强调:AI建议只能作为起点,而不是终局。研究方法的判断力必须由人类亲自维持(Resnik & Hosseini, 2025)。


数据生成:创新的实验参与者,还是污染的数据源?


AI如今不仅生成虚拟数据,还可扮演实验参与者(“AI confederates”),模拟复杂的社会互动情境。例如AI可在实验中表现为“坏队友”,根据上下文灵活回应,超越了静态剧本的局限(Krafft et al., 2016)。此外,AI已能从Slack、Zoom等数字平台中采集互动数据,或进行大规模的数字民族志。甚至有人让AI以虚构身份参与Reddit社区讨论(未经同意),测试其说服力。但这些都带来了伦理警报。


当受试者怀疑对面不是人类,研究数据的真实性将被质疑;更严重的是,受试者本身可能借助AI辅助作答,从而“反向污染”数据。因此,作者主张:任何AI介入实验的情况必须完全透明披露;AI生成的数据只能作为“理论数据”,不能替代实证调查(Von Krogh et al., 2023)。

人工智能:助手,而非裁判
人工智能:助手,而非裁判

数据分析:打开通识的门,也可能模糊理解


AI降低了高阶统计分析的门槛,尤其在文本分析和可视化方面成效显著(Feuerriegel et al., 2025)。用户甚至可以上传表格、图像或SPSS输出,让AI检测异常值并解释含义。不过,如今AI过于“自信”,可能让初学者忽略其假设前提。AI有时会“合逻辑地错”,即模式识别没错,但忽略了语境因素(Wenzel & Van Quaquebeke, 2018)。因此,分析结果仍需人类研究者以理论与方法框架进行交叉检验。


写作与表达:提速的工具,失声的风险


AI写作能有效缓解“开篇焦虑”,提升产出质量。一项研究显示,借助ChatGPT,受试者完成写作任务的时间减少40%,质量提升18%(Noy & Zhang, 2023)。AI还可帮助非英语母语者润色语法、调整语气,使其更容易达到学术发表标准(Van Quaquebeke et al., 2025)。


但问题在于,AI输出的文本往往风格趋同、语气“平庸”。更严重的是AI可能引用虚假或伪造文献,这在撰写文献综述时尤其危险(Letrud & Hernes, 2019)。此外,AI提升个体写作能力也可能减少协作写作的机会,从而削弱学术共同体的交流与批判氛围(Hoffmann et al., 2024)。针对以上情况,作者提出自己的观点,那就是写作本质不在于结构化,而在于“保留作者之声”,这才是学术传承的核心。


出版与传播:从封闭流程到“活文章”


AI也在重塑期刊编辑流程。从初筛稿件、匹配审稿人到生成编辑意见、修订追踪,AI都能高效参与(Checco et al., 2021)。它甚至可以辅助作者撰写回应信,整合多轮审稿意见,提升沟通效率(Van Quaquebeke & Gerpott, 2024)。


但与此同时,AI可能复制历史偏见,压制新颖但非主流的投稿(Pataranutaporn et al., 2025)。AI优化的“好文章”可能只是对当前指标的过拟合,而非真实的知识突破。更危险的是,我们可能在不知不觉中开始“为AI而写”,而非为学术而写(Naddaf, 2025)。

要思考得更深,而非复制得更快
要思考得更深,而非复制得更快

结语:用AI减负、放大反思;用AI增能、而非替代判断 


作者最后总结道,AI可能接管几乎所有学术流程,但真正的危险并不是它取代人类,而是学者主动迎合AI逻辑、丧失想象力。因此,我们要用AI节省时间去“更深入地思考”,而不是“更快地复制”(Messeri & Crockett, 2024)。人类研究者仍有不可替代的使命——提出有价值的问题,保留批判的精神与独立的声音。AI可以提升效率,但知识的深度与意义,仍然需要我们自己来创造。





参考文献:

Algaba, A., Holst, V., Tori, F., Mobini, M., Verbeken, B., Wenmackers, S., & Ginis, V. (2025). How deep do large language models internalize scientific literature and citation practices? https://doi.org/10.48550/arXiv.2504.02767

Argyle, L. P., Busby, E. C., Fulda, N., Gubler, J. R., Rytting, C., & Wingate, D. (2023). Out of one, many: Using language models to simulate human samples. Political Analysis, 31(3), 337–351. https://doi.org/10.1017/pan.2023.2

Ashokkumar, A., Hewitt, L., Ghezae, I., & Willer, R. (2024). Predicting results of social science experiments using large language models. https://docsend.com/view/ity6yf2dansesucf

Banks, G. C., Gooty, J., Ross, R. L., Williams, C. E., & Harrington, N. T. (2018). Construct redundancy in leader behaviors: A review and agenda for the future. The Leadership Quarterly, 29(1), 236–251. https://doi.org/10.1016/j.leaqua.2017.12.005

Bianchini, S., Müller, M., & Pelletier, P. (2022). Artificial intelligence in science: An emerging general method of invention. Research Policy, 51(10), 104604. https://doi.org/10.1016/j.respol.2022.104604

Brislin, R. W. (1970). Back‑translation for cross‑cultural research. Journal of Cross‑Cultural Psychology, 1(3), 185–216. https://doi.org/10.1177/135910457000100301

Cao, C., Arora, R., Cento, P., Manta, K., Farahani, E., Cecere, M., Selemon, A., Sang, J., Gong, L. X., Kloosterman, R., Jiang, S., Saleh, R., Margalik, D., Lin, J., Jomy, J., Xie, J., Chen, D., Gorla, J., Lee, S., & Bobrovitz, N. (2025). Automation of systematic reviews with large language models. https://doi.org/10.1101/2025.06.13.25329541

Checco, A., Bracciale, L., Loreti, P., Pinfield, S., & Bianchi, G. (2021). AI-assisted peer review. Humanities & Social Sciences Communications, 8(1), 1–11. https://doi.org/10.1057/s41599-020-00703-8

Cronin, M. A., Stouten, J., & van Knippenberg, D. (2022). Why Theory on “How Theory Fits Together” Benefits Management Scholarship. The Academy of Management Review, 47(2), 333–337. https://doi.org/10.5465/amr.2021.0517

Feuerriegel, S., Maarouf, A., Bär, D., Geissler, D., Schweisthal, J., Pröllochs, N., ... & Van Bavel, J. J. (2025). Using natural language processing to analyse text data in behavioural science. Nature Reviews Psychology4(2), 96-111.

Hoffmann, M., Boysel, S., Nagle, F., Peng, S., & Xu, K. (2024). Generative AI and the Nature of Work (No. 11479). CESifo Working Paper.

Hoffmann, S., Lasarov, W., & Dwivedi, Y. K. (2024). AI-empowered scale development: Testing the potential of ChatGPT. Technological Forecasting and Social Change205, 123488.

Holzner, N., Maier, S., & Feuerriegel, S. (2025). Generative AI and creativity: A systematic literature review and meta‑analysis (Version 1). https://doi.org/10.48550/ARXIV.2505.17241

Krafft, P. M., Macy, M., & Pentland, A. (2016). Bots as Virtual Confederates: Design and Ethics. arXiv.Org. https://doi.org/10.48550/arxiv.1611.00447

Lee, B. C., & Chung, J. (2024). An empirical investigation of the impact of ChatGPT on creativity. Nature Human Behaviour, 8(10), 1906–1914. https://doi.org/10.1038/s41562-024-01953-1

Letrud, K., & Hernes, S. (2019). Affirmative citation bias in scientific myth debunking: A three-in-one case study. PLoS One14(9), e0222213.

Malik, F. S., & Terzidis, O. (2025). A hybrid framework for creating artificial intelligence‑augmented systematic literature reviews. Management Review Quarterly. Advance online publication. https://doi.org/10.1007/s11301-025-00522-8

Messeri, L., & Crockett, M. J. (2024). Artificial intelligence and illusions of understanding in scientific research. Nature (London), 627(8002), 49–58. https://doi.org/10.1038/s41586-024-07146-0

Naddaf, M. (2025). AI is transforming peer review — and many scientists are worried. Nature (London), 639(8056), 852–854. https://doi.org/10.1038/d41586-025-00894-7

Noy, S., & Zhang, W. (2023). Experimental evidence on the productivity effects of generative artificial intelligence. Science (American Association for the Advancement of Science), 381(6654), 187–192. https://doi.org/10.1126/science.adh2586Qiaozhu Mei, Xie, Y., Yuan, W., & Jackson, M. O. (2024). A Turing Test: Are AI Chatbots Behaviorally Similar to Humans? arXiv.Org.

Pataranutaporn, P., Powdthavee, N., Achiwaranguprok, C., & Maes, P. (2025). Can AI Solve the Peer Review Crisis? A Large Scale Cross Model Experiment of LLMs’ Performance and Biases in Evaluating over 1000 Economics Papers (No. arXiv:2502.00070). arXiv. https://doi.org/10.48550/arXiv.2502.00070

Paulus, P. B., Kenworthy, J. B., & Nijstad, B. A. (2019). Effective Brainstorming. In The Oxford Handbook of Group Creativity and Innovation. Oxford University Press. https://doi.org/10.1093/oxfordhb/9780190648077.013.17

Resnik, D. B., & Hosseini, M. (2025). The ethics of using artificial intelligence in scientific research: new guidance needed for a new tool. Ai and Ethics (Online), 5(2), 1499–1521. https://doi.org/10.1007/s43681-024-00493-8

Si, C., Yang, D., & Hashimoto, T. (2024). Can LLMs generate novel research ideas? A large‑scale human study with 100+ NLP researchers (Version 1). https://doi.org/10.48550/ARXIV.2409.04109

Skarlinski, M., Nadolski, T., Braza, J., Storni, R., Caldas, M., Mitchener, L., Hinks, M., White, A., & Rodriques, S. (2025). Superintelligent AI agents for scientific discovery. FutureHouse. https://www.futurehouse.org/research-announcements/launching-futurehouse-platform-ai-agents

Van Quaquebeke, N., & Gerpott, F. H. (2024). Artificial Intelligence (AI) and Workplace Communication: Promises, Perils, and Recommended Policy. Journal of Leadership & Organizational Studies, 31(4), 375–381. https://doi.org/10.1177/15480518241289644

Van Quaquebeke, N., Tonidandel, S., & Banks, G. C. (2025). Beyond efficiency: How artificial intelligence (AI) will reshape scientific inquiry and the publication process. The Leadership Quarterly, 36, 101895. https://doi.org/10.1016/j.leaqua.2025.101895

von Krogh, G., Roberson, Q., & Gruber, M. (2023). Recognizing and Utilizing Novel Research Opportunities with Artificial Intelligence. Academy of Management Journal, 66(2), 367–373. https://doi.org/10.5465/amj.2023.4002

Wenzel, R., & Van Quaquebeke, N. (2018). The Double-Edged Sword of Big Data in Organizational and Management Research: A Review of Opportunities and Risks. Organizational Research Methods, 21(3), 548–591. https://doi.org/10.1177/1094428117718627


 
 
 

留言


这项倡议得到了以下组织的支持:

  • Twitter
  • LinkedIn
  • YouTube
logo_edited.png
bottom of page