top of page

​使用道德须知

目前,我们仍在进行一项涉及众多研究人员的大规模调查,以了解如何以合乎道德和负责任的方式使用生成式人工智能。

研究中负责任地使用生成式人工智能的指南
 

导言

将生成式人工智能融入研究方法为科学探索带来了变革性的潜力。然而,它需要严格的监督,以维护学术工作的完整性、准确性和道德标准。本指南旨在建立一个框架,以便在研究的各个阶段负责任地使用生成式人工智能。

 

1.使用范围

  • 允许的用途:我们鼓励研究人员在数据分析、文献检索和制图、校对、格式化、刺激物创建等任务中使用生成式人工智能,以及在不影响基本研究任务*的前提下提高工作效率的其他辅助功能。

*这类任务对认知能力的要求很高,需要耗费大量精力,涉及重复而单调的活动,没有太多创造性或新颖性的挑战。它需要持续的脑力劳动和对细节的关注,在没有智力参与或创新刺激的情况下会导致疲劳。

 

  • 禁止用途:生成式人工智能不得取代研究人员的主要智力任务,如提出研究问题、撰写主要文章、解释结果和进行批判性分析。此外,人工智能生成的图像和多媒体不应直接用于最终研究成果,除非期刊明确允许并与研究设计相关。

 

2.信息披露和透明度

  • 强制披露:所有生成式人工智能的使用都必须在研究手稿中明确披露,尤其是在方法部分。这包括详细说明所使用的人工智能工具的具体作用和产出。

  • 人工智能贡献声明:虽然生成式人工智能不能作为作者署名,但必须承认其在研究过程中的应用,以保持对同行评审员、期刊编辑和更广泛的科学界的透明度。

 

3.监督与核查

  • 人类监督:涉及生成式人工智能的每个研究阶段都必须由人类研究人员进行监督,以确保工作的有效性和完整性。研究人员负责严格评估和验证所有人工智能生成的内容。

  • 同行评审和编辑: 大多数学术期刊禁止在同行评审过程中使用生成式人工智能。将未发表的稿件提交给生成式人工智能平台可能会导致数据泄露。因此,我们建议不要使用生成式人工智能进行审稿。

 

4.伦理方面的考虑

  • 数据隐私与安全:研究人员必须考虑数据隐私问题,尤其是在涉及敏感数据或个人数据的研究中,确保人工智能工具符合所有适用的数据保护法规。

  • 避免错误信息:必须通过严格验证人工智能生成的内容和交叉检查人工智能建议的引文和数据来防止错误信息的传播。

 

5.不断学习和适应

  • 培训与发展:研究人员应不断更新有关生成式人工智能能力和局限性的知识;

 

这些指导方针将定期审查,以适应技术进步和不断发展的研究伦理标准。它们旨在支持科学界探索人工智能的益处,同时维护研究的完整性和透明度的基本原则。

 

2024 年 4 月 16 日

禁止使用大语言模型进行同行评审,以防止数据泄露.jpg

这项倡议得到了以下组织的支持:

  • Twitter
  • LinkedIn
  • YouTube
logo_edited.png
bottom of page