罗伯特.Davison, 哈米德-丘格泰, 彼得-尼尔森, 马可-马拉贝利, Federico Iannacci, Marjolein van Offenbeek, Monideepa Tarafdar, Manuel Trenz, Angsana A.Techatassanasoontorn, Antonio Díaz Andrade, Niki Panteli
首次出版:2024年1月21日。
亮点
在定性数据分析中使用生成式人工智能(GAI)会产生几个伦理问题,研究人员需要仔细考虑。这些问题涉及数据所有权和权利、数据隐私和透明度、解释的充分性、GAI 中表现出的偏见以及研究人员的责任和代理。
将研究数据提供给商业 GAI 平台以换取自动分析,可能会违反数据权以及与研究参与者和组织签订的保密协议。
当敏感数据与人工智能工具共享时,使用 GAI 进行分析会引发隐私问题,尤其是在参与者和组织未被告知或未对这种数据交换表示同意的情况下。
过度依赖 GAI 进行编码和分析有其局限性,因为 GAI 缺乏人类研究人员对背景的理解、同理心和意识,而这些对于深入的定性分析至关重要。
GAI 模型可能包含社会偏见、陈规定型观念和西方特权观点,这些在自动分析结果中以难以批判性检查和纠正的方式传播。
研究人员在认识论上有责任对他们提出的证据和主张负责。在没有人的代理和监督下盲目应用 GAI 是不道德的。研究人员必须保持作者身份并承担责任。
鉴于 GAI 技术的快速发展,使用 GAI 的固定伦理准则并不合适。相反,应通过持续对话制定一套不断发展的 "活准则",以帮助驾驭复杂的伦理问题。

摘要
值得注意的是,这篇社论的文字完全由人类撰写,没有任何生成人工智能(GAI)的贡献或协助。ISJ的一位副主编(AE)(Marjolein van Offenbeek)联系了ISJ的编辑(Robert M. Davison),并向他解释说,定性数据分析软件ATLAS.ti正在提供免费的研究数据分析服务,只要研究人员将相同的数据与ATLAS.ti共享,以便对其GAI进行培训1分析工具。Marjolein 认为这引发了道德困境。罗伯特将 Marjolein 的电子邮件转发给了 ISJ 的高级编辑(SEs)和副编辑(AEs),并邀请他们发表意见。其中九位高级编辑和副编辑回复了反馈意见。随后,我们(11 位撰稿人)进行了几轮头脑风暴,最后将文本合并到一份共享文件中。该文件最初由 Hameed Chughtai 创建,但随后由团队所有成员进行了评论和编辑。经过几轮讨论后,最终版本形成了团队 11 名成员的共同意见。需要强调的是,这 11 位作者对是否应在定性数据分析中使用 GAI 持有截然不同的观点,但我们对与使用 GAI 相关的伦理问题达成了广泛共识。尽管我们还可以讨论与在研究中使用 GAI 相关的许多其他话题,例如,如何将 GAI 有效地用于定性分析,但我们认为,伦理问题是许多其他话题的重中之重。因此,在本社论中,我们将专门讨论与使用 GAI 进行定性数据分析相关的伦理问题。
Comments