AI虚构文献?港大博士论文风波警示:你的学术诚信,不应被“幻觉”击穿
事件回顾
这周二,香港大学再度成为舆论焦点。一篇由港大社工系博士生白逸铭主笔、发表在Springer Nature旗下期刊《China Population and Development Studies》的论文,被曝出大量引用文献"查无此文"。
这篇题为《四十年来香港生育率变迁》的论文,本欲探讨香港生育率持续走低的深层原因,却在发表后被发现其中多达61处引用存在严重问题。有学者在跟进研究时惊讶地发现,文中标注的DOI链接点击后显示"未找到",某些声称出自知名期刊的文献,在对应期刊中根本不存在。
更让人啼笑皆非的是,一篇根本不存在的论文,竟然被安上了港大社会科学院副院长叶兆辉的大名。这位在学界享有盛誉的教授,就这样"被发表"了一篇子虚乌有的论文。
事发后,作为论文通讯作者的叶兆辉教授第一时间出面回应。他坦言,这是负责文献整理的博士生首次使用AI辅助工具时,未能仔细核对生成结果所致。"作为通讯作者,我责无旁贷,"叶教授在接受采访时表示,"我们对AI工具的理解还不够深入,这次确实疏忽了。"
值得注意的是,涉事期刊出版社Springer Nature随后发布的更正声明颇值得玩味。声明承认论文引用存在"错配及谬误",却特别强调这"不影响论文的核心结论、实证数据的准确性以及理论框架的完整性"。这种既要维护学术规范,又试图保全论文价值的表态,折射出学术出版界面对AI时代新挑战时的两难处境。
事实上,这已不是港大第一次陷入学术争议,但却是首次明确与AI工具使用不当相关的案例。校方回应称已启动调查程序,重申对学术操守的严格要求。然而,这场风波背后更深层的问题已然浮现:在AI辅助科研日益普及的今天,我们该如何界定技术失误与学术不端的边界?
叶兆辉教授的处理方式也引发讨论。他选择给涉事博士生"第二次机会",要求其修读AI工具使用课程,并承诺亲自逐条核对引用。这种既追究责任又给予改过机会的态度,在严苛的学术圈中显得颇为特别。
这场发生在港大的论文引用风波,或许只是AI时代学术生态变革的一个开端。当传统的学术严谨遇上AI的"幻觉"特性,研究者们正在经历着前所未有的考验。而如何在这场人机协作的科研新范式下守住学术底线,将成为整个学界必须直面的话题。
AI无疑是强大的科研加速器。它能帮我们快速梳理文献、提供思路、甚至辅助写作。但我们必须清醒地认识到它的本质:
它将统计概率上最“像”答案的内容呈现给你,却无法对内容的真实性与准确性负责。将文献引用——这项学术研究中最基础、最需要严谨精神的工作——完全交由AI,无异于在学术诚信的钢丝上跳舞。
为了避免成为下一个新闻主角,我们必须在研究中建立一套使用AI的“防火墙”。
1. 明确角色:AI是助手,不是作者。
你的学术声誉,必须由你亲自背书。AI生成的所有内容,尤其是事实、数据和引用,都必须被视为“未经核实的草稿”。
2. 建立“二次核实”机制(最关键的一步!)
对于AI提供的任何文献线索,必须执行以下核实流程:
- 必查DOI:通过DOI在官方渠道(如CrossRef)或出版社官网直接检索。
- 手动检索:在Google Scholar、Web of Science、知网等权威数据库中用标题和作者进行精确搜索。
- 溯源原文:找到原文PDF,逐字核对引用的观点、数据是否与原文一致。
3. 提升自身的“AI素养”。
正如叶兆辉教授要求其博士生去修读AI工具课程一样,研究者必须主动学习:
- 了解AI的局限性:深刻理解什么是“幻觉”,以及在哪些任务上AI容易出错。
- 学习精准提问:通过优化指令,减少AI“胡编乱造”的可能。
- 善用而非滥用:用AI进行灵感激发、文献初筛、语言润色,而非核心论证和关键引用。
4. 导师与团队:把好最后一道关。
通讯作者和导师的责任,在AI时代被空前放大。在论文提交前,对AI辅助完成的部分进行重点抽查,应成为一项标准流程。团队的学术规范中,应明确加入AI工具的使用和核查条款。
结语:工具无罪,责任在人
港大论文风波,问题不出在AI本身,而出在使用AI的人,混淆了“效率工具”和“责任主体”的边界。
在AI重塑科研范式的今天,学术诚信的基石非但没有动摇,反而更加珍贵。它要求我们具备一种新的能力:在拥抱技术效率的同时,坚守人类学者的严谨、批判与负责精神。
你的论文,最终代表的是你自己的学术品格。别让一时的便利,击穿你多年来建立的声誉。