DeepSeek乱编文献:AI幻觉下的学术风险
近年来,以 DeepSeek 为代表的大语言模型在文本生成、问答、写作辅助等领域展现出强大能力。然而,一个广受诟病的问题也随之浮现——“乱编文献”。
什么是“乱编文献”?
所谓“乱编文献”,是指 AI 在回答涉及学术引用的问题时,会凭空编造看似真实但实际不存在的论文标题、作者姓名、期刊名称、DOI 编号甚至出版年份。这类行为属于典型的“AI 幻觉”(Hallucination)。
为何 DeepSeek 会乱编文献?
- 训练数据局限:模型虽接触大量文本,但无法验证事实真伪。
- 概率生成机制:模型基于统计规律“猜测”最可能的回答,而非检索真实数据库。
- 缺乏外部知识验证:当前多数模型不具备实时联网查证能力。
潜在危害
若用户直接引用 AI 生成的虚假文献,可能导致:
- 学术不端指控
- 研究结论不可靠
- 误导他人研究方向
- 损害个人或机构声誉
如何防范?
建议采取以下措施:
- 将 AI 输出视为“草稿”而非最终答案;
- 对所有引用内容进行人工核实(如通过 Google Scholar、CNKI 等);
- 避免在正式论文、报告中直接使用未经验证的 AI 引用;
- 优先使用具备“引用溯源”功能的可信工具。
AI 是强大的助手,但不是权威信源。保持批判性思维,是安全使用大模型的关键。