近年来,随着大语言模型(如 DeepSeek)的广泛应用,用户在使用过程中发现一个常见问题:模型在回答中引用了看似真实、实则并不存在的学术文献或资料。这种现象被称为“AI幻觉”(AI Hallucination)。
什么是“虚假引用”?
“虚假引用”是指AI在生成文本时,编造出作者、论文标题、期刊名称、出版年份等信息,使其看起来像一篇真实存在的学术文献,但实际上无法在任何数据库中查到。
为什么 DeepSeek 会引用不存在的文献?
DeepSeek 等大模型基于海量文本训练,学习的是语言模式而非事实本身。当被要求提供参考文献时,模型会模仿真实引用格式“生成”内容,但并不验证其真实性。这并非故意欺骗,而是当前AI技术的局限性所致。
如何识别虚假引用?
- 在 Google Scholar、CNKI、PubMed 等权威数据库中搜索文献标题或作者;
- 检查 DOI 编号是否有效;
- 警惕过于模糊或笼统的引用描述(如“某研究指出……”但无具体来源)。
用户应对建议
在使用 DeepSeek 或其他 AI 工具获取信息时,请始终将输出内容视为“初步参考”,关键信息务必通过权威渠道二次核实。切勿直接将 AI 生成的引用用于学术写作或正式报告。
我们鼓励用户理性看待 AI 能力边界,善用技术,同时保持批判性思维。