问题背景
DeepSeek等大语言模型在辅助学术写作时,有时会“幻觉”出不存在的参考文献(如虚构作者、期刊或DOI),这种现象被称为“AI乱编文献”。这不仅影响论文可信度,还可能带来学术不端风险。
常见原因
- 模型训练数据中存在噪声或过时信息
- 用户未明确要求“仅使用真实存在的文献”
- 模型缺乏实时联网验证能力
- 提示词(prompt)设计不当,诱导模型“编造”内容
解决方案与建议
- 人工核查所有引用:无论AI生成多么“专业”,务必通过Google Scholar、CNKI、PubMed等平台验证每一条参考文献。
- 优化提示词:明确指令如“请仅引用真实存在的、可查证的学术文献,若不确定请说明”。
- 启用联网功能(如有):部分AI工具支持实时检索,优先选择此类服务。
- 结合专业工具:使用Zotero、EndNote等文献管理软件辅助整理和校验。
- 避免直接复制AI生成的参考文献列表:将其作为思路参考,自行查找原始文献。
总结
AI是强大的写作助手,但不能替代学术严谨性。面对DeepSeek等模型可能出现的“乱编文献”问题,关键在于保持批判性思维,坚持人工验证,确保学术诚信。