近年来,以 DeepSeek 为代表的大语言模型在学术写作、研究辅助等领域被广泛使用。然而,用户普遍关心一个问题:DeepSeek 是否会“乱生成”文献?即是否会在回答中编造不存在的论文、作者、期刊或引用信息。
所谓“乱生成文献”,通常指 AI 模型在没有真实依据的情况下,虚构出看似合理但实际并不存在的学术引用。这种现象在 AI 领域被称为“幻觉(hallucination)”。例如,模型可能会生成一篇标题专业、作者真实存在、但实际从未发表过的论文。
根据目前公开测试和用户反馈,DeepSeek 在多数情况下能提供准确的信息,但在涉及具体文献引用时,仍存在一定风险。尤其当用户提问模糊、模型缺乏明确训练数据支持时,可能生成看似可信但无法验证的参考文献。
因此,**不建议直接将 DeepSeek 生成的文献引用用于正式学术场合**,除非经过人工核实。
DeepSeek 是一个强大的语言模型,但在学术引用方面仍需谨慎对待。它不会“故意”造假,但受限于训练数据和生成机制,确实可能无意中生成虚假文献。合理使用、交叉验证,是确保学术严谨性的关键。