ChatGPT发现数据来源于AI生成的内容

智能计算 时间:2026-01-30来源:

如同蛇吞尾一般,人工智能正陷入自我循环的困境。

1769739629895119.png

据《卫报》报道,ChatGPT 的最新模型 GPT-5.2 被发现从 xAI 公司推出的全 AI 生成百科平台格罗基百科(Grokipedia)获取数据 —— 该平台堪称 AI 版维基百科,由埃隆・马斯克旗下公司开发。这款大型语言模型(LLM)在处理伊朗政治、英国历史学家理查德・埃文斯爵士相关细节等冷门话题时,会引用该 AI 百科的内容。

数年前,人工智能训练领域就有专家指出此类问题存在隐患:若用 AI 生成的数据训练 AI,会导致模型质量下降,引发 “模型崩溃”(model collapse)现象。尽管直接引用 AI 生成数据与将其用于训练存在区别,但对于依赖 AI 开展研究的用户而言,仍暗藏风险。

核心问题在于,AI 模型存在 “幻觉现象”(hallucinate),即会编造虚假信息。例如,Anthropic 公司曾尝试用其 “克劳迪乌斯”(Claudius)AI 运营某项业务,实验过程中该 AI 多次产生幻觉,甚至声称会 “亲自上门递送饮品”。英伟达(Nvidia)首席执行官黄仁勋在 2024 年也承认,解决 AI 幻觉问题 “仍需数年时间”,且需要更强大的计算能力支撑。此外,多数用户信任 ChatGPT 等大型语言模型输出的信息准确无误,仅有少数人会核实回答所依据的原始来源。因此,ChatGPT 直接复用格罗基百科的内容可能引发问题 —— 尤其该平台完全由 AI 生成,人类无法直接撰写或编辑文章,仅能申请修改内容。

以其他 AI 作为信息来源会形成递归循环:最终可能出现大型语言模型相互引用未经核实内容的情况。这与人类之间传播谣言无异,核心来源仅是 “别人这么说”。这种现象会导致 “虚假真相效应”(illusory truth effect):即便有数据证明信息不实,但由于被反复传播,多数人仍会将其视为正确。人类社会中,神话传说正是通过数百年、数代人的口耳相传留存至今;而 AI 处理数据的速度远超人类,若依赖 AI 作为信息来源,每一次 AI 查询都可能加速 “数字民间传说” 的扩散。

更令人担忧的是,已有各方势力利用这一漏洞。据《卫报》报道,目前存在 “大型语言模型诱导”(LLM grooming)行为,部分宣传网络 “大规模制造虚假信息,试图向 AI 模型植入谎言”。这一现象已引发美国方面担忧 —— 例如,谷歌的 Gemini 模型在 2024 年就被指曾重复中国共产党的官方立场。尽管该问题目前已得到解决,但如果大型语言模型开始引用其他未经审查和事实核查的 AI 生成内容,将成为人类需要警惕的新风险。

关键词: ChatGPT Grok 大型语言模型

加入微信
获取电子行业最新资讯
搜索微信公众号:EEPW

或用微信扫描左侧二维码

相关文章

查看电脑版