
谷歌的搜索人工智能自信地生成不存在的成语解释,再次揭示了大型语言模型的根本缺陷。用户发现,输入任何虚构短语加上“意思”会触发AI概述,展示虚假的词源解释,似乎很有权威性。 当查询诸如“松散的狗不会冲浪”等短语时,谷歌的系统产出详细且听起来合理的解释,而不是承认这些表达不存在。该系统偶尔会包含参考链接,进一步增强了其伪装的合法性。 约翰霍普金斯大学的计算机科学家Ziang Xiao将这种行为归因于大型语言模型的两个关键特征:基于预测的文本生成和迎合用户的倾向。Xiao解释道:“下一个词的预测基于其庞大的训练数据,但是在许多情况下,下一个连贯的词并不能导致我们到达正确的答案。 。