
研究人员揭示了一种新的供应链攻击方式,称为Slopsquatting,攻击者利用像GPT-4和CodeLlama等AI编码工具生成的幻觉、虚假的软件包名称。这些看似真实但实际上不存在的包占测试样本的近20%。据CSO Online报道,Slopsquatting一词最早由Python软件基金会的安全开发者Seth Larson提出,源于其与拼写错误钓鱼技术的相似之处。 与依赖用户错误的拼写钓鱼不同,攻击者依赖AI模型的错误。研究发现在测试样本中,有19.7%(205,000个包)被发现是虚假的。 开放源代码模型(如DeepSeek和WizardCoder)出现幻觉的频率更高,平均达到21.7%,而商业模型(如GPT-4)为5.2%。研究还发现CodeLlama的幻觉输出比例超过三分之一,是表现最差的,而GPT-4 Turbo仅有3.59%的输出出现幻觉,为表现最好的。 研究表明,这些误生成的包名称具有持久性、重复性和可信度,显示出攻击者能够利用它们的潜在价值。整体来看,这一研究强调了AI技术在网络安全中的复杂影响。