Source: Slashdot
研究人员揭示了一种新的供应链攻击方式,称为Slopsquatting,攻击者利用像GPT-4和CodeLlama等AI编码工具生成的幻觉、虚假的软件包名称。这些看似真实但实际上不存在的包占测试样本的近20%。据CSO Online报道,Slopsquatting一词最早由Python软件基金会的安全开发者Seth Larson提出,源于其与拼写错误钓鱼技术的相似之处。
与依赖用户错误的拼写钓鱼不同,攻击者依赖AI模型的错误。研究发现在测试样本中,有19.7%(205,000个包)被发现是虚假的。
开放源代码模型(如DeepSeek和WizardCoder)出现幻觉的频率更高,平均达到21.7%,而商业模型(如GPT-4)为5.2%。研究还发现CodeLlama的幻觉输出比例超过三分之一,是表现最差的,而GPT-4 Turbo仅有3.59%的输出出现幻觉,为表现最好的。
研究表明,这些误生成的包名称具有持久性、重复性和可信度,显示出攻击者能够利用它们的潜在价值。整体来看,这一研究强调了AI技术在网络安全中的复杂影响。
在技术飞速发展的今天,我们如何应对潜藏在AI背后的安全威胁?
特别声明:本文及配图均为用户上传或者转载,本文仅代表作者个人观点和立场,不代表平台观点。其原创性以及文中陈述文字和内容未经本站证实,
对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本平台不作任何保证或承诺,请读者仅作参考,
并请自行核实相关内容。如发现稿件侵权,或作者不愿在本平台发布文章,请版权拥有者通知本平台处理。
Copyright Disclaimer: The copyright of contents (including texts, images, videos and audios)
posted above belong to the User who shared or the third-party website which the User shared from.
If you found your copyright have been infringed, please send a DMCA takedown notice to
[email protected]
来源:https://it.slashdot.org/story/25/04/22/0118200/ai-hallucinations-lead-to-a-new-cyber-threat-slopsquatting?utm_source=rss1.0mainlinkanon&utm_medium=feed