2024-05-07 17:35来源:本站编辑
将生成式人工智能平台用于犯罪目的的想法并不新鲜,但直到现在,还没有大规模的发展。这一发展凸显了恶意个人对人工智能技术的重新利用,为他们从事网络犯罪活动提供了增强的能力。
SlashNext最近进行的研究显示,WormGPT作为一种专门用于发起高级网络钓鱼和商业电子邮件入侵(BEC)攻击的生成式人工智能工具,在地下论坛上得到了推广。
安全研究人员Daniel Kelley解释说,这个名为WormGPT的工具是GPT模型的黑帽替代品,专门用于促进恶意活动。网络犯罪分子可以利用这项技术自动创建高度可信的欺诈性电子邮件,这些电子邮件针对每个收件人进行了个性化设置,从而大大提高了攻击的成功率。
该软件的创建者将WormGPT描述为ChatGPT等知名模型的主要对手,声称它可以执行各种非法活动。
在坏人手中,像WormGPT这样的工具具有强大的武器的巨大潜力,特别是OpenAI的ChatGPT和谷歌的Bard正在积极采取措施,以对抗在制造有说服力的网络钓鱼电子邮件和生成恶意代码中滥用大型语言模型(llm)。
“与ChatGPT相比,巴德在网络安全领域的反滥用限制明显较低。因此,使用Bard的功能更容易生成恶意内容,”Check Point在一份报告中写道。
今年2月,一家以色列网络安全公司披露了网络犯罪分子用来绕过人工智能语言模型ChatGPT限制的方法。他们利用该模型的API并从事非法活动,例如交易被盗的高级帐户,并销售暴力破解软件,用于利用大量电子邮件地址和密码入侵ChatGPT帐户。
WormGPT的存在似乎没有任何道德界限,突显了生成式人工智能带来的重大威胁。它使即使是网络犯罪新手也能在不需要广泛技术知识的情况下迅速发起大规模攻击。
更令人担忧的是ChatGPT的“越狱”推广,包括创建专门的提示和输入,旨在操纵工具生成可能涉及泄露敏感信息、不适当内容或执行有害代码的输出。
安全研究员丹尼尔·凯利(Daniel Kelley)解释说,生成式人工智能可以创建语法无可挑剔的电子邮件,使它们看起来合法,并减少被标记为可疑的可能性。这种生成式人工智能技术的民主化促进了复杂的BEC攻击的执行,使更广泛的网络犯罪分子能够利用这些工具,即使他们的技能有限。
此外,Mithril Security的研究人员最近的另一项进展涉及修改现有的开源人工智能模型GPT-J-6B,以传播虚假信息。这个被修改过的模型,称为PoisonGPT,被上传到公共存储库,允许它集成到其他应用程序中。
这种技术被称为LLM供应链中毒,它依赖于以冒充知名公司的名义上传修改后的模型。在这种情况下,使用了GPT-J背后的公司EleutherAI的打字版本。
作者:Alius Noreika
资讯来源:http://www.usaler.com/news/show/152005/