背景
随着人工智能的飞速发展,先进的大型语言模型(LLM)在改变我们的工作和生活方式的同时,也带来了一些值得警惕的安全隐患。从OpenAI的GPT系列到谷歌的Gemini,再到各种开源AI模型,技术的革新为各行各业注入了新的活力。然而,随着这些技术的广泛应用,我们也开始看到其潜在的恶意用途,尤其是在加密行业中,可能引发一系列安全问题。
所谓的无限制大模型,指的是那些被有意“越狱”或修改过的语言模型,绕过了原本内置的安全和伦理限制。这些模型通常会被用于生成恶意内容,传播虚假信息,或者帮助进行网络犯罪等违法活动。尽管主流的开发者会花费大量资源去设立伦理防护和安全机制,近年来,越来越多的黑客和不法分子开始寻找或开发不受这些限制的模型。
本文将分析典型的无限制大模型,并探讨它们在加密行业中的滥用风险,分析相关安全挑战,并讨论如何应对这些威胁。
无限制 LLM 的恶意用途
过去,需要较高的技术能力才能进行的攻击,如编写恶意代码、设计钓鱼邮件、策划诈骗等,如今在无限制的大型语言模型的帮助下,任何人都可以轻松上手进行这些活动。黑客只需获取开源模型的代码与权重,或者通过特定的微调方法调整模型的行为,便能生成恶意内容。这种方式让即便是没有编程经验的普通人,也能成为潜在的网络攻击者。
无限制 LLM 带来了许多潜在的安全隐患,主要包括:
绕过内容审查:攻击者能够修改模型,使其生成更加有针对性且具有欺骗性的内容,突破常规模型的内容审查与限制;
快速构建恶意工具:黑客能用这些模型快速生成钓鱼网站、欺诈广告、虚假投资项目等恶意工具;
地下AI生态系统的滋生:开源模型的普及和可修改性,为非法活动提供了温床,进一步促使地下AI生态的发展。
典型的无限制 LLM 工具与滥用方式
WormGPT:黑色版 GPT
WormGPT 是一种在黑市中公开销售的恶意 LLM。其开发者明确表示,WormGPT 完全没有道德限制,是一种“黑色版”GPT模型。它基于开源模型(如 GPT-J 6B)进行训练,专门在与恶意软件相关的大量数据上进行微调。攻击者通过支付最低189美元,即可获得其一个月的使用权限。WormGPT 最常见的滥用方式包括:
生成钓鱼邮件:伪装成加密货币交易所、钱包或项目方发送“账户验证”请求,诱使用户点击恶意链接,进而泄露私钥、助记词等敏感信息;
编写恶意代码:帮助攻击者编写窃取钱包文件、监控剪贴板、记录键盘输入等功能的恶意代码;
驱动自动化诈骗:通过自动回复,诱导受害者参与虚假的空投或投资项目。
DarkBERT:暗网的双刃剑
DarkBERT 是由韩国科学技术院与 S2W 公司合作开发的语言模型,专门训练于暗网数据。其初衷是帮助网络安全研究人员更好地理解暗网生态,追踪非法活动,获取潜在威胁情报。然而,这种专为恶意活动设计的训练模型,如果被不法分子滥用,可能会对加密行业带来严重安全威胁。具体滥用方式包括:
精准诈骗:利用模型收集加密用户及项目团队的相关信息,进行针对性社会工程学攻击;
模仿犯罪手法:复制暗网中成熟的盗币与洗钱手法,实施针对加密行业的攻击;
洗钱与非法交易:利用模型快速生成洗钱操作和非法交易策略,扰乱加密市场秩序。
FraudGPT:网络诈骗的“瑞士军刀”
FraudGPT 是 WormGPT 的升级版,功能更强大,销售对象主要集中在暗网和黑客论坛。它的月费可从200美元到1700美元不等。FraudGPT 的加密行业滥用方式包括:
伪造加密项目:生成看起来十分真实的白皮书、官网、路线图等资料,实施虚假ICO/IDO,骗取投资者资金;
批量生成钓鱼页面:快速创建仿冒知名交易所的登录页面或钱包连接界面,诱使用户输入敏感信息;
社交媒体水军:大规模制造虚假评论,助推诈骗代币的宣传或抹黑竞争项目;
社会工程攻击:模仿人类对话,通过社交平台与用户建立信任,诱导他们泄露敏感信息或执行有害操作。
GhostGPT:不受道德约束的 AI 助手
GhostGPT 是一款明确标榜“无道德约束”的 AI 聊天机器人,其在加密行业中的滥用方式更为复杂:
高级钓鱼攻击:生成极为逼真的钓鱼邮件,假冒知名交易所发布虚假KYC验证、安全警报或账户冻结通知,诱导用户泄露私密信息;
智能合约恶意代码生成:利用 GhostGPT,攻击者无需编程基础,就能生成带有后门或欺诈逻辑的智能合约,用于 Rug Pull 或攻击 DeFi 协议;
多态恶意软件:生成能够持续变形的恶意软件,用以窃取钱包文件、私钥或助记词。这种多态性使得传统的反病毒软件很难检测到;
深度伪造诈骗:与其他 AI 工具结合,GhostGPT 可用来生成伪造的加密项目创始人或交易所高管的语音,用于实施电话诈骗或 BEC 攻击。
Venice.ai:无审查的潜在风险
Venice.ai 是一个提供对多种 LLM 模型访问的平台,用户可以探索不受审查或限制较少的模型。这个平台虽然为用户提供了更多的自由,但也可能成为攻击者滥用的温床,具体风险包括:
绕过审查生成恶意内容:攻击者可以借助该平台生成钓鱼模板、虚假宣传内容,或者策划其他攻击手段;
降低提示工程门槛:攻击者能够轻松获得本应受到限制的输出,降低了攻击的技术门槛;
加速攻击话术迭代:攻击者可以快速测试不同模型对恶意指令的反应,优化其欺诈脚本。
总结与应对
无限制大模型的出现,标志着网络安全面临着前所未有的挑战。这类模型不仅降低了攻击的门槛,还带来了更为隐蔽、欺骗性更强的新型威胁。为了应对这些威胁,安全领域的专家需要加大对恶意内容的检测力度,并在技术和法规层面做出相应应对:
1. 加强检测技术:研发能够识别和拦截恶意LLM生成内容的技术,包括钓鱼攻击、恶意智能合约和恶意代码。
2. 提升模型防越狱能力:加强对模型的“越狱”防护,避免被恶意修改和滥用。
3. 推行水印与溯源机制:确保在金融和加密行业的关键领域,能够追踪到恶意内容的来源。
4. 完善伦理规范和监管机制:通过法规和伦理标准,限制恶意模型的开发与滥用。
只有全球范围内的共同努力,才能有效应对这些日益复杂的网络安全挑战。