Hugging Face 平台发现恶意机器学习模型,利用“损坏”pickle 文件绕过安全检测
据 The Hacker News 报道,网络安全研究人员在 Hugging Face 平台上发现了两个恶意机器学习(ML)模型。这些模型利用了“损坏”的 pickle 文件技术,成功规避了安全检测。ReversingLabs 研究员 Karlo Zanki 表示,从 PyTorch 存档中提取的 pickle 文件揭示了恶意 Python 内容,包含典型的平台特定反向 shell,连接到硬编码的 IP 地址。
这种方法被称为 nullifAI,旨在绕过现有安全防护措施。Hugging Face 上的两个相关模型存储库分别为 glockr1/ballr7 和 who-r-u0000/0000000000000000000000000000000000000。尽管这些模型被认为是概念验证而非真实攻击案例,但它们展示了 pickle 序列化格式的安全隐患。由于其允许执行任意代码,pickle 文件一直被认为存在风险。
被检测出的模型使用 7z 格式压缩,而非常见的 ZIP 格式,从而避开了 Hugging Face 的 Picklescan 工具的检测。Zanki 指出,即使反序列化过程中出现错误,恶意代码仍能部分执行。该问题已被修复,Picklescan 工具也已更新版本。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。
本文 原创,转载保留链接!网址:https://licai.bangqike.com/cjnews/1037961.html
1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。