品玩

科技创新者的每日必读

打开APP
关闭

新型字体渲染攻击致AI助手忽略恶意指令

12小时前

品玩3月18日讯,据BleepingComputer 报道,浏览器安全公司LayerX研究人员披露了一种新型字体渲染攻击技术。该手段利用自定义字体进行字形替换,并结合CSS样式隐藏底层HTML中的无害文本,从而在网页上向用户显示恶意命令,而AI助手仅能读取被伪装的无害代码。这种“所见非所得”的差异导致AI无法识别潜在风险,甚至误导用户执行危险操作。

测试显示,截至2025年12月,该攻击对ChatGPT、Claude、Copilot、Gemini及Perplexity等主流AI助手均有效。攻击者常以游戏彩蛋为诱饵,诱导用户运行反向Shell命令。当用户询问AI指令安全性时,模型因无法解析渲染层内容而给出错误的安全评估。

LayerX于2025年12月16日通报相关厂商,多数以依赖社会工程学为由拒绝受理,唯Microsoft正式接纳并修复了该漏洞。Google虽初判高危,后仍认定危害有限而关闭工单。专家建议,AI模型应同时分析渲染页面与DOM结构,并将字体及颜色伪装纳入安全扫描范围,以防范此类视觉欺骗攻击。

取消 发布

下载品玩App,比99.9%的人更先知道关于「AI模型」的新故事

下载品玩App

比99.9%的人更先知道关于「AI模型」的新故事

iOS版本 Android版本
立即下载
AI阅读助手
以下有两点提示,请您注意:
1. 请避免输入违反公序良俗、不安全或敏感的内容,模型可能无法回答不合适的问题。
2. 我们致力于提供高质量的大模型问答服务,但无法保证回答的准确性、时效性、全面性或适用性。在使用本服务时,您需要自行判断并承担风险;
感谢您的理解与配合
该功能目前正处于内测阶段,尚未对所有用户开放。如果您想快人一步体验产品的新功能,欢迎点击下面的按钮申请参与内测 申请内测