品玩3月18日讯,据BleepingComputer 报道,浏览器安全公司LayerX研究人员披露了一种新型字体渲染攻击技术。该手段利用自定义字体进行字形替换,并结合CSS样式隐藏底层HTML中的无害文本,从而在网页上向用户显示恶意命令,而AI助手仅能读取被伪装的无害代码。这种“所见非所得”的差异导致AI无法识别潜在风险,甚至误导用户执行危险操作。
测试显示,截至2025年12月,该攻击对ChatGPT、Claude、Copilot、Gemini及Perplexity等主流AI助手均有效。攻击者常以游戏彩蛋为诱饵,诱导用户运行反向Shell命令。当用户询问AI指令安全性时,模型因无法解析渲染层内容而给出错误的安全评估。
LayerX于2025年12月16日通报相关厂商,多数以依赖社会工程学为由拒绝受理,唯Microsoft正式接纳并修复了该漏洞。Google虽初判高危,后仍认定危害有限而关闭工单。专家建议,AI模型应同时分析渲染页面与DOM结构,并将字体及颜色伪装纳入安全扫描范围,以防范此类视觉欺骗攻击。





0 条评论
请「登录」后评论