莱拉在笔记本电脑上观看视频时,发现她的人工智能助手正在要求她确认购买一件她不感兴趣的商品,而且是在她从未听说过的网站上。她赶紧取消了购买,心里纳闷发生了什么。
驱动人工智能聊天机器人的大型语言模型 (LLM) 已暴露出其易受各种网络攻击的弱点,从越狱到即时注入,再到数据中毒。这些攻击的影响可能仅限于其运行的环境(例如对话或网页浏览会话),并且主要集中在使模型规避安全措施和指令。但当模型部署在更关键的环境中时,安全性就变得至关重要,以确保该技术不会沦为木马。
凭借这项技术的核心以及对各种应用和数据的广泛访问权限,人工智能助 商店 可能成为攻击者极具吸引力的目标。每当你允许助手访问特定应用(例如你的银行应用和电子邮件)并执行某些操作时,都会增加助手对恶意行为者的价值,同时扩大攻击面,例如,有人会分享一个恶意命名的音乐播放列表来访问你的电子邮件。
在Layla的案例中,针对语音识别技术的对抗性攻击由来已久,攻击者可以将信息(例如在特定网站上进行购买的命令)隐藏在音频文件中,以至于我们的耳朵无法察觉。同样,利用图像中隐藏信息的视觉攻击,也可以使LLM采取与分析图像时应采取的行动不同的行动。
由于人工智能助手可能会访问我们生活的很多方面并管理我们的大量关键数据,因此安全性必须是其设计的首要考虑因素,需要进行广泛的测试、快速的补丁部署和严格的安全控制。