
微软正在全力推广生成式AI工具Copilot ,研究鱼工如果你想了解即将召开的人员软公司会议 ,Copilot可以从邮件、曝微Teams聊天记录、存漏文件中搜集相关资料,被黑给出答案。客操但有利就有弊 ,纵变报告显示,为网Copilot可能会被黑客利用。络钓
在最近举行的研究鱼工拉斯维加斯黑帽技术大会(Black Hat)会议上,研究人员Michael Bargury 展示了5种Copilot被黑客操纵的人员软新方式 。例如 ,曝微利用Copilot给出错误的存漏文件引用 、高防服务器窃取私密数据 、被黑避开微软安全防护 。客操
被操纵的Copilot可变成网络钓鱼工具最让人担心的是,Michael Bargury居然可以把Copilot变成网络钓鱼工具。黑客可以进入用户的工作邮件 ,用Copilot定期观察 ,看你经常给谁发邮件 ,然后模拟用户写作风格进行写作,甚至模拟用户经常使用的表情符号,然后将个性化写作内容发给对方,里面可能有恶意软件链接。亿华云
Michael Bargury说:“只要你和某人对过话 ,我就可以将类似信息发送给他 ,我可以代表你发送成百上千的邮件 。”
Michael Bargury是安全公司Zenity的联合创始人 、CEO,他公布视频,证明Copilot完全有可能会被滥用。Michael Bargury还说:“以前一名黑客可能会花几天时间精心制作邮件 ,引诱他人点击,现在他更厉害了,可以在几分钟内就生成几百封这样的邮件。”
在攻击时,香港云服务器Michael Bargury用到了大语言模型,但黑客可以添加数据或者指令 ,达成特定结果。事实证明 ,现在的AI系统仍面临挑战,当我们让系统和企业数据联系时,如果放入不可信外部数据 ,它往往难以分辨 。
当然,完成操作时黑客先要获取邮件账户密码 ,一些黑客甚至还可以获取更敏感的信息 ,比如受害者的工资是多少 ,云计算微软敏感文件防御措施完全失效。即使没有拿到邮件账户信息 ,黑客也可以发起攻击 ,它可以先用恶意邮件污染AI数据库 ,然后操纵与银行信息有关的答案 。每一次当AI访问数据时就是一次攻击机会。
在一次演示中,外部黑客获取财报会议相关信息,会议即将召开,黑客可以提前得知业绩是好还是坏;还有,黑客可以将Copilot变成“恶意内鬼” ,它向用户发送钓鱼网站链接 。服务器租用
微软AI事件侦测和响应主管Phillip Misner表示,Michael Bargury发现了产品存在的漏洞,公司十分感谢,微软正在与Michael Bargury合作解决问题。
Phillip Misner强调 :“滥用AI所存在的PCS(Post-Compromise security,后向安全)风险和其它PCS风险是相似的,通过跨环境 、跨事件安全预防和监测可以降低恶意行为的发生,甚至可以阻止该行为。”
外部数据进入AI系统会带来安全风险不论是OpenAI的建站模板ChatGPT还是微软的Copilot,亦或是谷歌Gemini,它们都有可能代替人完成一些工作,比如在线购物、预订会议。但安全专家警告称 ,允许外部数据进入AI系统可能会带来安全风险。
安全研究员Johann Rehberger称:“到底攻击者的效率已经提升到了什么程度?我们对此并无清晰认知 。我们应该担心的是,到底大语言模型生成了什么,它又向用户发送了什么 。”
Michael Bargury认为 ,微软花了许多精力保护Copilot系统 ,防止工具遭到植入式攻击 ,但他仍然通过解构系统构造找到了攻击方法 。黑客可以抽取内部系统提示语 ,然后搞清为什么AI可以访问企业资源 ,背后使用了哪些技术。
Michael Bargury称 :“当你与Copilot对话时 ,这种对话是有限的 ,因为微软施加了许多控制。但是如果使用一些极少数的魔法式词汇,系统就会门户洞开,然后你就可以为所欲为 。”
有些数据问题与企业的长期问题联系在一起,比如企业让太多人访问文件,没有在组织内设置好权限 。有时Copilot存在的问题恰好处于此问题之上,如果公司的长期问题不解决 ,Copilot问题也难以解决 。
研究人员普遍认为 ,我们应该监控AI生成了什么,看看它给用户发送了什么。AI是如何与环境互动的?它是如何与数据互动的?它是如何代表个人执行任务的?这些问题需要好好思考,里面有很大的风险 。AI代理(Agent)到底代表人类做了什么?我们很有必要搞清楚 。(小刀)
(责任编辑:系统运维)