AI在职场中的使用增长迅速,根据Cyberhaven的一项新报告,员工将敏感数据输入例如ChatGPT和Gemini等聊天机器人的频率是去年两倍以上。《AI采纳和风险报告》指出,“影子AI”的增长 指在个人账户上使用的AI工具,这些账户可能没有像企业账户那样的安全保障。企业如果对员工使用影子AI的情况失去可见性和控制,可能无法识别和阻止机密员工、客户和商业信息的暴露。
根据Cyberhaven报告的分析,报告涵盖了超过300万名员工的AI使用模式。整体而言,从2023年3月到2024年3月,员工将公司数据输入AI工具的数量增加了485。其中,96的使用来自于OpenAI、Google和Microsoft的工具。
科技公司的员工是AI工具的重度使用者,每10万名员工就有超过200万次的数据提交到聊天机器人,同时AI生成内容的使用频率则超过每10万名员工160万次。
在员工提交给聊天机器人的数据中,敏感数据的比例为274,较去年107的比例上升了156。最常见的敏感数据类型是客户支持数据,占所有输入的163。
除了客户支持数据,输入到聊天机器人的敏感数据还包括源代码127、研究与开发数据108等。
敏感数据类型比例客户支持数据163源代码127研究与开发数据108三大AI工具提供商都提供企业AI解决方案,拥有更高的安全性和隐私性特征,例如不将数据用于进一步的模型训练。然而,Cyberhaven的分析显示,大多数的职场AI使用是在缺乏这些保护措施的个人账户上进行的,形成了组织内的影子AI。
在使用ChatGPT的员工中,738的使用是在个人账户上;而对于Google的工具,个人账户的使用率更高。谷歌在2024年以Gemini品牌重新推出之前,Google Bard在职场上959的使用是在个人账户上。Gemini发布后,个人账户的使用仍然高达944。
影子AI的一个重要风险是法律文件的提交 虽然这些提交仅占所有敏感数据输入的24,但828的上传都是到个人账户,增加了公共曝光的风险。此外,约有一半的源代码上传到个人账户,553的研究与开发材料和49的员工及人力资源记录也是如此。
白鲸加速器1.45将敏感公司信息发送