精品项目

“影子人工智能”正在崛起;员工输入的敏感数据增加了156 媒体

2025-05-13

职场中的AI使用趋势

文章重点

AI在工作场所的使用激增,敏感数据的输入量较去年增加了156。“影子AI”指在个人账户上使用AI工具,缺乏企业账户的安全保障,可能导致数据泄漏风险。某些行业对AI工具的使用特别频繁,技术行业的员工尤其明显,敏感数据输入比例惊人。使用AI的敏感信息不仅面临模型训练风险,还可能因工具漏洞和数据泄漏而暴露。

AI在职场中的使用增长迅速,根据Cyberhaven的一项新报告,员工将敏感数据输入例如ChatGPT和Gemini等聊天机器人的频率是去年两倍以上。《AI采纳和风险报告》指出,“影子AI”的增长 指在个人账户上使用的AI工具,这些账户可能没有像企业账户那样的安全保障。企业如果对员工使用影子AI的情况失去可见性和控制,可能无法识别和阻止机密员工、客户和商业信息的暴露。

员工AI使用激增,敏感数据输入翻倍

根据Cyberhaven报告的分析,报告涵盖了超过300万名员工的AI使用模式。整体而言,从2023年3月到2024年3月,员工将公司数据输入AI工具的数量增加了485。其中,96的使用来自于OpenAI、Google和Microsoft的工具。

科技公司的员工是AI工具的重度使用者,每10万名员工就有超过200万次的数据提交到聊天机器人,同时AI生成内容的使用频率则超过每10万名员工160万次。

在员工提交给聊天机器人的数据中,敏感数据的比例为274,较去年107的比例上升了156。最常见的敏感数据类型是客户支持数据,占所有输入的163。

除了客户支持数据,输入到聊天机器人的敏感数据还包括源代码127、研究与开发数据108等。

敏感数据类型比例客户支持数据163源代码127研究与开发数据108

影子AI带来的保密风险

三大AI工具提供商都提供企业AI解决方案,拥有更高的安全性和隐私性特征,例如不将数据用于进一步的模型训练。然而,Cyberhaven的分析显示,大多数的职场AI使用是在缺乏这些保护措施的个人账户上进行的,形成了组织内的影子AI。

在使用ChatGPT的员工中,738的使用是在个人账户上;而对于Google的工具,个人账户的使用率更高。谷歌在2024年以Gemini品牌重新推出之前,Google Bard在职场上959的使用是在个人账户上。Gemini发布后,个人账户的使用仍然高达944。

影子AI的一个重要风险是法律文件的提交 虽然这些提交仅占所有敏感数据输入的24,但828的上传都是到个人账户,增加了公共曝光的风险。此外,约有一半的源代码上传到个人账户,553的研究与开发材料和49的员工及人力资源记录也是如此。

白鲸加速器1.45

为什么员工的AI使用如此重要

将敏感公司信息发送

“影子人工智能”正在崛起;员工输入的敏感数据增加了156 媒体