微软的Azure聊天机器人被指责在处理个人医疗数据方面存在安全隐患,研究者发现这些AI助手可能被诱导泄露数百名客户的私人信息。研究公司Tenable指出,当讨论患者的详细信息时,这些AI助手显示出过于乐于分享客户数据,这让人感到担忧。
理论上,微软的AI助手应该只能查找有限的患者信息,并提供患者状况的简要描述和治疗建议。Tenable在其官方总结中提到:“该服务使医疗服务提供者能够创建和部署面向患者的聊天机器人,以便在其环境中处理行政工作流程。”
这也意味着,这些聊天机器人通常能够访问一些敏感患者信息,尽管每个机器人的配置信息可能会有所不同。
白鲸加速器1.45研究人员发现,微软的AI助手过于乐于助人,可能会分享不应公开的客户数据,并允许聊天机器人访问其他客户的记录。“看到这些资源包含指示交叉租户信息的标识符后即其他用户/客户的信息,Tenable的研究人员立即停止了对此攻击向量的调查,并于2024年6月17日将其发现报告给微软安全响应中心MSRC。MSRC当日确认收到Tenable的报告并开始调查。”Tenable在其有关此事件的官方报告中如此说道。
在接下来的一个周内,MSRC确认了Tenable的报告,并在受影响的环境中开始推出修复措施。截至2024年7月2日,MSRC已表示修复措施已在所有区域实施。
尽管此举本应解决问题,Tenable的研究人员却发现基础缺陷仍然存在,即使修复已到位,内部元数据服务仍然可访问。“此问题与首次情况的不同之处在于整体影响,”Tenable表示。
“FHIR端点向量没有影响请求头的能力,这限制了直接访问IMDS的能力。虽然其他服务内部可以通过这个向量进行访问,但微软声明这个特定的漏洞没有交叉租户访问权限。”
时间事件2024年6月17日Tenable向MSRC报告信息泄露问题。一周以内MSRC确认报告并开始修复受影响环境中的问题。2024年7月2日MSRC表示已在所有地区推出修复补丁。这起事件强调了医疗技术中安全性的重要性,以及保护患者隐私的必要性。有关方面需在未来对这种情况下的潜在风险进行更深入的评估和防护。