近年来,生成性人工智能GenAI工具的应用迅速增长,包括OpenAI的ChatGPT等多个平台纷纷推出了“上传文件”选项。这一变化被认为是导致试图将敏感数据分享出公司私有网络的行为激增的重要因素。
根据Menlo Security的最新研究,从2023年7月到12月,尝试向GenAI网站上传文件的事件增加了80。研究报告指出:“通过文件上传导致的数据丢失事件在增加。以前,大多数解决方案不原生支持文件上传,但随着新版本生成性AI平台的推出, [] 新功能也在不断添加,例如文件上传能力。”
该研究强调了GenAI工具及其平台所有者所带来的安全风险。这些平台通常收集大量用户数据,且该数据常常通过其大型语言模型数据集公开暴露。Menlo Security引用了2023年3月份OpenAI发生的数据泄露事件,涉及120万名用户的账户数据并非用户查询所上传或粘贴的数据。
“这些生成性AI的使用呈现出对数据丢失的最大影响,因为数据上传和输入的便捷性与速度,比如源代码、客户列表、路线图计划或个人身份信息,”研究人员表示。
海鸥加速器6.5.0版本根据报告需注册,试图将个人身份信息输入到GenAI平台的事件占数据丢失事件的55。其次,试图与GenAI平台分享的另一类数据是机密文件,占40。
Menlo Security的首席营销官Pejman Roshan表示,GenAI的发展速度已经超过了企业对员工进行数据丢失保护DLP风险培训的努力。“虽然在过去六个月中,复制和粘贴尝试得到了显著减少,但文件上传的急剧增加带来了新的重大风险。”
对GenAI工具访问的安全政策限制已增加26。针对GenAI平台的DLP努力可以分为两类:一种是基于域名的GenAI网站阻止,另一种是基于用户权限的方式。
“对于在基于域名的基础上适用政策的安全和IT团队,他们必须频繁地检查该列表,以确保用户不会在更为冷门的平台上访问和潜在地暴露敏感数据,”研究人员指出。“这一过程不仅耗时,而且最终无法扩展。组织需要采用安全技术,支持生成性AI群体级别的政策管理,从而为更广泛的生成性AI网站提供保护。”