影子人工智能带来了日益严重的企业数据丢失和安全风险

首页新闻* 许多组织封锁了对公共人工智能工具的访问,但这种方法在防止数据泄露方面证明是无效的。

  • Zscaler ThreatLabz 报告称,2024 年企业 AI 和机器学习流量增长了 36 倍,追踪到使用的 800 多个独特 AI 应用。
  • 员工常常找到非官方的方式使用AI工具,从而创建“影子AI”,逃避安全监控。
  • 公司需要对AI使用和风险进行实时可见性,而不仅仅是阻止能力,以便利用零信任原则制定更智能的政策。
  • 数据丢失防护、浏览器隔离以及引导用户使用安全、批准的AI工具等方法能够在保护敏感信息的同时提高生产力。 全球各地的组织在2022年底广泛采用公共生成性AI应用后,因对敏感数据泄露的担忧而开始封锁这些应用。然而,根据Zscaler ThreatLabz的研究,公司发现封锁访问并没有阻止员工使用这些AI工具。
  • 广告 - ThreatLabz 表示,在 2024 年,他们分析的 AI 和机器学习流量比去年多出 36 倍,识别出在企业环境中使用的超过 800 种不同的 AI 应用程序。员工通常使用个人电子邮件、移动设备或截图来规避限制,导致 "影子 AI" — 对生成性 AI 工具的未监控使用。

报告强调,阻止人工智能应用只会造成盲点,而不是实际的安全。“阻止未经批准的人工智能应用可能会使使用量看起来下降到零……但实际上,您的组织并没有受到保护;它只是对实际发生的事情视而不见,”公司指出。与传统文件共享相比,人工智能可能导致的数据丢失更为严重,因为敏感信息可能被纳入公共人工智能模型中,而没有办法移除。

Zscaler 建议首先建立可见性,然后实施与零信任对齐的政策——这是一种要求对每个用户和设备进行验证的安全模型。他们的工具可以实时识别哪些应用程序正在被访问以及由谁访问。这使得组织能够制定基于上下文的政策,例如使用浏览器隔离或将用户重定向到本地管理的批准的 AI 解决方案。

该公司的数据保护工具检测到超过400万起用户试图将敏感信息(例如财务记录、个人数据、源代码或医疗信息)发送至AI应用的事件。这些尝试被他们的数据丢失防护技术阻止。

Zscaler 的专家建议,一种平衡的方法——在保持强大数据保护的同时赋予员工安全的 AI 访问权限——将使组织能够负责任地采用 AI。有关他们的安全解决方案的更多细节,请访问 zscaler.com/security.

之前的文章:

  • 狗狗币在埃隆·马斯克和唐纳德·特朗普的公开争吵中下跌6%
  • 比特币在美国债务担忧、特朗普与马斯克的支持下突破$100K
  • FIFA Rivals 将于 6 月 12 日与 Adidas、NFT 球员卡一起推出
  • 英国法律委员会提议针对加密争议的超国家规则
  • MicroStrategy的“Stride”优先股引发垃圾债券辩论
  • 广告 -
查看原文
本页面内容仅供参考,非招揽或要约,也不提供投资、税务或法律咨询。详见声明了解更多风险披露。
  • 赞赏
  • 评论
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate APP
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)