ホームニュース* 多くの組織が公共のAIツールへのアクセスをブロックしましたが、このアプローチはデータ漏洩を防ぐには効果がないことが証明されています。* Zscaler ThreatLabzは、2024年に企業のAIおよび機械学習トラフィックが36倍増加し、800を超えるユニークなAIアプリが使用されていることを報告しました。* 従業員はしばしばAIツールを非公式な方法で使用し、「シャドウAI」を作成してセキュリティ監視から逃れます。* 企業は、ゼロトラスト原則を使用してよりスマートなポリシーを構築するために、単にブロッキング機能だけでなく、AIの利用状況とリスクに対するリアルタイムの可視性が必要です。* データ損失防止、ブラウザ隔離、ユーザーを安全で承認されたAIツールに誘導するなどのアプローチは、生産性を高めながら機密情報を保護することができます。2022年末に公共の生成AIアプリケーションが広く採用された後、世界中の組織は敏感なデータの露出に関する懸念から、それらのアプリケーションをブロックし始めました。しかし、**Zscaler ThreatLabz**の研究によれば、アクセスをブロックしても従業員がこれらのAIツールを使用するのを止めることはできないことが企業によって明らかになっています。- 広告 - ThreatLabzは、2024年に前年の36倍以上のAIおよび機械学習トラフィックを分析し、企業環境で使用されている800以上の異なるAIアプリケーションを特定したと述べています。従業員はしばしば個人のメール、モバイルデバイス、またはスクリーンショットを使用して制限を回避し、「シャドウAI」—生成的AIツールの未監視の使用を引き起こします。このレポートでは、AIアプリのブロックは、実際のセキュリティではなく、盲点を生み出すだけであることを強調しています。*「未承認のAIアプリをブロックすると、使用量がゼロに見える可能性があります...しかし、実際には、組織は保護されていません。それは実際に何が起こっているのかを知らないだけだ」と同社は指摘した。AIでは、機密情報を削除することなく公開AIモデルに組み込むことができるため、従来のファイル共有よりもデータ損失が深刻になる可能性があります。**Zscaler**は、まず可視性を確立し、次にゼロトラスト(すべてのユーザーとデバイスに対して検証が必要なセキュリティモデル)に沿ったポリシーを実装することを推奨しています。彼らのツールは、どのアプリが誰によってアクセスされているかをリアルタイムで特定できます。これにより、組織は、ブラウザーの分離を使用したり、オンプレミスで管理されている承認済みの AI ソリューションにユーザーをリダイレクトしたりするなど、コンテキストベースのポリシーを開発できます。同社のデータ保護ツールは、ユーザーが財務記録、個人データ、ソースコード、医療情報などの機密情報をAIアプリケーションに送信しようとした400万件以上のインシデントを検出しました。これらの試みは、データ損失防止技術によってブロックされました。**Zscaler**の専門家は、従業員に安全なAIアクセスを提供しつつ強力なデータ保護を維持するというバランスの取れたアプローチが、組織が責任を持ってAIを採用することを可能にすると示唆しています。彼らのセキュリティソリューションの詳細はzscaler.com/securityで見つけることができます。####前の記事:* ドージコインが6%下落、イーロン・マスクとドナルド・トランプの公然の確執の中で* ビットコインが$100Kを超えて急騰、米国債務不安、トランプとマスクの支持* FIFA Rivalsは6月12日にAdidasと共に、NFTプレイヤーカードを発表します。* 英国法律委員会が暗号紛争に関する超国家的なルールを提案* マイクロストラテジーの「ストライド」優先株がジャンク債論争を引き起こす-広告-
シャドーAIは企業のデータ損失とセキュリティリスクを高めています
ホームニュース* 多くの組織が公共のAIツールへのアクセスをブロックしましたが、このアプローチはデータ漏洩を防ぐには効果がないことが証明されています。
このレポートでは、AIアプリのブロックは、実際のセキュリティではなく、盲点を生み出すだけであることを強調しています。*「未承認のAIアプリをブロックすると、使用量がゼロに見える可能性があります...しかし、実際には、組織は保護されていません。それは実際に何が起こっているのかを知らないだけだ」と同社は指摘した。AIでは、機密情報を削除することなく公開AIモデルに組み込むことができるため、従来のファイル共有よりもデータ損失が深刻になる可能性があります。
Zscalerは、まず可視性を確立し、次にゼロトラスト(すべてのユーザーとデバイスに対して検証が必要なセキュリティモデル)に沿ったポリシーを実装することを推奨しています。彼らのツールは、どのアプリが誰によってアクセスされているかをリアルタイムで特定できます。これにより、組織は、ブラウザーの分離を使用したり、オンプレミスで管理されている承認済みの AI ソリューションにユーザーをリダイレクトしたりするなど、コンテキストベースのポリシーを開発できます。
同社のデータ保護ツールは、ユーザーが財務記録、個人データ、ソースコード、医療情報などの機密情報をAIアプリケーションに送信しようとした400万件以上のインシデントを検出しました。これらの試みは、データ損失防止技術によってブロックされました。
Zscalerの専門家は、従業員に安全なAIアクセスを提供しつつ強力なデータ保護を維持するというバランスの取れたアプローチが、組織が責任を持ってAIを採用することを可能にすると示唆しています。彼らのセキュリティソリューションの詳細はzscaler.com/securityで見つけることができます。
####前の記事:
-広告-