AnaSayfaHaberler* Birçok kuruluş, kamuya açık AI araçlarına erişimi engelledi, ancak bu yaklaşım veri sızıntılarını önlemede etkisiz olduğunu kanıtladı.
Zscaler ThreatLabz, 2024'te kurumsal AI ve makine öğrenimi trafiğinde 36 kat artış bildirdi ve kullanımda olan 800'den fazla benzersiz AI uygulamasını takip etti.
Çalışanlar genellikle AI araçlarını kullanmanın resmi olmayan yollarını bulurlar, bu da güvenlik izleme sistemlerinden kaçan "Gölge AI" oluşturmaktadır.
Şirketlerin, daha akıllı politikalar oluşturmak için sıfır güven ilkelerini kullanarak yalnızca engelleme yetenekleri değil, aynı zamanda AI kullanımı ve riski konusunda gerçek zamanlı görünürlüğe ihtiyaçları var.
Veri kaybını önleme, tarayıcı izolasyonu gibi yaklaşımlar ve kullanıcıları güvenli, onaylı AI araçlarına yönlendirmek, hassas bilgileri korurken üretkenliği artırabilir.
Dünya genelindeki organizasyonlar, 2022 sonlarında yaygın olarak benimsenmelerinin ardından hassas veri sızıntısı endişeleri nedeniyle kamuya açık jeneratif AI uygulamalarını engellemeye başladı. Ancak, Zscaler ThreatLabz araştırmasına göre, şirketler artık erişimi engellemenin çalışanların bu AI araçlarını kullanmalarını durdurmadığını buluyor.
Reklam - ThreatLabz, 2024 yılında bir önceki yıla göre 36 kat daha fazla yapay zeka ve makine öğrenimi trafiğini analiz ettiklerini ve kurumsal ortamlarda kullanılan 800'den fazla farklı yapay zeka uygulamasını belirlediklerini belirtti. Çalışanlar, kısıtlamaları aşmak için genellikle kişisel e-postaları, mobil cihazları veya ekran görüntülerini kullanır ve bu da üretken yapay zeka araçlarının izlenmeyen kullanımı olan "Gölge Yapay Zeka" ile sonuçlanır.
Rapor, AI uygulamalarını engellemenin yalnızca bir kör nokta yarattığını, gerçek bir güvenlik sağlamadığını vurguladı. "Onaylanmamış AI uygulamalarını engellemek, kullanımın sıfıra düştüğü izlenimini yaratabilir... ama gerçekte, kuruluşunuz korunmuyor; sadece olan bitenden habersiz kalıyor," şirket belirtti. Veri kaybı, AI ile geleneksel dosya paylaşımına göre daha ciddi olabilir, çünkü hassas bilgiler kamuya açık AI modellerine entegre edilebilir ve kaldırılma yolu yoktur.
Zscaler, önce görünürlüğü sağlamak, ardından her kullanıcı ve cihaz için doğrulama gerektiren sıfır güven (zero-trust) ile uyumlu politikalar uygulamayı önerir. Araçları, hangi uygulamalara kimin eriştiğini gerçek zamanlı olarak belirleyebilir. Bu, kuruluşların tarayıcı izolasyonu kullanmak veya kullanıcıları yerinde yönetilen onaylı AI çözümlerine yönlendirmek gibi bağlama dayalı politikalar geliştirmesine olanak tanır.
Şirketin veri koruma araçları, kullanıcıların finansal kayıtlar, kişisel veriler, kaynak kodu veya tıbbi bilgiler gibi hassas bilgileri AI uygulamalarına göndermeye çalıştığı 4 milyondan fazla olayı tespit etti. Bu girişimler, veri kaybını önleme teknolojileri tarafından engellendi.
Zscaler uzmanları, çalışanların güvenli AI erişimi ile güçlendirilmesi ve güçlü veri koruma sağlanması gibi dengeli bir yaklaşımın, organizasyonların AI'yi sorumlu bir şekilde benimsemelerine olanak tanıyacağını öne sürüyor. Güvenlik çözümleri hakkında daha fazla bilgiye zscaler.com/security adresinden ulaşabilirsiniz.
Önceki Makaleler:
Dogecoin, Elon Musk ve Donald Trump'ın Kamu Çatışması Ortasında %6 Düşüyor
Bitcoin, ABD borç korkuları arasında 100K$'ı geçti, Trump ve Musk desteği
FIFA Rivals 12 Haziran'da Adidas ile Başlıyor, NFT Oyuncu Kartları
İngiltere Hukuk Komisyonu, Kripto İhtilafları için Süper Uluslararası Kurallar Önerdi
The content is for reference only, not a solicitation or offer. No investment, tax, or legal advice provided. See Disclaimer for more risks disclosure.
Gölge AI, Büyüyen Kurumsal Veri Kaybı ve Güvenlik Riskleri Teşkil Ediyor
AnaSayfaHaberler* Birçok kuruluş, kamuya açık AI araçlarına erişimi engelledi, ancak bu yaklaşım veri sızıntılarını önlemede etkisiz olduğunu kanıtladı.
Rapor, AI uygulamalarını engellemenin yalnızca bir kör nokta yarattığını, gerçek bir güvenlik sağlamadığını vurguladı. "Onaylanmamış AI uygulamalarını engellemek, kullanımın sıfıra düştüğü izlenimini yaratabilir... ama gerçekte, kuruluşunuz korunmuyor; sadece olan bitenden habersiz kalıyor," şirket belirtti. Veri kaybı, AI ile geleneksel dosya paylaşımına göre daha ciddi olabilir, çünkü hassas bilgiler kamuya açık AI modellerine entegre edilebilir ve kaldırılma yolu yoktur.
Zscaler, önce görünürlüğü sağlamak, ardından her kullanıcı ve cihaz için doğrulama gerektiren sıfır güven (zero-trust) ile uyumlu politikalar uygulamayı önerir. Araçları, hangi uygulamalara kimin eriştiğini gerçek zamanlı olarak belirleyebilir. Bu, kuruluşların tarayıcı izolasyonu kullanmak veya kullanıcıları yerinde yönetilen onaylı AI çözümlerine yönlendirmek gibi bağlama dayalı politikalar geliştirmesine olanak tanır.
Şirketin veri koruma araçları, kullanıcıların finansal kayıtlar, kişisel veriler, kaynak kodu veya tıbbi bilgiler gibi hassas bilgileri AI uygulamalarına göndermeye çalıştığı 4 milyondan fazla olayı tespit etti. Bu girişimler, veri kaybını önleme teknolojileri tarafından engellendi.
Zscaler uzmanları, çalışanların güvenli AI erişimi ile güçlendirilmesi ve güçlü veri koruma sağlanması gibi dengeli bir yaklaşımın, organizasyonların AI'yi sorumlu bir şekilde benimsemelerine olanak tanıyacağını öne sürüyor. Güvenlik çözümleri hakkında daha fazla bilgiye zscaler.com/security adresinden ulaşabilirsiniz.
Önceki Makaleler: