ГоловнаНовини* Багато організацій заблокували доступ до публічних інструментів ШІ, але цей підхід виявився неефективним для запобігання витоку даних.
Zscaler ThreatLabz повідомив про 36-кратне збільшення трафіку корпоративного штучного інтелекту та машинного навчання у 2024 році, відстежуючи більш ніж 800 унікальних AI-додатків у використанні.
Співробітники часто знаходять неофіційні способи використання інструментів ШІ, створюючи "Тіньовий ШІ", який уникає моніторингу безпеки.
Компаніям потрібна реальна видимість використання ШІ та ризиків у реальному часі, а не лише можливості блокування, щоб створити розумніші політики, використовуючи принципи нульового довіри.
Підходи, такі як запобігання втраті даних, ізоляція браузера та надання користувачам доступу до безпечних, затверджених AI-інструментів, можуть забезпечити продуктивність, захищаючи при цьому чутливу інформацію.
Організації по всьому світу почали блокувати публічні програми генеративного штучного інтелекту після їх широкого впровадження наприкінці 2022 року через занепокоєння щодо розкриття конфіденційних даних. Однак зараз компанії виявляють, що блокування доступу не завадило співробітникам використовувати ці інструменти штучного інтелекту, згідно з дослідженням Zscaler ThreatLabz.
Реклама - ThreatLabz заявила, що у 2024 році вони проаналізували в 36 разів більше трафіку зі штучним інтелектом і машинним навчанням, ніж у попередньому році, виявивши понад 800 різних додатків штучного інтелекту, які використовуються в корпоративних середовищах. Співробітники часто використовують особисті електронні листи, мобільні пристрої або скріншоти, щоб обійти обмеження, що призводить до «тіньового штучного інтелекту» — неконтрольованого використання інструментів генеративного ШІ.
У звіті наголошується, що блокування додатків зі штучним інтелектом лише створює сліпу зону, а не фактичну безпеку. *«Блокування несхвалених додатків штучного інтелекту може призвести до того, що використання впаде до нуля... Але насправді ваша організація не захищена; Це просто сліпий до того, що насправді відбувається», — зазначили в компанії. Втрата даних зі штучним інтелектом може бути серйознішою, ніж із традиційним обміном файлами, оскільки конфіденційна інформація може бути включена в загальнодоступні моделі штучного інтелекту без можливості видалення.
Zscaler рекомендує спочатку встановити видимість, а потім впроваджувати політики, узгоджені з нульовою довірою — моделлю безпеки, яка вимагає перевірки для кожного користувача та пристрою. Їхні інструменти можуть визначати, до яких програм і ким звертаються в режимі реального часу. Це дозволяє організаціям розробляти контекстно-орієнтовані політики, такі як використання ізоляції браузера або перенаправлення користувачів на схвалені рішення штучного інтелекту, керовані локально.
Інструменти захисту даних компанії виявили понад 4 мільйони випадків, коли користувачі намагалися надіслати чутливу інформацію — таку як фінансові звіти, особисті дані, вихідний код або медичну інформацію — до AI-додатків. Ці спроби були заблоковані їхньою технологією запобігання втраті даних.
Експерти Zscaler вважають, що збалансований підхід — надання співробітникам безпечного доступу до ШІ при збереженні сильної захисту даних — дозволить організаціям відповідально впроваджувати ШІ. Більше деталей про їхні рішення в області безпеки можна знайти на zscaler.com/security.
Попередні статті:
Dogecoin впав на 6% на фоні публічної суперечки між Ілоном Маском та Дональдом Трампом
Біткойн підскочив понад $100K на тлі страхів щодо боргу США, підтримка Трампа та Маска
FIFA Rivals запускається 12 червня з Adidas, NFT картами гравців
Законодавча комісія Великобританії пропонує наднаціональні правила для криптоспорів
Привілейовані акції "Stride" компанії MicroStrategy викликали дискусію про високоліквідні облігації
-Реклама-
Переглянути оригінал
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
Тіньовий штучний інтелект становить зростання ризиків втрати даних підприємства та безпеки
ГоловнаНовини* Багато організацій заблокували доступ до публічних інструментів ШІ, але цей підхід виявився неефективним для запобігання витоку даних.
У звіті наголошується, що блокування додатків зі штучним інтелектом лише створює сліпу зону, а не фактичну безпеку. *«Блокування несхвалених додатків штучного інтелекту може призвести до того, що використання впаде до нуля... Але насправді ваша організація не захищена; Це просто сліпий до того, що насправді відбувається», — зазначили в компанії. Втрата даних зі штучним інтелектом може бути серйознішою, ніж із традиційним обміном файлами, оскільки конфіденційна інформація може бути включена в загальнодоступні моделі штучного інтелекту без можливості видалення.
Zscaler рекомендує спочатку встановити видимість, а потім впроваджувати політики, узгоджені з нульовою довірою — моделлю безпеки, яка вимагає перевірки для кожного користувача та пристрою. Їхні інструменти можуть визначати, до яких програм і ким звертаються в режимі реального часу. Це дозволяє організаціям розробляти контекстно-орієнтовані політики, такі як використання ізоляції браузера або перенаправлення користувачів на схвалені рішення штучного інтелекту, керовані локально.
Інструменти захисту даних компанії виявили понад 4 мільйони випадків, коли користувачі намагалися надіслати чутливу інформацію — таку як фінансові звіти, особисті дані, вихідний код або медичну інформацію — до AI-додатків. Ці спроби були заблоковані їхньою технологією запобігання втраті даних.
Експерти Zscaler вважають, що збалансований підхід — надання співробітникам безпечного доступу до ШІ при збереженні сильної захисту даних — дозволить організаціям відповідально впроваджувати ШІ. Більше деталей про їхні рішення в області безпеки можна знайти на zscaler.com/security.
Попередні статті:
-Реклама-