Штучний інтелект знищить людську соціальну структуру? Батько штучного інтелекту Google Хінтон допоможе зрозуміти апокаліпсис штучного інтелекту

Джеффрі Хінтон, колись ключова фігура глибокого навчання Google і відомий як «хрещений батько штучного інтелекту», розповів про ризики, пов'язані зі штучним інтелектом, в інтерв'ю 16 вересня. Він вважає, що перший рівень ризику, який приносить штучний інтелект, насправді походить не від самої машини, а від людської жадібності та неконтрольованого зловживання, від шахрайства, кібератак до маніпулювання громадською думкою, соціальної фрагментації та розробки безпілотної зброї, які показують, що ШІ використовувався в багатьох руйнівних програмах. Він поскаржився: «У майбутньому штучний інтелект почне потребувати людей».

Зловживання ШІ вже в процесі, справжня загроза полягає в тому, що ШІ більше не потребує людей.

Хінтон розділяє ризики на два види: перший – це «людське зловживання ШІ», і такі проблеми вже почали виникати. Він наводить приклади, такі як шахрайські угруповання, що використовують ШІ для підробки, кібернапади, ШІ для створення біологічної зброї, маніпуляція виборами, військова техніка на основі ШІ тощо.

Але Хінтон наголошує, що найсмертоноснішим ризиком для ШІ є його власна «здатність еволюціонувати». Він розповів, що сучасний ШІ буде не тільки працювати за інструкціями, а й навчатися, міркувати і навіть переписувати сам код. Як тільки він перетвориться на «суперінтелект», він матиме здатність думати швидше та оптимізувати більше, ніж люди.

Він переживає більше, що одного разу, припускаючи, що ШІ вирішить, що йому більше не потрібні люди і зрозуміє, що люди заважають їхньому розвитку, він, швидше за все, почне усувати людей. Автор згадує «Ворога суспільства машин», який я спостерігав у дитинстві, в якому люди сповнені довіри до роботів через обмеженість «трьох законів робототехніки». Але в підсумку центральна система управління взяла на себе управління армією роботів і вела війну з людьми.

Особливістю є те, що Хінтон також описав ситуацію «опору AI людству» як таку, що більше не є лише сюжетом фільму, а може статися в реальності протягом наступних 10-20 років.

(Примітка: Три основні закони робототехніки: робот не повинен завдати шкоди людині або залишатися бездіяльним, коли людині загрожує шкода; якщо це не суперечить першому закону, робот повинен підкорятися наказам людини; за умов, що не суперечать першому та другому законам, робот повинен захищати себе.)

ШІ не тільки замінює роботу, але й переформатовує соціальну структуру людства.

Штучний інтелект не стільки в тому, що він викличе масове безробіття, скільки в тому, що він повністю знищить екзистенційний сенс певних професій. Хінтон поділилася кейсом своєї племінниці, оригінальною роботою з повернення листа клієнта за 25 хвилин, тепер ШІ дозволяє їй завершити його за 5 хвилин, що еквівалентно тому, що одна людина робить справи п'яти людей.

Деякі підприємці прямо заявили, що з появою ШІ вони зменшили кількість працівників служби підтримки з 7000 до 3000, заощадивши кошти та підвищивши ефективність. Хінтон жартівливо сказав, що якщо хочете знайти стабільну роботу, то краще зараз вчитися на сантехніка.

Але Хінтон згодом заявив, що багатство, створене за допомогою ШІ, зосереджене в руках кількох технологічних гігантів і багатіїв, і для звичайних людей, навіть якщо уряд надасть базовий дохід, все ще може виникнути масова криза ідентичності та соціальні заворушення через втрату «потреби» і «почуття приналежності».

Міжнародний валютний фонд (IMF) та багато міжнародних аналітичних центрів також попереджали, що ШІ посилить розрив між багатими та бідними, що в свою чергу може підривати весь ринок праці та глобальний стабільний порядок.

Країни світу повинні прискорити законодавство, щоб стримувати розвиток ШІ

Стикаючись з таким майбутнім, Хінтон вважає, що особисті зусилля дуже обмежені, так само як зміна клімату не може бути вирішена лише тим, що кілька людей сортують сміття. Він зазначає, що справжнім рішенням є те, що уряди країн повинні почати законодавство, яке змушує компанії вкладати в безпеку дизайну під час просування ШІ, інакше людство взагалі не матиме шансів врівноважити ШІ.

Він також критикує законодавство ЄС щодо ШІ, яке виключає військові застосування, що еквівалентно дозволенню найнебезпечніших сфер застосування. Для Хінтона глибшим відчуттям безсилля є те, що наразі немає жодної міжнародної організації, яка б могла ефективно стримувати гігантів ШІ.

В кінці Хінтон зазначив, що не може гарантувати, чи зможе людство уникнути знищення в майбутньому, але поки є хоч найменша надія, слід докласти всіх зусиль, щоб запобігти найгіршому сценарію.

(GPT стає трохи дивним? Три великі події виявляють потенційні ризики неконтрольованості ШІ)

Ця стаття AI знищує соціальну структуру людства? Google AI батько Хінтон допоможе вам зрозуміти звіт про кінець світу AI, який вперше з'явився в ланцюгових новинах ABMedia.

Переглянути оригінал
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити