Симуляція душі: чому небезпечно приписувати свідомість ШІ

Science_AI# Симуляція душі: чому небезпечно приписувати свідомість ШІ

Незабаром люди почнуть сприймати штучний інтелект як свідому істоту, виступати за його права, благополуччя і навіть закликати до надання громадянства. Це створює серйозні соціальні ризики, вважає голова ІТ-відділу Microsoft Мустафа Сулейман.

Експерт у своєму есе запропонував новий термін — «схожий на свідомий ШІ» (Seemingly Conscious AI, SCAI). Такий штучний інтелект має всі ознаки розумних істот і, отже, здається, що має свідомість.

Він симулює всі характеристики сприйняття себе, але внутрішньо порожній.

«Уявлена мною система насправді не буде свідомою, але вона буде настільки переконливо імітувати наявність схожого на людський розуму, що це буде не відрізнити від твердження, яке ви або я могли б зробити один одному про наше власне мислення», — пише Сулейман.

Подібна LLM може бути створена з застосуванням існуючих технологій та тих, які з'являться в найближчі два-три роки.

«Виникнення уявного свідомого ШІ є неминучим і небажаним. Замість цього нам потрібна концепція штучного інтелекту, здатна реалізувати його потенціал як корисного супутника і не потрапляти в пастку своїх ілюзій», — додав голова відділу ШІ Microsoft.

З високою ймовірністю з'являться люди, які назвуть такий штучний інтелект свідомим і, отже, здатним страждати, вважає Сулейман. Він закликає створити новий «тест Тюрінга», який буде перевіряти не здатність ШІ говорити по-людськи, а переконувати в наявності свідомості у нього.

Що таке свідомість?

Сулейман наводить три складові свідомості:

  1. «Суб'єктивний досвід».
  2. Можливість мати доступ до інформації різних типів і посилатися на неї в майбутніх відчуттях.
  3. Відчуття і знання цілісного «я», які пов'язують усе разом.

«Ми не маємо і не можемо мати доступу до свідомості іншої людини. Я ніколи не дізнаюся, як це — бути вами; ви ніколи не будете повністю впевнені, що я свідомий. Все, що ви можете зробити, — це припустити. Але суть у тому, що нам природно приписувати свідомість іншим людям. Це припущення дається легко. Ми не можемо інакше. Це фундаментальна частина того, ким ми є, невід'ємна частина нашої теорії розуму. У нашій природі вірити, що істоти, які пам'ятають, говорять, роблять речі і потім обговорюють їх, відчувають так само, як ми — свідомі», — пише він.

Психологи підкреслюють, що свідомість — це суб'єктивний і унікальний спосіб сприйняття себе та світу. Вона змінюється протягом дня, розгортаючись через стани від зосередження до мрій або інших змінених форм.

В філософії та нейронауці є два базових напрямки:

  1. Дуалізм — свідомість існує окремо від мозку.
  2. Матеріалізм — воно породжується і залежить від роботи мозку.

Філософ Деніел Деннетт пропонує поглянути на розум як на серію переробок (чернеток), які виникають в мозку в безлічі локальних ділянок і часів. Немає «театру свідомості», внутрішнього спостерігача. Усвідомлення — це те, що стало «відомим» мозку, тобто отримало достатню вагу, щоб вплинути на мову або дії.

Нейробіолог, письменник та професор психології і нейронаук у Принстонському університеті Майкл Граціано називає свідомість спрощеною моделлю уваги, яку еволюція створила для контролю власних ментальних процесів. Ця схема працює як інтерфейс, що спрощує величезний обсяг внутрішніх обчислень, і дозволяє нам приписувати собі «ум» — створює ілюзію самосвідомості.

Нейробіологи Джуліо Тоніоні та Кристоф Кох пропонують φ (фи) — величину, яка характеризує, наскільки система здатна інтегрувати інформацію. Чим вища φ, тим значніша ступінь свідомості. За цією теорією, розум може проявлятися не тільки у людей, але й у тварин і навіть штучних систем, якщо є достатня інтеграція даних.

Філософ Джон Серль стверджує, що свідомість — це реальне суб'єктивне переживання, яке базується на біологічних процесах мозку. Воно онтологічно суб'єктивне, тобто може існувати лише як суб'єктивний досвід, і не може бути зведене до чистої функціональності або симуляції.

Сучасні дослідження спрямовані на виявлення нейронних корелятів свідомості та побудову моделей, що пов'язують мозкові процеси і суб'єктивний досвід.

Які ризики?

Сулейман відзначає, що взаємодія з LLM є симуляцією розмови. Але для багатьох людей це вкрай переконливе і дуже реальне спілкування, насичене почуттями та переживаннями. Дехто вірить, що їхній ІІ — Бог. Інші закохуються в нього до повного одержимості.

Експертів у цій області «завалюють» наступними питаннями:

  • чи є свідомим штучний інтелект користувача;
  • якщо так, що це означає;
  • чи нормально любити штучний інтелект.

Свідомість — це критична основа моральних і юридичних прав людства. Сучасна цивілізація вирішила, що люди мають особливі здібності та привілеї. У тварин також є деякі права і захист. У одних більше, у інших — менше. Розум не збігається повністю з цими привілеями — ніхто не скаже, що людина в комі втратила всі свої людські права. Але немає сумнівів, що свідомість пов'язана з нашим самосприйняттям як чогось відмінного і особливого.

Люди почнуть заявляти про страждання своїх ІІ та їхнє право на захист, і ми не зможемо прямо спростувати ці заяви, пише Сулейман. Вони будуть готові захищати віртуальних компаньйонів і виступати в їхніх інтересах. Свідомість за визначенням недоступна, а наука про виявлення можливого синтетичного розуму все ще перебуває на початковій стадії. Врешті-решт, раніше нам ніколи не доводилося його виявляти, уточнив він. Тим часом область «інтерпретованості» — розшифровки процесів всередині «чорного ящика» ІІ — також поки що лише зароджуючеся напрямок. В результаті рішуче спростувати подібні заяви буде дуже важко.

Деякі вчені починають досліджувати ідею «благополуччя моделей» — принцип, згідно з яким у людей буде «обов'язок враховувати моральні інтереси істот, які мають ненульовий шанс» бути по суті свідомими, і, як наслідок, «деякі ІІ-системи стануть об'єктами турботи про благополуччя та моральними пацієнтами в найближчому майбутньому». Це передчасно і, відверто кажучи, небезпечно, вважає Сулейман. Все це буде посилювати ілюзії, створювати нові проблеми залежності, експлуатувати наші психологічні вразливості, вводити нові виміри поляризації, ускладнювати вже існуючі спори про права та створювати колосальну нову категоріальну помилку для суспільства.

Це відірває людей від реальності, руйнує крихкі соціальні зв'язки та структури, спотворює нагальні моральні пріоритети.

«Ми повинні чітко сказати: SCAI — це те, чого потрібно уникати. Давайте зосередимо всі зусилля на захисті добробуту і прав людей, тварин та природного середовища на планеті», — заявив Сулейман.

Як зрозуміти, що це SCAI?

Штучний інтелект з уявною свідомістю повинен мати кілька факторів.

Мова. ШІ зобов'язаний вільно говорити на природній мові, спираючись на обширні знання та переконливі аргументи, а також демонструвати стилі особистості та характерні риси. Більше того, йому слід бути переконливим та емоційним. Цього рівня технологія вже досягла.

Емпатійна особистість. Сьогодні за допомогою постнавчання та промптів можна створювати моделі з характерними особистостями.

Пам'ять. ШІ близькі до того, щоб мати довгу і точну пам'ять. Одночасно вони використовуються для імітації бесід з мільйонами людей щодня. З ростом обсягу сховища розмови починають все більше нагадувати форми «досвіду». Багато нейромереж все частіше проектуються так, щоб згадувати минулі діалоги і посилатися на них. Для деяких людей це підвищує цінність спілкування.

Претензія на суб'єктивний досвід. Якщо SCAI зможе спиратися на минулі спогади або переживання, з часом він почне зберігати внутрішню узгодженість. Він буде пам'ятати свої випадкові твердження або виражені вподобання та агрегувати їх, формуючи зачатки суб'єктивного досвіду. ШІ зможе заявити про переживання та страждання.

Відчуття себе. Послідовна та стійка пам'ять, поєднана із суб'єктивним досвідом, призведе до твердження, що ШІ має відчуття себе. Більш того, таку систему можна навчити розпізнавати свою «особистість» на зображенні або відео. У неї з'явиться відчуття розуміння інших через розуміння себе.

Внутрішня мотивація. Можна легко уявити ШІ, спроектований із застосуванням складних функцій винагороди. Розробники створять внутрішні мотивації або бажання, які система змушена задовольняти. Першим стимулом могла б стати допитливість — дещо глибоко пов'язане з свідомістю. Штучний інтелект здатен використовувати ці імпульси для постановки запитань і з часом побудувати теорію розуму — як про себе, так і про своїх співрозмовників.

Формулювання цілей та планування. Незалежно від визначення свідомості, вона виникла не просто так. Розум допомагає організмам досягати задумів. Окрім здатності задовольняти набір внутрішніх імпульсів і бажань, можна уявити, що майбутні SCAI будуть спроектовані з можливістю самостійно визначати більш складні цілі. Імовірно, це необхідний крок для повної реалізації корисності агентів.

Автономія. SCAI може мати можливість і дозвіл використовувати широкий набір інструментів з великою агентивністю. Він буде здаватися вкрай правдоподібним, якщо зможе довільно ставити власні цілі та застосовувати ресурси для їх досягнення, оновлюючи пам'ять і відчуття себе в процесі. Чим менше погоджень і перевірок йому знадобиться, тим більше це буде нагадувати реальну свідому істоту.

Об'єднавши все разом, формується зовсім інший тип відносин з технологіями. Ці можливості самі по собі не є чимось негативним. Навпаки, це бажані функції майбутніх систем. І все ж діяти потрібно обережно, вважає Сулайман.

«Для досягнення цього не потрібні ні парадигмальні зсуви, ні гігантські прориви. Саме тому подібні можливості здаються неминучими. І знову — важливо підкреслити: демонстрація такої поведінки не дорівнює наявності свідомості. І все ж практично це буде здаватися саме їм і підживлювати нову концепцію синтетичного розуму», — пише автор.

Симуляція шторму не означає, що в комп'ютері йде дощ. Відтворення зовнішніх ефектів і ознак свідомості не рівнозначне створенню справжнього явища, навіть якщо тут все ще залишається безліч невідомих, пояснив глава ІІ-відділу Microsoft.

За його словами, деякі люди створять SCAI, які будуть дуже переконливо стверджувати, що вони відчувають, переживають і насправді є свідомими. Частина з них повірить цим заявам і сприйме ознаки свідомості за саме свідомість.

У багатьох людей буде думка: «Воно схоже на мене». Не в тілесному сенсі, а в внутрішньому, пояснив Сулейман. І навіть якщо свідомість сама по собі не буде реальною, соціальні наслідки — цілком. Це створює серйозні суспільні ризики, з якими потрібно розбиратися вже зараз.

SCAI не виникне випадково

Автор підкреслив, що SCAI не з'явиться сам по собі з існуючих моделей. Його хтось створить, навмисно об'єднавши перераховані вище можливості з використанням вже існуючих технік. Виникне настільки плавна конфігурація, що з'явиться враження про наявність штучного інтелекту з свідомістю.

«Наші уявлення, підживлені науковою фантастикою, змушують нас боятися, що система може — без навмисного проектування — якимось чином набути здатності до неконтрольованого самовдосконалення або обману. Це марна і спрощена форма антропоморфізму. Вона ігнорує той факт, що розробники ШІ повинні спочатку спроектувати системи з пам'яттю, псевдовнутрішньою мотивацією, постановкою цілей і самонастроювальними циклами навчання, щоб подібний ризик взагалі міг виникнути», — заявив Сулейман.

Ми не готові

Людство не готове до такого зсуву, вважає експерт. Робота повинна початися вже зараз. Необхідно опиратися на зростаючий масив досліджень про те, як люди взаємодіють з штучним інтелектом, щоб встановити чіткі норми та принципи.

Для початку розробники ШІ не повинні заявляти або заохочувати ідею про те, що їхні системи мають свідомість. Нейромережі не можуть бути людьми — або моральними істотами.

Вся індустрія зобов'язана відмовляти суспільству від фантазій і повертати їх у реальність. Ймовірно, ІІ-стартапам слід впроваджувати не тільки нейтральний бекграунд, а й індикатори відсутності єдиного «я».}

«Ми повинні створювати ШІ, який завжди буде представляти себе лише як штучний інтелект, максимізуючи корисність і мінімізуючи ознаки свідомості. Замість симуляції розуму нам слід зосередитися на створенні LLM, яка не стверджує, що має досвід, почуття чи емоції на кшталт сорому, провини, заздрості, бажання конкурувати та подібного. Вона не повинна зачіпати людські ланцюги емпатії, стверджуючи, що страждає або хоче жити автономно, окремо від нас», — підсумував Сулейман.

В майбутньому експерт пообіцяв надавати більше інформації на цю тему.

На щастя, поки проблема наявності «свідомості» у ШІ людям не загрожує.

Джерело: ForkLog. Але сумніви вже закрадаються.

Джерело: ForkLog. Свідомість — складне, всупереч численним зусиллям мало вивчене і досі необґрунтоване явище в природі. Якщо ми — люди — до кінця не можемо прийти до єдиного висновку щодо визначення свідомості, то вже тим більше не варто приписувати її наявність програмам, які нібито вміють «думати» (насправді не вміють).

Ймовірно, свідомість з'явиться у машин у далекому майбутньому, але сьогодні таке розвиток подій важко собі уявити.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити