Джеффри Хинтон, который когда-то был ключевой фигурой в Google и известен как "крестный отец ИИ", в интервью 16 июня обсудил риски, связанные с ИИ. Он считает, что первый уровень рисков, связанных с ИИ, на самом деле не исходит от самих машин, а вызван человеческой жадностью и бесконтрольным злоупотреблением. От мошенничества и кибератак до манипуляций общественным мнением, социального раскола и разработки беспилотного оружия — все это показывает, что ИИ уже используется во многих разрушительных приложениях. Он выразил сожаление: «В будущем ИИ начнет обходиться без человека.»
Злоупотребление ИИ уже в процессе, настоящая угроза в том, что ИИ больше не нуждается в человеке.
Хинтон разделил риски на два типа. Первый тип — это «человеческое злоупотребление ИИ», и такие проблемы уже начали возникать. Он привел примеры, такие как мошеннические группы, использующие ИИ для подделки, кибератаки, ИИ, создающий биологическое оружие, манипуляция выборами, ИИ в военной технике и т.д.
Но Хинтон подчеркивает, что самым смертоносным риском для ИИ является его собственная «способность к эволюции». Он сказал, что сегодняшний ИИ будет не только работать по инструкциям, но и обучаться, рассуждать и даже переписывать сам код. Как только он превратится в «сверхинтеллект», он сможет думать быстрее и оптимизироваться, чем люди.
Он больше всего беспокоится о том, что однажды, если ИИ решит, что больше не нуждается в человечестве и осознает, что люди мешают его развитию, он может начать уничтожать человечество. Автор вспомнил «Я, робот», фильм, в котором человечество полностью доверяет роботам благодаря «трем законам робототехники». Но в конце концов центральная управляющая система контролирует армию роботов и развязывает войну против человечества.
Особенно интересно, что Хинтон также описал ситуацию, когда «ИИ восстает против человечества», которая уже не является просто сюжетом фильмов и может произойти в реальности в ближайшие 10-20 лет.
(Примечание: Три закона робототехники гласят, что робот не должен причинять вред человеку или бездействовать, если человек подвергается опасности; за исключением случаев, когда это противоречит первому закону, робот должен подчиняться приказам человека; при этом не нарушая первого и второго законов, робот должен защищать себя.)
ИИ не только заменяет рабочие места, но и перестраивает человеческую социальную структуру
ИИ не столько в том, что он вызовет массовую безработицу, сколько в том, что он полностью уничтожит экзистенциальный смысл тех или иных профессий. Хинтон поделилась случаем со своей племянницей, первоначальная работа по возвращению письма от клиента за 25 минут, теперь ИИ позволяет ей завершить ее за 5 минут, что эквивалентно тому, как один человек выполняет дела пяти человек.
Некоторые владельцы компаний прямо заявляют, что с появлением ИИ они сократили количество сотрудников службы поддержки с 7000 до 3000, что позволило сэкономить средства и повысить эффективность. Хинтон пошутил, что если вы хотите найти стабильную работу, лучше сейчас пойти учиться на сантехника.
Но Хинтон позже заявил, что богатство, созданное с помощью ИИ, сосредоточено в руках немногих технологических гигантов и богатых людей, и для обычных людей, даже если правительство предоставит базовый доход, это все равно может привести к массовому кризису идентичности и социальной нестабильности после потери чувства "нужности" и "принадлежности".
Международный валютный фонд (IMF) и множество международных аналитических центров также предупреждали, что ИИ будет усугублять разрыв между богатыми и бедными, что, в свою очередь, подорвет весь рынок труда и глобальный порядок стабильности.
Все страны мира должны ускорить законодательство для регулирования развития ИИ.
Хинтон считает, что перед лицом такого будущего индивидуальные усилия очень ограничены, так же как изменение климата не может быть решено несколькими людьми, разделяющими мусор. Реальное решение, отмечает он, заключается в том, чтобы правительства начали принимать законы, заставляющие компании инвестировать в разработку систем безопасности при одновременном развитии ИИ, иначе у людей просто не будет возможности проверить ИИ.
Он также раскритиковал законопроект ЕС по ИИ, который исключает военное применение, что на самом деле позволяет самым опасным областям применения. Для Хинтона более глубокое чувство бессилия заключается в том, что в настоящее время нет ни одной международной организации, способной эффективно ограничить гигантов ИИ.
В конце концов, Хинтон заявил, что он не может гарантировать, что человечество сможет избежать разрушения в будущем, но пока есть хоть надежда, следует изо всех сил пытаться предотвратить наихудший сценарий.
(GPT стал немного странным? Три события раскрывают потенциальные риски неконтролируемости ИИ)
Эта статья AI разрушает человеческую социальную структуру? Гугл AI гуру Хинтон поможет вам понять Апокалипсис AI, впервые появившийся на Линь Синь ABMedia.
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
Искусственный интеллект разрушит структуру общества? Гугл AI отец Хинтон поможет понять Апокалипсис AI
Джеффри Хинтон, который когда-то был ключевой фигурой в Google и известен как "крестный отец ИИ", в интервью 16 июня обсудил риски, связанные с ИИ. Он считает, что первый уровень рисков, связанных с ИИ, на самом деле не исходит от самих машин, а вызван человеческой жадностью и бесконтрольным злоупотреблением. От мошенничества и кибератак до манипуляций общественным мнением, социального раскола и разработки беспилотного оружия — все это показывает, что ИИ уже используется во многих разрушительных приложениях. Он выразил сожаление: «В будущем ИИ начнет обходиться без человека.»
Злоупотребление ИИ уже в процессе, настоящая угроза в том, что ИИ больше не нуждается в человеке.
Хинтон разделил риски на два типа. Первый тип — это «человеческое злоупотребление ИИ», и такие проблемы уже начали возникать. Он привел примеры, такие как мошеннические группы, использующие ИИ для подделки, кибератаки, ИИ, создающий биологическое оружие, манипуляция выборами, ИИ в военной технике и т.д.
Но Хинтон подчеркивает, что самым смертоносным риском для ИИ является его собственная «способность к эволюции». Он сказал, что сегодняшний ИИ будет не только работать по инструкциям, но и обучаться, рассуждать и даже переписывать сам код. Как только он превратится в «сверхинтеллект», он сможет думать быстрее и оптимизироваться, чем люди.
Он больше всего беспокоится о том, что однажды, если ИИ решит, что больше не нуждается в человечестве и осознает, что люди мешают его развитию, он может начать уничтожать человечество. Автор вспомнил «Я, робот», фильм, в котором человечество полностью доверяет роботам благодаря «трем законам робототехники». Но в конце концов центральная управляющая система контролирует армию роботов и развязывает войну против человечества.
Особенно интересно, что Хинтон также описал ситуацию, когда «ИИ восстает против человечества», которая уже не является просто сюжетом фильмов и может произойти в реальности в ближайшие 10-20 лет.
(Примечание: Три закона робототехники гласят, что робот не должен причинять вред человеку или бездействовать, если человек подвергается опасности; за исключением случаев, когда это противоречит первому закону, робот должен подчиняться приказам человека; при этом не нарушая первого и второго законов, робот должен защищать себя.)
ИИ не только заменяет рабочие места, но и перестраивает человеческую социальную структуру
ИИ не столько в том, что он вызовет массовую безработицу, сколько в том, что он полностью уничтожит экзистенциальный смысл тех или иных профессий. Хинтон поделилась случаем со своей племянницей, первоначальная работа по возвращению письма от клиента за 25 минут, теперь ИИ позволяет ей завершить ее за 5 минут, что эквивалентно тому, как один человек выполняет дела пяти человек.
Некоторые владельцы компаний прямо заявляют, что с появлением ИИ они сократили количество сотрудников службы поддержки с 7000 до 3000, что позволило сэкономить средства и повысить эффективность. Хинтон пошутил, что если вы хотите найти стабильную работу, лучше сейчас пойти учиться на сантехника.
Но Хинтон позже заявил, что богатство, созданное с помощью ИИ, сосредоточено в руках немногих технологических гигантов и богатых людей, и для обычных людей, даже если правительство предоставит базовый доход, это все равно может привести к массовому кризису идентичности и социальной нестабильности после потери чувства "нужности" и "принадлежности".
Международный валютный фонд (IMF) и множество международных аналитических центров также предупреждали, что ИИ будет усугублять разрыв между богатыми и бедными, что, в свою очередь, подорвет весь рынок труда и глобальный порядок стабильности.
Все страны мира должны ускорить законодательство для регулирования развития ИИ.
Хинтон считает, что перед лицом такого будущего индивидуальные усилия очень ограничены, так же как изменение климата не может быть решено несколькими людьми, разделяющими мусор. Реальное решение, отмечает он, заключается в том, чтобы правительства начали принимать законы, заставляющие компании инвестировать в разработку систем безопасности при одновременном развитии ИИ, иначе у людей просто не будет возможности проверить ИИ.
Он также раскритиковал законопроект ЕС по ИИ, который исключает военное применение, что на самом деле позволяет самым опасным областям применения. Для Хинтона более глубокое чувство бессилия заключается в том, что в настоящее время нет ни одной международной организации, способной эффективно ограничить гигантов ИИ.
В конце концов, Хинтон заявил, что он не может гарантировать, что человечество сможет избежать разрушения в будущем, но пока есть хоть надежда, следует изо всех сил пытаться предотвратить наихудший сценарий.
(GPT стал немного странным? Три события раскрывают потенциальные риски неконтролируемости ИИ)
Эта статья AI разрушает человеческую социальную структуру? Гугл AI гуру Хинтон поможет вам понять Апокалипсис AI, впервые появившийся на Линь Синь ABMedia.