Письмо》Иск Anthropic раскрывает завесу AI: грабеж под предлогом социального благосостояния, мы все должны нести ответственность за пустыню знаний следующего поколения.

robot
Генерация тезисов в процессе

Anthropic столкнулась с заоблачными судебными исками за кражу 7 миллионов книг для обучения ИИ, что встряхнуло отрасль. С точки зрения старших практиков, в этой статье мы проанализируем лицемерие благородного лозунга «за благополучие человечества» и рассмотрим, почему ИИ, построенный на незаконных фундаментах, вызовет кризис доверия и в конечном итоге разрушит фундамент инноваций, от которого он зависит. (Синопсис: Anthropic крадет 7 миллионов книг, чтобы обучить Клода, и сталкивается с судебными исками о пиратстве на триллионы долларов!) Спешка гигантов ИИ и правовые границы) (Справочное дополнение: коллапс конфиденциальности ИИ «Диалог ChatGPT» работает голым перед законом; Альтман: Я боюсь вводить личную информацию, и трудно понять, кто получит данные) В области искусственного интеллекта на протяжении многих лет я слишком много раз видел стремительное развитие технологий, а также был свидетелем приливов и отливов капитала. Каждая волна технологий сопровождается грандиозным повествованием, поводом для того, чтобы заставить кровь кипеть у всех, особенно у инвесторов и регулирующих органов. В настоящее время эта причина, несомненно, «на благо всего человечества». Однако, когда Anthropic, гигант искусственного интеллекта со знаменем «безопасности и этики», обвиняют в том, что он скормил свою гордую модель Клода 7 миллионами пиратских книг, благородный слоган звучит скорее как фиговый листок, едва прикрывающий судебный процесс на триллион уровней, который может потрясти фундамент всей индустрии. Читайте также: Anthropic крадет 7 миллионов книг для обучения Клода и сталкивается с судебными исками о пиратстве на триллионы долларов! Поспешность гигантов ИИ и правовые границы Основной конфликт этого иска гораздо сложнее, чем ярлык «инновация против авторского права». Она действует как призма, отражая культурную инерцию «сначала действуй, а потом проси прощения» в Кремниевой долине, отставание правовой базы перед лицом экспоненциального развития технологий и более фундаментальный вопрос: как мы можем доверять «мудрости», основанной на незаконности? Снятие с короля новой одежды «добросовестного использования»: тщательно упакованное цифровое ограждение Во-первых, мы должны увидеть суть этого спора. Предварительное решение судьи по делу Anthropic указывает на чрезвычайно важное разделение: сам акт обучения ИИ может считаться добросовестным использованием из-за его «преобразующего использования». Но «источник» обучающих материалов, если он незаконно пиратский, — это совсем другое дело. Это все равно, что сказать, что вы готовите знаменитое блюдо с тремя звездами Мишлен из ингредиентов, которые вы купили, что является вашей кулинарией и инновациями; Но если вы украдете ингредиенты из чужого холодильника, то как бы хорошо ни было приготовлено блюдо, это не изменит того факта, что вы его украли. Так называемое «за развитие ИИ и повышение благосостояния человека» — это, по сути, обучающее и реальное огораживающее движение технологических гигантов в области общедоступных знаний, которые включают в себя произведения, защищенные авторским правом. Этот набор риторики заключает в себе чисто коммерческую проблему издержек как вопрос морального выбора в отношении человеческого прогресса. Они говорят миру, что пожертвование гонорарами некоторых писателей является «необходимым злом» для того, чтобы сделать ИИ умнее, ускорить решение больших проблем, таких как рак и изменение климата. Это цифровая копия «Трагедии общин». Компании, работающие с искусственным интеллектом, похожи на пастухов, которые пасут свой скот, относясь к созданию знаний всего человечества как к лугу без платы и с неограниченным предложением. В краткосрочной перспективе их модель (крупный рогатый скот) откармливается, оценки компаний растут, а экономические отчеты прогнозируют рост ВВП на триллионы долларов. Но каковы долгосрочные издержки игнорирования? Это средства к существованию создателей и крах всей экосистемы создания знаний. Если писатели, художники, ученые и журналисты не могут получить справедливую отдачу от своих творений, то откуда возьмется следующее поколение качественного контента? Когда пастбище превращается в пустыню, куда может отправиться ИИ, голодный зверь, чтобы найти новые питательные вещества? Эта модель создает фатально ложную систему стимулирования: она вознаграждает игроков, которые экономят и избегают затрат, в то же время наказывая тех, кто соблюдает правила и пытается построить справедливые, устойчивые партнерские отношения. Когда аплодисменты рынка отдают тем, кто «ускользает», кто захочет ждать законного выстрела на стартовой линии? «Первородный грех» алгоритмов: мудрость, построенная на воровстве, смеете ли вы в это верить? Если «цифровая ограда» — это экономическое разграбление, то «первородный грех алгоритмов» — это фундаментальная эрозия общественного доверия. Развитие искусственного интеллекта стоит перед дилеммой: если в основе его возможностей лежит вопиющее пренебрежение законом и этикой, как мы можем доверять ответам, которые он дает, рекомендациям, которые он дает, и даже большей власти, которую он получит в будущем? В частности, такие компании, как Anthropic, рекламируют себя как безопасный, этичный ИИ. Существует разрыв между обещанием бренда и его предполагаемым использованием пиратских материалов. Это не только кризис пиара, но и кризис доверия. Можем ли мы ожидать, что технология, рожденная из акта «не задавать вопросов», будет выносить суждения в соответствии с основными человеческими ценностями перед лицом более сложных этических дилемм в будущем? Это обнажает глубоко укоренившийся менталитет разработчиков «технологии прежде всего, правила на обочине». Представьте себе сценарий будущего, в котором врач выписывает рецепт на основе рекомендаций искусственного интеллекта, чьи медицинские знания получены из несанкционированных журнальных статей. «Первородный грех» источника будет заражать все его последующие приложения, как вирус, и когда общественность поймет, что ИИ, который взаимодействует каждый день, является «вором знаний», легитимность его применения в областях с высоким риском, таких как образование, здравоохранение и юриспруденция, будет потеряна. Потенциальный заоблачный ущерб по иску Anthropic (до одного триллиона долларов по мнению некоторых юристов) ужасает, но, пожалуй, самая большая цена для Anthropic и индустрии искусственного интеллекта в целом — это не деньги, а безвозвратная потеря социального доверия. Как только доверие рушится, каким бы продвинутым ни был алгоритм, он остается лишь воздушным замком, построенным на зыбучих песках. Искусство опровержения: развенчание фатального заблуждения «инновации прежде всего» Конечно, всякий раз, когда авторское право и технологии сталкиваются, всегда раздается голос, который кричит: «Это за инновации!» Законы старой эпохи убивают будущее новой эпохи!» Эта доктрина превосходства инноваций звучит страстно, но не выдерживает никакой критики, и за ней скрывается несколько фатальных логических ошибок. Прежде всего, это ошибка «ложной дилеммы». Он ставит инновации и авторское право как противоположности и заставляет нас делать выбор. Но реальность такова, что реальный выбор находится не где-то посередине, а между «устойчивыми, симбиотическими инновациями» и «хищническими, паразитическими инновациями». Уважение авторского права и установление авторизованного сотрудничества с авторами не задушат инновации, но обеспечат ИИ более качественными, чистыми и понятными учебными материалами, что является более здоровой, стабильной и далеко идущей инновационной моделью. Во-вторых, утверждение о «необходимости» является ложным утверждением. Действительно ли развитие ИИ должно опираться на пиратские материалы? Или использование пиратского материала просто делает разработку «дешевле и быстрее»? Это выбор бизнес-модели, а не техническая необходимость. Технологические гиганты выбирают короткие пути для максимизации прибыли и минимизации затрат, только чтобы представить их как единственный путь в будущее. Это не факт, это просто нарратив в их интересах. Наконец, этот аргумент полностью игнорирует источник инноваций. ИИ сам по себе не производит знания из первых рук, он чрезвычайно эффективный ученик, имитатор и интегратор. Вся его мудрость проистекает из обширной базы знаний, созданной людьми. Если регенеративная способность этой базы знаний будет уничтожена для развития ИИ, это будет равносильно убийству кур ради яиц. Это как на рынке капитала, если бы каждый делал только сиюминутное...

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить