OpenAI был разоблачен до основания: теория заговора о переходе от некоммерческой к коммерческой деятельности

OpenAI систематически и заранее обдумывает фундаментальный сдвиг от «на благо человечества» к «на благо инвесторов», у генерального директора Альтмана есть долгосрочная, хорошо задокументированная закономерность непоследовательных слов и действий, манипуляций с информацией и обхода надзора, а также глубокой привязки личных инвестиций к бизнесу компании. (Синопсис: GPT-5 дебютирует этим летом!) Сэм Альтман раскрывает план модели OpenAI следующего поколения, амбиции StarGate, будет ли реклама? (Фон добавлен: OpenAI Shock Bomb!) Приобретение легендарного дизайнера Apple Джони Айви Ио, Альтман: «Самое фантастическое оборудование для искусственного интеллекта» уже на подходе) Интерактивный отчет объемом более 50 страниц и более 10 000 слов раскрывает эволюцию OpenAI от некоммерческой исследовательской лаборатории до коммерческого гиганта. Недавно две некоммерческие организации по наблюдению за технологиями, Midas Project и Tech Oversight Project, опубликовали углубленное расследование под названием OpenAI Archives. На подготовку доклада, возглавляемого Тайлером Джонстоном, исполнительным директором проекта Midas Project, ушел почти год на сбор общественной информации и месяц интенсивного написания. В отчете его называют «наиболее полной на сегодняшний день компиляцией документально подтвержденных опасений по поводу OpenAI с точки зрения практики корпоративного управления, честности руководства и организационной культуры». Проанализировав большое количество публичных материалов, таких как файлы раскрытия информации о компании, судебные разбирательства, открытые письма и сообщения в СМИ, интерактивный отчет объемом более 10 000 слов показал, что OpenAI систематически и преднамеренно готовит фундаментальный переход от «благополучия человечества» к «прибыли инвесторов», при этом генеральный директор Альтман имеет долгосрочную, хорошо задокументированную схему непоследовательных слов и действий, манипулирования информацией и уклонения от надзора, а также глубокой привязки личных инвестиций к бизнесу компании. OpenAI находится в противоречии, когда речь заходит о безопасности и прозрачности, а его публичные обязательства совершенно не связаны с внутренней практикой. Отчет разделен на четыре основные темы: реструктуризация, добросовестность генерального директора, прозрачность и безопасность, а также конфликт интересов. Степень, в которой руководители и члены совета директоров OpenAI прямо или косвенно выиграли от успеха компании, вызывает беспокойство. Это включает в себя анализ портфеля генерального директора Альтмана, в который входят Retro Biosciences, Helion Energy, Reddit, Stripe и ряд других компаний, которые имеют партнерские отношения с OpenAI. В отчете отмечается, что OpenAI систематически и преднамеренно разрушает основные этические и структурные столпы своего основания, и что ее действия серьезно противоречат публичным заявлениям, по сути, является фундаментальным сдвигом от «на благо человечества» к «для прибыли инвесторов». Во-первых, отчет показывает одновременный распад двух основных столпов OpenAI — «ограничения прибыли» и «надзор за некоммерческими организациями». Первоначальная модель «ограниченной прибыли» была его основной философией, которая заключалась в том, чтобы гарантировать, что огромное богатство, созданное AGI, будет разделено со всем человечеством, и предотвратить чрезмерную концентрацию богатства. Тем не менее, это обязательство постепенно выхолащивалось: от снижения мультипликаторов прибыли, которые якобы укрепляют миссию, до тайного введения пункта об «автоматическом росте на 20% в год», который делает его функционально бесполезным, до окончательного плана по полному снятию ограничения, знаменующего конец идеи разделения богатства. В то же время его механизмы надзора были умно ослаблены. OpenAI превратилась из организации, полностью контролируемой некоммерческой организацией, в общественно-полезную корпорацию в штате Делавэр. Юридическое обязательство изменилось с «приоритета миссии» на «баланс интересов акционеров и общественных интересов». В отчете отмечается, что «в истории не было прецедента, чтобы акционеры успешно подали в суд для защиты общественных интересов», что делает обещания pro bono практически невозможными для выполнения в юридической практике. Это говорит о том, что приверженность НБК «общественному благу» может быть сведена к минимуму в реальности, обеспечивая огромное правовое прикрытие для стремления к максимизации прибыли. Источник изображения: веб-сайт openaifiles.org/ Отчет также опровергает официальную риторику OpenAI об отказе от своих обязательств на том основании, что «отрасль отличается высокой конкуренцией». Ссылаясь на ранний Устав компании и внутренние электронные письма, отчет доказывает, что OpenAI предвидела и была готова иметь дело с жесткой конкуренцией в отрасли с самого начала. Таким образом, использование конкуренции в качестве оправдания для отказа от обещаний является несостоятельной «ревизионистской историей». Реальная мотивация этого заключается именно в том, что инвесторы и руководители компании верят в огромный потенциал прибыли, поэтому крайне важно снять ограничение. Честность генерального директора: модели поведения генерального директора вызывают кризис доверия В отчете также отмечается, что у генерального директора Альтмана есть давняя, хорошо задокументированная модель непоследовательных высказываний и действий, манипулирования информацией и уклонения от надзора, а также приоритет личных интересов над ответственностью организации. В докладе приводится несколько примеров того, как Альтман открыто лжет или вводит в заблуждение по основным вопросам. Пример: По вопросу о соглашениях, не приносящих ущерба сотрудникам, Альтман публично заявил, что не знал о пункте о «лишении права собственности увольняющихся сотрудников», но из досье следует, что он прямо санкционировал этот пункт. В показаниях под присягой в Сенате он утверждал, что не имеет доли в OpenAI, но позже признался, что владеет ею косвенно через фонд. Тот факт, что он лично владеет фондом стартапов OpenAI, долгое время скрывался от совета директоров. Хелен Тонер, бывший член совета, прямо обвинила Альтмана в препятствовании работе совета директоров путем «сокрытия информации, искажения фактов и даже откровенной лжи». Отчет также показывает, что эта модель поведения сохранялась на протяжении всей его карьеры: во время его работы в Loopt старшие сотрудники дважды пытались заставить совет директоров уволить его, ссылаясь на «обманчивое и хаотичное» поведение. Во время работы в Y Combinator он пренебрегал своими обязанностями, сосредоточившись на своих личных проектах, и в конце концов был «уволен» основателем Полом Грэмом. Самым драматичным проявлением является то, что после увольнения из совета директоров OpenAI он использовал свое влияние, чтобы обратить вспять операцию, успешно добившись «обратной реакции» системы надзора, «убрав членов своего совета директоров и поставив своих собственных союзников» в качестве условия возвращения. Операционные риски и риски безопасности: системный провал обязательств по безопасности Отчет показывает системное несоответствие между словами и делами OpenAI, когда речь идет о безопасности и прозрачности, с серьезным разрывом между ее публичными обязательствами и внутренней практикой. Корпоративная культура демонстрирует тенденцию к тому, чтобы «только быстро, но не сломаться», и систематически ослабляет, обходит и даже наказывает внутренний надзор за безопасностью и инакомыслие с целью преследования деловых интересов и конкурентных преимуществ. Отчет показывает систематическое несоответствие между словами и делами OpenAI, когда речь идет о безопасности и прозрачности. Компания обещала выделить 20% своих вычислительных ресурсов «супер-выровненной» команде безопасности, но, по словам бывшего руководителя Яна Лейке, этот ресурс так и не был выделен. При разработке GPT-4o команду безопасности попросили провести «ускоренное» тестирование до выпуска продукта, и компания планировала празднование выпуска еще до начала оценки. Если говорить серьезно, то компания угрожает увольняющимся сотрудникам драконовскими соглашениями о выходном пособии, которые в случае критики обойдутся компании в миллионы долларов капитала. Сотрудник Леопольд Ашенбреннер был уволен за то, что подал в совет директоров меморандум о рисках национальной безопасности, и компания прямо сообщила ему, что причина увольнения заключалась в том, что он «сделал все возможное», чтобы сообщить о проблемах безопасности. В отчете также указывается, что в 2023 году у OpenAI был серьезный инцидент безопасности, связанный со взломом и кражей технических данных ИИ, но компания не сообщала компании в течение года.

Посмотреть Оригинал
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить