تم فضح OpenAI بشكل كامل: نظرية مؤامرة تحولها من غير ربحية إلى ربحية

تعمل OpenAI بشكل منهجي ومتعمد على تحول أساسي من "من أجل رفاهية البشرية" إلى "من أجل ربح المستثمرين" ، ولدى الرئيس التنفيذي ألتمان نمط طويل الأمد وموثق جيدا من الكلمات والأفعال غير المتسقة ، والتلاعب بالمعلومات والتحايل على الرقابة ، والربط العميق للاستثمارات الشخصية بأعمال الشركة. (ملخص: GPT-5 لأول مرة هذا الصيف!) يكشف Sam Altman عن مخطط نموذج OpenAI من الجيل التالي ، طموحات StarGate ، هل ستكون هناك إعلانات؟ (تمت إضافة الخلفية: قنبلة صدمة OpenAI!) الاستحواذ على مصمم Apple الأسطوري جوني إيف آيو ، ألتمان: "أروع أجهزة الذكاء الاصطناعي" في الطريق) يكشف تقرير تفاعلي من أكثر من 50 صفحة وأكثر من 10,000 كلمة عن تطور OpenAI من مختبر أبحاث غير ربحي إلى عملاق هادف للربح. في الآونة الأخيرة ، أصدرت منظمتان غير ربحيتين لمراقبة التكنولوجيا ، وهما مشروع ميداس ومشروع الرقابة التقنية ، تحقيقا متعمقا يسمى أرشيفات OpenAI. استغرق التقرير ، بقيادة تايلر جونستون ، المدير التنفيذي لمشروع ميداس ، ما يقرب من عام من جمع المعلومات العامة وشهرا من الكتابة المكثفة. ويصفها التقرير بأنها "التجميع الأكثر شمولا حتى الآن للمخاوف الموثقة بشأن OpenAI من حيث ممارسات حوكمة الشركات ونزاهة القيادة والثقافة التنظيمية". من خلال تمشيط عدد كبير من المواد العامة مثل ملفات الإفصاح عن الشركة والإجراءات القانونية والرسائل المفتوحة والتقارير الإعلامية ، وجد التقرير التفاعلي المكون من أكثر من 10,000 كلمة أن OpenAI تعمل بشكل منهجي ومتعمد على تحول أساسي من "من أجل رفاهية البشرية" إلى "من أجل ربح المستثمرين" ، مع وجود نمط طويل الأمد وموثق جيدا من الكلمات والأفعال غير المتسقة ، والتلاعب بالمعلومات والتهرب من الإشراف ، والربط العميق للاستثمارات الشخصية بأعمال الشركة. OpenAI على خلاف عندما يتعلق الأمر بالأمان والشفافية ، والتزامها العام منفصل بشكل صارخ عن الممارسات الداخلية. ينقسم التقرير إلى أربعة محاور رئيسية: إعادة الهيكلة، ونزاهة الرئيس التنفيذي، والشفافية والأمن، وتضارب المصالح. إن مدى استفادة المديرين التنفيذيين وأعضاء مجلس الإدارة في OpenAI بشكل مباشر أو غير مباشر من نجاح الشركة أمر مثير للقلق. يتضمن ذلك تحليلا لمحفظة الرئيس التنفيذي Altman التي تشمل Retro Biosciences و Helion Energy و Reddit و Stripe وعدد من الشركات الأخرى التي لديها شراكات مع OpenAI. إعادة الهيكلة: "خيانة للمهمة" يشير التقرير إلى أن OpenAI بشكل منهجي ومتعمد لتفكيك الركائز الأخلاقية والهيكلية الأساسية لتأسيسها ، وأن أفعالها تتعارض بشكل خطير مع التصريحات العامة ، وهي في الأساس تحول أساسي من "لصالح الإنسانية" إلى "لصالح المستثمرين". أولا ، يكشف التقرير عن التفكك المتزامن للركيزتين الأساسيتين ل OpenAI - "الحد الأقصى للربح" و "الرقابة غير الربحية". كان نموذج "Capped-Profit" الأصلي هو فلسفته الأساسية ، والتي كانت تهدف إلى ضمان مشاركة الثروة الهائلة التي أنشأتها AGI مع البشرية جمعاء ومنع التركيز المفرط للثروة. ومع ذلك ، فقد تم تفريغ هذا الالتزام تدريجيا: من تقليل مضاعفات الأرباح التي تعزز المهمة ظاهريا ، إلى الإدخال السري لبند "النمو التلقائي بنسبة 20٪ سنويا" الذي يجعله عديم الفائدة وظيفيا ، إلى الخطة النهائية لإزالة الحد الأقصى تماما ، مما يمثل نهاية فكرة تقاسم الثروة. وفي الوقت نفسه، أضعفت آليات الرقابة بذكاء. تحولت OpenAI من كيان تسيطر عليه بالكامل منظمة غير ربحية إلى شركة ذات منفعة عامة في ولاية ديلاوير. وقد تغير الالتزام القانوني من "أولوية المهمة" إلى "الموازنة بين مصالح المساهمين والمصلحة العامة". يشير التقرير إلى أنه "لا توجد سابقة في التاريخ للمساهمين لرفع دعوى قضائية بنجاح لحماية المصلحة العامة" ، مما يجعل من المستحيل تقريبا تنفيذ الوعود المجانية في الممارسة القانونية. يشير هذا إلى أن التزام بنك الشعب الصيني ب "الصالح العام" قد يتم اختزاله إلى صدفة في الواقع ، مما يوفر غطاء قانونيا ضخما للسعي لتحقيق تعظيم الأرباح. مصدر الصورة: موقع openaifiles.org/ يدحض التقرير أيضا الخطاب الرسمي لشركة OpenAI بالتخلي عن التزامها على أساس أن "الصناعة تنافسية للغاية". نقلا عن اللوائح الداخلية المبكرة للشركة ورسائل البريد الإلكتروني الداخلية ، يثبت التقرير أن OpenAI توقعت وكانت مستعدة للتعامل مع المنافسة الصناعية الشديدة منذ إنشائها. لذلك ، فإن استخدام المنافسة كمبرر للنكث بالوعود هو "تاريخ تحريفي" لا يمكن الدفاع عنه. الدافع الحقيقي وراء ذلك هو على وجه التحديد أن المستثمرين والمديرين التنفيذيين للشركة يؤمنون بإمكانيات الربح الهائلة ، لذلك من الضروري إزالة الحد الأقصى. نزاهة الرئيس التنفيذي: أنماط سلوك الرئيس التنفيذي تؤدي إلى أزمة ثقة يشير التقرير أيضا إلى أن الرئيس التنفيذي ألتمان لديه نمط طويل الأمد وموثق جيدا من الكلام والأفعال غير المتسقة ، والتلاعب بالمعلومات والتهرب من الرقابة ، وإعطاء الأولوية للمصالح الشخصية على المسؤولية التنظيمية. يستشهد التقرير بعدة أمثلة على كذب ألتمان علنا أو تضليله بشأن القضايا الرئيسية. مثال: فيما يتعلق بمسألة الاتفاقيات غير المهينة للموظفين ، ادعى ألتمان علنا أنه غير مدرك لبند "حرمان الموظفين المغادرين من الإنصاف" ، لكن الملف يظهر أنه أذن صراحة بالبند. في شهادته في مجلس الشيوخ تحت القسم ، ادعى أنه ليس لديه حصة في OpenAI ، لكنه اعترف لاحقا بالاحتفاظ بها بشكل غير مباشر من خلال الصندوق. لطالما تم إخفاء حقيقة أنه يمتلك شخصيا صندوق OpenAI الناشئة عن مجلس الإدارة. اتهمت هيلين تونر ، عضو مجلس الإدارة السابق ، ألتمان بشكل مباشر بعرقلة أداء مجلس الإدارة من خلال "حجب المعلومات ، وتشويه الحقائق ، وحتى الكذب الصريح". يظهر التقرير أيضا أن هذا النمط من السلوك استمر طوال حياته المهنية: خلال الفترة التي قضاها في Loopt ، حاول كبار الموظفين مرتين إقناع مجلس الإدارة بإقالته ، مشيرين إلى سلوك "مخادع وفوضوي". خلال الفترة التي قضاها في Y Combinator ، أهمل واجباته من خلال التركيز على مشاريعه الشخصية ، وفي النهاية "طلب منه" من قبل المؤسس بول جراهام. المظهر الأكثر دراماتيكية هو أنه بعد طرده من مجلس إدارة OpenAI ، استخدم نفوذه لعكس العملية ، ونجح في تحقيق "رد فعل عنيف" لنظام الرقابة من خلال "إزالة أعضاء مجلس إدارته وتثبيت حلفائه" كشرط للعودة. المخاطر التشغيلية والأمنية: الفشل المنهجي للالتزامات الأمنية يكشف التقرير عن تناقض منهجي بين أقوال وأفعال OpenAI عندما يتعلق الأمر بالأمن والشفافية ، مع انفصال خطير بين التزاماتها العامة وممارساتها الداخلية. تظهر ثقافة الشركة ميلا إلى "السرعة فقط ولكن غير المكسورة" ، وهي تضعف بشكل منهجي وتتحايل بل وتعاقب على الإشراف على السلامة الداخلية والمعارضة من أجل متابعة المصالح التجارية والمزايا التنافسية. يكشف التقرير عن تناقض منهجي بين أقوال وأفعال OpenAI عندما يتعلق الأمر بالأمان والشفافية. وعدت الشركة بتخصيص 20٪ من موارد الحوسبة الخاصة بها لفريق الأمان "فائق التوافق" ، ولكن وفقا للرئيس السابق جان ليكي ، لم يتم تخصيص هذا المورد أبدا. في تطوير GPT-4o ، طلب من فريق الأمان "المسار السريع" للاختبار قبل إصدار المنتج ، وخططت الشركة للاحتفال بالإصدار حتى قبل بدء التقييم. والأخطر من ذلك ، أن الشركة تهدد الموظفين المغادرين باتفاقيات إنهاء خدمة صارمة ستكلف الشركة ملايين الدولارات من الأسهم إذا تم انتقادها. تم طرد الموظف ليوبولد أشينبرينر لتقديمه مذكرة مخاطر الأمن القومي إلى مجلس الإدارة ، وأبلغته الشركة صراحة أن سبب الفصل هو أنه "ذهب إلى أبعد الحدود" للإبلاغ عن المشكلات الأمنية. كما أشار التقرير إلى أن OpenAI تعرضت لحادث أمني خطير من القرصنة وسرقة التفاصيل الفنية الذكاء الاصطناعي في عام 2023 ، لكنها لم تبلغ الشركة لمدة تصل إلى عام.

شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت