OpenAI bị bóc trần: thuyết âm mưu chuyển từ phi lợi nhuận sang lợi nhuận

OpenAI đang có hệ thống và dự tính trước một sự thay đổi cơ bản từ "vì hạnh phúc của nhân loại" sang "vì lợi nhuận của các nhà đầu tư", Giám đốc điều hành Altman có một mô hình dài hạn, được ghi chép đầy đủ về lời nói và hành động không nhất quán, thao túng thông tin và phá vỡ sự giám sát, và ràng buộc sâu sắc các khoản đầu tư cá nhân với hoạt động kinh doanh của công ty. (Tóm tắt nội dung: GPT-5 ra mắt vào mùa hè này!) Sam Altman tiết lộ bản thiết kế mô hình thế hệ tiếp theo của OpenAI, tham vọng StarGate, sẽ có quảng cáo? (Nền được thêm vào: Bom xung kích OpenAI!) Mua lại nhà thiết kế huyền thoại của Apple Jony Ive io, Altman: "Phần cứng AI tuyệt vời nhất" đang trên đường) Một báo cáo tương tác dài hơn 50 trang và hơn 10.000 từ tiết lộ sự phát triển của OpenAI từ một phòng thí nghiệm nghiên cứu phi lợi nhuận thành một gã khổng lồ vì lợi nhuận. Gần đây, hai tổ chức giám sát công nghệ phi lợi nhuận, Dự án Midas và Dự án Giám sát Công nghệ, đã công bố một cuộc điều tra chuyên sâu có tên là OpenAI Archives. Báo cáo, do Tyler Johnston, giám đốc điều hành của Dự án Midas dẫn đầu, mất gần một năm thu thập thông tin công khai và một tháng viết chuyên sâu. Báo cáo gọi đây là "tổng hợp toàn diện nhất cho đến nay về các mối quan tâm được ghi nhận về OpenAI về thực tiễn quản trị doanh nghiệp, tính toàn vẹn của lãnh đạo và văn hóa tổ chức". Bằng cách xem xét một số lượng lớn các tài liệu công khai như hồ sơ tiết lộ công ty, thủ tục pháp lý, thư ngỏ và báo cáo truyền thông, báo cáo tương tác dài hơn 10.000 từ cho thấy OpenAI đang có hệ thống và dự tính trước một sự thay đổi cơ bản từ "vì hạnh phúc của nhân loại" sang "vì lợi nhuận của các nhà đầu tư", với Giám đốc điều hành Altman có một mô hình dài hạn, được ghi chép đầy đủ về lời nói và hành động không nhất quán, thao túng thông tin và trốn tránh sự giám sát, và ràng buộc sâu sắc các khoản đầu tư cá nhân với hoạt động kinh doanh của công ty. OpenAI mâu thuẫn khi nói đến bảo mật và minh bạch, và cam kết công khai của nó bị ngắt kết nối hoàn toàn với các hoạt động nội bộ. Báo cáo được chia thành bốn chủ đề chính: tái cấu trúc, tính liêm chính của CEO, minh bạch và bảo mật, và xung đột lợi ích. Mức độ mà các giám đốc điều hành và thành viên hội đồng quản trị của OpenAI đã được hưởng lợi trực tiếp hoặc gián tiếp từ sự thành công của công ty là điều đáng lo ngại. Điều này bao gồm phân tích danh mục đầu tư của CEO Altman liên quan đến Retro Biosciences, Helion Energy, Reddit, Stripe và một số công ty khác có quan hệ đối tác với OpenAI. Tái cấu trúc: Một "sự phản bội sứ mệnh" Công phu Báo cáo lưu ý rằng OpenAI được tính toán trước một cách có hệ thống và có tính toán trước để tháo dỡ các trụ cột đạo đức và cấu trúc cốt lõi của việc thành lập nó, và các hành động của nó mâu thuẫn nghiêm trọng với các tuyên bố công khai, về cơ bản là một sự thay đổi cơ bản từ "vì lợi ích của nhân loại" sang "vì lợi nhuận của các nhà đầu tư". Đầu tiên, báo cáo tiết lộ sự tan rã đồng thời của hai trụ cột cốt lõi của OpenAI - "giới hạn lợi nhuận" và "giám sát phi lợi nhuận". Mô hình "Lợi nhuận giới hạn" ban đầu là triết lý cốt lõi của nó, nhằm đảm bảo rằng sự giàu có khổng lồ do AGI tạo ra được chia sẻ với toàn nhân loại và ngăn chặn sự tập trung của cải quá mức. Tuy nhiên, cam kết này đã dần bị làm rỗng: từ việc giảm bội số lợi nhuận bề ngoài củng cố sứ mệnh, đến việc bí mật đưa ra điều khoản "tăng trưởng tự động 20% mỗi năm" khiến nó trở nên vô dụng về mặt chức năng, đến kế hoạch cuối cùng là loại bỏ hoàn toàn giới hạn, đánh dấu sự kết thúc của ý tưởng chia sẻ tài sản. Đồng thời, các cơ chế giám sát của nó đã bị suy yếu một cách khéo léo. OpenAI đã chuyển đổi từ một thực thể được kiểm soát hoàn toàn bởi một tổ chức phi lợi nhuận thành một tập đoàn lợi ích công cộng ở Delaware. Nghĩa vụ pháp lý đã thay đổi từ "ưu tiên nhiệm vụ" sang "cân bằng lợi ích cổ đông và lợi ích công cộng". Báo cáo lưu ý rằng "không có tiền lệ nào trong lịch sử để các cổ đông kiện thành công để bảo vệ lợi ích công cộng", khiến những lời hứa miễn phí hầu như không thể thực thi trong thực tiễn pháp lý. Điều này cho thấy rằng cam kết của PBC đối với "lợi ích công cộng" có thể bị giảm xuống thành một vỏ bọc trong thực tế, cung cấp một vỏ bọc pháp lý khổng lồ cho việc theo đuổi tối đa hóa lợi nhuận. Nguồn ảnh: trang web openaifiles.org/ Báo cáo tiếp tục bác bỏ luận điệu chính thức của OpenAI về việc từ bỏ cam kết của mình với lý do "ngành công nghiệp này có tính cạnh tranh cao". Trích dẫn các Quy chế ban đầu của công ty và email nội bộ, báo cáo chứng minh rằng OpenAI đã dự đoán và chuẩn bị để đối phó với sự cạnh tranh gay gắt trong ngành ngay từ khi thành lập. Do đó, sử dụng cạnh tranh như một lời biện minh cho việc từ bỏ lời hứa là một "lịch sử xét lại" không thể đứng vững. Động lực thực sự đằng sau điều này chính xác là các nhà đầu tư và giám đốc điều hành công ty tin tưởng vào tiềm năng lợi nhuận khổng lồ của nó, vì vậy điều quan trọng là phải loại bỏ giới hạn. Chính trực của CEO: Các mô hình hành vi của CEO gây ra một cuộc khủng hoảng lòng tin Báo cáo cũng lưu ý thêm rằng CEO Altman có một mô hình lâu dài, được ghi chép đầy đủ về lời nói và hành động không nhất quán, thao túng thông tin và trốn tránh sự giám sát, và ưu tiên lợi ích cá nhân hơn trách nhiệm của tổ chức. Báo cáo trích dẫn một số ví dụ về việc Altman công khai nói dối hoặc gây hiểu lầm về các vấn đề lớn. Ví dụ: Về vấn đề thỏa thuận không xúc phạm nhân viên, Altman công khai tuyên bố không biết về điều khoản "tước đoạt vốn chủ sở hữu của nhân viên nghỉ việc", nhưng hồ sơ cho thấy anh ta đã ủy quyền rõ ràng cho điều khoản này. Trong phiên điều trần tại Thượng viện dưới lời tuyên thệ, ông tuyên bố không có cổ phần trong OpenAI, nhưng sau đó thừa nhận đã nắm giữ nó gián tiếp thông qua quỹ. Việc cá nhân anh sở hữu quỹ khởi nghiệp OpenAI từ lâu đã được che giấu khỏi hội đồng quản trị. Helen Toner, một cựu thành viên hội đồng quản trị, trực tiếp cáo buộc Altman cản trở hoạt động của hội đồng quản trị bằng cách "giữ lại thông tin, xuyên tạc sự thật và thậm chí nói dối hoàn toàn". Báo cáo cũng cho thấy rằng mô hình hành vi này đã tiếp tục trong suốt sự nghiệp của anh ấy: Trong thời gian làm việc tại Loopt, các nhân viên cấp cao đã hai lần cố gắng khiến hội đồng quản trị sa thải anh ấy, với lý do hành vi "lừa dối và hỗn loạn". Trong thời gian làm việc tại Y Combinator, ông đã bỏ bê nhiệm vụ của mình bằng cách tập trung vào các dự án cá nhân của mình, và cuối cùng đã bị người sáng lập Paul Graham "yêu cầu". Biểu hiện ấn tượng nhất là sau khi bị sa thải khỏi hội đồng quản trị OpenAI, ông đã sử dụng ảnh hưởng của mình để đảo ngược hoạt động, thành công đạt được "phản ứng dữ dội" của hệ thống giám sát bằng cách "loại bỏ các thành viên hội đồng quản trị của mình và cài đặt các đồng minh của riêng mình" như một điều kiện trở lại. Rủi ro hoạt động và bảo mật: Thất bại có hệ thống của các cam kết bảo mật Báo cáo cho thấy sự khác biệt có hệ thống giữa lời nói và hành động của OpenAI khi nói đến bảo mật và minh bạch, với sự mất kết nối nghiêm trọng giữa các cam kết công khai và thực tiễn nội bộ. Văn hóa công ty cho thấy xu hướng "chỉ nhanh nhưng không bị phá vỡ", và đang làm suy yếu, phá vỡ và thậm chí trừng phạt một cách có hệ thống việc giám sát và bất đồng chính kiến về an toàn nội bộ để theo đuổi lợi ích kinh doanh và lợi thế cạnh tranh. Báo cáo cho thấy sự mâu thuẫn có hệ thống giữa lời nói và hành động của OpenAI khi nói đến bảo mật và minh bạch. Công ty hứa sẽ dành 20% tài nguyên máy tính của mình cho nhóm bảo mật "siêu liên kết", nhưng theo cựu giám đốc Jan Leike, nguồn lực này không bao giờ được phân bổ. Trong quá trình phát triển GPT-4o, nhóm bảo mật đã được yêu cầu "theo dõi nhanh" thử nghiệm trước khi sản phẩm được phát hành và công ty đã lên kế hoạch cho lễ kỷ niệm phát hành ngay cả trước khi bắt đầu đánh giá. Nghiêm trọng hơn, công ty đe dọa nhân viên nghỉ việc bằng các thỏa thuận thôi việc hà khắc sẽ khiến công ty mất hàng triệu đô la vốn chủ sở hữu nếu bị chỉ trích. Nhân viên Leopold Aschenbrenner đã bị sa thải vì nộp một bản ghi nhớ rủi ro an ninh quốc gia với hội đồng quản trị và công ty đã thông báo rõ ràng cho anh ta rằng lý do sa thải là anh ta "đã vượt lên trên và hơn thế nữa" để báo cáo các vấn đề an ninh. Báo cáo cũng chỉ ra rằng OpenAI đã có một sự cố bảo mật nghiêm trọng về hack và đánh cắp các chi tiết kỹ thuật AI vào năm 2023, nhưng nó đã không báo cáo cho công ty trong tối đa một năm.

Xem bản gốc
Nội dung chỉ mang tính chất tham khảo, không phải là lời chào mời hay đề nghị. Không cung cấp tư vấn về đầu tư, thuế hoặc pháp lý. Xem Tuyên bố miễn trừ trách nhiệm để biết thêm thông tin về rủi ro.
  • Phần thưởng
  • Bình luận
  • Chia sẻ
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)