Surat kepada editor》Gugatan Anthropic Mengungkapkan Selubung AI: Merampok dengan Menggunakan Kesejahteraan Sosial, Kita Semua Harus Bertanggung Jawab untuk Gurun Pengetahuan Generasi Mendatang
Anthropic menghadapi tuntutan hukum setinggi langit karena membajak 7 juta buku untuk melatih AI, mengguncang industri. Dari perspektif praktisi senior, artikel ini akan menganalisis kemunafikan slogan mulia "untuk kesejahteraan umat manusia", dan mengeksplorasi mengapa AI, yang dibangun di atas fondasi ilegal, akan menyebabkan krisis kepercayaan dan pada akhirnya mengikis fondasi inovasi yang menjadi andalannya. (Sinopsis: Anthropic mencuri 7 juta buku untuk melatih Claude dan menghadapi tuntutan hukum pembajakan triliunan dolar!) Terburu-buru raksasa AI dan batas hukum) (Suplemen latar belakang: Keruntuhan privasi AI "Dialog ChatGPT" berjalan telanjang di depan hukum; Altman: Saya takut memasukkan informasi pribadi, dan sulit untuk mengetahui siapa yang akan mendapatkan data) Di bidang AI selama bertahun-tahun, saya telah melihat kemajuan teknologi yang pesat berkali-kali, dan saya juga telah menyaksikan pasang surut modal. Setiap gelombang teknologi disertai dengan narasi besar, alasan untuk membuat darah semua orang mendidih, terutama dari investor dan regulator. Saat ini, alasan ini tidak diragukan lagi adalah "untuk kesejahteraan seluruh umat manusia". Namun, ketika Anthropic, raksasa AI dengan panji "keselamatan dan etika", dituduh memberi makan model kebanggaannya Claude dengan 7 juta buku bajakan, slogan mulia itu terdengar lebih seperti daun ara, nyaris tidak menutupi gugatan tingkat triliunan yang dapat mengguncang fondasi seluruh industri. Baca juga: Anthropic Mencuri 7 Juta Buku untuk Melatih Claude dan Hadapi Gugatan Pembajakan Triliunan Dolar! Terburu-buru raksasa AI dan batasan hukum Konflik inti dari gugatan ini jauh lebih rumit daripada label "inovasi vs. hak cipta". Ini bertindak seperti prisma, yang mencerminkan kelembaman budaya "bertindak terlebih dahulu, minta pengampunan kemudian" di Silicon Valley, keterlambatan kerangka hukum dalam menghadapi teknologi eksponensial, dan pertanyaan yang lebih mendasar: bagaimana kita bisa mempercayai "kebijaksanaan" berdasarkan ilegalitas? Melepas pakaian baru raja "penggunaan wajar": gerakan kandang digital yang dikemas dengan hati-hati Pertama, kita harus melihat esensi dari kontroversi ini. Putusan awal hakim di Anthropic menunjukkan kesenjangan yang sangat kritis: tindakan pelatihan AI dapat dianggap sebagai penggunaan wajar karena "penggunaan transformatif"-nya. Tetapi "sumber" materi pelatihan, jika dibajak secara ilegal, adalah masalah lain sama sekali. Ini seperti mengatakan bahwa Anda membuat hidangan terkenal dengan tiga bintang Michelin dari bahan-bahan yang Anda beli, yang merupakan masakan dan inovasi Anda; Tetapi jika Anda mencuri bahan dari lemari es orang lain, maka tidak peduli seberapa baik hidangan itu dimasak, itu tidak akan mengubah fakta bahwa Anda mencurinya. Apa yang disebut "untuk pengembangan AI dan peningkatan kesejahteraan manusia" pada dasarnya adalah pelatihan dan gerakan kandang nyata oleh raksasa teknologi di bidang pengetahuan publik, yang mencakup kreasi berhak cipta. Rangkaian retorika ini merangkum masalah biaya komersial murni sebagai pertanyaan pilihan moral tentang kemajuan manusia. Mereka memberi tahu dunia bahwa mengorbankan royalti beberapa penulis adalah "kejahatan yang diperlukan" untuk membuat AI lebih cerdas, untuk mempercepat solusi untuk masalah besar seperti kanker dan perubahan iklim. Ini adalah replika digital dari "Tragedi Commons." Perusahaan AI seperti gembala yang menggembalakan ternak mereka, memperlakukan penciptaan pengetahuan seluruh umat manusia sebagai padang rumput tanpa pembayaran dan pasokan tak terbatas. Dalam jangka pendek, model mereka (ternak) digemukkan, valuasi perusahaan meningkat, dan laporan ekonomi memprediksi triliunan dolar dalam pertumbuhan PDB. Tapi apa biaya jangka panjang dari diabaikan? Ini adalah mata pencaharian pencipta dan runtuhnya seluruh ekosistem penciptaan pengetahuan. Jika penulis, seniman, akademisi, dan jurnalis tidak bisa mendapatkan pengembalian yang adil atas kreasi mereka, dari mana konten berkualitas generasi berikutnya berasal? Ketika padang rumput berubah menjadi gurun, ke mana AI, binatang lapar, bisa pergi untuk mencari nutrisi baru? Model ini menciptakan sistem insentif yang sangat palsu: memberi penghargaan kepada pemain yang mengambil jalan pintas dan menghindari biaya, sambil menghukum mereka yang mematuhi aturan yang mencoba membangun kemitraan yang adil dan berkelanjutan. Ketika tepuk tangan pasar diberikan kepada mereka yang "menyelinap pergi", siapa yang mau menunggu tembakan legal di garis start? "Dosa asal" algoritma: kebijaksanaan yang dibangun di atas pencurian, apakah Anda berani mempercayainya? Jika "penutup digital" adalah penjarahan ekonomi, maka "dosa asal algoritma" adalah erosi mendasar dari kepercayaan sosial. Perkembangan AI berada dalam dilema: Jika fondasi kemampuannya dibangun di atas pengabaian terang-terangan terhadap hukum dan etika, bagaimana kita bisa mempercayai jawaban yang dihasilkannya, rekomendasi yang dibuatnya, dan bahkan kekuatan yang lebih besar yang akan diberikan di masa depan? Perusahaan seperti Anthropic, khususnya, mengiklankan diri mereka sebagai AI yang aman dan etis. Ada kesenjangan antara janji merek dan dugaan penggunaan materi bajakan. Ini bukan hanya krisis PR, tetapi juga krisis kepercayaan diri. Bisakah kita mengharapkan teknologi yang lahir dari tindakan "tidak mengajukan pertanyaan" untuk membuat penilaian yang konsisten dengan nilai-nilai inti manusia dalam menghadapi dilema etika yang lebih kompleks di masa depan? Ini mengekspos mentalitas pengembang yang mendalam "teknologi pertama, aturan di sela-sela" yang mendalam. Bayangkan skenario masa depan di mana seorang dokter meresepkan resep berdasarkan rekomendasi AI yang pengetahuan medisnya berasal dari artikel jurnal yang tidak sah. "Dosa asal" dari sumbernya akan mencemari semua aplikasi selanjutnya seperti virus, dan ketika publik menyadari bahwa AI yang berinteraksi setiap hari adalah "pencuri pengetahuan", legitimasi aplikasinya di bidang berisiko tinggi seperti pendidikan, perawatan medis, dan hukum akan hilang. Potensi kerusakan setinggi langit untuk gugatan Anthropic (hingga satu triliun dolar oleh beberapa pengacara) mengerikan, tetapi mungkin biaya terbesar bagi Anthropic dan industri AI secara keseluruhan bukanlah uang, tetapi hilangnya kepercayaan sosial secara permanen. Begitu kepercayaan runtuh, tidak peduli seberapa canggih algoritmanya, itu hanya sebuah kastil di udara yang dibangun di atas pasir hisap. Seni Bantahan: Membongkar Kekeliruan Fatal "Inovasi Pertama" Tentu saja, setiap kali hak cipta dan teknologi bertabrakan, selalu ada suara yang berteriak: "Ini untuk inovasi!" Hukum era lama membunuh masa depan era baru!" Doktrin supremasi inovasi ini terdengar bersemangat, tetapi tidak tahan terhadap pengawasan, dan ada beberapa kekeliruan logis fatal yang tersembunyi di baliknya. Pertama-tama, ini adalah kekeliruan "dilema palsu". Ini menetapkan inovasi dan hak cipta sebagai kebalikan dan memaksa kita untuk membuat pilihan. Tetapi kenyataannya adalah bahwa pilihan sebenarnya bukan di antara keduanya, tetapi antara "inovasi simbiosis yang berkelanjutan" dan "inovasi parasit predator." Menghormati hak cipta dan menjalin kerja sama resmi dengan pencipta tidak akan menghambat inovasi, tetapi akan memberi AI materi pelatihan yang lebih baik, lebih bersih, dan lebih jelas, yang merupakan model inovasi yang lebih sehat, lebih stabil, dan berjangkauan luas. Kedua, pernyataan "kebutuhan" adalah proposisi yang salah. Apakah pengembangan AI benar-benar harus mengandalkan bahan bajakan? Atau apakah penggunaan bahan bajakan hanya membuat pengembangan "lebih murah dan lebih cepat"? Ini adalah pilihan model bisnis, bukan kebutuhan teknis. Raksasa teknologi telah memilih jalan pintas untuk memaksimalkan keuntungan dan meminimalkan biaya, hanya untuk menyajikannya sebagai satu-satunya jalan menuju masa depan. Ini bukan fakta, ini hanya narasi untuk kepentingan mereka. Akhirnya, argumen ini benar-benar mengabaikan sumber inovasi. AI sendiri tidak menghasilkan pengetahuan langsung, ia adalah pembelajar, peniru, dan integrator yang sangat efisien. Semua kebijaksanaannya berasal dari basis pengetahuan luas yang telah diciptakan manusia. Jika kemampuan regeneratif dari basis pengetahuan ini dihancurkan untuk pengembangan AI, itu sama saja dengan membunuh ayam untuk telur. Ini seperti pasar modal, jika semua orang hanya melakukan ...
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Surat kepada editor》Gugatan Anthropic Mengungkapkan Selubung AI: Merampok dengan Menggunakan Kesejahteraan Sosial, Kita Semua Harus Bertanggung Jawab untuk Gurun Pengetahuan Generasi Mendatang
Anthropic menghadapi tuntutan hukum setinggi langit karena membajak 7 juta buku untuk melatih AI, mengguncang industri. Dari perspektif praktisi senior, artikel ini akan menganalisis kemunafikan slogan mulia "untuk kesejahteraan umat manusia", dan mengeksplorasi mengapa AI, yang dibangun di atas fondasi ilegal, akan menyebabkan krisis kepercayaan dan pada akhirnya mengikis fondasi inovasi yang menjadi andalannya. (Sinopsis: Anthropic mencuri 7 juta buku untuk melatih Claude dan menghadapi tuntutan hukum pembajakan triliunan dolar!) Terburu-buru raksasa AI dan batas hukum) (Suplemen latar belakang: Keruntuhan privasi AI "Dialog ChatGPT" berjalan telanjang di depan hukum; Altman: Saya takut memasukkan informasi pribadi, dan sulit untuk mengetahui siapa yang akan mendapatkan data) Di bidang AI selama bertahun-tahun, saya telah melihat kemajuan teknologi yang pesat berkali-kali, dan saya juga telah menyaksikan pasang surut modal. Setiap gelombang teknologi disertai dengan narasi besar, alasan untuk membuat darah semua orang mendidih, terutama dari investor dan regulator. Saat ini, alasan ini tidak diragukan lagi adalah "untuk kesejahteraan seluruh umat manusia". Namun, ketika Anthropic, raksasa AI dengan panji "keselamatan dan etika", dituduh memberi makan model kebanggaannya Claude dengan 7 juta buku bajakan, slogan mulia itu terdengar lebih seperti daun ara, nyaris tidak menutupi gugatan tingkat triliunan yang dapat mengguncang fondasi seluruh industri. Baca juga: Anthropic Mencuri 7 Juta Buku untuk Melatih Claude dan Hadapi Gugatan Pembajakan Triliunan Dolar! Terburu-buru raksasa AI dan batasan hukum Konflik inti dari gugatan ini jauh lebih rumit daripada label "inovasi vs. hak cipta". Ini bertindak seperti prisma, yang mencerminkan kelembaman budaya "bertindak terlebih dahulu, minta pengampunan kemudian" di Silicon Valley, keterlambatan kerangka hukum dalam menghadapi teknologi eksponensial, dan pertanyaan yang lebih mendasar: bagaimana kita bisa mempercayai "kebijaksanaan" berdasarkan ilegalitas? Melepas pakaian baru raja "penggunaan wajar": gerakan kandang digital yang dikemas dengan hati-hati Pertama, kita harus melihat esensi dari kontroversi ini. Putusan awal hakim di Anthropic menunjukkan kesenjangan yang sangat kritis: tindakan pelatihan AI dapat dianggap sebagai penggunaan wajar karena "penggunaan transformatif"-nya. Tetapi "sumber" materi pelatihan, jika dibajak secara ilegal, adalah masalah lain sama sekali. Ini seperti mengatakan bahwa Anda membuat hidangan terkenal dengan tiga bintang Michelin dari bahan-bahan yang Anda beli, yang merupakan masakan dan inovasi Anda; Tetapi jika Anda mencuri bahan dari lemari es orang lain, maka tidak peduli seberapa baik hidangan itu dimasak, itu tidak akan mengubah fakta bahwa Anda mencurinya. Apa yang disebut "untuk pengembangan AI dan peningkatan kesejahteraan manusia" pada dasarnya adalah pelatihan dan gerakan kandang nyata oleh raksasa teknologi di bidang pengetahuan publik, yang mencakup kreasi berhak cipta. Rangkaian retorika ini merangkum masalah biaya komersial murni sebagai pertanyaan pilihan moral tentang kemajuan manusia. Mereka memberi tahu dunia bahwa mengorbankan royalti beberapa penulis adalah "kejahatan yang diperlukan" untuk membuat AI lebih cerdas, untuk mempercepat solusi untuk masalah besar seperti kanker dan perubahan iklim. Ini adalah replika digital dari "Tragedi Commons." Perusahaan AI seperti gembala yang menggembalakan ternak mereka, memperlakukan penciptaan pengetahuan seluruh umat manusia sebagai padang rumput tanpa pembayaran dan pasokan tak terbatas. Dalam jangka pendek, model mereka (ternak) digemukkan, valuasi perusahaan meningkat, dan laporan ekonomi memprediksi triliunan dolar dalam pertumbuhan PDB. Tapi apa biaya jangka panjang dari diabaikan? Ini adalah mata pencaharian pencipta dan runtuhnya seluruh ekosistem penciptaan pengetahuan. Jika penulis, seniman, akademisi, dan jurnalis tidak bisa mendapatkan pengembalian yang adil atas kreasi mereka, dari mana konten berkualitas generasi berikutnya berasal? Ketika padang rumput berubah menjadi gurun, ke mana AI, binatang lapar, bisa pergi untuk mencari nutrisi baru? Model ini menciptakan sistem insentif yang sangat palsu: memberi penghargaan kepada pemain yang mengambil jalan pintas dan menghindari biaya, sambil menghukum mereka yang mematuhi aturan yang mencoba membangun kemitraan yang adil dan berkelanjutan. Ketika tepuk tangan pasar diberikan kepada mereka yang "menyelinap pergi", siapa yang mau menunggu tembakan legal di garis start? "Dosa asal" algoritma: kebijaksanaan yang dibangun di atas pencurian, apakah Anda berani mempercayainya? Jika "penutup digital" adalah penjarahan ekonomi, maka "dosa asal algoritma" adalah erosi mendasar dari kepercayaan sosial. Perkembangan AI berada dalam dilema: Jika fondasi kemampuannya dibangun di atas pengabaian terang-terangan terhadap hukum dan etika, bagaimana kita bisa mempercayai jawaban yang dihasilkannya, rekomendasi yang dibuatnya, dan bahkan kekuatan yang lebih besar yang akan diberikan di masa depan? Perusahaan seperti Anthropic, khususnya, mengiklankan diri mereka sebagai AI yang aman dan etis. Ada kesenjangan antara janji merek dan dugaan penggunaan materi bajakan. Ini bukan hanya krisis PR, tetapi juga krisis kepercayaan diri. Bisakah kita mengharapkan teknologi yang lahir dari tindakan "tidak mengajukan pertanyaan" untuk membuat penilaian yang konsisten dengan nilai-nilai inti manusia dalam menghadapi dilema etika yang lebih kompleks di masa depan? Ini mengekspos mentalitas pengembang yang mendalam "teknologi pertama, aturan di sela-sela" yang mendalam. Bayangkan skenario masa depan di mana seorang dokter meresepkan resep berdasarkan rekomendasi AI yang pengetahuan medisnya berasal dari artikel jurnal yang tidak sah. "Dosa asal" dari sumbernya akan mencemari semua aplikasi selanjutnya seperti virus, dan ketika publik menyadari bahwa AI yang berinteraksi setiap hari adalah "pencuri pengetahuan", legitimasi aplikasinya di bidang berisiko tinggi seperti pendidikan, perawatan medis, dan hukum akan hilang. Potensi kerusakan setinggi langit untuk gugatan Anthropic (hingga satu triliun dolar oleh beberapa pengacara) mengerikan, tetapi mungkin biaya terbesar bagi Anthropic dan industri AI secara keseluruhan bukanlah uang, tetapi hilangnya kepercayaan sosial secara permanen. Begitu kepercayaan runtuh, tidak peduli seberapa canggih algoritmanya, itu hanya sebuah kastil di udara yang dibangun di atas pasir hisap. Seni Bantahan: Membongkar Kekeliruan Fatal "Inovasi Pertama" Tentu saja, setiap kali hak cipta dan teknologi bertabrakan, selalu ada suara yang berteriak: "Ini untuk inovasi!" Hukum era lama membunuh masa depan era baru!" Doktrin supremasi inovasi ini terdengar bersemangat, tetapi tidak tahan terhadap pengawasan, dan ada beberapa kekeliruan logis fatal yang tersembunyi di baliknya. Pertama-tama, ini adalah kekeliruan "dilema palsu". Ini menetapkan inovasi dan hak cipta sebagai kebalikan dan memaksa kita untuk membuat pilihan. Tetapi kenyataannya adalah bahwa pilihan sebenarnya bukan di antara keduanya, tetapi antara "inovasi simbiosis yang berkelanjutan" dan "inovasi parasit predator." Menghormati hak cipta dan menjalin kerja sama resmi dengan pencipta tidak akan menghambat inovasi, tetapi akan memberi AI materi pelatihan yang lebih baik, lebih bersih, dan lebih jelas, yang merupakan model inovasi yang lebih sehat, lebih stabil, dan berjangkauan luas. Kedua, pernyataan "kebutuhan" adalah proposisi yang salah. Apakah pengembangan AI benar-benar harus mengandalkan bahan bajakan? Atau apakah penggunaan bahan bajakan hanya membuat pengembangan "lebih murah dan lebih cepat"? Ini adalah pilihan model bisnis, bukan kebutuhan teknis. Raksasa teknologi telah memilih jalan pintas untuk memaksimalkan keuntungan dan meminimalkan biaya, hanya untuk menyajikannya sebagai satu-satunya jalan menuju masa depan. Ini bukan fakta, ini hanya narasi untuk kepentingan mereka. Akhirnya, argumen ini benar-benar mengabaikan sumber inovasi. AI sendiri tidak menghasilkan pengetahuan langsung, ia adalah pembelajar, peniru, dan integrator yang sangat efisien. Semua kebijaksanaannya berasal dari basis pengetahuan luas yang telah diciptakan manusia. Jika kemampuan regeneratif dari basis pengetahuan ini dihancurkan untuk pengembangan AI, itu sama saja dengan membunuh ayam untuk telur. Ini seperti pasar modal, jika semua orang hanya melakukan ...