Lettre ouverte》Le procès d'Anthropic dévoile le voile de l'IA : un pillage sous couvert de bien-être social, nous devons tous être responsables du désert de connaissances pour la prochaine génération.

robot
Création du résumé en cours

Anthropic a fait face à des poursuites judiciaires vertigineuses pour avoir piraté 7 millions de livres afin de former l’IA, secouant ainsi l’industrie. Du point de vue de praticiens chevronnés, cet article analysera l’hypocrisie du noble slogan « pour le bien-être de l’humanité », et explorera pourquoi l’IA, construite sur des bases illégales, provoquera une crise de confiance et, en fin de compte, érodera le fondement de l’innovation dont elle dépend. (Synopsis : Anthropic vole 7 millions de livres pour former Claude et fait face à des poursuites pour piratage d’un milliard de dollars !) Ruée des géants de l’IA et limites juridiques) (Supplément de contexte : Effondrement de la vie privée de l’IA « ChatGPT Dialogue » se déroule nu devant la loi ; Altman : J’ai peur de saisir des informations personnelles, et il est difficile de savoir qui obtiendra les données) Dans le domaine de l’IA pendant de nombreuses années, j’ai vu l’avancement rapide de la technologie trop de fois, et j’ai également été témoin du flux et du reflux des capitaux. Chaque vague de technologie est accompagnée d’un grand récit, d’une raison de faire bouillir le sang de tout le monde, en particulier de la part des investisseurs et des régulateurs. À l’heure actuelle, cette raison est sans aucun doute « pour le bien-être de toute l’humanité ». Cependant, lorsque Anthropic, un géant de l’IA avec la bannière de la « sécurité et de l’éthique », est accusé de nourrir son fier mannequin Claude avec 7 millions de livres piratés, le noble slogan sonne plus comme une feuille de vigne, couvrant à peine un procès de mille milliards de dollars qui pourrait ébranler les fondations de toute l’industrie. Lire la suite : Anthropic vole 7 millions de livres pour former Claude et fait face à des poursuites pour piratage d’un milliard de dollars ! La ruée des géants de l’IA et les limites juridiques Le conflit central de ce procès est bien plus compliqué que l’étiquette « innovation contre droit d’auteur ». Il agit comme un prisme, reflétant l’inertie culturelle du « agir d’abord, demander pardon ensuite » dans la Silicon Valley, le décalage du cadre juridique face à la technologie exponentielle, et une question plus fondamentale : comment peut-on faire confiance à une « sagesse » fondée sur l’illégalité ? Enlever les habits neufs du roi de l'« usage loyal » : un mouvement d’enclosure numérique soigneusement emballé Tout d’abord, il faut voir l’essence de cette controverse. La décision préliminaire du juge dans l’affaire Anthropic met en évidence un clivage extrêmement critique : l’acte même de formation à l’IA peut être considéré comme un usage loyal en raison de son « utilisation transformatrice ». Mais la « source » du matériel de formation, s’il est illégalement piraté, est une toute autre affaire. C’est comme dire que vous préparez un plat célèbre avec trois étoiles Michelin à partir des ingrédients que vous avez achetés, ce qui est votre cuisine et votre innovation ; Mais si vous volez des ingrédients dans le réfrigérateur de quelqu’un d’autre, peu importe la qualité de cuisson du plat, cela ne changera pas le fait que vous l’avez volé. Le soi-disant « pour le développement de l’IA et l’amélioration du bien-être humain » est essentiellement une formation et un véritable mouvement d’enclosure par les géants de la technologie dans le domaine de la connaissance publique, qui inclut les créations protégées par le droit d’auteur. Cet ensemble de rhétorique englobe une question de coût purement commercial comme une question de choix moral sur le progrès humain. Ils disent au monde que sacrifier les droits d’auteur de certains écrivains est un « mal nécessaire » afin de rendre l’IA plus intelligente, d’accélérer les solutions à de grands problèmes comme le cancer et le changement climatique. Il s’agit d’une réplique numérique de « Tragédie des biens communs ». Les entreprises d’IA sont comme des bergers qui font paître leur bétail, traitant la création de connaissances de toute l’humanité comme une prairie sans paiement et avec un approvisionnement illimité. À court terme, leur modèle (le bétail) est engraissé, les valorisations des entreprises augmentent et les rapports économiques prévoient une croissance du PIB de plusieurs milliards de dollars. Mais quels sont les coûts à long terme d’être ignoré ? C’est le gagne-pain des créateurs et l’effondrement de l’ensemble de l’écosystème de la création de connaissances. Si les écrivains, les artistes, les universitaires et les journalistes ne peuvent pas obtenir un retour équitable sur leurs créations, d’où viendra la prochaine génération de contenu de qualité ? Lorsque le pâturage se transforme en désert, où l’IA, une bête affamée, peut-elle aller pour trouver de nouveaux nutriments ? Ce modèle crée un système d’incitation fatalement faux : il récompense les joueurs qui font des économies et évitent les coûts, tout en punissant ceux qui respectent les règles et qui tentent de construire des partenariats équitables et durables. Quand les applaudissements du marché sont donnés à ceux qui « s’échappent », qui veut attendre le coup de feu légal sur la ligne de départ ? Le « péché originel » des algorithmes : la sagesse bâtie sur le vol, oserez-vous y croire ? Si « l’enclosure numérique » est un pillage économique, alors le « péché originel des algorithmes » est une érosion fondamentale de la confiance sociale. Le développement de l’IA est confronté à un dilemme : si le fondement de ses capacités repose sur un mépris flagrant de la loi et de l’éthique, comment pouvons-nous faire confiance aux réponses qu’elle génère, aux recommandations qu’elle formule et même au plus grand pouvoir qui lui sera accordé à l’avenir ? Des entreprises comme Anthropic, en particulier, se présentent comme une IA sûre et éthique. Il y a un écart entre la promesse de la marque et l’utilisation présumée de matériel piraté. Il ne s’agit pas seulement d’une crise de relations publiques, mais aussi d’une crise de confiance. Pouvons-nous nous attendre à ce qu’une technologie née de l’acte de « ne pas poser de questions » porte des jugements conformes aux valeurs humaines fondamentales face à des dilemmes éthiques plus complexes à l’avenir ? Cela met en évidence la mentalité profondément enracinée des développeurs selon laquelle « la technologie d’abord, les règles sont en marge ». Imaginez un scénario futur où un médecin prescrit une ordonnance sur la base des recommandations d’une IA dont les connaissances médicales proviennent d’articles de revues non autorisés. Le « péché originel » de la source contaminera toutes ses applications ultérieures comme un virus, et lorsque le public se rendra compte que l’IA qui interagit tous les jours est un « voleur de connaissances », sa légitimité d’application dans des domaines à haut risque tels que l’éducation, les soins médicaux et le droit sera perdue. Les dommages potentiels exorbitants pour le procès d’Anthropic (jusqu’à un billion de dollars selon certains avocats) sont épouvantables, mais le coût le plus important pour Anthropic et l’industrie de l’IA dans son ensemble n’est peut-être pas l’argent, mais la perte permanente de confiance sociale. Une fois que la confiance s’effondre, peu importe à quel point l’algorithme est avancé, ce n’est plus qu’un château dans les airs construit sur des sables mouvants. L’art de la réfutation : démanteler l’erreur fatale de « l’innovation d’abord » Bien sûr, chaque fois que le droit d’auteur et la technologie entrent en collision, il y a toujours une voix qui crie : « C’est pour l’innovation ! » Les lois de l’ancienne ère tuent l’avenir de la nouvelle ère ! Cette doctrine de la suprématie de l’innovation semble passionnée, mais ne résiste pas à l’examen, et il y a plusieurs erreurs logiques fatales cachées derrière elle. Tout d’abord, il s’agit d’un sophisme de « faux dilemme ». Elle oppose l’innovation et le droit d’auteur et nous oblige à faire des choix. Mais la réalité est que le vrai choix n’est pas quelque part entre les deux, mais entre « l’innovation durable et symbiotique » et « l’innovation prédatrice et parasitaire ». Le respect du droit d’auteur et l’établissement d’une coopération autorisée avec les créateurs n’étoufferont pas l’innovation, mais fourniront à l’IA des supports de formation de meilleure qualité, plus propres et plus clairs, ce qui constitue un modèle d’innovation plus sain, plus stable et de plus grande portée. Deuxièmement, l’affirmation de la « nécessité » est une proposition fausse. Le développement de l’IA doit-il vraiment s’appuyer sur des matériaux piratés ? Ou l’utilisation de matériel piraté rend-elle simplement le développement « moins cher et plus rapide » ? Il s’agit d’un choix de modèle d’affaires, et non d’une nécessité technique. Les géants de la technologie ont choisi des raccourcis pour maximiser les profits et minimiser les coûts, pour ensuite les présenter comme la seule voie vers l’avenir. Ce n’est pas un fait, c’est juste un récit dans leur intérêt. Enfin, cet argument ignore complètement la source de l’innovation. L’IA elle-même ne produit pas de connaissances de première main, c’est un apprenant, un imitateur et un intégrateur extrêmement efficace. Toute sa sagesse provient de la vaste base de connaissances que les humains ont créée. Si la capacité de régénération de cette base de connaissances est détruite pour le développement de l’IA, cela équivaut à tuer des poules pour des œufs. C’est comme un marché de capitaux, si tout le monde fait l’immédiat ...

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)