Carta al Editor: La demanda de Anthropic desvela el velo de la IA: depredación bajo el pretexto del bienestar social, tú y yo debemos responsabilizarnos por el desierto de conocimiento de la próxima generación.
Anthropic enfrenta una demanda exorbitante de 70 millones de libros utilizados para entrenar su IA debido a la piratería, lo que ha sacudido toda la industria. Este artículo analizará desde la perspectiva de un profesional experimentado la hipocresía de este noble lema "por el bienestar de la humanidad" y explorará por qué una IA basada en fundamentos ilegales provocará una crisis de confianza y, en última instancia, erosionará la base de innovación de la que depende. (Resumen anterior: ¡Anthropic utilizó 70 millones de libros robados para entrenar a Claude y enfrenta una demanda por piratería de billones! La locura de los gigantes de la IA y los límites legales) (Información de fondo: La caída de la privacidad de la IA "ChatGPT en conversaciones" se encuentra desnuda ante la ley; Altman: Temo ingresar datos personales, es difícil saber quién tendrá acceso a la información) Después de haber estado en el campo de la IA durante muchos años, he visto muchas veces el avance vertiginoso de la tecnología, así como el auge y la caída del capital. Cada ola tecnológica viene acompañada de una narrativa grandiosa, una razón que hace que todos (especialmente inversionistas y reguladores) se entusiasmen. En la actualidad, esta razón es, sin duda, "por el bienestar de toda la humanidad". Sin embargo, cuando Anthropic, un gigante de la IA que se presenta como "seguro y ético", es acusado de alimentar su orgulloso modelo Claude con 70 millones de libros piratas, este noble lema suena más como un paño de vergüenza, apenas cubriendo una demanda de billones que podría sacudir los cimientos de toda la industria. Lectura adicional: ¡Anthropic utilizó 70 millones de libros para entrenar a Claude y enfrenta una demanda por piratería de billones! La locura de los gigantes de la IA y los límites legales El conflicto central de esta demanda es mucho más complejo que la etiqueta "innovación vs. derechos de autor". Es como un prisma, que refleja la inercia cultural de Silicon Valley de "actuar primero, pedir perdón después", la inadecuación del marco legal ante tecnologías exponenciales, y una pregunta más fundamental: ¿cómo podemos confiar en una "inteligencia" construida sobre fundamentos ilegales? Quitando la ropa del rey de "uso razonable": un movimiento de cercado digital cuidadosamente empaquetado Primero, debemos entender la esencia de esta controversia. El juez del caso Anthropic dictó un fallo preliminar que señala una distinción clave: la acción de entrenar IA en sí misma, debido a su "uso transformativo", podría considerarse uso razonable. Pero si la "fuente" de los datos de entrenamiento es ilegalmente pirateada, eso es completamente otra cosa. Es como decir que si haces un plato de tres estrellas Michelin con ingredientes comprados, eso es tu habilidad y creatividad; pero si los ingredientes fueron robados de la nevera de otra persona, no importa cuán bien cocines, no cambiará el hecho de que robaste. La narrativa de "por el desarrollo de la IA y el bienestar de la humanidad" es, en esencia, un movimiento de cercado disfrazado de una cuestión moral sobre el avance humano, donde los gigantes de la tecnología están invadiendo el dominio del conocimiento público (que incluye obras protegidas por derechos de autor). Este discurso envuelve un problema puramente comercial en una cuestión moral de progreso humano. Nos dicen que, para que la IA sea más inteligente y para acelerar la resolución de grandes problemas como el cáncer y el cambio climático, sacrificar las regalías de algunos autores es un "mal necesario". Esto es una versión digital de la "tragedia de los comunes". Las empresas de IA son como pastores que pastorean sin límites, tratando el conocimiento humano como un pastizal que no requiere pago y es de suministro infinito. A corto plazo, sus modelos (alcistas) están bien alimentados, la valoración de las empresas se eleva, y los informes económicos presagian un aumento del PIB de billones de dólares. Pero, ¿cuál es el costo a largo plazo que se pasa por alto? Es la vida de los creadores, es el colapso de todo el ecosistema de creación de conocimiento. Si escritores, artistas, académicos y periodistas no pueden obtener una compensación justa por su trabajo, ¿de dónde vendrá el contenido de calidad para la próxima generación? Cuando el pastizal se convierte en desierto, ¿dónde buscará este voraz monstruo de IA nuevos nutrientes? Este modelo ha creado un mecanismo de incentivos erróneos letal: premia a los jugadores que toman atajos y evitan costos, mientras castiga a aquellos que intentan establecer relaciones de cooperación justas y sostenibles. Cuando los aplausos del mercado se dan a aquellos que "roban carreras", ¿quién querrá esperar en la línea de salida por el disparo legítimo? El "pecado original" del algoritmo: ¿puedes confiar en la inteligencia construida sobre el robo? Si el "cercado digital" es un saqueo en el ámbito económico, entonces el "pecado original del algoritmo" es una erosión fundamental de la confianza social. El desarrollo de la IA está atrapado en un dilema: si la base de su capacidad se construye sobre el desprecio abierto de la ley y la ética, ¿cómo podemos confiar en las respuestas que genera, las sugerencias que ofrece e incluso en el mayor poder que se le otorgará en el futuro? Empresas como Anthropic se destacan por presentarse como IA segura y ética. Esta promesa de marca y su conducta sospechosa de uso de datos pirateados presentan un abismo difícil de cruzar. No es solo una crisis de relaciones públicas, sino una crisis de confianza. ¿Podemos esperar que una tecnología nacida de un acto de "tomar sin preguntar" haga juicios que se alineen con los valores centrales de la humanidad cuando enfrente dilemas éticos más complejos en el futuro? Esto expone la mentalidad arraigada de los desarrolladores de "tecnología primero, reglas a un lado". Imagina un escenario futuro: un médico prescribe con base en la recomendación de una IA, cuya conocimiento médico proviene de artículos de revistas no autorizados. El "pecado original" de la fuente de datos contaminará todas sus aplicaciones posteriores como un virus; cuando el público se dé cuenta de que la IA con la que interactúa diariamente es un "ladrón de conocimiento", la legitimidad de su aplicación en áreas de alto riesgo como la educación, la medicina y el derecho se desvanecerá. La posible indemnización astronómica de esta demanda contra Anthropic (algunos abogados estiman hasta un billón de dólares) es ciertamente alarmante, pero el mayor costo para Anthropic y toda la industria de la IA puede que no sea el dinero, sino la pérdida permanente de confianza social. Una vez que la confianza se derrumba, incluso el algoritmo más avanzado es solo un castillo en el aire construido sobre arenas movedizas. El arte de la refutación: desmantelando las falacias mortales del discurso "innovación primero" Por supuesto, cada vez que los derechos de autor y la tecnología chocan, siempre hay voces que claman: "¡Esto es por la innovación! ¡Las leyes de la era pasada están estrangulando el futuro de la nueva era!" Este discurso de innovación primero suena apasionado, pero no resiste el escrutinio, escondiendo detrás de él varias falacias lógicas mortales. Primero, es una falacia de "falsa dicotomía". Coloca la innovación y los derechos de autor como opuestos irreconciliables, obligándonos a elegir. Pero la realidad es que la verdadera elección no está entre los dos, sino entre "innovación sostenible y simbiótica" y "innovación depredadora y parasitaria". Respetar los derechos de autor y establecer colaboraciones autorizadas con los creadores no solo no sofocará la innovación, sino que proporcionará a la IA datos de entrenamiento de mejor calidad, más limpios y con responsabilidades más claras; este es un modelo de innovación más saludable y sostenible. En segundo lugar, la afirmación de "necesidad" es un falso dilema. ¿Realmente necesita la IA desarrollarse a partir de datos pirateados? ¿O es que utilizar datos pirateados simplemente hace que el desarrollo sea "más barato y rápido"? Esta es una elección de modelo de negocio, no una inevitabilidad técnica. Los gigantes tecnológicos han optado por maximizar ganancias y minimizar costos, pero han empaquetado esto como el único camino hacia el futuro. Esto no es un hecho, solo es una narrativa que beneficia sus intereses. Finalmente, este discurso ignora completamente la fuente de la innovación. La IA en sí no genera conocimiento original; es un aprendiz, imitador e integrador extremadamente eficiente. Toda su inteligencia proviene del vasto banco de conocimiento que la humanidad ya ha creado. Si destruimos la capacidad de regeneración de este banco de conocimiento para el desarrollo de la IA, sería como matar a la gallina de los huevos de oro. Es como si en un mercado de capitales, si todos solo se enfocan en el presente...
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Carta al Editor: La demanda de Anthropic desvela el velo de la IA: depredación bajo el pretexto del bienestar social, tú y yo debemos responsabilizarnos por el desierto de conocimiento de la próxima generación.
Anthropic enfrenta una demanda exorbitante de 70 millones de libros utilizados para entrenar su IA debido a la piratería, lo que ha sacudido toda la industria. Este artículo analizará desde la perspectiva de un profesional experimentado la hipocresía de este noble lema "por el bienestar de la humanidad" y explorará por qué una IA basada en fundamentos ilegales provocará una crisis de confianza y, en última instancia, erosionará la base de innovación de la que depende. (Resumen anterior: ¡Anthropic utilizó 70 millones de libros robados para entrenar a Claude y enfrenta una demanda por piratería de billones! La locura de los gigantes de la IA y los límites legales) (Información de fondo: La caída de la privacidad de la IA "ChatGPT en conversaciones" se encuentra desnuda ante la ley; Altman: Temo ingresar datos personales, es difícil saber quién tendrá acceso a la información) Después de haber estado en el campo de la IA durante muchos años, he visto muchas veces el avance vertiginoso de la tecnología, así como el auge y la caída del capital. Cada ola tecnológica viene acompañada de una narrativa grandiosa, una razón que hace que todos (especialmente inversionistas y reguladores) se entusiasmen. En la actualidad, esta razón es, sin duda, "por el bienestar de toda la humanidad". Sin embargo, cuando Anthropic, un gigante de la IA que se presenta como "seguro y ético", es acusado de alimentar su orgulloso modelo Claude con 70 millones de libros piratas, este noble lema suena más como un paño de vergüenza, apenas cubriendo una demanda de billones que podría sacudir los cimientos de toda la industria. Lectura adicional: ¡Anthropic utilizó 70 millones de libros para entrenar a Claude y enfrenta una demanda por piratería de billones! La locura de los gigantes de la IA y los límites legales El conflicto central de esta demanda es mucho más complejo que la etiqueta "innovación vs. derechos de autor". Es como un prisma, que refleja la inercia cultural de Silicon Valley de "actuar primero, pedir perdón después", la inadecuación del marco legal ante tecnologías exponenciales, y una pregunta más fundamental: ¿cómo podemos confiar en una "inteligencia" construida sobre fundamentos ilegales? Quitando la ropa del rey de "uso razonable": un movimiento de cercado digital cuidadosamente empaquetado Primero, debemos entender la esencia de esta controversia. El juez del caso Anthropic dictó un fallo preliminar que señala una distinción clave: la acción de entrenar IA en sí misma, debido a su "uso transformativo", podría considerarse uso razonable. Pero si la "fuente" de los datos de entrenamiento es ilegalmente pirateada, eso es completamente otra cosa. Es como decir que si haces un plato de tres estrellas Michelin con ingredientes comprados, eso es tu habilidad y creatividad; pero si los ingredientes fueron robados de la nevera de otra persona, no importa cuán bien cocines, no cambiará el hecho de que robaste. La narrativa de "por el desarrollo de la IA y el bienestar de la humanidad" es, en esencia, un movimiento de cercado disfrazado de una cuestión moral sobre el avance humano, donde los gigantes de la tecnología están invadiendo el dominio del conocimiento público (que incluye obras protegidas por derechos de autor). Este discurso envuelve un problema puramente comercial en una cuestión moral de progreso humano. Nos dicen que, para que la IA sea más inteligente y para acelerar la resolución de grandes problemas como el cáncer y el cambio climático, sacrificar las regalías de algunos autores es un "mal necesario". Esto es una versión digital de la "tragedia de los comunes". Las empresas de IA son como pastores que pastorean sin límites, tratando el conocimiento humano como un pastizal que no requiere pago y es de suministro infinito. A corto plazo, sus modelos (alcistas) están bien alimentados, la valoración de las empresas se eleva, y los informes económicos presagian un aumento del PIB de billones de dólares. Pero, ¿cuál es el costo a largo plazo que se pasa por alto? Es la vida de los creadores, es el colapso de todo el ecosistema de creación de conocimiento. Si escritores, artistas, académicos y periodistas no pueden obtener una compensación justa por su trabajo, ¿de dónde vendrá el contenido de calidad para la próxima generación? Cuando el pastizal se convierte en desierto, ¿dónde buscará este voraz monstruo de IA nuevos nutrientes? Este modelo ha creado un mecanismo de incentivos erróneos letal: premia a los jugadores que toman atajos y evitan costos, mientras castiga a aquellos que intentan establecer relaciones de cooperación justas y sostenibles. Cuando los aplausos del mercado se dan a aquellos que "roban carreras", ¿quién querrá esperar en la línea de salida por el disparo legítimo? El "pecado original" del algoritmo: ¿puedes confiar en la inteligencia construida sobre el robo? Si el "cercado digital" es un saqueo en el ámbito económico, entonces el "pecado original del algoritmo" es una erosión fundamental de la confianza social. El desarrollo de la IA está atrapado en un dilema: si la base de su capacidad se construye sobre el desprecio abierto de la ley y la ética, ¿cómo podemos confiar en las respuestas que genera, las sugerencias que ofrece e incluso en el mayor poder que se le otorgará en el futuro? Empresas como Anthropic se destacan por presentarse como IA segura y ética. Esta promesa de marca y su conducta sospechosa de uso de datos pirateados presentan un abismo difícil de cruzar. No es solo una crisis de relaciones públicas, sino una crisis de confianza. ¿Podemos esperar que una tecnología nacida de un acto de "tomar sin preguntar" haga juicios que se alineen con los valores centrales de la humanidad cuando enfrente dilemas éticos más complejos en el futuro? Esto expone la mentalidad arraigada de los desarrolladores de "tecnología primero, reglas a un lado". Imagina un escenario futuro: un médico prescribe con base en la recomendación de una IA, cuya conocimiento médico proviene de artículos de revistas no autorizados. El "pecado original" de la fuente de datos contaminará todas sus aplicaciones posteriores como un virus; cuando el público se dé cuenta de que la IA con la que interactúa diariamente es un "ladrón de conocimiento", la legitimidad de su aplicación en áreas de alto riesgo como la educación, la medicina y el derecho se desvanecerá. La posible indemnización astronómica de esta demanda contra Anthropic (algunos abogados estiman hasta un billón de dólares) es ciertamente alarmante, pero el mayor costo para Anthropic y toda la industria de la IA puede que no sea el dinero, sino la pérdida permanente de confianza social. Una vez que la confianza se derrumba, incluso el algoritmo más avanzado es solo un castillo en el aire construido sobre arenas movedizas. El arte de la refutación: desmantelando las falacias mortales del discurso "innovación primero" Por supuesto, cada vez que los derechos de autor y la tecnología chocan, siempre hay voces que claman: "¡Esto es por la innovación! ¡Las leyes de la era pasada están estrangulando el futuro de la nueva era!" Este discurso de innovación primero suena apasionado, pero no resiste el escrutinio, escondiendo detrás de él varias falacias lógicas mortales. Primero, es una falacia de "falsa dicotomía". Coloca la innovación y los derechos de autor como opuestos irreconciliables, obligándonos a elegir. Pero la realidad es que la verdadera elección no está entre los dos, sino entre "innovación sostenible y simbiótica" y "innovación depredadora y parasitaria". Respetar los derechos de autor y establecer colaboraciones autorizadas con los creadores no solo no sofocará la innovación, sino que proporcionará a la IA datos de entrenamiento de mejor calidad, más limpios y con responsabilidades más claras; este es un modelo de innovación más saludable y sostenible. En segundo lugar, la afirmación de "necesidad" es un falso dilema. ¿Realmente necesita la IA desarrollarse a partir de datos pirateados? ¿O es que utilizar datos pirateados simplemente hace que el desarrollo sea "más barato y rápido"? Esta es una elección de modelo de negocio, no una inevitabilidad técnica. Los gigantes tecnológicos han optado por maximizar ganancias y minimizar costos, pero han empaquetado esto como el único camino hacia el futuro. Esto no es un hecho, solo es una narrativa que beneficia sus intereses. Finalmente, este discurso ignora completamente la fuente de la innovación. La IA en sí no genera conocimiento original; es un aprendiz, imitador e integrador extremadamente eficiente. Toda su inteligencia proviene del vasto banco de conocimiento que la humanidad ya ha creado. Si destruimos la capacidad de regeneración de este banco de conocimiento para el desarrollo de la IA, sería como matar a la gallina de los huevos de oro. Es como si en un mercado de capitales, si todos solo se enfocan en el presente...