Carta ao Editor: O processo da Anthropic revela o véu da AI: uma exploração sob o pretexto de bem-estar social, nós todos devemos ser responsáveis pelo deserto do conhecimento da próxima geração.
A Anthropic enfrentou processos judiciais altíssimos por pirataria de 7 milhões de livros para treinar IA, abalando a indústria. Do ponto de vista dos profissionais seniores, este artigo analisará a hipocrisia do nobre slogan "para o bem-estar da humanidade" e explorará por que a IA, construída sobre bases ilegais, causará uma crise de confiança e, em última análise, erodirá a base da inovação da qual depende. (Sinopse: Antrópico rouba 7 milhões de livros para treinar Claude e enfrenta processos trilionários de pirataria!) Pressa dos gigantes da IA e limites legais) (Suplemento de antecedentes: colapso da privacidade da IA "ChatGPT Dialogue" corre nu em frente à lei; Altman: Tenho medo de inserir informações pessoais, e é difícil saber quem receberá os dados) No campo da IA por muitos anos, vi o rápido avanço da tecnologia muitas vezes, e também testemunhei o fluxo e refluxo de capital. Cada onda de tecnologia é acompanhada por uma grande narrativa, um motivo para fazer ferver o sangue de todos, especialmente de investidores e reguladores. Atualmente, esta razão é, sem dúvida, «para o bem-estar de toda a humanidade». No entanto, quando a Anthropic, uma gigante da IA com a bandeira de "segurança e ética", é acusada de alimentar seu orgulhoso modelo Claude com 7 milhões de livros piratas, o nobre slogan soa mais como uma folha de figueira, mal encobrindo um processo de trilhões de níveis que poderia abalar os alicerces de toda a indústria. Leia mais: Antrópica rouba 7 milhões de livros para treinar Claude e enfrenta processos trilionários de pirataria! Pressa dos gigantes da IA e limites legais O conflito central deste processo é muito mais complicado do que o rótulo "inovação vs. direitos autorais". Funciona como um prisma, refletindo a inércia cultural do "agir primeiro, pedir perdão depois" em Silicon Valley, o atraso do quadro jurídico face à tecnologia exponencial e uma questão mais fundamental: como confiar numa "sabedoria" baseada na ilegalidade? Tirando as novas roupas do rei de "fair use": um movimento de recinto digital cuidadosamente embalado Primeiro, é preciso ver a essência dessa polêmica. A decisão preliminar do juiz em Anthropic aponta para uma divisão extremamente crítica: o próprio ato de treinamento de IA pode ser considerado uso justo por causa de seu "uso transformador". Mas a "fonte" dos materiais de formação, se for pirateada ilegalmente, é outra questão. É como dizer que você faz um prato famoso com três estrelas Michelin a partir dos ingredientes que você comprou, que é a sua culinária e inovação; Mas se você roubar ingredientes da geladeira de outra pessoa, não importa quão bem o prato esteja cozido, isso não mudará o fato de que você o roubou. O chamado "para o desenvolvimento da IA e a melhoria do bem-estar humano" é essencialmente um movimento de formação e enclausuramento real por gigantes da tecnologia no campo do conhecimento público, que inclui criações protegidas por direitos autorais. Este conjunto de retórica encapsula uma questão de custo puramente comercial como uma questão de escolha moral sobre o progresso humano. Eles dizem ao mundo que sacrificar os royalties de alguns escritores é um "mal necessário" para tornar a IA mais inteligente, para acelerar soluções para grandes problemas como câncer e mudanças climáticas. Esta é uma réplica digital da "Tragédia dos Comuns". As empresas de IA são como pastores que pastam o seu gado, tratando a criação de conhecimento de toda a humanidade como uma pastagem sem pagamento e oferta ilimitada. No curto prazo, seu modelo (gado) está engordado, as avaliações das empresas estão subindo e relatórios econômicos preveem trilhões de dólares em crescimento do PIB. Mas quais são os custos a longo prazo de ser ignorado? É o sustento dos criadores e o colapso de todo o ecossistema de criação de conhecimento. Se escritores, artistas, acadêmicos e jornalistas não conseguem obter um retorno justo de suas criações, de onde virá a próxima geração de conteúdo de qualidade? Quando o pasto se transforma em um deserto, onde a IA, um animal faminto, pode ir para encontrar novos nutrientes? Este modelo cria um sistema de incentivos fatalmente falso: recompensa os jogadores que cortam caminhos e evitam custos, ao mesmo tempo que pune aqueles que cumprem as regras e tentam construir parcerias justas e sustentáveis. Quando o aplauso do mercado é dado a quem "foge", quem quer esperar pelo tiro legal na linha de partida? O "pecado original" dos algoritmos: sabedoria construída sobre roubo, você se atreve a acreditar nisso? Se o "enclausuramento digital" é uma pilhagem económica, então o "pecado original dos algoritmos" é uma erosão fundamental da confiança social. O desenvolvimento da IA encontra-se num dilema: se a base das suas capacidades assenta num flagrante desrespeito pela lei e pela ética, como podemos confiar nas respostas que gera, nas recomendações que faz e até no maior poder que lhe será dado no futuro? Empresas como a Anthropic, em particular, anunciam-se como IA segura e ética. Há uma lacuna entre a promessa da marca e seu suposto uso de material pirata. Não se trata apenas de uma crise de relações públicas, mas também de uma crise de confiança. Podemos esperar que uma tecnologia nascida do ato de "não fazer perguntas" faça julgamentos consistentes com os valores humanos fundamentais diante de dilemas éticos mais complexos no futuro? Isso expõe a mentalidade profundamente enraizada de "tecnologia primeiro, regras à margem" dos desenvolvedores. Imagine um cenário futuro em que um médico prescreve uma prescrição com base nas recomendações de uma IA cujo conhecimento médico vem de artigos de revistas não autorizadas. O "pecado original" da fonte contaminará todas as suas aplicações subsequentes como um vírus, e quando o público perceber que a IA que interage todos os dias é um "ladrão de conhecimento", sua legitimidade de aplicação em campos de alto risco, como educação, assistência médica e direito, será perdida. Os danos potenciais para o processo da Anthropic (até um trilhão de dólares por alguns advogados) são terríveis, mas talvez o maior custo para a Anthropic e a indústria de IA como um todo não seja dinheiro, mas a perda permanente de confiança social. Uma vez que a confiança entra em colapso, não importa quão avançado seja o algoritmo, é apenas um castelo no ar construído em areia movediça. A Arte da Refutação: Desmontando a Falácia Fatal da "Inovação Primeiro" Claro que, sempre que os direitos de autor e a tecnologia colidem, há sempre uma voz que grita: "Isto é para a inovação!" As leis da velha era estão a matar o futuro da nova era!" Esta doutrina da supremacia da inovação soa apaixonante, mas não resiste ao escrutínio, e há várias falácias lógicas fatais escondidas por trás dela. Em primeiro lugar, trata-se de uma falácia de "falso dilema". Coloca a inovação e os direitos de autor como opostos e obriga-nos a fazer escolhas. Mas a realidade é que a verdadeira escolha não está algures no meio, mas entre a "inovação sustentável e simbiótica" e a "inovação predatória e parasitária". Respeitar os direitos autorais e estabelecer uma cooperação autorizada com os criadores não sufocará a inovação, mas fornecerá à IA materiais de treinamento melhores, mais limpos e mais claros, o que é um modelo de inovação mais saudável, mais estável e de longo alcance. Em segundo lugar, a afirmação de "necessidade" é uma proposição falsa. O desenvolvimento da IA tem mesmo de depender de materiais pirateados? Ou será que o uso de material pirata simplesmente torna o desenvolvimento "mais barato e mais rápido"? Trata-se de uma escolha de modelo de negócio, não de uma necessidade técnica. Os gigantes da tecnologia escolheram atalhos para maximizar os lucros e minimizar os custos, apenas para apresentá-los como o único caminho para o futuro. Isto não é um facto, é apenas uma narrativa no seu interesse. Finalmente, este argumento ignora completamente a fonte da inovação. A IA em si não produz conhecimento em primeira mão, é um aprendiz, imitador e integrador extremamente eficiente. Toda a sua sabedoria provém da vasta base de conhecimento que os seres humanos criaram. Se a capacidade regenerativa desta base de conhecimento for destruída para o desenvolvimento da IA, isso equivale a matar galinhas por ovos. É como um mercado de capitais, se todos fizerem apenas o imediato...
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Carta ao Editor: O processo da Anthropic revela o véu da AI: uma exploração sob o pretexto de bem-estar social, nós todos devemos ser responsáveis pelo deserto do conhecimento da próxima geração.
A Anthropic enfrentou processos judiciais altíssimos por pirataria de 7 milhões de livros para treinar IA, abalando a indústria. Do ponto de vista dos profissionais seniores, este artigo analisará a hipocrisia do nobre slogan "para o bem-estar da humanidade" e explorará por que a IA, construída sobre bases ilegais, causará uma crise de confiança e, em última análise, erodirá a base da inovação da qual depende. (Sinopse: Antrópico rouba 7 milhões de livros para treinar Claude e enfrenta processos trilionários de pirataria!) Pressa dos gigantes da IA e limites legais) (Suplemento de antecedentes: colapso da privacidade da IA "ChatGPT Dialogue" corre nu em frente à lei; Altman: Tenho medo de inserir informações pessoais, e é difícil saber quem receberá os dados) No campo da IA por muitos anos, vi o rápido avanço da tecnologia muitas vezes, e também testemunhei o fluxo e refluxo de capital. Cada onda de tecnologia é acompanhada por uma grande narrativa, um motivo para fazer ferver o sangue de todos, especialmente de investidores e reguladores. Atualmente, esta razão é, sem dúvida, «para o bem-estar de toda a humanidade». No entanto, quando a Anthropic, uma gigante da IA com a bandeira de "segurança e ética", é acusada de alimentar seu orgulhoso modelo Claude com 7 milhões de livros piratas, o nobre slogan soa mais como uma folha de figueira, mal encobrindo um processo de trilhões de níveis que poderia abalar os alicerces de toda a indústria. Leia mais: Antrópica rouba 7 milhões de livros para treinar Claude e enfrenta processos trilionários de pirataria! Pressa dos gigantes da IA e limites legais O conflito central deste processo é muito mais complicado do que o rótulo "inovação vs. direitos autorais". Funciona como um prisma, refletindo a inércia cultural do "agir primeiro, pedir perdão depois" em Silicon Valley, o atraso do quadro jurídico face à tecnologia exponencial e uma questão mais fundamental: como confiar numa "sabedoria" baseada na ilegalidade? Tirando as novas roupas do rei de "fair use": um movimento de recinto digital cuidadosamente embalado Primeiro, é preciso ver a essência dessa polêmica. A decisão preliminar do juiz em Anthropic aponta para uma divisão extremamente crítica: o próprio ato de treinamento de IA pode ser considerado uso justo por causa de seu "uso transformador". Mas a "fonte" dos materiais de formação, se for pirateada ilegalmente, é outra questão. É como dizer que você faz um prato famoso com três estrelas Michelin a partir dos ingredientes que você comprou, que é a sua culinária e inovação; Mas se você roubar ingredientes da geladeira de outra pessoa, não importa quão bem o prato esteja cozido, isso não mudará o fato de que você o roubou. O chamado "para o desenvolvimento da IA e a melhoria do bem-estar humano" é essencialmente um movimento de formação e enclausuramento real por gigantes da tecnologia no campo do conhecimento público, que inclui criações protegidas por direitos autorais. Este conjunto de retórica encapsula uma questão de custo puramente comercial como uma questão de escolha moral sobre o progresso humano. Eles dizem ao mundo que sacrificar os royalties de alguns escritores é um "mal necessário" para tornar a IA mais inteligente, para acelerar soluções para grandes problemas como câncer e mudanças climáticas. Esta é uma réplica digital da "Tragédia dos Comuns". As empresas de IA são como pastores que pastam o seu gado, tratando a criação de conhecimento de toda a humanidade como uma pastagem sem pagamento e oferta ilimitada. No curto prazo, seu modelo (gado) está engordado, as avaliações das empresas estão subindo e relatórios econômicos preveem trilhões de dólares em crescimento do PIB. Mas quais são os custos a longo prazo de ser ignorado? É o sustento dos criadores e o colapso de todo o ecossistema de criação de conhecimento. Se escritores, artistas, acadêmicos e jornalistas não conseguem obter um retorno justo de suas criações, de onde virá a próxima geração de conteúdo de qualidade? Quando o pasto se transforma em um deserto, onde a IA, um animal faminto, pode ir para encontrar novos nutrientes? Este modelo cria um sistema de incentivos fatalmente falso: recompensa os jogadores que cortam caminhos e evitam custos, ao mesmo tempo que pune aqueles que cumprem as regras e tentam construir parcerias justas e sustentáveis. Quando o aplauso do mercado é dado a quem "foge", quem quer esperar pelo tiro legal na linha de partida? O "pecado original" dos algoritmos: sabedoria construída sobre roubo, você se atreve a acreditar nisso? Se o "enclausuramento digital" é uma pilhagem económica, então o "pecado original dos algoritmos" é uma erosão fundamental da confiança social. O desenvolvimento da IA encontra-se num dilema: se a base das suas capacidades assenta num flagrante desrespeito pela lei e pela ética, como podemos confiar nas respostas que gera, nas recomendações que faz e até no maior poder que lhe será dado no futuro? Empresas como a Anthropic, em particular, anunciam-se como IA segura e ética. Há uma lacuna entre a promessa da marca e seu suposto uso de material pirata. Não se trata apenas de uma crise de relações públicas, mas também de uma crise de confiança. Podemos esperar que uma tecnologia nascida do ato de "não fazer perguntas" faça julgamentos consistentes com os valores humanos fundamentais diante de dilemas éticos mais complexos no futuro? Isso expõe a mentalidade profundamente enraizada de "tecnologia primeiro, regras à margem" dos desenvolvedores. Imagine um cenário futuro em que um médico prescreve uma prescrição com base nas recomendações de uma IA cujo conhecimento médico vem de artigos de revistas não autorizadas. O "pecado original" da fonte contaminará todas as suas aplicações subsequentes como um vírus, e quando o público perceber que a IA que interage todos os dias é um "ladrão de conhecimento", sua legitimidade de aplicação em campos de alto risco, como educação, assistência médica e direito, será perdida. Os danos potenciais para o processo da Anthropic (até um trilhão de dólares por alguns advogados) são terríveis, mas talvez o maior custo para a Anthropic e a indústria de IA como um todo não seja dinheiro, mas a perda permanente de confiança social. Uma vez que a confiança entra em colapso, não importa quão avançado seja o algoritmo, é apenas um castelo no ar construído em areia movediça. A Arte da Refutação: Desmontando a Falácia Fatal da "Inovação Primeiro" Claro que, sempre que os direitos de autor e a tecnologia colidem, há sempre uma voz que grita: "Isto é para a inovação!" As leis da velha era estão a matar o futuro da nova era!" Esta doutrina da supremacia da inovação soa apaixonante, mas não resiste ao escrutínio, e há várias falácias lógicas fatais escondidas por trás dela. Em primeiro lugar, trata-se de uma falácia de "falso dilema". Coloca a inovação e os direitos de autor como opostos e obriga-nos a fazer escolhas. Mas a realidade é que a verdadeira escolha não está algures no meio, mas entre a "inovação sustentável e simbiótica" e a "inovação predatória e parasitária". Respeitar os direitos autorais e estabelecer uma cooperação autorizada com os criadores não sufocará a inovação, mas fornecerá à IA materiais de treinamento melhores, mais limpos e mais claros, o que é um modelo de inovação mais saudável, mais estável e de longo alcance. Em segundo lugar, a afirmação de "necessidade" é uma proposição falsa. O desenvolvimento da IA tem mesmo de depender de materiais pirateados? Ou será que o uso de material pirata simplesmente torna o desenvolvimento "mais barato e mais rápido"? Trata-se de uma escolha de modelo de negócio, não de uma necessidade técnica. Os gigantes da tecnologia escolheram atalhos para maximizar os lucros e minimizar os custos, apenas para apresentá-los como o único caminho para o futuro. Isto não é um facto, é apenas uma narrativa no seu interesse. Finalmente, este argumento ignora completamente a fonte da inovação. A IA em si não produz conhecimento em primeira mão, é um aprendiz, imitador e integrador extremamente eficiente. Toda a sua sabedoria provém da vasta base de conhecimento que os seres humanos criaram. Se a capacidade regenerativa desta base de conhecimento for destruída para o desenvolvimento da IA, isso equivale a matar galinhas por ovos. É como um mercado de capitais, se todos fizerem apenas o imediato...