Sam Altman revelou o tempo de lançamento do GPT-5, o progresso da o3 e da Deep Research e o plano de infraestrutura "Stargate" de US$ 500 bilhões no podcast oficial da OpenAI. (Sinopse: IA elimina engenheiros de bambu? Huang Jenxun grita que "robôs substituem milhares de funcionários": oito fábricas de Taiwan estão introduzindo otimização) (Suplemento de fundo: IA realmente começou a agarrar empregos humanos" Fabricantes globais aceleram demissões, estudantes universitários americanos estão desempregados após a formatura. À meia-noite de hoje (19), a OpenAI lançou seu primeiro podcast no Youtube oficial, o primeiro episódio foi liderado pelo CEO Sam Altman, em uma conversa de 40 minutos, ele delineou os próximos passos da empresa, revelou que o GPT-5 deve ser lançado neste verão e aprofundou as capacidades de raciocínio com a família o3 e ferramentas de pesquisa profunda... Este artigo dá-lhe os destaques. GPT-5 em breve? Novo plano de Sam Altman para evolução de modelos Altman dá um cronograma claro para o modelo carro-chefe de próxima geração com o qual o mercado mais se preocupa: "GPT-5 pode estar disponível em algum momento deste verão." Ao mesmo tempo, ele disse que a nomeação e iteração de modelos pode mudar fundamentalmente no futuro. Ele explicou que, no passado, o modelo da OpenAI era treinar um modelo grande e depois publicá-lo. Mas agora, o sistema tornou-se mais complexo e pode evoluir através de um "pós-comboio" contínuo. Isso provocou um debate interno: o GPT-4 deve ser atualizado constantemente, mas sempre manter o número da versão principal, ou o GPT-5.1, 5.2, 5.3 deve ser usado para deixar claro para os usuários que a versão mudou? Esta questão reflete uma mudança de paradigma na tecnologia de IA de "lançamento discreto" para "evolução contínua". Altman admite que o atual método de nomeação de GPT-4o e GPT-3 e outros modelos é um "produto" deste processo de transferência, que é de fato um pouco confuso para os usuários. Ele espera sair dessa situação o mais rápido possível e entrar em uma era mais clara de GPT-5 e GPT-6. Ele acredita que os usuários não devem precisar pensar se devem usar O4-mini-high ou O3, mas ter um modelo de alto nível e mais confiável para usar. Esta capacidade de continuar a evoluir também esbate a definição de "GPT-5". Altman faz uma pergunta retórica: "Os usuários podem realmente dizer se este é um GPT-4.5 topo de linha ou um novo GPT-5?" A resposta não é necessariamente." Isso implica que as futuras atualizações do modelo serão contínuas e incrementais, e que o aumento no desempenho será mais importante do que o salto no número da versão. Ao mesmo tempo, Altman está redefinindo o padrão para inteligência geral artificial (AGI). Ele acredita que, se medido pelos padrões de cinco anos atrás, o modelo atual há muito excedeu a definição de AGI na época. Por isso, propôs um objetivo maior: a "superinteligência". Para ele, a marca da superinteligência é a capacidade da IA de "descobrir novas ciências por conta própria", ou aumentar muito a capacidade dos cientistas humanos de descobrir novos conhecimentos. Ele acredita que o progresso científico é o fator mais importante para melhorar a vida humana, e o potencial da IA a este respeito é ilimitado. A IA já mostrou um enorme valor na assistência a programadores e cientistas, dando-lhe cada vez mais confiança no seu roteiro para lá chegar. Projeto Stargate: Uma aposta de 100 bilhões de dólares para desbloquear o futuro da IA Na atual corrida da IA, o poder de computação se tornou a chave esmagadora. Altman revela o projeto norte-americano StarGate, um projeto ambicioso para construir uma infraestrutura de computação em hiperescala. Ele disse sem rodeios que o poder de computação existente no mundo está longe de ser suficiente: "Se as pessoas souberem o que mais poder de computação pode fazer, elas desejarão muito mais". Embora o rumoroso tamanho de US$ 500 bilhões não tenha sido confirmado, Altman expressou alta confiança na arrecadação de fundos e na implantação futura. Ele ressaltou que o projeto Stargate não envolve apenas a construção de hardware, mas também afeta a política internacional e a distribuição de energia. Ao mesmo tempo, Altman criticou Elon Musk por usar sua influência para obstruir a cooperação com os Emirados Árabes Unidos, enfatizando que a IA não deve ser um jogo de soma zero, mas como um transistor, criando uma nova indústria. A energia está no centro do projeto. A curto prazo, apoiar-se-á numa combinação de gás natural, energia solar e nuclear e, no futuro, espera a cisão e fusão nucleares. Altman propõe uma mudança de mentalidade fundamental: "Tornar a energia inteligente e exportar inteligência para o mundo", a IA pode desconstruir os limites geográficos da distribuição de energia para remodelar completamente a infraestrutura digital global. Das guerras de privacidade ao ceticismo publicitário: o desafio de confiança da OpenAI Como a IA está profundamente integrada na vida privada dos usuários, a confiança e a privacidade se tornaram questões centrais que a OpenAI não pode evitar. Na entrevista, Altman respondeu com força às exigências feitas pelo The New York Times em seu processo com a OpenAI. O jornal pediu ao tribunal para forçar a OpenAI a manter as conversas dos usuários além do período regular de 30 dias, uma medida que Altman chamou de "excesso louco". "Obviamente, vamos lutar até o fim, e acho que vamos vencer", disse ele. Ele espera que este incidente seja uma oportunidade para aumentar a conscientização sobre a importância da privacidade do usuário na era da IA e estabelecer uma estrutura legal e ética sólida. "As pessoas agora estão tendo conversas bastante privadas com o ChatGPT, e ele será uma fonte de informação muito sensível." Altman enfatiza que as proteções de privacidade devem ser levadas a sério. Isto leva-nos a outro tema sensível: a publicidade. Como a OpenAI lidará com o potencial de monetização de seus vastos dados de usuários? A atitude de Altman foi extremamente cautelosa. Ele admite que não é totalmente contra a publicidade, e até acha que alguns anúncios no Instagram têm uma boa experiência, mas acredita que para introduzir anúncios no ChatGPT, é preciso ter muito cuidado e o padrão de prova será "muito, muito alto". Ele ressalta que os usuários têm um alto nível de confiança no ChatGPT, em parte porque sua experiência não é "manchada" por intenções publicitárias, como mídias sociais tradicionais ou mecanismos de busca. Por isso, traçou uma linha vermelha: "Se começarmos a modificar o fluxo de conteúdo devolvido pelos grandes modelos linguísticos (LLMs) para quem paga mais, essa sensação vai ser muito má." Para os utilizadores, será um momento de quebra de confiança." Ele prevê possíveis modelos que não quebrem a confiança, como fazer um corte de transações sem afetar a saída do modelo ou colocar anúncios fora do fluxo de conversa principal. Mas, em qualquer caso, a premissa deve ser "realmente útil para o usuário" e não deve interferir na objetividade do LLM. Em contraste, ele acredita que o modelo atual da OpenAI de "construir serviços de qualidade e usuários pagando para usar" é muito claro e saudável. A melhor forma de interação homem-máquina: construindo novo hardware com Jony Ive Outro destaque da entrevista foi a confirmação de Altman de que a OpenAI está trabalhando com o lendário designer da Apple Jony Ive para desenvolver novo hardware de IA. "Estamos a tentar fazer algo de grande qualidade, e isto...
O conteúdo serve apenas de referência e não constitui uma solicitação ou oferta. Não é prestado qualquer aconselhamento em matéria de investimento, fiscal ou jurídica. Consulte a Declaração de exoneração de responsabilidade para obter mais informações sobre os riscos.
GPT-5 chega este verão! Sam Altman revela o plano para o próximo modelo da OpenAI, as ambições do StarGate e haverá anúncios?
Sam Altman revelou o tempo de lançamento do GPT-5, o progresso da o3 e da Deep Research e o plano de infraestrutura "Stargate" de US$ 500 bilhões no podcast oficial da OpenAI. (Sinopse: IA elimina engenheiros de bambu? Huang Jenxun grita que "robôs substituem milhares de funcionários": oito fábricas de Taiwan estão introduzindo otimização) (Suplemento de fundo: IA realmente começou a agarrar empregos humanos" Fabricantes globais aceleram demissões, estudantes universitários americanos estão desempregados após a formatura. À meia-noite de hoje (19), a OpenAI lançou seu primeiro podcast no Youtube oficial, o primeiro episódio foi liderado pelo CEO Sam Altman, em uma conversa de 40 minutos, ele delineou os próximos passos da empresa, revelou que o GPT-5 deve ser lançado neste verão e aprofundou as capacidades de raciocínio com a família o3 e ferramentas de pesquisa profunda... Este artigo dá-lhe os destaques. GPT-5 em breve? Novo plano de Sam Altman para evolução de modelos Altman dá um cronograma claro para o modelo carro-chefe de próxima geração com o qual o mercado mais se preocupa: "GPT-5 pode estar disponível em algum momento deste verão." Ao mesmo tempo, ele disse que a nomeação e iteração de modelos pode mudar fundamentalmente no futuro. Ele explicou que, no passado, o modelo da OpenAI era treinar um modelo grande e depois publicá-lo. Mas agora, o sistema tornou-se mais complexo e pode evoluir através de um "pós-comboio" contínuo. Isso provocou um debate interno: o GPT-4 deve ser atualizado constantemente, mas sempre manter o número da versão principal, ou o GPT-5.1, 5.2, 5.3 deve ser usado para deixar claro para os usuários que a versão mudou? Esta questão reflete uma mudança de paradigma na tecnologia de IA de "lançamento discreto" para "evolução contínua". Altman admite que o atual método de nomeação de GPT-4o e GPT-3 e outros modelos é um "produto" deste processo de transferência, que é de fato um pouco confuso para os usuários. Ele espera sair dessa situação o mais rápido possível e entrar em uma era mais clara de GPT-5 e GPT-6. Ele acredita que os usuários não devem precisar pensar se devem usar O4-mini-high ou O3, mas ter um modelo de alto nível e mais confiável para usar. Esta capacidade de continuar a evoluir também esbate a definição de "GPT-5". Altman faz uma pergunta retórica: "Os usuários podem realmente dizer se este é um GPT-4.5 topo de linha ou um novo GPT-5?" A resposta não é necessariamente." Isso implica que as futuras atualizações do modelo serão contínuas e incrementais, e que o aumento no desempenho será mais importante do que o salto no número da versão. Ao mesmo tempo, Altman está redefinindo o padrão para inteligência geral artificial (AGI). Ele acredita que, se medido pelos padrões de cinco anos atrás, o modelo atual há muito excedeu a definição de AGI na época. Por isso, propôs um objetivo maior: a "superinteligência". Para ele, a marca da superinteligência é a capacidade da IA de "descobrir novas ciências por conta própria", ou aumentar muito a capacidade dos cientistas humanos de descobrir novos conhecimentos. Ele acredita que o progresso científico é o fator mais importante para melhorar a vida humana, e o potencial da IA a este respeito é ilimitado. A IA já mostrou um enorme valor na assistência a programadores e cientistas, dando-lhe cada vez mais confiança no seu roteiro para lá chegar. Projeto Stargate: Uma aposta de 100 bilhões de dólares para desbloquear o futuro da IA Na atual corrida da IA, o poder de computação se tornou a chave esmagadora. Altman revela o projeto norte-americano StarGate, um projeto ambicioso para construir uma infraestrutura de computação em hiperescala. Ele disse sem rodeios que o poder de computação existente no mundo está longe de ser suficiente: "Se as pessoas souberem o que mais poder de computação pode fazer, elas desejarão muito mais". Embora o rumoroso tamanho de US$ 500 bilhões não tenha sido confirmado, Altman expressou alta confiança na arrecadação de fundos e na implantação futura. Ele ressaltou que o projeto Stargate não envolve apenas a construção de hardware, mas também afeta a política internacional e a distribuição de energia. Ao mesmo tempo, Altman criticou Elon Musk por usar sua influência para obstruir a cooperação com os Emirados Árabes Unidos, enfatizando que a IA não deve ser um jogo de soma zero, mas como um transistor, criando uma nova indústria. A energia está no centro do projeto. A curto prazo, apoiar-se-á numa combinação de gás natural, energia solar e nuclear e, no futuro, espera a cisão e fusão nucleares. Altman propõe uma mudança de mentalidade fundamental: "Tornar a energia inteligente e exportar inteligência para o mundo", a IA pode desconstruir os limites geográficos da distribuição de energia para remodelar completamente a infraestrutura digital global. Das guerras de privacidade ao ceticismo publicitário: o desafio de confiança da OpenAI Como a IA está profundamente integrada na vida privada dos usuários, a confiança e a privacidade se tornaram questões centrais que a OpenAI não pode evitar. Na entrevista, Altman respondeu com força às exigências feitas pelo The New York Times em seu processo com a OpenAI. O jornal pediu ao tribunal para forçar a OpenAI a manter as conversas dos usuários além do período regular de 30 dias, uma medida que Altman chamou de "excesso louco". "Obviamente, vamos lutar até o fim, e acho que vamos vencer", disse ele. Ele espera que este incidente seja uma oportunidade para aumentar a conscientização sobre a importância da privacidade do usuário na era da IA e estabelecer uma estrutura legal e ética sólida. "As pessoas agora estão tendo conversas bastante privadas com o ChatGPT, e ele será uma fonte de informação muito sensível." Altman enfatiza que as proteções de privacidade devem ser levadas a sério. Isto leva-nos a outro tema sensível: a publicidade. Como a OpenAI lidará com o potencial de monetização de seus vastos dados de usuários? A atitude de Altman foi extremamente cautelosa. Ele admite que não é totalmente contra a publicidade, e até acha que alguns anúncios no Instagram têm uma boa experiência, mas acredita que para introduzir anúncios no ChatGPT, é preciso ter muito cuidado e o padrão de prova será "muito, muito alto". Ele ressalta que os usuários têm um alto nível de confiança no ChatGPT, em parte porque sua experiência não é "manchada" por intenções publicitárias, como mídias sociais tradicionais ou mecanismos de busca. Por isso, traçou uma linha vermelha: "Se começarmos a modificar o fluxo de conteúdo devolvido pelos grandes modelos linguísticos (LLMs) para quem paga mais, essa sensação vai ser muito má." Para os utilizadores, será um momento de quebra de confiança." Ele prevê possíveis modelos que não quebrem a confiança, como fazer um corte de transações sem afetar a saída do modelo ou colocar anúncios fora do fluxo de conversa principal. Mas, em qualquer caso, a premissa deve ser "realmente útil para o usuário" e não deve interferir na objetividade do LLM. Em contraste, ele acredita que o modelo atual da OpenAI de "construir serviços de qualidade e usuários pagando para usar" é muito claro e saudável. A melhor forma de interação homem-máquina: construindo novo hardware com Jony Ive Outro destaque da entrevista foi a confirmação de Altman de que a OpenAI está trabalhando com o lendário designer da Apple Jony Ive para desenvolver novo hardware de IA. "Estamos a tentar fazer algo de grande qualidade, e isto...