Durante o segundo dia do Oracle AI World, em Las Vegas, Peter Hoeschele, vice-presidente de infraestrutura da OpenAI, ressaltou que a IA está entrando em uma nova fase: os modelos não apenas são treinados e depois usados, mas operam em ciclos contínuos de aprendizado.
Ele informou que os modelos devem ficar em execução constante, passando por amostragem e treinamento para melhorar ao longo do tempo, conforme alimentados com dados específicos de cada caso de uso.
Segundo Hoeschele, esse avanço impacta diretamente negócios, bancos de dados e aplicações corporativas, já que os modelos tendem a se aperfeiçoar continuamente com nova informação de clientes e operações.
O dirigente mencionou a colaboração com a Oracle, destacando a infraestrutura de nuvem OCI e a importância de equilibrar a capacidade computacional para treinamento, desenvolvimento e atendimento aos clientes.
Hoeschele, que ingressou na OpenAI em 2019, explicou a estratégia de escalonamento: alcançar o front-end da geração mais recente de GPUs, compor o maior cluster possível e pré-treinar um modelo, sustentando múltiplas cargas síncronas.
No front de produtos, o GPT-5 surge com memória de raciocínio aprimorada e recursos multimodais, com APIs que permitem que empresas integrem a tecnologia em suas operações, inclusive para criar GPTs personalizados. O Sora, modelo que converte prompts em vídeos realistas, também foi citado como um foco de adaptação para novas capacidades.