- Sam Altman afirmou que o modelo será muito mais forte e abrangente
- Segundo ele, o novo modelo ainda está em fase de treinamento
- Brian Roemmele postou em seu Twitter que é identificado profissionalmente como Gobi e tem a capacidade de se reparar
Sam Altman, CEO da OpenAI, forneceu informações na conferência sobre o desenvolvimento da próxima versão do modelo de linguagem em larga escala. Alegadamente devido à natureza complexa das questões científicas envolvidas no desenvolvimento do GPT-5 é difícil estabelecer calendários definitivos para o seu lançamento.
GPT-5 ainda tem um longo caminho a percorrer
Cada versão se torna mais ampla nas possibilidades de uso. Altman observou que, embora o GPT-3 tenha sido eficaz para casos de uso limitados, o GPT-3.5 e o GPT-4 expandiram sua utilidade em muitas categorias. Ele espera que o GPT-5 funcione bem para a maioria dos aplicativos que as pessoas desejam construir, continuando a tendência de aumento de capacidades. Para apresentar o novo modelo GPT-4, ele acrescentou: “O que estamos lançando hoje parecerá muito modesto comparado ao que estamos construindo para você agora“. Altman também foi questionado sobre o modelo concorrente de IA de Elon Musk – Grok, que foi lançado inesperadamente um dia antes da conferência. Ele apenas observou: “Elon será Elon” e não comentou mais sobre a situação.
OpenAI está treinando oficialmente GPT 5
Também houve vazamento de informações, mas não da boca de Altman
Brian Roemmele postou as primeiras especulações e suposto vazamento de informações em seu Twitter. O modelo multimodal teria o codinome “Gobi”. Seu lançamento está previsto para o início de 2024, com Sam Altman dizendo em uma conferência há uma semana que ainda está longe de terminar. Deve suportar texto, imagens e vídeo. Além disso, ele afirma que O GPT-5 tem a capacidade de auto-reparo e algo como um pequeno grau de autoconsciência. O modelo estaria até sendo testado por agências governamentais. Em suas postagens, ele ainda compara o GPT-5 ao Google Gemini, que é um modelo comparável ao GPT-4.
O GPT já está treinado em aproximadamente 72 quatrilhões de parâmetros.
Este prompt está funcionando atualmente no GPT 3.5 e os resultados talvez sejam melhores do que apenas o GPT-4.
Este prompt no GPT-4 já é quase incompreensível.
-Brian Roemmele (@BrianRoemmele) 15 de março de 2023
Você está ansioso pelo novo GPT-5?
Fonte: zdnet.com, o decodificador