GPT-4o: OpenAI lança novo modelo de inteligência artificial para o ...


Open AI apresenta o ChatGPT-4o, modelo de inteligência artificial que 'conversa', descreve objetos e faz tradução simultânea — Foto: Reprodução/Youtube
A OpenAI, desenvolvedora do ChatGPT, anunciou nesta segunda-feira (13) o GPT-4o. Trata-se da nova versão do modelo de inteligência artificial (IA) usado pelo ChatGPT, robô conversador que ganhou fama nos últimos meses.
O GPT-4o é mais rápido para responder a comandos de áudio e melhor para descrever imagens em tempo real. Ele será liberado gradualmente para todos os usuários, inclusive quem está na versão gratuita (veja mais sobre a disponibilidade abaixo).
Em uma demonstração, o modelo conseguiu analisar o visual do usuário e dar dicas de como ele poderia se vestir para uma entrevista de emprego. No outro teste, ele foi usado para criar uma música (veja abaixo).
Este é o primeiro modelo da OpenAI criado para combinar textos, imagens e áudios em tempo real por conta própria. As gerações anteriores precisavam de outros modelos de IA para analisar comandos de voz e fotos, por exemplo. A promessa é de que a mudança deixará o ChatGPT ainda mais rápido.
Segundo a OpenAI, o GPT-4o leva em média 320 milissegundos para responder comandos de áudio – o tempo mínimo foi de 232 milissegundos. A empresa diz que ele é muito mais veloz que antecessores: em média, o GPT-3.5 leva 2,8 segundos e o GPT-4, 5,4 segundos.
Até então, o ChatGPT seguia várias etapas para analisar e responder comandos de voz. Primeiro, era preciso usar um modelo para converter o áudio para texto. Depois, o GPT-3.5 ou o GPT-4 interpretava o conteúdo e criava uma resposta. Por fim, outro modelo transformava o material de volta para áudio.
"Com o GPT-4o, treinamos um único modelo de ponta a ponta em texto, visão e áudio, o que significa que todas as entradas e saídas são processadas pela mesma rede neural", disse a OpenAI, em comunicado.
O presidente-executivo da OpenAI, Sam Altman, afirmou que este é o melhor modelo já criado pela empresa. "É inteligente, é rápido, é nativamente multimodal", disse.
A empresa também anunciou um aplicativo do ChatGPT para computador, que se junta à versão para navegadores e um aplicativo para Android e iOS.
LEIA TAMBÉM:
Joaquin Phoenix no filme 'Ela' — Foto: Divulgação
Quando o GPT-4o será liberado?
A OpenAI informou que começou a liberar nesta segunda os recursos de texto e foto do GPT-4o. Eles também estão disponíveis para desenvolvedores usarem as funcionalidades em seus próprios aplicativos.
Usuários da versão gratuita poderão usá-lo com um limite de mensagens que não foi informado, enquanto assinantes do ChatGPT Plus terão um limite maior.
O uso do GPT-4o com comandos de voz será liberado nas próximas semanas para quem paga pelo ChatGPT Plus.
A empresa não revelou quando os recursos de vídeos chegarão para todos os usuários, mas informou que eles chegarão primeiro para um grupo restrito de desenvolvedores parceiros.
Como usar o ChatGPT no dia a dia

ChatGPT: como usar o robô no dia a dia
Conheça o Sora, gerador de vídeos realistas da OpenAI

Conheça o Sora, gerador de vídeos realistas da dona do ChatGPT