OpenAI revela novo modelo de IA que funciona com voz e “lê” imagens

[ad_1]
A OpenAI, criadora do ChatGPT, anunciou nesta segunda-feira o lançamento de um novo modelo de inteligência artificial chamado GPT-4o, que interpreta voz, texto e imagens.
A diretora de tecnologia da OpenAI, Mira Murati, disse durante conferência da companhia que o novo modelo será ofertado gratuitamente e que é mais eficiente que os modelos anteriores da empresa.
Os pesquisadores da OpenAI exibiram os novos recursos de assistente de voz do ChatGPT. Em uma demonstração, o assistente de voz do ChatGPT foi capaz de ler uma história para dormir com diferentes vozes, emoções e tons.
Em uma segunda demonstração, o assistente de voz do ChatGPT usou recursos de interpretação de imagens para resolver uma equação matemática escrita em uma folha de papel.
Os usuários pagos do GPT-4o terão limites de capacidade maiores do que os usuários pagos da empresa, disse Murati.
A OpenAI fez os anúncios um dia antes de a Alphabet realizar sua conferência anual para desenvolvedores do Google, na qual a empresa deve exibir novos recursos de IA.
*É proibida a reprodução deste conteúdo
[ad_2]