A OpenAI, empresa criadora do ChatGPT, anunciou esta terça-feira uma evolução da investigação na área da inteligência artificial (IA), com o lançamento da tecnologia GPT-4.
Uma das inovações deste “modelo multimodal” é a capacidade de aceitar imagens e textos mais complexos dos utilizadores. A imagem já é uma evolução em relação ao GPT-3,5, que só consegue responder a interações de texto.
Um dos exemplos apresentados pela empresa foi a possibilidade de perceber o que está numa imagem e até gerar código para um site funcional numa questão de segundos.
Na demonstração ao vivo do GPT-4, o cofundador e presidente da OpenAI, Greg Brockman, mostrou alguns novos usos para a tecnologia, incluindo criar um site funcional a partir de um esboço do seu caderno.
Apesar de ser uma evolução do GPT-3,5, o novo modelo continua a ter limitações na resposta a eventos mais recentes, já que os seus dados só vão até setembro de 2021. Alguns erros que comete também se mantêm, ainda que a OpenAI tenha garantido que ocorrem com “menos frequência”.
No Twitter, Sam Altman, CEO da OpenAI, disse que o modelo “é mais capaz e alinhado” com os valores e intenções humanas, mas que, ainda assim, “continua a ter falhas”.
Por agora apenas utilizadores do ChatGPT Plus, versão paga da IA conversacional que custa 20 dólares por mês, terão acesso ao GPT-4.
Quem trabalhar na área da programação vai poder testar como pode ser usado em API (interface de programação de aplicações), mas existe uma lista de espera para isso.
O OpenAI já tem parcerias com várias empresas para integrar o GPT-4 em mais serviços, destacando a aplicação Duolingo, a Stripe ou a Khan Academy.
A Microsoft, que é uma das principais investidoras na OpenAI, anunciou em fevereiro um novo Bing com inteligência artificial (IA), desenvolvido em parceria com a startup de Sam Altman. No entanto, nenhuma das empresas envolvidas esclareceu se será o GPT-4 ou não.