Siga-nos no Whatsapp
A+ / A-

Problema com etnias. Google suspende app de IA que gerou rostos imprecisos

22 fev, 2024 - 18:00 • Redação

Soldados nazis negros e asiáticos e vikings sem o habitual ar escandinavo geraram polémica.

A+ / A-

Vikings morenos? Soldados nazis de diferentes etnias? A Google vai suspender temporariamente a sua ferramenta Gemini, que gera imagens através de inteligência artificial, após críticas à falta de precisão histórica e étnica em algumas imagens criadas.

O lançamento da nova ferramenta, que veio concorrer com rivais como a Microsoft e OpenAI, foi recebido com críticas nas redes sociais nos últimos dias. A controvérsia gerou-se após a divulgação na rede social X de imagens de soldados da Segunda Guerra Mundial e vikings, criadas através da nova ferramenta da Google.

"Estamos cientes que a Gemini está a criar imprecisões em algumas representações de imagens históricas", afirmou Jack Krawczyk da Google, esta quarta-feira.

"Estamos a trabalhar para melhorar este tipo de representações imediatamente. A Gemini não gera imagens de um leque amplo de pessoas. Isso é geralmente uma coisa boa, porque pessoas de todo mundo usam-na. Mas neste caso falha", escreveu na rede social X, na quarta-feira.

No ano passado, a Google lançou a ferramenta de inteligência artificial Bard, que enfrentou problemas semelhantes quando foram publicadas imagens, num vídeo promocional, de um planeta fora do Sistema Solar.

A Google irá lançar, brevemente, uma versão melhorada da ferramenta, depois de fazer algumas correções.

A investigação realizada, até agora, que incide sobre a representação da realidade em inteligência artificial, aponta para uma série de problemas relacionados com imprecisões e estereótipos de raça ou género, que vão buscar a informação âs bases de dados que existem na Internet.

Andrew Rogoyski, do Instituto de IA Centrada nas Pessoas da Universidade de Surrey, disse que “há muita pesquisa e muitas abordagens diferentes para eliminar preconceitos, desde a curadoria de conjuntos de dados de treinamento até a introdução de proteções para modelos treinados". “É provável que IA e LLM [grandes modelos de linguagem] continuem a cometer erros, mas também é provável que isso melhore com o tempo", acrescentou.

Comentários
Tem 1500 caracteres disponíveis
Todos os campos são de preenchimento obrigatório.

Termos e Condições Todos os comentários são mediados, pelo que a sua publicação pode demorar algum tempo. Os comentários enviados devem cumprir os critérios de publicação estabelecidos pela direcção de Informação da Renascença: não violar os princípios fundamentais dos Direitos do Homem; não ofender o bom nome de terceiros; não conter acusações sobre a vida privada de terceiros; não conter linguagem imprópria. Os comentários que desrespeitarem estes pontos não serão publicados.

Destaques V+