CEO do Google critica erros inaceitáveis da Gemini AI
CEO do Google critica erros inaceitáveis da Gemini AI, O CEO do Google, Sundar Pichai, criticou erros “completamente inaceitáveis” de seu aplicativo Gemini AI, depois que gafes como imagens de tropas nazistas etnicamente diversas da Segunda Guerra Mundial forçaram o aplicativo a impedir que os usuários criassem fotos de pessoas.
A controvérsia surgiu semanas após a mudança de nome de sua IA estilo ChatGPT para “Gemini” pelo Google, dando ao aplicativo um destaque sem precedentes em seus produtos enquanto compete com OpenAI e seu patrocinador, a Microsoft.
Os usuários das redes sociais zombaram e criticaram o Google pelas imagens historicamente imprecisas geradas por Gêmeos, como os senadores dos EUA do século XIX que eram etnicamente diversos e incluíam mulheres.
“Quero abordar os problemas recentes com respostas problemáticas de texto e imagem no aplicativo Gemini”, escreveu Pichai em uma carta aos funcionários, publicada pelo site de notícias Semafor.
“Eu sei que algumas de suas respostas ofenderam nossos usuários e mostraram preconceito – para ser claro, isso é completamente inaceitável e erramos”.
Um porta-voz do Google confirmou à AFP que a carta era autêntica.
Pichai disse que as equipes do Google estão trabalhando “24 horas por dia” para corrigir esses problemas, mas não disse quando o recurso de geração de imagens estará disponível novamente.
“Nenhuma IA é perfeita, especialmente nesta fase emergente do desenvolvimento da indústria, mas sabemos que o padrão é alto para nós e continuaremos assim pelo tempo que for necessário”, escreveu ele.
As empresas de tecnologia veem os modelos generativos de inteligência artificial como o próximo grande passo na computação e estão correndo para incorporá-los em tudo, desde pesquisas na Internet e automatização do suporte ao cliente até a criação de música e arte.
Mas os modelos de IA, e não apenas os do Google, têm sido criticados há muito tempo por perpetuarem preconceitos raciais e de género nos seus resultados.
O Google disse na semana passada que as respostas problemáticas da Gemini foram resultado dos esforços da empresa para remover tais preconceitos.
Gemini foi calibrado para mostrar diversas pessoas, mas não se ajustou a avisos onde isso não deveria ser o caso, tornando-se também muito cauteloso com alguns pedidos que de outra forma seriam inofensivos, escreveu Prabhakar Raghavan do Google em um post de blog.
“Essas duas coisas levaram o modelo a compensar demais em alguns casos e a ser excessivamente conservador em outros, levando a imagens embaraçosas e erradas”, disse ele.
Muitas preocupações sobre IA surgiram desde o sucesso explosivo do ChatGPT.
Especialistas e governos alertaram que a IA também acarreta o risco de grandes convulsões económicas, especialmente de deslocação de empregos, e de desinformação à escala industrial que pode manipular eleições e estimular a violência.