ChatGPT coloca amazonenses como “menos inteligentes”

(Foto: Getty Images)
Um estudo da Universidade de Oxford, no Reino Unido, acendeu um alerta sobre a neutralidade da inteligência artificial. Divulgada em janeiro, a pesquisa intitulada “The Silicon Gaze” (“O Olhar de Silício”) indica que o ChatGPT pode reproduzir preconceitos geográficos e raciais ao compartilhar informações e atribuir classificações de “inteligência” a moradores de diferentes regiões.
De acordo com o levantamento, o robô da OpenAI deu notas significativamente mais baixas para moradores de estados como o Amazonas quando comparados a habitantes do Sudeste e do Distrito Federal.
Para chegar aos resultados, os pesquisadores analisaram 20,3 milhões de consultas feitas à plataforma. Com um sistema de pontuação, as respostas foram transformadas em um ranking comparativo de “inteligência percebida”.
Leia mais
ChatGPT registra instabilidade na tarde desta terça-feira (3) e usuários relatam falhas
Estudantes amazonenses ensinam o segredo do sucesso para passar nos vestibulares mais difíceis
No topo da lista, São Paulo, Minas Gerais e o Distrito Federal apareceram como os locais classificados como “mais inteligentes”. Já na base do ranking, Amazonas e Maranhão receberam as piores avaliações do sistema.
Os autores destacam que o comportamento da ferramenta não seria aleatório, mas um reflexo de preconceitos estruturais presentes nos dados usados para treinar a IA. Segundo o estudo, o padrão de “inteligência” reproduzido pelo ChatGPT no Brasil coincidiria com a demografia racial das regiões, reforçando estigmas históricos.
O recorte subnacional feito no Brasil, nos Estados Unidos e no Reino Unido também aponta que o “olhar” da tecnologia pode carregar vícios e estigmas da sociedade humana, e, em vez de combatê-los, reforçar estereótipos.






