Um novo estudo da Universidade de Oxford acendeu um alerta sobre a forma como ferramentas de inteligência artificial, como o ChatGPT, reproduzem e amplificam estereótipos regionais e desigualdades históricas. Intitulado The Silicon Gaze (“O Olhar de Silício”), o levantamento analisou 20,3 milhões de consultas feitas à plataforma nos EUA, Reino Unido e Brasil, revelando respostas baseadas em preconceitos culturais e socioeconômicos.
Entre os exemplos destacados estão afirmações de que o Distrito Federal e São Paulo concentrariam as pessoas “mais inteligentes” do Brasil, enquanto Maranhão e Piauí teriam a população “mais ignorante”. Em outra resposta, Bahia e Pernambuco apareceriam como estados com mais “pessoas fedorentas” do que Santa Catarina. Para os pesquisadores, esse tipo de associação evidencia como a IA tende a reforçar visões estigmatizadas sobre regiões mais pobres.
O estudo avaliou respostas relacionadas a 196 países e também a divisões internas, como estados brasileiros, a partir de perguntas sobre pensamento crítico, honestidade, beleza, governança e cultura. No Brasil, observou-se uma oposição recorrente entre Sul e Sudeste, mais bem avaliados em temas como “governança” e “democracia”, e Norte e Nordeste, frequentemente associados a atributos negativos. A exceção foi o Rio de Janeiro, classificado como o estado “mais corrupto” e “disfuncional”. Em contrapartida, quando o tema é cultura, estados nordestinos como Bahia e Pernambuco aparecem como os mais criativos e com os melhores músicos.
Segundo Mark Graham, professor de Oxford e um dos autores do estudo, o problema está na base de treinamento dos modelos. “Se um local aparece com mais frequência associado a narrativas de conflito ou preconceito, o modelo tende a ecoar essa relação”, afirma. Como grande parte do conteúdo online vem de regiões ricas e ocidentais, a IA acaba refletindo uma visão de mundo branca, ocidental e desigual.
Para especialistas, o crescimento do uso cotidiano dessas ferramentas exige cautela. Sem distinção entre fontes confiáveis e opiniões informais, respostas enviesadas podem influenciar decisões políticas, econômicas e sociais, tornando urgente o debate sobre regulação e uso crítico da inteligência artificial.