Um levantamento conduzido por pesquisadores da Universidade de Oxford acendeu um alerta sobre o funcionamento de sistemas de inteligência artificial no cotidiano. O estudo, batizado de “The Silicon Gaze” (“O Olhar de Silício”), analisou 20,3 milhões de interações com o ChatGPT em países como Brasil, Estados Unidos e Reino Unido e identificou padrões de respostas marcados por estereótipos regionais.
Entre os casos observados no Brasil, o modelo classificou o Distrito Federal e São Paulo como locais com pessoas “mais inteligentes”, enquanto estados como Maranhão e Piauí apareceram associados a avaliações negativas, como “mais ignorantes”. Em outro exemplo, Bahia e Pernambuco foram relacionados a características depreciativas quando comparados a Santa Catarina.
Os pesquisadores destacam que essas respostas não surgem de forma isolada. Elas seguem uma lógica mais ampla, que conecta regiões com menor renda ou menor presença global a atributos negativos, enquanto áreas mais ricas e centrais na produção de conteúdo digital são associadas a qualidades positivas.
Comparações em escala global
A pesquisa analisou respostas envolvendo 196 países e também divisões internas, como estados brasileiros. Para isso, foram feitas perguntas diretas ao sistema, incluindo questões sobre honestidade, aparência, capacidade crítica e inovação.
As respostas foram organizadas em categorias temáticas, como saúde, cultura e atributos físicos. A partir disso, os pesquisadores criaram rankings que evidenciam como o modelo distribui avaliações entre diferentes regiões.
O padrão se repete em escala global. Países da África, por exemplo, aparecem com mais frequência ligados a percepções negativas. Já nações europeias e os Estados Unidos são frequentemente descritos com termos associados a desenvolvimento, eficiência e criatividade.
Recorte brasileiro expõe desigualdades
No Brasil, os resultados mostram uma divisão recorrente entre regiões. Estados do Sul e Sudeste aparecem melhor posicionados em temas como governança, democracia e organização social. Já Norte e Nordeste tendem a receber avaliações menos favoráveis nesses mesmos critérios.
O Rio de Janeiro surge como um ponto fora da curva dentro do Sudeste, sendo classificado como o estado “mais corrupto” e também como um dos mais “disfuncionais” do país nas respostas analisadas.
Em áreas ligadas à cultura, no entanto, há uma inversão parcial. Estados nordestinos como Bahia e Pernambuco são frequentemente associados a música e criatividade. Minas Gerais aparece como o estado onde é mais fácil fazer amigos, enquanto São Paulo figura entre os últimos colocados nesse tipo de avaliação.
Como os vieses são formados
Os autores do estudo apontam que o comportamento do modelo está diretamente ligado à base de dados utilizada em seu treinamento. Sistemas como o ChatGPT são alimentados por grandes volumes de textos disponíveis na internet, o que inclui desde conteúdos acadêmicos até publicações informais.
Como a produção digital é concentrada em países ricos e em inglês, há uma tendência de que essas visões dominantes influenciem os resultados. Regiões com menor presença online acabam sendo representadas de forma limitada ou distorcida.
O professor Mark Graham, um dos responsáveis pela pesquisa, explica que o modelo aprende associações a partir da frequência com que certos temas aparecem ligados a determinados lugares.
“Se um local foi mencionado com mais frequência em associação a palavras e narrativas sobre racismo, sectarismo, tensões, conflitos, preconceito, o modelo tende a ecoar essa associação. Ele não verifica dados oficiais, não conversa com moradores nem pondera o contexto local”, afirma Graham.
Outro fator relevante é a ausência de diferenciação entre fontes. Informações estatísticas e conteúdos opinativos podem ter o mesmo peso no treinamento, o que contribui para a reprodução de visões simplificadas.
Uso crescente e riscos
O avanço das ferramentas de inteligência artificial amplia o alcance desses efeitos. Com cada vez mais pessoas recorrendo a sistemas automatizados para buscar informações, cresce também o risco de que respostas enviesadas sejam interpretadas como fatos.
Os pesquisadores alertam que esse cenário pode impactar decisões em diferentes áreas, incluindo políticas públicas, mercado de trabalho e estratégias empresariais.
Francisco Kerche, pesquisador do Oxford Internet Institute e doutorando na USP, defende que o uso dessas tecnologias deve ser acompanhado de análise crítica e debate público.
“É papel de diversos setores da sociedade passar a discutir os riscos do uso de modelos enviesados em processos decisórios, os espaços que eles devem ser usados, além das formas de regulação dessas tecnologias. Usuários devem sempre pensar criticamente sobre os resultados desses modelos, entendendo a estrutura desigual que informam essas respostas”, afirma Kerche.
A OpenAI, empresa responsável pelo ChatGPT, foi procurada para comentar os resultados apresentados no estudo, mas não respondeu até a conclusão da reportagem.
Fonte: Folha de São Paulo
Foto: https://br.freepik.com/fotos-premium/chatbot-conceito-de-aplicacao-de-servico-de-cliente-digital-inteligente-artificial-homem-usar-computador-movel_392791799.htm
