Uma pesquisa da Universidade de Oxford que analisou milhões de interações com o ChatGPT revelou que a ferramenta pode reproduzir e amplificar vieses regionais e sociais no Brasil. Segundo o estudo, respostas tendem a associar atributos mais positivos às regiões Sul e Sudeste, enquanto Norte e Nordeste aparecem com avaliações mais negativas, reflexo de padrões textuais presentes nos dados usados para treinar os modelos de inteligência artificial.
Na coluna Mundo Digital, o professor Eduardo Soares explica que esses vieses não surgem de métricas oficiais, mas do conteúdo disponível na internet, como redes sociais, blogs e notícias. Como os modelos aprendem a partir desses textos, acabam incorporando estereótipos e preconceitos já existentes na sociedade, o que pode impactar decisões em áreas como educação, trabalho e formação de opinião.
O especialista também destaca caminhos para reduzir o problema, como o uso de bases de dados mais diversas, técnicas de mitigação de viés e atenção do próprio usuário ao interpretar as respostas. A recomendação é não tratar a IA como fonte absoluta de verdade e sempre conferir informações em fontes confiáveis. A análise completa está disponível no áudio da coluna, no site da CBN Ribeirão Preto.