Quando os dados estão: as consequências do viés Racial na pesquisa e nos algoritmos

Na ciência dentro da academia, que historicamente tem sido dominada por homens brancos, a questão do preconceito há muito tempo representa um obstáculo à objetividade em campos que pretendem se envolver e responder a perguntas sobre seres humanos, como antropologia, medicina e ciências psicológicas.

Mesmo os mais inocentes e bem intencionados das pessoas são vítimas de seu próprio preconceito inconsciente. A natureza da socialidade humana torna incrivelmente tentador colocar maior estoque naqueles semelhantes a você-muitas vezes em detrimento ou negligência dos outros.

Leve em grupo e preconceito fora do grupo: as próprias crianças pequenas foram vistas retendo a ajuda daqueles que vitimizam as pessoas em seu grupo, enquanto ajudam com pouca hesitação aqueles que causam estragos em pessoas fora desse grupo.

Mais amplamente, a tendência observada crianças têm que preferencialmente ajudar aqueles em um grupo quando os recursos são escassos serve como outra personificação do viés.

Um exemplo mais amplo e estrutural de viés na academia é visto na superamostragem de estudantes universitários americanos-que tendem a ser brancos — em estudos psicológicos. Isso foi trazido à luz e reconhecido como um problema em 2010, há mais de uma década. Então, o antropólogo Joe Henrich e os psicólogos Steven Heine e Ara Norenzayan, pesquisadores da Universidade da Colúmbia Britânica, descobriram que estudantes de graduação de sociedades ocidentais, educadas, industrializadas, ricas e democráticas (W. E. I. R. D.) representavam até 80% dos participantes dos estudos, enquanto representavam apenas 12% da população mundial.

Mas há mais preocupações com a falibilidade dos métodos de coleta de dados do que apenas dentro do domínio dos acadêmicos. Quando os dados em si são distorcidos, como as próprias descobertas — ou mesmo políticas e resultados — são afetadas por essas coisas?

Na era do big data, quando essa informação é cada vez mais consequência de nossas vidas diárias, essas questões reinam supremas. À medida que os dados e a inteligência artificial são usados cada vez mais para delegar a tomada de decisões a algoritmos e fazer julgamentos uma vez tomados por seres humanos-que seríamos negligentes em não reconhecer que vieram com seus próprios preconceitos e preconceitos — preocupações sobre como isso afeta desproporcionalmente as minorias, e particularmente os negros, são levantados com cada vez mais frequência.

Pesquisadores mostraram, por exemplo, que algoritmos destinados a corrigir o viés humano na distribuição de coisas como empréstimos e hipotecas no mercado de crédito dos EUA ainda fizeram muito pouco para fechar a lacuna nas taxas de inadimplência entre pessoas brancas e mutuários negros e hispânicos.

Os campos da medicina e da criminologia também são frequentemente problemáticos a esse respeito.

A ligação de dados em saúde, por exemplo, diminuiu a qualidade da assistência entre as minorias em geral. Linkage, o processo no qual os dados dos provedores são mantidos para uso em monitoramento, planejamento, pesquisa, desenvolvimento de políticas e outras avaliações, tem maior probabilidade de conter dados incorretos ou até mesmo de não ter dados importantes entre minorias étnicas. Isso pode ser devido a coisas como diferentes convenções de nomenclatura, uma falta não infundada de confiança nos sistemas de saúde e como os dados são usados e uma tendência para as minorias frequentarem instalações de saúde com qualidade de dados relativamente baixa.

Entre os negros americanos especificamente, um algoritmo que gerencia o atendimento de 200 milhões nos EUA anualmente está recentemente sob escrutínio por sua tendência de discriminar sistematicamente. De acordo com um estudo liderado por um pesquisador da UC Berkeley School of Public Health, “em um determinado escore de Risco, Os pacientes negros são consideravelmente mais doentes do que os pacientes brancos, como evidenciado por sinais de doenças não controladas.”

Em outras palavras, em um cenário em que negros e brancos estavam igualmente doentes, o algoritmo era significativamente menos provável de encaminhar negros para programas destinados a melhorar seus cuidados. Essa disparidade é especialmente notória desde o advento da pandemia COVID-19, em que os negros americanos tinham 2,5 vezes mais probabilidade de serem hospitalizados por COVID e 1,7 vezes mais probabilidade de morrer por isso.

Da mesma forma, a prática já incrivelmente controversa de policiamento preditivo foi criticada por muitos por simplesmente perpetuar a prática de policiamento racista. Isso se deve ao fato de que “em várias jurisdições, esses sistemas são construídos com base em dados produzidos durante períodos documentados de práticas e políticas defeituosas, racialmente tendenciosas e às vezes ilegais”, de acordo com pesquisadores da New York University e da Northeastern University.

No campus, muitos pesquisadores procuraram nivelar esse campo de jogo desigual e tomaram medidas para corrigir essas desigualdades e questões inerentes aos dados, por exemplo, tentando trazer mais alunos negros para campos como ciência de dados e outras disciplinas no S. T. E. M. Iniciativas defendidas pelo CBSR, o centro de pesquisa de Estudos negros da UC Santa Barbara, como engajamento e enriquecimento de alunos em Ciência de dados, ou S. E. E. D. S., visam estabelecer uma ” base nova e orientada para os alunos por meio de uma comunidade de vida e aprendizagem em ciência de dados para entender questões de significado pessoal por meio de”

Enquanto isso, a pesquisa intercultural explodiu em grande parte para abordar as questões que surgiram da preocupação da academia Ocidental com os alunos da W. E. I. R. D. Aqueles nas ciências antropológicas procuraram colaborar com outras pessoas de todo o mundo na esperança de obter uma visão de como as circunstâncias e outras características contextuais afetam os seres humanos e seu comportamento, seja comparando status socioeconômico, localização geográfica ou qualquer número de qualidades que afetam por que as pessoas fazem o que fazem e agem como fazem.

Leave a Comment