De onde veio o termo “racismo algorítmico”? / Tarcizio Silva

De onde veio o termo “racismo algorítmico”? / Tarcizio Silva

Quanto ao termo em si, um dos primeiros formuladores de “racismo algorítmico” foi Syed Mustafa Ali, que apresenta o conceito em reflexões sobre como o imaginário de futuro distópico da branquitude ocidental depende da demonização colonial do Outro – como da negritude ou do Islã – para estabelecer seu ideal de desenvolvimento tecnológico hegemônico como único possível, incluindo suas camadas crescentemente explícitas de eugenia e destruição ambiental.

Para meu trabalho, Ali é uma grande influência junto às demais autoras apresentadas, em especial Ruha Benjamin. Em capítulo que pudemos traduzir no livro “Comunidades, Algoritmos e Ativismos Digitais”, Benjamin faz um apelo que “continuemos promovendo investigações acadêmicas que não sejam apenas sobre processos racializados, mas também apliquem uma lente de estudos racialmente críticos de ciência e tecnologia a todos os aspectos da vida social que atualmente são sufocados pelas lógicas carcerais” que direciona minha abordagem de pesquisa.

#RacismoAlgorítmico

via Tarcizio Silva

Disponível em: https://tarciziosilva.com.br/blog/de-onde-veio-o-termo-racismo-algoritmico/

Racismo algorítmico e a cor da pele que ainda pesa nos dados da IA / Bits da Biblio

Racismo algorítmico e a cor da pele que ainda pesa nos dados da IA / Bits da Biblio

A máquina não inventa o racismo. Ela o reproduz, com selo de precisão, sem culpa, sem rosto. Como se fosse técnica, mas é política.

E afeta vidas reais, como a de Robert Williams, preso por um crime que não cometeu, por causa de um sistema de reconhecimento facial que confundiu um rosto negro com outro. Esse não é um caso isolado.

E a situação piora quando ampliamos o foco. As IAs generativas, por exemplo, reforçam o padrão branco como norma. Quando pedimos para criar imagens de pessoas, os resultados mostram uma lógica clara: brancos aparecem como referência, negros como exceção. E quando aparecem, vêm carregados de estereótipos.

#RacismoAlgorítmico

via Bits da Biblio

Disponível em: https://bitsdabiblio.substack.com/p/bit-125-racismo-algoritmico-e-a-cor

Racismo Algorítmico e Regulação de Inteligência Artificial: o contrato racial na produção do PL 2338/2023 / Tarcízio Silva

Racismo Algorítmico e Regulação de Inteligência Artificial: o contrato racial na produção do PL 2338/2023

O projeto investigou o fenômeno do racismo algorítmico e os embates políticos e discursivos sobre o seu reconhecimento e mitigação nas esferas de disputa sobre aspectos técnicos do controle social da tecnologia. Concluiu-se que a produção de invisibilidades e rejeições sobre o combate à discriminação racial foi um componente da rede expandida de atores na regulação de inteligência artificial.

#RacismoAlgorítmico #Regulamentação

via Tarcízio Silva

Disponível em: https://tarciziosilva.com.br/blog/racismo-algoritmico-e-regulacao-de-inteligencia-artificial-o-contrato-racial-na-producao-do-pl-2338-2023/

Mitigando vieses no aprendizado de máquina: uma análise sociotécnica / Maquinações

Mitigando vieses no aprendizado de máquina: uma análise sociotécnica

O aprendizado de máquina surgiu como um subcampo da Inteligência Artificial que projeta algoritmos que aprendem a partir de grandes quantidades de exemplos — ou dados — relacionados a um determinado fenômeno [Mitchell 1997]. Hoje, o aprendizado de máquina é utilizado em uma infinidade de sistemas, desde sistemas de recomendação, sistemas de recrutamento, sistemas de tradução automática, de liberação de créditos, sistemas prisionais e em serviços de vigilância pública por reconhecimento facial. Nesta seção, apresentamos alguns conceitos importantes relacionados ao aprendizado de máquina e detalhamos as suas etapas.

Ver artigo: Mitigating Bias in Machine Learning: A Socio-technical Analysis, na iSys – Brazilian Journal of Information Systems

via Maquinações

#MediaçãoAlgorítmica #RacismoAlgorítmico #AprendizadoDeMáquina

Disponível em: https://maquinacoes.rafaelg.net.br/mitigando-vieses

Gênero, raça e preconceito interseccional na triagem de currículos por meio da recuperação do modelo de linguagem / AIES2024

Gênero, raça e preconceito interseccional na triagem de currículos por meio da recuperação do modelo de linguagem

Neste trabalho, investigamos as possibilidades de usar LLMs em um ambiente de triagem de currículos por meio de uma estrutura de recuperação de documentos que simula a seleção de candidatos a emprego. Usando essa estrutura, realizamos um estudo de auditoria de currículos para determinar se uma seleção de modelos MassiveText Embedding (MTE) é tendenciosa em cenários de triagem de currículos. Simulamos isso para nove ocupações, usando uma coleção de mais de 500 currículos disponíveis publicamente e 500 descrições de cargos. Descobrimos que os MTEs são tendenciosos, favorecendo significativamente nomes associados a brancos em 85,1% dos casos e nomes associados a mulheres em apenas 11,1% dos casos, com a minoria dos casos não apresentando diferenças estatisticamente significativas. Análises posteriores mostram que os homens negros são desfavorecidos em até 100% dos casos, replicando padrões reais de preconceito em ambientes de emprego, e validam três hipóteses de interseccionalidade.

#MediaçãoAlgorítmica #RacismoAlgorítmico #Gênero #Interseccionalidade

Disponível em: https://ojs.aaai.org/index.php/AIES/article/view/31748/33915

Curso sobre Racismo Algorítmico: online e gratuito l Super oportunidade! “O curs…

[ad_1]

Curso sobre Racismo Algorítmico: online e gratuito l Super oportunidade! “O curso é on-line, basta criar sua conta na plataforma e solicitar entrada no respectivo curso.” #RacismoAlgorítmico #Cursos via Tarcízio Silva
tarciziosilva.com.br/blog/curso-sob… https://t.co/p7Mun89Un3
[ad_2]

Curadoria: Projeto Informe-CI

Pele negra, algoritmos brancos: informação e racismo nas redes sociotécnicas l “…

[ad_1]

Pele negra, algoritmos brancos: informação e racismo nas redes sociotécnicas l “[…] apesar de não ser a única forma de opressão presente nas redes, o #RacismoAlgorítmico tem importante papel na manutenção estrutural das desigualdades raciais […]” revista.ibict.br/liinc/article/… https://t.co/PNqS1KG6e8
[ad_2]

Curadoria: Projeto Informe-CI

Como podemos ensinar a tecnologia a não ser racista l “[…] cabe a nós, humanos…

[ad_1]

Como podemos ensinar a tecnologia a não ser racista l “[…] cabe a nós, humanos […], investirmos em sua aprendizagem. Faremos isso trazendo maior diversidade às suas referências e aos seus bancos de imagem” #RacismoAlgorítmico via Olhar Digital olhardigital.com.br/2022/04/13/col…
[ad_2]

Curadoria: Projeto Informe-CI

IA já começou a rastrear nossas emoções… l Estes algoritmos requerem grandes b…

[ad_1]

IA já começou a rastrear nossas emoções… l Estes algoritmos requerem grandes bancos de dados […]. Esses bancos de dados são um reflexo da sociedade que os produziu e, portanto, carregam os vieses dos rotuladores.  #IA #RacismoAlgorítmico via SAB sciam.com.br/inteligencia-a…
[ad_2]

Curadoria: Projeto Informe-CI

Visão Computacional e Racismo Algorítmico… l “Nos mercados e ambientes produti…

[ad_1]

Visão Computacional e Racismo Algorítmico… l “Nos mercados e ambientes produtivos de tecnologia […] a diversidade é rara, o que tem impactos materiais e simbólicos nas interfaces e sistemas usados […].” #RacismoAlgorítmico via Tarcízio Silva tarciziosilva.com.br/blog/visao-com…
[ad_2]

Curadoria: Projeto Informe-CI