Sistemas de Inteligência Artificial transparentes detectam discurso de ódio e fake news
Imagine uma ferramenta que, em poucos segundos, analisa comentários suspeitos na internet e revela se eles são falsos ou promovem discurso de ódio, explicando o motivo da classificação. Esse foi o objetivo que inspirou a pesquisadora Francielle Alves Vargas a desenvolver, no Instituto de Ciências Matemáticas e da Computação (ICMC) da USP em São Carlos, três modelos que classificam e explicam por que uma notícia ou comentário foi classificado como falso ou ofensivo. O sistema ajuda o público a entender o processo de decisão, além de mitigar os riscos desses modelos estarem enviesados e reforçarem ou propagarem problemas sociais. A pesquisadora criou ainda o HateBR, primeiro banco de dados brasileiro voltado exclusivamente para a detecção de discurso de ódio.
via Jornal da USP
#DiscursoDeÓdio #Desinformação #IA
Disponível em: https://jornal.usp.br/ciencias/sistemas-de-inteligencia-artificial-transparentes-detectam-discurso-de-odio-e-fake-news/
Deixe uma resposta