The New York Times implementa inteligência artificial anti-trolls nos comentários
Um algoritmo que aprende com o nível de toxidade e obscenidade dos comentaristas de portal
Todos sabemos que a parte de comentários de sites na web podem ser geniais para debates e discussões construtivas, ou simplesmente ser um espaço para insultos e discursos de ódio. A partir disso, o The New York Times começou a utilizar uma tecnologia de inteligência artificial, produzida por uma unidade da Alphabet Inc, para facilitar a seleção de comentários impróprios e criar um ambiente mais pacífico.
Nessa semana o jornal abriu a sessão de comentários em aproximadamente um quarto das notícias, com a intenção de aumentar esse número drasticamente até o final do ano. O software utilizado pela empresa foi desenvolvido pela Jigsaw, uma das partes da Alphabet Inc, cujo dono é o Google. Ele lê os comentários e ajuda os moderadores à gastar tempo aprovando somente aqueles que precisam de algum julgamento pessoal, os outros são prontamente deletados.
O software chamado Perspective foi desenvolvido em conjunto com o The Guardian, The Economist e o Wikipedia. O intuito da tecnologia é também utilizar aprendizado de máquinas, ou machine learning
, para estudar padrões e aprender ao longo do tempo a detectar mais facilmente e de maneira precisa comentários contendo discurso de ódio.
Logo quando são feitos, o software julgará quão ofensivo os comentários são, em uma escala que leva em conta seu potencial de obscenidade, toxidade e sua probabilidade de ser rejeitado de cara. Além de tudo isso, ele usará como base o perfil da notícia em questão para buscar possíveis ofensas relacionadas.
Comentários
Sua voz importa aqui no B9! Convidamos você a compartilhar suas opiniões e experiências na seção de comentários abaixo. Antes de mergulhar na conversa, por favor, dê uma olhada nas nossas Regras de Conduta para garantir que nosso espaço continue sendo acolhedor e respeitoso para todos.