Novo relatório indica falha em inteligência artifical do Facebook

Créditos: Exame

Embora o Facebook tenha afirmado que faz uso de um sistema de inteligência artificial para identificar e remover postagens contendo discurso de ódio e de apologia à violência, um novo relatório sobre o recurso afirmou que esta tecnologia não funciona da maneira planejada.

Segundo o relatório divulgado, elaborado pelo Wall Street Journal, a inteligência artificial do Facebook remove menos de 5% do discurso de ódio que é visto na plataforma. O novo relatório detalhou as falhas na estratégia da plataforma para remover este conteúdo considerado como prejudicial aos seus usuários.

Os engenheiros de desenvolvimento do Facebook informaram que o sistema de inteligência artificial da empresa removeu apenas 2% das postagens que continham discurso de ódio e que violavam as regras da rede social.

Enquanto isso, outro grupo de funcionários do Facebook chegou a uma conclusão semelhante, segundo o relatório. De acordo com este segundo grupo, foi possível chegar à conclusão de que a inteligência artificial do Facebook removeu apenas postagens que geraram de 3% a 5% dos discursos de ódio encontrados na plataforma, e apenas 0,6% do conteúdo que violava as regras do Facebook sobre apologia à violência.

O relatório divulgado pelo Wall Street Journal representou as informações mais recentes do jornal sobre suas matérias focadas nos arquivos internos do Facebook, que descobriu que a empresa faz vista grossa ao seu impacto em muitas áreas, desde a saúde mental de seus usuários até a taxa de propagação de desinformação na rede, publicações envolvendo tráfico de pessoas e violência na plataforma.

O CEO do Facebook, Mark Zuckerberg, afirmou acreditar que o sistema de inteligência artificial do Facebook destinado a reduzir o número de postagens contendo discursos de ódio seria capaz de eliminar a maioria do conteúdo que gera problemas na rede até o ano de 2020, o que não se concretizou.

O Facebook relatou que a maior parte do discurso de ódio e do conteúdo fazendo apologia à violência em sua plataforma pode ser derrubado por sua inteligência artificial considerada altamente eficiente antes mesmo dos usuários verem tais publicações. Além disso, um relatório do Facebook divulgado em fevereiro deste ano afirmava que essa taxa de detecção estava acima do percentual de 97% de eficácia.

Os algoritmos do Facebook podem ter problemas para determinar o que é discurso de ódio e o que é violência, fazendo com que vídeos e postagens considerados prejudiciais sejam deixados na plataforma por muito tempo, uma falha que é apontada pelo relatório do Wall Street Journal.

No entanto, o Facebook removeu quase 6,7 milhões de postagens contendo discurso de ódio em sua plataforma entre outubro a dezembro de 2020.  Alguns posts removidos envolviam venda de órgãos e porte de armas, de acordo com o mesmo relatório publicado pelo Wall Street Journal.

Seja o primeiro a comentar

Faça um comentário