Facebook revê política sobre conteúdo que incita violência


O Facebook abriu suas portas, no dia 18 de julho, à mídia internacional durante evento na sua sede global em Menlo Park, na Califórnia. Pela primeira vez, a plataforma realizou uma série de coletivas de imprensa, com executivos de diferentes áreas da empresa, para destacar seus esforços no sentido de prover maior proteção a dados dos usuários, após ser responsabilizada pela disseminação de conteúdos abusivos e imprecisos em suas principais plataformas — Facebook, Instagram e WhatsApp.

Uma das iniciativas da empresa é uma nova política para derrubar postagens que incitem a violência física real. A plataforma anunciou que vai estabelecer parcerias com entidades da comunidade civil em diferentes mercados para entender as tensões sociais de cada país, como elas se manifestam nas redes sociais e motivam ações reais.

No Sri Lanka, por exemplo, a plataforma foi acusada pelo governo local de contribuir para protestos islamofóbicos, que culminaram na morte de três pessoas em março deste ano. Já na Índia, o assassinato de 24 pessoas inocentes desde abril tem como uma de suas motivações a disseminação de vídeos falsos via WhatsApp sobre o rapto de crianças. São lugares cujas operações da plataforma deverão ser afetadas pelas novas políticas.

“Há países em que a distribuição de vários pedaços de informação desencontradas já incitou a violência real. No Sri Lanka, por exemplo, houve casos em que poderíamos ter feito alguma coisa para ajudar a identificar estas tensões”, afirmou a gerente de produto Tessa Lyons.

Nova Política do Facebook

Denominada “real-world harm policy”, a nova política é inédita pela participação de parceiros externos, e destoa das diretrizes de banimento de outros conteúdos, como nudez, discurso de ódio e discriminação, em que a identificação e remoção de posts é feita exclusivamente pelo time do Facebook. No caso de conteúdos relacionados à terrorismo, spams comerciais e contas falsas, a plataforma diz ser capaz de remover 98% das postagens pró-ativamente — isto é, antes de qualquer denúncia de usuários. Nesses casos, o processo é amplamente automatizado.

Já discursos de ódio são os mais difíceis de identificar e remover, pois dependem da avaliação humana do contexto da mensagem e das intenções de cada usuário. De cada cem postagens com discursos de ódio, o Facebook consegue remover apenas 38 proativamente. Já quando o assunto é conteúdo que incita a violência, a plataforma consegue remover cerca de 85% das postagens.

Nuances do discurso

Os parâmetros sobre quais discursos são aceitáveis e inaceitáveis na rede social variam de mercado para mercado, e por isso a empresa diz que o tratamento de determinados temas pela plataforma pode ser diferente de um país para outro. Uma postagem que diga que o holocausto não aconteceu, por exemplo, pode ser interpretada como discurso de ódio ou notícia falsa, dependendo de onde foi feita.

“Negar o holocausto é contra a lei em vários países por questões históricas, como na Alemanha. Nestes países, nos submetemos às leis locais e removemos este tipo de conteúdo. Em outros países, como os Estados Unidos, uma negação como esta não vai contra a lei. Neste último caso, não removemos o conteúdo, mas o tratamos como ‘desinformação’ e então reduzimos sua distribuição pelo algoritmo”, explica Tessa.

A empresa conta com cerca de 20 mil funcionários em diferentes regiões do mundo treinados especificamente para revisar conteúdos considerando as particularidades linguísticas de cada local.

WhatsApp e fake news

Na luta para barrar a disseminação de notícias falsas, o WhatsApp não é capaz de impedir a distribuição de mensagens individuais, uma vez que não tem acesso às mensagens, todas criptografadas. Apesar disso, o aplicativo vai começar a identificar como “encaminhadas” mensagens que já foram repassadas a partir de outras conversas.

“Não conseguimos olhar para o contexto do conteúdo, colocar uma mensagem em último em uma escala de credibilidade ou escolher não entregar uma mensagem, como o faz o Facebook. Porém podemos ajudar as pessoas a ter mais contexto sobre a distribuição daquilo e a partir daí pensar mais sobre o teor da mensagem”, diz Carl Woog, communications manager do WhatsApp.

O recurso deve começar a funcionar no Brasil nas próximas semanas. Pensando nas próximas eleições presidenciais, a empresa também lança no País uma iniciativa de checagem de notícias compartilhadas no aplicativo, em parceria com a Comprova, entidade de fact checking com apoio de 24 veículos, entre eles Estadão, Folha de S. Paulo, Futura, Band, Uol e Piauí.

Junto à comunidade acadêmica global, o WhatsApp oferecerá apoio de até US$ 50 mil para financiar propostas de pesquisas sobre a disseminação de notícias falsas no aplicativo.

Fonte: Meio&Mensagem