Meta afrouxa regras e Justiça será a única arma contra discurso de ódio

Imagem: miss.cabul/Shutterstock

Em uma decisão polêmica, a Meta — empresa controladora do Facebook, Instagram e Threads — anunciou na última terça-feira (7) uma mudança significativa em suas diretrizes de conteúdo. A partir de agora, a empresa deixará de remover de forma proativa publicações com teor discriminatório contra pessoas LGBTQIA+ e migrantes, abrindo espaço para a proliferação de discursos de ódio em suas plataformas.

A nova política, que já está em vigor nos Estados Unidos e no Reino Unido, permite, por exemplo, que usuários associem pessoas LGBTQIA+ a doenças mentais e que utilizem linguagem ofensiva contra migrantes em discussões sobre temas políticos ou religiosos.

Enquanto a empresa justifica a mudança alegando que busca “ampliar o espaço para discussões sensíveis”, críticos apontam para o risco de normalização do discurso de ódio e aumento da discriminação online.

O que muda no Brasil com a nova política da Meta?

No Brasil, a mudança já levanta sérias preocupações. Segundo o Marco Civil da Internet, as redes sociais só podem ser responsabilizadas por conteúdo ilegal se houver ordem judicial para sua remoção. Com a nova política da Meta, usuários que se sentirem ofendidos por publicações discriminatórias terão que recorrer aos tribunais para que o conteúdo seja retirado do ar.

Especialistas em direito digital ouvidos pela Folha também alertam para o aumento de ações judiciais contra a Meta, já que a empresa não se responsabilizará mais pela remoção proativa de conteúdo ilegal.

A deputada federal Duda Salabert (PDT-MG) e a Associação Nacional de Travestis e Transexuais (Antra), por sua vez, se manifestaram contra a mudança e já acionaram a Justiça e o Ministério Público Federal para questionar a nova política da Meta. “É inadmissível que a Meta permita a propagação de discursos de ódio em suas plataformas“, declarou Duda Salabert em suas redes sociais.

A decisão da big tech também reacendeu o debate sobre a responsabilidade das plataformas digitais na moderação de conteúdo. O Supremo Tribunal Federal (STF) está analisando a constitucionalidade do artigo 19 do Marco Civil da Internet, que isenta as plataformas de responsabilidade por conteúdo publicado por terceiros. Ministros do STF já se manifestaram a favor de responsabilizar as plataformas pela moderação de conteúdo, o que poderia mudar o cenário atual.

*Olhar Digital

Os comentários estão fechados, mas trackbacks E pingbacks estão abertos.