Redação
O Supremo Tribunal Federal (STF) deu início, nesta terça-feira (28), à audiência pública que discute a responsabilidade de plataformas digitais por conteúdos ilícitos ou ofensivos publicados por usuários. Ao todo, serão ouvidos 47 expositores entre ministros, autoridades governamentais, especialistas, organizações sociais e representantes de big techs como a Meta (dona do Facebook e Instagram), Google, ByteDance (empresa-mãe do TikTok) e Twitter. A previsão da Corte é que a reunião siga até a manhã de quarta-feira (29).
A audiência foi convocada pelos ministros Dias Toffoli e Luiz Fux para debater regras do Marco Civil da Internet (Lei 12.965/2014), mais especificamente o artigo 19 da norma. De acordo com o dispositivo, as empresas só podem ser cobradas por danos gerados por terceiros se não atenderem a “ordem judicial específica” para remoção de conteúdos que possam ofender direitos de personalidade, incitar o ódio ou difundir notícias fraudulentas.
O debate será utilizado como base para dois processos que correm no STF sob a relatoria de Toffoli e Fux. As duas ações de repercussão geral (cuja decisão incide em casos similares) envolvem indenizações por parte do Google e do Facebook a pessoas atingidas por usuários das plataformas.
Além dos relatores, participaram do primeiro dia da audiência os também ministros do STF, Gilmar Mendes, Alexandre de Moraes e Luís Roberto Barroso. Ainda contribuíram com a discussão os ministros de governo, Flávio Dino (Justiça e Segurança Pública), Silvio Almeida (Direitos Humanos) e o advogado-geral da União, Jorge Messias.
Leia também: Brasil participa de conferência da Unesco para combater desinformação e discurso de ódio na internet
Audiência
Logo na abertura, Toffoli afirmou que a evolução das tecnologias digitais “põe em xeque noções jurídicas tradicionais” para combater violações a direitos que ocorrem nas redes sociais. Segundo o ministro, a atual redação do Marco Civil da Internet (de 2014) não consegue contemplar todas as situações possíveis. Já os ministros Gilmar Mendes, Luís Roberto Barroso e Alexandre de Moraes destacaram a forma como os conteúdos veiculados na internet tem afetado a vida privada e a política das nações.
Mendes ressaltou, inclusive, que os ataques antidemocráticos ocorridos no dia 8 de janeiro, no Distrito Federal, “guardam conexão com o uso abusivo da internet”. No mesmo sentido, Barroso comentou que a desinformação, os discursos de ódio e as teorias de conspiração que circulam nas redes “se tornaram sérias ameaças à democracia e aos direitos fundamentais”. Já Alexandre de Moraes foi enfático ao afirmar que o modelo atual de gestão e uso da internet – no Brasil e no mundo – é “absolutamente ineficiente, destrói reputações, destrói dignidades”.
A necessidade de se impor mais proatividade das plataformas nas inibições de ilícitos também foi defendida pelo advogado-geral da União, Jorge Messias. “Se essas empresas têm o bônus – e o Brasil é mercado muito lucrativo – também devem ter o ônus”, avaliou.
Leia também: Moraes defende que redes sociais sejam consideradas empresas de comunicação
Artigo 19
Com “o intuito de assegurar a liberdade de expressão e impedir a censura”, o artigo 19 do Marco Civil da Internet define que “o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente”.
De acordo com os defensores da atual redação da norma, o dispositivo teria como propósito promover uma pretensa neutralidade das plataformas de modo a evitar o risco de que as empresas provedoras removessem conteúdos legítimos com o receio de serem responsabilizadas. Por outro lado, críticos apontam que a regra isenta as empresas e combater conteúdo nocivo e que, portanto, necessitaria de uma regulação complementar.
Leia também: Comitê Gestor da Internet no Brasil lista ações e diretrizes para a regulação de plataformas digitais no país
Responsabilidade
Durante o primeiro dia de audiência, os representantes da Meta e Google alegaram que as empresas não tem se omitido em relação ao combate a conteúdos ilegais e de desinformação e a remoção de publicações que violam as políticas das plataformas.
“Apenas durante o primeiro turno das eleições [de 2022], a Meta rejeitou cerca de 135 mil anúncios eleitorais. Foram removidos mais de 3 milhões de conteúdos no Facebook e no Instagram por violações às políticas que vedam o conteúdo violento, de incitação à violência e discursos de ódio, números para o Brasil, entre agosto de 2022 e janeiro de 2023″, afirmou o advogado do Facebook Brasil, Rodrigo Ruf.
Na mesma linha, o advogado do Google, Guilherme Sanchez, disse que somente no Brasil em 2022 o YouTube removeu mais de um milhões de vídeos que violavam as políticas da empresa contra desinformação, discurso de ódio, violência, assédio e segurança infantil. “Esse número contrasta com uma quantidade muito menor de requisições judiciais para a retirada de conteúdo”, pontuou.
*Com informações do Portal do STF, TecMundo e Folha de S. Paulo