Politics

“Se a plataforma recebeu dinheiro, passa a ser responsável por aquela mensagem”, diz relator do PL das Fake News

Aprovado pelo Senado em 2020, o PL das Fake News está em discussão na Câmara há três anos. Maioria para aprovação ainda é incerta

Deputado Orlando Silva (dir.), relator do PL das Fake News
Deputado Orlando Silva (dir.), relator do PL das Fake News. Photo: Pedro Ladeira/Folhapress

O deputado federal Orlando Silva (PCdoB-SP) é o relator na Câmara do chamado Projeto de Lei das Fake News, que oferece uma regulamentação mais estrita das redes sociais, aplicativos de mensagem e ferramentas de busca. 

Aprovado originalmente em 2020 no Senado, o projeto foi retirado de pauta na semana passada, após encontrar dificuldades para ser votado na Câmara, sofrendo oposição de deputados bolsonaristas e das Big Techs, como Google e Meta (dona do Facebook, Instagram e WhatsApp).

No dia 25 de abril, o plenário da Câmara aprovou regime de urgência para o tema, antes mesmo de Silva apresentar um texto final. O parecer dele só foi publicado na noite de 27 de abril, o que permitiu conhecer as propostas.

Em entrevista exclusiva ao The Brazilian Report (leia o original, em inglês), gravada antes da retirada de pauta, o relator do PL das Fake News falou sobre sua proposta e enfrentou as principais críticas ao projeto.

Question.Por que a estratégia da urgência? Por que levar o projeto diretamente para o plenário depois da discussão no grupo de trabalho, em vez de discutir em uma comissão com mais audiências públicas, com emenda e assim por diante?

Answer.Porque essa fase já foi vencida. O Senado Federal votou esse projeto em três meses. A Câmara vai apreciar esse projeto durante três anos. Foram realizadas dezenas de audiências públicas. Não tem ninguém que tenha opinião sobre o assunto que não tenha sido ouvido. O que existe são divergências. Quem defende hoje a ideia de comissão especial, na verdade, quer é adiar a votação. Porque tem divergência e não quer que o plenário decida sobre a divergência. Eu acredito que é democrático que o plenário decida se quer ou não quer votar. [Se] decide que não quer votar, mantém o estado atual de coisas. Se decide que quer votar, tem que apreciar uma proposta. Tem uma proposta que está colocada e o plenário pode aperfeiçoar, acrescentar temas, excluir temas, modificar temas. Então eu acredito que já amadureceu o projeto, as condições estão dadas e é possível avaliar. Se o plenário decidir que não é o caso, que tá tudo bem, que não tem problema a violência nas escolas, que não tem problema a tentativa de golpe – para dar dois exemplos de movimentos urdidos nas redes e as plataformas foram omissas, lavaram as mãos, diante de acontecimento muito grave porque não poderia mudar a responsabilidade das plataformas – tudo bem. O risco é a omissão do Poder Legislativo, do Congresso Nacional, abrir espaço para a ação do Poder Judiciário. Esse é o risco.

Q.Quando os deputados votaram a urgência na terça-feira (25), a versão final do seu parecer ainda não estava pública no site da Câmara. Algumas versões circularam na imprensa, mas eu entendo que os deputados, pelo menos em sua grande maioria, não tinham acesso ao parecer. Como fica essa questão de votar a urgência sendo que os deputados ainda não conheciam o texto?

A.A urgência é dada ao tema. O texto já é público [desde a noite de quinta, 27] e pode ser debatido tranquilamente. A Câmara deve ter pouco mais de 1 000 urgências aprovadas. Aprovação da urgência não é igual à definição de que vai ser votado, vai ser apreciado. É criar as condições para, se necessário, apreciar um tema de um modo célere. E a oferta do texto [final], pelo regimento da Casa, deve ser 24 horas antes da votação. Foi feito em prazo superior. Então eu estou muito tranquilo com relação a essa questão.

Q.O Brasil tem um artigo 19 do Marco Civil da Internet que é muito parecido com a famosa Sessão 230 lá dos Estados Unidos, pela qual as plataformas não são responsáveis pelo conteúdo gerado por terceiros. E o seu parecer tem umas provisões para limitar essa falta de responsabilidade hoje praticamente absoluta das plataformas. Como é que o senhor enfrenta o argumento de que ao colocar a responsabilidade jurídica nas plataformas pelo conteúdo de terceiros vai restringir a liberdade de expressão na internet?

A.Primeiro que a mudança no regime de responsabilidade das plataformas tem dois aspectos. Um aspecto eu não vi ninguém criticar: as plataformas digitais serão responsáveis por conteúdo de terceiros quando houver pagamento, quando houver dinheiro [para impulsionar e alcançar audiências maiores]. Isso já é um ganho importante. Se recebeu dinheiro para impulsionar uma mensagem, ela passa a ser responsável por aquela mensagem. Isso é importante. E segundo: a inspiração está no dever de cuidado da legislação alemã. Na qual as plataformas, sendo notificadas acerca de conteúdos ilegais – e há um rol de conteúdos, de tipos penais previstos – elas são obrigadas a fazer a moderação de conteúdo. Se não fizer, passam a ser responsáveis por conteúdos ilegais mantidos no ar após a notificação. Eu considero que aqui não há nenhum risco à liberdade de expressão. A não ser para quem defenda o direito de usar a liberdade de expressão para publicar crimes, para incitar crimes. Isso não é democrático. Isso fere o pacto social de convivência comum, que estabelece o que pode e o que não pode ser feito na vida social.

Q.No Marco Civil da Internet existe uma exceção para conteúdo que a plataforma obrigatoriamente tem que remover antes de decisão judicial, que é o conteúdo envolvendo nudez ou sexo não autorizados. Marcelo Bechara, diretor de política pública da TV Globo, argumentou em audiência pública no STF que essa regulamentação veio na esteira do trauma do caso Daniela Cicarelli. Em 2007, um juiz derrubou o YouTube inteiro no Brasil por causa do vídeo dela na praia com o então namorado Renato Malzoni Filho. Para qualquer outro tipo de conteúdo a plataforma pode esperar a decisão judicial. Pelo que eu entendi, o seu parecer acrescenta outros tipos penais como conteúdos que tem que ser imediatamente removidos antes de decisão judicial, é isso?

A.É instituída uma obrigação para a plataforma, chamada dever de cuidado. Ela precisa de um alerta máximo sobre conteúdos ilegais publicados na internet. Crimes contra o estado democrático de direito, terrorismo, crimes contra a criança e o adolescente, crimes de racismo, crimes contra as mulheres e infrações sanitárias. É o rol de crimes que exige que as plataformas digitais tenham o dever de cuidado, tenham uma atenção redobrada. A responsabilidade para ela nesse caso só surge após serem notificadas por um ato fundamentado que demonstre que há uma movimentação na internet em torno disso. Não é apenas uma notificação isolada. Exemplo prático: em 20 de abril circulou na internet brasileira que naquele dia poderia haver ataques em escolas. Não foram uma ou duas mensagens: foram várias. Isso permitiria ativar o dever de cuidado das plataformas, e elas fariam esforço adicional, extraordinário, por um prazo determinado para que esse monitoramento do que foi publicado tivesse mais atenção ainda para aquele tipo penal pré-estabelecido.

Q.Mas esse tipo de notificação que o senhor fala não é uma notificação judicial, é uma notificação por meio das ferramentas que, pelo seu parecer, a plataforma vai ser obrigada a ter, tipo um SAC, um canal que você clica e manda ali um aviso.

A.Na verdade eu defendo que seja um protocolo de segurança. De alguma organização pública. Ela seria depositária de informações e ela poderia ativar as os provedores, dando um prazo de 30 dias a partir da instalação desse protocolo.

Q.Então no caso desses tipos penais que o senhor acrescenta no seu parecer não vai ficar o mesmo tratamento que tem hoje no Marco Civil nudez e sexo e não-autorizados. Vai ser uma outra maneira, é isso?

A.Sim. O dever de cuidado é um conceito novo que a lei está introduzindo.

Q.Nesse caso vai ser tratado por uma organização pública que vai aparecer ainda em regulamentação, que vai ser depositária de alertas. “Eu vi no TikTok, eu vi no Twitter, eu vi no Facebook”, em vez de ser pelo canal oferecido pela própria plataforma – é isso?

A.O canal oferecido pela plataforma e utilizado pelos usuários deve ser usado como mecanismo que as plataformas têm de interação com os usuários para impedir a circulação de conteúdos ilegais. Outra coisa é uma entidade, cujo formato que vamos definir, abrir um protocolo de segurança a partir de um ato fundamentado, que não é de uma manifestação isolada. É uma análise que instrui um ato administrativo simples, que aperta o botão, o gatilho do protocolo de segurança, com um prazo de 30 dias para que o alerta seja redobrado por parte das plataformas para determinados temas.

Q.E o usuário comum do Twitter, do TikTok, conseguiria ativar essa organização pública por meio de um aplicativo próprio?

A.Isso vai ser definido [pelo plenário].

Q.O deputado federal Mendonça Filho (União Brasil-PE) postou no Twitter que a sua decisão de retirar do texto a criação de “um órgão para controlar o que o cidadão diz” é uma estratégia para evitar a derrota em plenário, dando “um cheque em branco” ao governo Lula para decidir a regulamentação depois, por decreto. Como o senhor responde a crítica do seu colega?

A.Ele é contra a votação de qualquer lei, ele é contra qualquer regra para as plataformas digitais. Então isso é parte da obstrução que ele faz. Eu defendo que o plenário encontre um caminho. Há quem defenda que a Anatel, que é uma agência que já existe, assuma essa responsabilidade. Há quem defenda que seja estruturado o modelo em que o Poder Judiciário tome decisões quando não houver o cumprimento da lei por parte das empresas.

Q.Pelo seu parecer, a plataforma vai responder por aquele conteúdo gerado por terceiros que foi impulsionado por propaganda. Mas para citar um de muitos casos recentes, a Senacon do Ministério da Justiça recentemente abriu um processo contra Google e Facebook sobre o caso do golpe do “recall do cartão de crédito”. Existem muitos golpistas que produzem vídeos prometendo cursos de uma coisa falsa. Esses vídeos não são necessariamente impulsionados com propaganda, mas o YouTube recebe dinheiro com eles por meio de anúncios. Seu parecer não contempla esse tipo de arrecadação, em que a rede recebe anúncios veiculados em conteúdo fraudulento. Por quê?

A.Eu não conhecia esse caso. Espero que algum deputado conheça e possa oferecer alguma sugestão.