Caso Gonzalez X Google

Um dos principais desafios atuais da sociedade é decidir se, e como, os conteúdos devem ser moderados pelas plataformas digitais.

A Suprema Corte dos Estados Unidos deu início na última quarta-feira (23/02) à segunda audiência sobre o caso Gonzalez x Google, cujo desdobramento pode indicar se as redes sociais são responsáveis ou não por conteúdos, postado por seus usuários, que violem as suas Políticas, bem como os seus Termos de Uso.

Importante ressaltar, desde logo, que o caso em tela não se confunde com o caso Google Spain vs. Mário Costeja González[1], em que Mario Costeja González apresentou reclamação junto à Agencia Española de Protección de Dados, contra a La Vanguardia Ediciones SL. e contra a Google, sucursal espanhola e matriz, em que solicitou a La Vanguardia que suprimisse ou alterasse as páginas que mostravam seus dados pessoais, para que seus dados pessoais deixassem de aparecer, ou que utilizasse determinadas ferramentas disponibilizadas por buscadores online para proteger seus dados pessoais, bem como pleiteava que se ordenasse à Google Spain e à Google Inc a desindexação do conteúdo veiculado aos seus dados pessoais.

No caso em questão, por outro lado, os familiares de Nohemi Gonzalez – jovem norte-americana morta em um ataque terrorista reivindicado pelo Estado Islâmico (ISIS), em 13 de novembro de 2015, em Paris – ajuizaram uma ação judicial contra o Google, Twitter e Facebook, especialmente pelo fato de os algoritmos da plataforma digital “YouTube”, do Google, recomendarem conteúdo do grupo terrorista a certos usuários, alegando que a plataforma agiu como uma “plataforma de recrutamento para o grupo terrorista”, quando permitiu a veiculação de conteúdo que tinha como objetivo recrutar membros, planejar ataques terroristas, emitir ameaças terroristas, incutir medo e intimidar populações civis. Vale lembrar que os ataques em Paris resultaram em dezenas de mortos, com três tiroteios registrados em diferentes pontos da cidade – entre eles um ataque à casa de show Bataclan[2]..

Os familiares de Gonzalez, ao processarem o Google e as redes sociais, alegaram que as plataformas digitais, ao permitirem que os usuários radicalizassem suas postagens, seriam legalmente responsáveis pelo dano infringido à sua família – já que o Google usa algoritmos que sugerem conteúdo aos usuários com base em seu histórico de visualização e, portanto, auxilia o ISIS a espalhar sua mensagem.

Com a decisão desta ação judicial, os ministros da Suprema Corte dos Estados Unidos podem ponderar a aplicação da chamada Section 230 da ‘Communications Decency Act’. Tal dispositivo tutela as plataformas digitais (Facebook, Google, Twitter, dentre outros), de processos judiciais por conteúdo postado pelos seus usuários, ou de decisões relacionadas à remoção de conteúdo. Logo, a Suprema Corte norte-americana poderá decidir se estas empresas podem ser responsabilizadas pelo conteúdo que os seus usuários postam, bem como por serem coniventes com propaganda extremista e/ou publicidade discriminatória.

Os advogados da família de Gonzalez afirmam que todas as Plataformas Digitais (Google/YouTube, Facebook, Twitter) são responsáveis por ajudar e incitar o terrorismo internacional. Ao não tomar medidas significativas ou agressivas para impedir que os terroristas usassem seus serviços, mesmo que não tenham desempenhado um papel ativo no ato específico de terrorismo internacional, ao recomendar e reforçar o conteúdo aos usuários por meio de seus algoritmos, estão diretamente envolvidas devido à conivência do discurso e, segundo os advogados da família de Gonzalez, tal direito não estaria protegido pela Section 230. Já a defesa do Google alega que os argumentos da família Gonzalez são vagos e meramente especulativos, acerca das recomendações dos algoritmos. A previsão é que a decisão desta ação ocorra somente em junho de 2023.

O tema sobre referente à moderação, ou não, de conteúdo das plataformas digitais e redes sociais atualmente desafia governos e a sociedade civil, pois o foco central é como deve ser combatido os discursos de ódio e a desinformação. Inclusive a Unesco (Agência da Organização das Nações Unidas para Educação, Ciência e Cultura) promoveu, entre os dias 21 a 23 de fevereiro de 2023, a Conferência Internacional “Por uma Internet Confiável”. Tal evento aconteceu em Paris, e reuniu representantes de governos e da sociedade civil, para tratarem sobre como esta Agência da ONU pode contribuir na criação de diretrizes para regular plataformas digitais combatendo a desinformação, discurso de ódio e, ao mesmo tempo, proteger a liberdade de expressão e os direitos humanos.

Em apertada síntese, com esta Conferência a Unesco teve o objetivo de estimular que os governos promovam e protejam a liberdade de expressão e os direitos humanos na Internet, e que os sistemas de regulação possam garantir a independência e a supervisão adequada. Desta forma, cabem aos reguladores estabelecerem metas e processos, especificando questões sensíveis aos direitos humanos que as plataformas digitais precisam seguir. Inclusive, recentemente, o Ministro do Supremo Tribunal Federal Luís Roberto Barroso, ao participar desta Conferência, afirmou que as plataformas digitais deveriam ter o dever de agir mesmo antes de ordem judicial em casos de postagens ilegais, especialmente frente à conteúdo que viole a lei do Estado democrático de Direito, que proíbe pedidos de abolição do Estado de Direito, estímulo à violência para deposição do governo ou incitação de animosidade entre as Forças Armadas e os Poderes.[3] “No caso de comportamento criminoso claro, como pornografia infantil, terrorismo e incitação a crimes, as plataformas deveriam ter o dever de cuidado de usar todos os meios possíveis para identificar e remover esse tipo de conteúdo, independentemente de provocação (judicial)”[4], ressaltou Barroso.

Mas no caso dos Estados Unidos, a existência da Primeira Emenda deixa tal tema ainda mais complexo de ser decidido, pois tal dispositivo não permite ao Congresso Americano promulgar lei que restrinja a liberdade de expressão ou de imprensa. Para os críticos à Section 230, este dispositivo permite às plataformas digitais evitarem de ser responsabilizadas pelos danos à coletividade, mesmo que tais ocorrências pudessem ser evitados se as plataformas digitais realizassem a moderação do conteúdo (como remover uma publicação que apoia um ato terrorista, por exemplo). Já os defensores alegam que se a Suprema Corte relativizar tal entendimento, as plataformas digitais, temendo serem responsabilizadas e sofrerem mais processos judiciais, poderão remover ainda mais conteúdo, resultando, assim, em uma maior ameaça à liberdade de expressão.

Por fim, ainda cabe ressaltar que a decisão judicial da Suprema Corte Norte-Americana tem poder de impactar a responsabilidade das plataformas digitais pela necessidade ou não de moderar conteúdo em todos os demais países, considerando a importância do tema e da relevância da decisão da sua mais alta corte. Portanto, é necessário acompanhar os desdobramentos e fundamentos dos votos dos ministros para entender o desfecho de um julgamento que tem poder de alterar todo um regime de responsabilidade antes estabelecido.

 

E COMO ESTÁ O DEBATE DO TEMA NO BRASIL?

Após os atos antidemocráticos ocorridos em 08 de janeiro de 2023, o Governo Federal se apressou em construir uma resposta para tratar deste espinhoso tema, em especial, sobre as postagens nas redes sociais referente às ameaças contra o Estado Democrático de Direito. Para isso, o Ministério da Justiça trabalhou na produção do que chamou ser o “Pacote da Democracia”[5], em que sugeriu à Presidência da República a edição de uma Medida Provisória (MP) determinando às plataformas digitais a remoção de conteúdos antidemocráticos, ou que violem os valores democráticos, antes mesmo de obtenção de uma ordem judicial. Além disso, a MP poderá criminalizar condutas na internet que configurem a prática de atentado contra o Estado Democrático de Direito, além da responsabilização das plataformas digitais que não derrubem publicações terroristas e antidemocráticas.

Por sua vez, a Advocacia Geral da União também desenvolveu iniciativa para a criação de um órgão denominado como Procuradoria Nacional de Defesa da Democracia, sendo assim mais uma iniciativa do atual governo para o combate à produção e disseminação das fake news.

Também existe na Câmara dos Deputados a tramitação do Projeto de Lei nº 2.630/2020, (PL das Fake News), que traz uma série de medidas que mitigam a disseminação de conteúdos desinformativos e regras regulatórias para as plataformas. Inclusive, existe a possibilidade de o Governo Federal sugerir emendas para o PL 2.630/2020 para construir uma nova proposta de regulação de plataformas digitais e combate aos discursos de ódio e antidemocráticos. Tal iniciativa será coordenada pela Casa Civil, e contará com os ministérios da Justiça, Ciência, Tecnologia e Inovação e Cultura, além da Secretaria de Comunicação e a Advocacia-Geral da União.

Por outro lado, existem movimentações no Congresso Nacional para a criação da Frente Parlamentar em Defesa das Redes Sociais, cujo requerimento já foi apresentado à Câmara dos Deputados. Segundo os autores desta Frente Parlamentar, o objetivo é “dar apoio e defesa para uma mídia social responsável e livre, conciliando liberdade de expressão e os demais direitos constitucionais”[6].

 

O QUE DIZ O MARCO CIVIL DA INTERNET?

O tema da liberdade de expressão, como já visto, é extremamente delicado, já que trata-se de um dos direitos fundamentais centrais em um Estado Democrático de Direito. Tal garantia está prevista no artigo 5º, incisos IV e IX, respectivamente da Constituição Federal, bem como na Declaração Universal de Direitos Humanos e demais tratados internacionais ratificados pelo Brasil. Já a Lei Federal nº 12.965/14 (Marco Civil da Internet), que estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil, também protege as plataformas digitais em relação ao conteúdo gerado por terceiro.

De acordo com o artigo 19, do Marco Civil da Internet, com o objetivo de proteger a liberdade de expressão, o provedor de aplicações de internet somente poderá ser responsabilizado pelos danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente – ressalvadas as disposições legais em contrário. Logo, este dispositivo da lei específica da internet brasileira também protege as plataformas digitais de serem responsabilizadas, amplamente, pelo conteúdo gerado. Inclusive, com possibilidade de não fazer a remoção de conteúdo se não estiver nos limites de sua capacidade técnica.

Assim sendo, as propostas em pauta no cenário brasileiro, seja via Medida Provisória, Projeto de Lei, ou outro dispositivo, bem como aquelas em desenvolvimento pelos órgãos do governo precisam atentar para esta particularidade que consta no Marco Civil da Internet. No entanto, o desenrolar do caso Gonzalez x Google, na justiça norte-americana, poderá dar novos rumos e contornos sobre a discussão do tema da moderação (ou não), das plataformas digitais.

[1] Fonte: https://victorhugotmenezes.jusbrasil.com.br/artigos/441755309/1-o-caso-google-spain-vs-mario-costeja-gonzalez

[2] Fonte: https://g1.globo.com/mundo/noticia/2015/11/tiroteios-e-explosoes-sao-registrados-em-paris-diz-imprensa.html

[3] Fonte: ttps:/ www1.folha.uol.com.br/poder/2023/02/barroso-defende-mudar-marcocivil-para-enquadrar-big-techs-por-conteudo-ilegal.shtml

[4] Idem

[5] Fonte: https://www.politize.com.br/pacote-da-democracia/

[6] Fonte: https://teletime.com.br/17/02/2023/deputado-propoe-criacao-da-frente-parlamentar-em-defesa-das-redes-sociais/

 

Quer saber mais? Entre em contato com a nossa equipe de especialistas!

Mais
Insights