Caso González contra Google

Uno de los principales retos a los que se enfrenta la sociedad actual es decidir si las plataformas digitales deben moderar los contenidos y cómo deben hacerlo.
El pasado miércoles (23 de febrero), el Tribunal Supremo de Estados Unidos inició la segunda vista del caso González contra Google, cuyo resultado puede indicar si las redes sociales son o no responsables de los contenidos publicados por sus usuarios que infrinjan sus Políticas, así como sus Condiciones de Uso.
Es importante subrayar desde el principio que este caso no debe confundirse con el de Google España contra Mario Costeja González[1], en el que Mario Costeja González presentó una denuncia ante la Agencia Española de Protección de Datos contra La Vanguardia Ediciones SL.
y contra Google, su filial española y empresa matriz, en la que solicitaba a La Vanguardia que eliminara o modificara las páginas en las que aparecían sus datos personales, de modo que éstos ya no aparecieran, o que utilizara determinadas herramientas puestas a su disposición por los buscadores online para proteger sus datos personales, así como solicitaba que se ordenara a Google Spain y a Google Inc. la desindexación de los contenidos en los que aparecían sus datos personales.
Por otro lado, en el caso que nos ocupa, los familiares de Nohemi González -joven estadounidense muerta en un atentado terrorista reivindicado por el Estado Islámico (ISIS) el 13 de noviembre de 2015 en París- interpusieron una demanda contra Google, Twitter y Facebook, especialmente por los algoritmos de la plataforma digital de Google «YouTube», la plataforma digital de Google «YouTube» recomendaba contenidos del grupo terrorista a determinados usuarios, alegando que la plataforma actuaba como «plataforma de reclutamiento del grupo terrorista» al permitir la difusión de contenidos destinados a reclutar miembros, planificar atentados terroristas, proferir amenazas terroristas, infundir miedo e intimidar a la población civil.
Cabe recordar que los atentados de París se saldaron con decenas de muertos, y que se registraron tres tiroteos en distintos puntos de la ciudad, incluido un atentado contra la sala de conciertos Bataclan[2].
Los familiares de González, que demandaron a Google y a las redes sociales, alegaron que las plataformas digitales, al permitir que los usuarios radicalizaran sus publicaciones, eran legalmente responsables del daño causado a su familia, ya que Google utiliza algoritmos que sugieren contenidos a los usuarios en función de su historial de visionado y, por tanto, ayuda al ISIS a difundir su mensaje.
Con la decisión de esta demanda, los jueces del Tribunal Supremo de Estados Unidos podrían considerar la aplicación de la Sección 230 de la Ley de Decencia en las Comunicaciones.
Esta disposición protege a las plataformas digitales (Facebook, Google, Twitter, entre otras) de demandas por contenidos publicados por sus usuarios, o de decisiones relacionadas con la retirada de contenidos.
Por tanto, el Tribunal Supremo de EE.UU. podrá decidir si estas empresas pueden ser consideradas responsables de los contenidos que publican sus usuarios, así como de la connivencia con la propaganda extremista y/o la publicidad discriminatoria.
Los abogados de la familia de González afirman que todas las plataformas digitales (Google/YouTube, Facebook, Twitter) son responsables de complicidad con el terrorismo internacional. Al no tomar medidas significativas o agresivas para impedir que los terroristas utilicen sus servicios, aunque no hayan desempeñado un papel activo en el acto concreto de terrorismo internacional, al recomendar y reforzar contenidos a los usuarios mediante sus algoritmos, están directamente implicados debido a la connivencia de expresión y, según los abogados de la familia González, tal derecho no estaría protegido por el artículo 230.
La defensa de Google afirma que los argumentos de la familia González son vagos y meramente especulativos sobre las recomendaciones de los algoritmos.
La decisión en este caso no se espera hasta junio de 2023.
La cuestión de moderar o no los contenidos de las plataformas digitales y las redes sociales es actualmente un reto para los gobiernos y la sociedad civil, ya que la atención se centra en cómo combatir la incitación al odio y la desinformación.
La Unesco (Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura) llegó a celebrar la Conferencia Internacional «Por una Internet digna de confianza» del 21 al 23 de febrero de 2023.
El acto tuvo lugar en París y reunió a representantes de gobiernos y de la sociedad civil para debatir cómo puede contribuir la agencia de la ONU a crear directrices para regular las plataformas digitales, combatiendo la desinformación y la incitación al odio y protegiendo al mismo tiempo la libertad de expresión y los derechos humanos.
En pocas palabras, el objetivo de esta conferencia era animar a los gobiernos a que promuevan y protejan la libertad de expresión y los derechos humanos en Internet, y a que los sistemas reguladores garanticen la independencia y una supervisión adecuada.
De este modo, corresponde a los reguladores establecer objetivos y procesos, especificando las cuestiones sensibles a los derechos humanos que deben seguir las plataformas digitales.
Incluso recientemente, el magistrado del Tribunal Supremo Luís Roberto Barroso, que participaba en esta conferencia, afirmó que las plataformas digitales deberían tener el deber de actuar incluso antes de una orden judicial en casos de publicaciones ilegales, especialmente ante contenidos que violen la ley del Estado democrático de derecho, que prohíbe llamamientos a la abolición del Estado de derecho, el fomento de la violencia para deponer al gobierno o la incitación a la animadversión entre las Fuerzas Armadas y los Poderes.
[3] «En el caso de comportamientos claramente delictivos, como la pornografía infantil, el terrorismo y la incitación al delito, las plataformas deben tener el deber de diligencia de utilizar todos los medios posibles para identificar y eliminar este tipo de contenidos, independientemente de la provocación (judicial)»,[4] subrayó Barroso.
Pero en el caso de Estados Unidos, la existencia de la Primera Enmienda hace que esta cuestión sea aún más compleja de decidir, ya que esta disposición no permite al Congreso estadounidense promulgar leyes que restrinjan la libertad de expresión o de prensa.
Para los detractores de la Sección 230, esta disposición permite a las plataformas digitales evitar ser consideradas responsables de los daños causados a la comunidad, a pesar de que tales sucesos podrían evitarse si las plataformas digitales moderaran el contenido (como retirar una publicación que apoye un acto terrorista, por ejemplo).
Los defensores, por otra parte, afirman que si el Tribunal Supremo suaviza esta interpretación, las plataformas digitales, temiendo responsabilidades y más demandas, podrían eliminar aún más contenidos, lo que supondría una mayor amenaza para la libertad de expresión. Por último, cabe destacar que la sentencia del Tribunal Supremo de EE.UU. tiene el poder de repercutir en la responsabilidad de las plataformas digitales por la necesidad o no de moderar los contenidos en todos los demás países, teniendo en cuenta la importancia de la cuestión y la relevancia de la decisión de su más alto tribunal.
Por lo tanto, es necesario seguir la evolución y las razones de los votos de los jueces para comprender el resultado de una sentencia que tiene el poder de cambiar todo un régimen de responsabilidad establecido anteriormente.  

¿Y CÓMO VA EL DEBATE SOBRE EL TEMA EN BRASIL? Tras los actos antidemocráticos que tuvieron lugar el 8 de enero de 2023, el gobierno federal se apresuró a elaborar una respuesta para hacer frente a este espinoso asunto, especialmente a las publicaciones en las redes sociales sobre amenazas contra el Estado democrático de derecho.
Para ello, el Ministerio de Justicia trabajó en la elaboración de lo que denominó «Paquete Democracia»[5], en el que sugería a la Presidencia de la República la emisión de una Medida Provisional (MP) que ordenara a las plataformas digitales la retirada de contenidos antidemocráticos o que atentaran contra los valores democráticos, incluso antes de obtener una orden judicial.
Además, la Medida Provisional podría tipificar como delito las conductas en Internet que constituyan un atentado contra el Estado democrático de derecho, así como responsabilizar a las plataformas digitales por no retirar publicaciones terroristas y antidemocráticas.
La Procuraduría General de la República también ha elaborado una iniciativa para crear un organismo denominado Oficina Nacional para la Defensa de la Democracia, que es una iniciativa más del actual gobierno para combatir la producción y difusión de noticias falsas.
La Cámara de Diputados también está tramitando el Proyecto de Ley 2.630/2020 (Proyecto de Ley de Fake News), que incluye una serie de medidas para mitigar la difusión de contenidos desinformativos y normas reguladoras para las plataformas.
Existe incluso la posibilidad de que el Gobierno Federal sugiera enmiendas al Proyecto de Ley 2.630/2020 para construir una nueva propuesta de regulación de las plataformas digitales y de lucha contra el discurso del odio y antidemocrático.
Esta iniciativa será coordinada por la Casa Civil, e incluirá a los Ministerios de Justicia, Ciencia, Tecnología e Innovación y Cultura, así como a la Secretaría de Comunicación y a la Fiscalía General de la Unión.
Por otro lado, en el Congreso Nacional se está gestando la creación del Frente Parlamentario en Defensa de las Redes Sociales, cuya solicitud ya ha sido presentada a la Cámara de Diputados.
Según los autores de este Frente Parlamentario, el objetivo es «dar apoyo y defensa a las redes sociales responsables y libres, conciliando la libertad de expresión con otros derechos constitucionales»[6].  ¿QUÉ DICE EL MARCO CIVIL DE INTERNET? La cuestión de la libertad de expresión, como ya hemos visto, es extremadamente delicada, ya que es uno de los derechos fundamentales centrales en un Estado Democrático de Derecho.
Esta garantía está prevista en el Artículo 5, apartados IV y IX, respectivamente, de la Constitución Federal, así como en la Declaración Universal de los Derechos Humanos y en otros tratados internacionales ratificados por Brasil.
La Ley Federal nº 12.965/14 (Marco Civil da Internet), que establece principios, garantías, derechos y deberes para el uso de Internet en Brasil, también protege las plataformas digitales en relación con los contenidos generados por terceros.
Según el artículo 19 del Marco Civil de Internet, con el objetivo de proteger la libertad de expresión, el proveedor de aplicaciones de Internet sólo puede ser considerado responsable de los daños derivados de contenidos generados por terceros si, tras una orden judicial específica, no toma medidas para que el contenido identificado como infractor no esté disponible dentro del alcance y los límites técnicos de su servicio y en el plazo especificado, salvo disposición legal en contrario.
Por lo tanto, esta disposición de la ley brasileña específica de Internet también protege a las plataformas digitales de ser consideradas ampliamente responsables del contenido que generan. Incluyendo la posibilidad de no retirar contenidos si no están dentro de los límites de su capacidad técnica.
Por ello, las propuestas que están a la orden del día en Brasil, ya sea mediante Medida Provisional, Proyecto de Ley u otro dispositivo, así como las que están elaborando los órganos gubernamentales, deben tener en cuenta esta particularidad del Marco Civil de Internet.
Sin embargo, el desarrollo del caso González contra Google en los tribunales estadounidenses podría dar nuevas direcciones y contornos al debate sobre la moderación (o no) de las plataformas digitales. [ 1] Fuente: https://victorhugotmenezes.jusbrasil.com.br/artigos/441755309/1-o-caso-google-spain-vs-mario-costeja-gonzalez [2] Fuente: https://g1.globo.com/mundo/noticia/2015/11/tiroteios-e-explosoes-sao-registrados-em-paris-diz-imprensa.html [3] Fuente: ttps:/ www1.folha.uol.com.br/poder/2023/02/barroso-defende-mudar-marcocivil-para-enquadrar-big-techs-por-conteudo-ilegal.shtml [4] Idem [5 ] Fuente: https://www.politize.com.br/pacote-da-democracia/ [6] Fuente: https: //teletime.com.br/17/02/2023/deputado-propoe-criacao-da-frente-parlamentar-em-defesa-das-redes-sociais/

 

¿Quieres saber más? ¡Ponte en contacto con nuestro equipo de expertos!

Mais Insights

1 de abril de 2023: Comienza el periodo de declaración trimestral del Capital Extranjero en el País.

Manipulación de los resultados deportivos e importancia de los programas de prevención

Igualdad de género y participación femenina en las empresas: lo que debes saber

El uso de Legal 365 en la gestión de procesos