A Lei das Bets e a Privacidade e Proteção de Dados Pessoais

A recém-sancionada Lei 14.790/23, também conhecida como “Lei das Bets”, estabeleceu critérios e parâmetros normativos para regular o mercado de apostas esportivas no Brasil, bem como alterou as Leis nºs 5.768/1971 e 13.756/2018 e a Medida Provisória nº 2.158-35/2001. A natureza das apostas, especialmente àquelas que processam-se em plataformas online, sendo esportivas ou não, envolve a coleta e o processamento de dados pessoais dos usuários, como detalhes de pagamento, histórico de apostas e preferências esportivas. Dessa forma, do ponto de vista da Privacidade e Proteção de Dados Pessoais, os direitos fundamentais dos titulares de dados, a exemplo da liberdade, intimidade e a privacidade, dispostos na Lei Geral de Proteção de Dados (“LGPD”), devem ser assegurados em face da possibilidade de seus dados serem utilizados de forma indevida, não autorizada ou, até mesmo, em face de possíveis incidentes de segurança. A conformidade com a legislação não apenas protege os direitos dos titulares, como também promove maior confiança e integridade ao mercado de apostas, fatores essenciais para atrair Investimentos e garantir a participação dos consumidores a longo prazo. Assim, as empresas interessadas em se tornar operadores de apostas esportivas devem gerir seus negócios em observância à LGPD. Isso implica, portanto, na adoção de um programa de Governança de Dados Pessoais, a implementação de medidas de segurança dos dados pessoais e adesignação de um Encarregado de Proteção de Dados Pessoais. Nossa equipe multidisciplinar e com experiência neste mercado está pronta para assessorar o desenvolvimento da jornada de sua empresa no âmbito da Privacidade e Proteção de Dados Pessoais. Assessoramos no desenvolvimento de sua jornada de Governança em Dados Pessoais e gerenciamos e monitoramos os processos de gestão em privacidade e proteção de dados, assumindo como DPO AS A SERVICE de sua organização. Para mais informações, entre em contato com nossos especialistas.
Alerta Digital: Lei Exige Som de Câmera em Smartphones para Combater Assédio

A dinâmica evolutiva da tecnologia impacta diretamente a sociedade em diversos aspectos, muitas vezes exigindo uma legislação adequada para mitigar riscos e proteger os cidadãos. Um exemplo recente desse esforço legislativo é o Projeto de Lei 583/2020, que visa a alterar a Lei de Crimes Cibernéticos para exigir que os equipamentos fotográficos digitais, incluindo os dispositivos de smartphones, emitam um som similar ao das câmeras analógicas quando capturam imagens ou vídeos. A proposta, aprovada pela Comissão de Desenvolvimento Econômico da Câmara dos Deputados em 13 de abril de 2024, busca uma regulamentação que possa inibir ações ilícitas, especialmente no que diz respeito à captação não autorizada de imagens com fins predatórios, como o assédio sexual. De acordo com o texto do Projeto de Lei, os dispositivos fotográficos digitais deverão ser equipados com a funcionalidade de som de câmera fotográfica antes de serem comercializados, sendo proibida qualquer alteração ou eliminação dessa característica. Além disso, será necessário estabelecer regulamentos que garantam que esse som possa ser identificado a uma certa distância, assegurando sua eficácia como mecanismo de alerta. A Justificativa que constou registrada para tramitação do Projeto de Lei ressalta a crescente prevalência de smartphones e outros dispositivos digitais equipados com câmeras fotográficas, e como isso facilita a captação não autorizada de imagens de cunho sexual, muitas vezes perpetrada por predadores sexuais. A ausência de um som característico, como era comum nas câmeras analógicas, permite que essas ações ocorram de forma discreta, sem que a vítima tenha conhecimento de que está sendo fotografada. Esse movimento legislativo não é único ao Brasil. Países como Japão e Coreia do Sul já adotaram medidas semelhantes para enfrentar esse problema, exigindo que os dispositivos emitam sons ao capturar imagens. O objetivo é tornar a prática de captura não autorizada de imagens mais difícil e identificável, protegendo a privacidade e a segurança das pessoas. O Projeto de Lei 583/2020 representa, portanto, um esforço para adaptar a legislação brasileira às demandas da era digital, protegendo os cidadãos contra abusos e crimes cibernéticos. Sua aprovação e implementação efetiva certamente contribuirão para um ambiente online mais seguro e ético. Acompanharemos de perto a tramitação desse projeto, pois ele não apenas reflete a evolução da legislação digital, mas também tem o potencial de impactar diretamente a proteção dos direitos individuais no mundo digital. Para mais informações e atualizações sobre esse e outros assuntos relacionados ao direito digital, continue acompanhando nossos canais de comunicação.
Impacto e Implicações do Regulamento de Inteligência Artificial da União Europeia

A rápida evolução da tecnologia de Inteligência Artificial (IA) tem gerado preocupações crescentes sobre seus possíveis impactos na sociedade, na economia e nos direitos humanos. Diante desse cenário, a União Europeia (UE) tomou a dianteira ao desenvolver o primeiro quadro jurídico abrangente sobre IA em todo o mundo, o EU AI Act, visando garantir a saúde, segurança e os direitos fundamentais das pessoas, ao mesmo tempo que proporciona segurança jurídica às empresas nos seus 27 Estados-Membros. 1. Introdução Dentre os objetivos do Regulamento, destacamos o estabelecimento de regras harmonizadas para a colocação no mercado e a utilização de sistemas de inteligência artificial; proibição a certas práticas, bem como estabelecer requisitos específicos para sistemas de IA de risco elevado e obrigações para os operadores desses sistemas. E para uma melhor compreensão, entendemos necessários esclarecer os alguns dos termos específicos utilizados no Regulamento. O termo <<OPERADOR>>, por exemplo, diz respeito a um fornecedor, utilizador, mandatário, importador ou distribuidor, que são assim entendidos pelo regulamento: “«Fornecedor», uma pessoa singular ou coletiva, autoridade pública, agência ou outro organismo que desenvolva um sistema de IA ou que tenha um sistema de IA desenvolvido com vista à sua colocação no mercado ou colocação em serviço sob o seu próprio nome ou marca, a título oneroso ou gratuito; «Utilizador», uma pessoa singular ou coletiva, autoridade pública, agência ou outro organismo que utilize, sob a sua autoridade, um sistema de IA, salvo se o sistema de IA for utilizado no âmbito de uma atividade pessoal de caráter não profissional; «Mandatário», uma pessoa singular ou coletiva estabelecida na União que tenha recebido um mandato escrito de um fornecedor de um sistema de IA para, respetivamente, executar e cumprir em seu nome as obrigações e os procedimentos previstos no presente regulamento; «Importador», uma pessoa singular ou coletiva estabelecida na União que coloca no mercado ou coloca em serviço um sistema de IA que ostenta o nome ou a marca de uma pessoa singular ou coletiva estabelecida fora da União; «Distribuidor», uma pessoa singular ou coletiva inserida na cadeia de abastecimento, distinta do fornecedor e do importador, que disponibiliza um sistema de IA no mercado da União sem alterar as suas propriedades;” 2. Abordagem baseada em Riscos Uma das principais características do EU AI Act é sua abordagem baseada em riscos, definindo quatro níveis de risco para sistemas de IA: Riscos Inaceitáveis, Riscos Elevados (alto risco), Risco Limitado e Risco Mínimo (ou inexistente). a) Sistemas de IA de Riscos Inaceitáveis O regulamento proíbe a colocação no mercado de sistemas de IA classificados como Riscos Inaceitáveis, que incluem: – Sistemas de IA que empregam técnicas subliminares para contornar a consciência de uma pessoa, distorcendo substancialmente seu comportamento de uma maneira que cause ou seja suscetível de causar danos físicos ou psicológicos a ela ou a outras pessoas. – Sistemas de IA que exploram vulnerabilidades de um grupo específico de pessoas associadas à sua idade ou deficiência física ou mental, a fim de distorcer substancialmente o comportamento de uma pessoa pertencente a esse grupo de uma maneira que cause ou seja suscetível de causar danos físicos ou psicológicos a ela ou a outras pessoas. – Sistemas de IA usados por autoridades públicas para avaliação ou classificação da credibilidade de pessoas com base em seu comportamento social, características de personalidade ou pessoais, quando essa classificação social conduz a tratamento prejudicial ou desfavorável de certas pessoas ou grupos inteiros de pessoas em contextos sociais não relacionados ou injustificados e desproporcionados em relação ao comportamento social ou à gravidade. O uso de sistemas de identificação biométrica à distância “em tempo real” em espaços públicos para manutenção da ordem pública é regulamentado e deve obedecer a certas condições, como a necessidade estrita para alcançar objetivos específicos, como investigação de crimes ou prevenção de ameaças à vida ou segurança física, e requer autorização prévia de uma autoridade judiciária ou administrativa independente. b) Sistemas de IA de Alto Risco Esses sistemas estão sujeitos a obrigações rigorosas antes de serem colocados no mercado. A lista de sistemas de IA de risco elevado inclui um número limitado de sistemas de IA cujos riscos já se materializaram ou são suscetíveis de se materializar num futuro próximo, e poderão ser ajustados no futuro. São considerados de risco elevado: – Sistemas de IA utilizados como componentes de segurança de produtos ou que são produtos por si mesmos, desde que o produto ao qual o sistema de IA se destina seja sujeito a uma avaliação de conformidade por terceiros para colocação no mercado ou em serviço, conforme estipulado na legislação de harmonização da União Europeia. – Infraestruturas Críticas: Por exemplo, sistemas aplicados em transportes que podem comprometer a vida ou integridade física das pessoas. – Educação ou Formação Profissional: Sistemas que têm o potencial de restringir o acesso à educação e a evolução profissional de alguém, como a classificação de exames. – Componentes de Segurança de Produtos: Isso inclui sistemas usados em cirurgia assistida por robôs. – Emprego, Gestão de Trabalhadores e Acesso ao Trabalho por Conta Própria: Por exemplo, análise de currículo em processos seletivos. – Serviços Públicos e Privados Essenciais: Como a pontuação de crédito para concessão de empréstimos. – Aplicação Coercitiva da Lei: Sistemas que possam interferir com os direitos fundamentais das pessoas, como a avaliação da fiabilidade de provas. – Gestão da Migração e Controle de Fronteiras: Por exemplo, verificação da autenticidade de documentos de viagem. – Administração da Justiça e Processos Democráticos: Isso inclui a aplicação da lei em casos concretos – Representam um risco de danos para a saúde e segurança ou um risco de impacto adverso nos direitos fundamentais, cuja gravidade e probabilidade de ocorrência são equivalentes ou superiores aos riscos representados pelos sistemas de IA de risco elevado já referidos no Anexo III do regulamento. c) Risco Limitado Refere-se aos riscos associados à falta de transparência no uso de IA. O regulamento impõe obrigações específicas de transparência para garantir que os seres humanos sejam informados adequadamente ao interagir com sistemas de IA,
Identidade Digital, Novas Formas de Controle e Censura

A digitalização das relações sociais e econômicas transformou profundamente a maneira como interagimos, comunicamos e conduzimos nossas relações e negócios. Transformação essa que carrega consigo desafios significativos, especialmente no que diz respeito à identidade digital das pessoas, frente ao direito fundamental, estabelecido pela Constituição Federal, da privacidade e da proteção dos dados pessoais, bem como a liberdade de expressão. Segundo o Data Privacy Research, em seu projeto “Defendendo o Brasil do tecnoautoritarismo”, o termo tecnoautoritarismo foi criado para “explicar os processos de expansão do poder estatal cujo objetivo é incrementar as capacidades de vigilância e controle sobre a população, mediante violação de direitos individuais ou ampliação importante dos riscos de violação a direitos fundamentais”. Com o expressivo avanço da tecnologia, que proporcionou alterações relevantes em todas as camadas socioeconômicas, há o entendimento consensual de que a estrutura digital atual, que dita a rotina das relações sociais e econômicas, é capaz de permitir um nível de vigilância e monitoramento massificado, por meio de celulares, câmeras e, em especial, através da internet, com o desenvolvimento contínuo de bases de dados orientada por opiniões políticas, hábitos de consumo, hábitos comportamentais, score de crédito e todo e qualquer dado ou informação pessoal que seja capaz de gerar algum conhecimento personalizado sobre os indivíduos que compõem a nossa sociedade atual. Ao rememorar como a vigilância e o monitoramento era executada ao longo dos anos, em outrora, existiam as redes de informantes que, vinculados aos governos, passavam informações de adversários políticos e de grupos sociais. Hoje, os tempos são outros, é impensável pensar neste método, apesar da China recentemente ter tentado criar uma rede de informantes, em que o Governo Chinês ofereceu dinheiro a funcionários do banco central em troca de dados internos, conforme relatório elaborado pelo Senado Norte-Americano, por meio do Comitê de Segurança Nacional e Assuntos Governamentais[1]. O tempo passou, a tecnologia avançou e os métodos de vigilância e monitoramento foram atualizados e se moldaram frente à nova estrutura socioeconômica, baseada em dados coletados a partir da digitalização das relações estabelecidas, o que por si só já é um enorme problema, pois, quanto maior a eficiência na coleta de dados, menos relevante é restringir a quantidade e os incentivos para limitar a coleta de dados pessoais ao mínimo necessário tornam-se menos atrativos[2]. Assim como é impensável pensar em um modelo de vigilância e monitoramento ultrapassado, como são as redes de informantes, também é impensável pensar em privacidade apenas como casa muradas, janelas fechadas, salas com trancas de porta, dentre outros meios para tornar algo privado, tal qual é impossível desvincular a privacidade dos indivíduos do conceito de autodeterminação informativa, que nada mais é do que a capacidade dos cidadãos de controlar os fluxos de dados e informações gerados. Sendo essa, portanto, a base que forma os cinco pilares do eixo central dos Fair Information Practices Principles (FIPPs)[3], que se consolidaram para concretizar àquilo que é necessário para legalizar a utilização de dados pessoais: propósito específico, limitado aos dados necessários, alinhado à expectativa da pessoa, com a garantia da transparência e a não criação de obstáculos para acesso à informação. Nos últimos 05 anos, desde a publicação do Decreto Executivo 10.046, em 2019, que dispõe sobre a governança no compartilhamento de dados no âmbito da administração pública federal e institui o Cadastro Base do Cidadão (CBC) e o Comitê Central de Governança de Dados, muito se discutiu acerca da constitucionalidade do compartilhamento de dados na administração pública federal, por meio do CBC. Outra questão relevante traz à tona a capacidade do Poder Público em gerir tamanha base, isto é, aplicar na prática os princípios trazidos pela Lei Geral de Proteção de Dados Pessoais (LGPD), Lei 13.709 de 2018, em especial àqueles que necessitam ser observados em casos de uso secundário de dados pessoais, isto é, utilização de dados para uma finalidade secundária daquela utilizada no momento da coleta original, justamente pela falta de cultura, conhecimento técnico-operacional em Privacidade e Segurança da Informação e pela pobre sistemática criada no Decreto quanto às salvaguardas das informações, violando frontalmente os princípios e fundamentos da LGPD. Recentemente, em 2022, após diversas denúncias e manifestações sobre a incapacidade do Poder Público em operacionalizar e garantir as questões trazidas pela LGPD, em ação ajuizada pelo Conselho Federal da Ordem dos Advogados do Brasil – CFOAB, o Supremo Tribunal Federal (STF) julgou parcialmente procedente o pedido, decidindo que o compartilhamento de dados pessoais entre órgãos e entidades da administração pública pressupõe a necessidade de propósitos legítimos, específicos e explícitos, assim como deve sempre ser compatível com as finalidades informadas ao titular. O STF trouxe, ainda, em sua decisão, a necessidade de controles rigorosos de acesso aos dados presentes no CBC. Outro fato relevante, e que retrata o processo de expansão estatal com a finalidade de massificar a vigilância e o controle, é o desenvolvimento de um aparato paralelo de inteligência que, a partir de condutas executadas por agentes públicos e softwares tecnológicos, sem a devida transparência e conhecimento da sociedade, houve a: (i) coletar dados de dispositivos eletrônicos, nuvem, apps e redes sociais, (ii) estabelecer conexões entre pessoas e (iii) cruzar dados com outras bases, acarretando em impactos significativos à privacidade e aos dados pessoais daqueles que foram vigiados e monitorados, sem o devido respaldo legal. Mas como alinhar os mecanismos de identificação digital e autenticação aos princípios de privacidade e proteção de dados pessoais? E é justamente nesse ponto que aparece outro fato relevante e que merece comentários: a identificação civil nacional, estabelecida pela Lei 13.444/2017 que, assim como o Cadastro Base do Cidadão, também traz a centralização de dados e informações, desta vez com o objetivo de permitir a fácil identificação do cidadão em ambientes públicos e privados, em especial para simplificar e agilizar a prestação dos serviços públicos e de melhorar o ambiente de negócios e a eficiência da gestão pública. A centralização de base de dados, independente do objetivo, sempre merece grande atenção, ainda mais no contexto brasileiro que já passou diversos casos midiáticos de incidentes e de vazamentos de
TikTok é condenado em R$ 23 Milhões por tratamento ilegal de dados pessoais sensíveis

O Estado do Maranhão, por meio de Ação Civil Pública, proposta pelo INSTITUTO BRASILEIRO DE ESTUDO E DEFESA DAS RELAÇÕES DE CONSUMO, condenou a ByteDance, empresa chinesa dona do aplicativo TikTok, a pagar R$ 23 milhões de reais a título de dano moral coletivo, e R$ 500 reais a título de dano moral individual àqueles que ingressaram na plataforma até junho de 2021, data em que foi atualizada a Política de Dados da organização para coleta automática de dados biométricos (dados sensíveis) dos usuários. Além disto, o mais interessante da decisão é observar que a empresa está obrigada a: Abster-se de coletar e compartilhar dados pessoais biométricos sem o devido consentimento dos titulares; Explicitar aos usuários a forma pela qual o consentimento é obtido, com exposição das janelas, condições, línguas e caixas de diálogo em que são inseridos os termos deste consentimento, além de Implementar DE FORMA DESTACADA, COM TRANSPARÊNCIA E CLAREZA, ferramenta operacional para obter o consentimento do usuário da plataforma, com oportunidade do usuário autorizar ou não a coleta de dados. Fica evidente, diante da decisão, que as organizações precisarão – e muito – melhorar os seus mecanismos de gestão de consentimento, em especial em ambientes de interação digital com titulares de dados, sejam clientes, consumidores ou usuários de plataformas digitais. Conheça nosso serviço de DPO AS A SERVICE Isso porque, ainda por meio da decisão, é possível inferir que frente a uma coleta de dados pessoais sensíveis, neste caso, dados biométricos, o DANO MORAL É PRESUMIDO, pois, no contexto socioeconômico atual, a proteção de dados pessoais é a privacidade é um DIREITO FUNDAMENTAL cada vez MAIS RELEVANTE! Isso dito, a decisão traz ainda a não razoabilidade de se exigir do titular a comprovação do dano moral. Segundo a decisão: A MERA COLETA DE DADOS PESSOAIS SENSÍVEIS SEM AUTORIZAÇÃO CAUSA DANO MORAL. Número do processo: 0816292-73.2020.8.10.0001 Para mais informações, entre em contato com os nossos especialistas.
Vantagens do DPO as a Service

1- Atuação multidisciplinar, time dedicado ao Cliente. Nosso serviço de DPO as a Service dispõe de um squad multidisciplinar dedicado exclusivamente a suas necessidades de proteção de dados. Esse squad é composto por profissionais especializados em diversas áreas, como jurídica, tecnológica, segurança da informação, compliance, entre outras. A interdisciplinariedade contribuí para uma abordagem holística na implementação das medidas de conformidade com a LGPD, o que busca garantir que todas as dimensões do programa de proteção de dados sejam abordadas de forma eficaz e integrada. 2- Conflito de Interesse? Tô fora! A atuação como DPO demanda, antes de tudo, ausência de conflito de interesse. A autonomia na tomada de decisão, bem como a não vinculação a cargos de gestão nos possibilita ir além e nos permite fornecer orientação imparcial e independente, sem influências internas. Isso é fundamental para garantir que as decisões relacionadas à proteção de dados sejam tomadas com total transparência e em conformidade com os melhores interesses da organização e de seus stakeholders. Além disso, a ausência de conflitos de interesse também pode contribuir para a credibilidade e reputação da empresa perante seus clientes e parceiros de negócios. 3- Suporte com SLA definido de acordo com a urgência Um dos benefícios de contratar um DPO as a Service é a possibilidade de contar com suporte especializado integrado a um SLA (Service Level Agreement) definido, de acordo com a urgência de cada demanda. Isso significa que o cliente pode ter a garantia de que suas solicitações serão tratadas de forma rápida e eficiente, com prazos claros e transparentes. Seja para responder a uma consulta de um titular de dados, lidar com um incidente de segurança ou fornecer orientação sobre novas iniciativas de negócios, o cliente pode confiar que o DPO as a Service estará disponível para atender suas necessidades dentro dos prazos acordados. 4- Organização e gestão do programa da LGPD por meio de projetos O DPO as a Service oferece uma abordagem estruturada e organizada para a implementação e gestão do programa de conformidade com a LGPD. Isso é feito por meio de projetos cuidadosamente planejados e executados, cada um focado em áreas específicas de conformidade. Esses projetos podem incluir atividades como avaliação de riscos, elaboração de políticas e procedimentos, realização de treinamentos, revisão de contratos e processos internos, entre outros. Ao adotar uma metodologia baseada em projetos, o cliente pode garantir uma abordagem sistemática e eficaz para alcançar e manter a conformidade com a LGPD, minimizando riscos e otimizando recursos. O PDK atua buscando compreender as oportunidades em um Programa de Governança. É o que chamamos de ciclos de melhoria, isto é, uma visão que integra oportunidades de melhoria e gaps à ações e remediações da atividade como DPO. 5- Expertise Especializada em Proteção de Dados. Com um DPO as a Service, o cliente tem acesso imediato a uma expertise especializada em proteção de dados. Esses profissionais são altamente qualificados e possuem certificações reconhecidas internacionalmente, garantindo um conhecimento abrangente das melhores práticas e regulamentações relacionadas à privacidade e proteção de dados. Eles estão constantemente atualizados sobre as mudanças na legislação e nas tendências do mercado, o que permite uma abordagem proativa na implementação de medidas de conformidade. Além disso, sua vasta experiência em lidar com uma variedade de situações e desafios relacionados à proteção de dados garante que o cliente receba orientação especializada e estratégica para lidar com qualquer questão que surja. Para mais informações, entre em contato com os nossos especialistas em Privacidade e Proteção de Dados Pessoais.
ANPD Inicia Consulta Pública para Refinar Padrões de Anonimização e Pseudonimização: Rumo à Proteção de Dados Mais Efetiva e Transparente

A Autoridade Nacional de Proteção de Dados (ANPD) dá um passo significativo em direção à consolidação da legislação de proteção de dados no Brasil, abrindo a Consulta Pública sobre a minuta do Guia de Anonimização e Pseudonimização para a Proteção de Dados Pessoais. Essa iniciativa, em conformidade com a Lei Geral de Proteção de Dados (LGPD), destaca o compromisso da ANPD em promover uma cultura de proteção de dados sólida e responsável no país. O Guia proposto é uma peça fundamental no arcabouço regulatório da LGPD, delineando padrões e diretrizes técnicas para a aplicação efetiva desses processos. Ao lançar a consulta pública, a ANPD busca engajar diversos segmentos da sociedade, incluindo profissionais do setor, agentes de tratamento, acadêmicos e titulares de dados, com o objetivo de reunir insights valiosos e perspectivas diversificadas para aprimorar o documento final. O guia não apenas oferece definições claras de conceitos-chave, como dados anonimizados e pseudonimizados, mas também estabelece diretrizes práticas para a implementação dessas técnicas, levando em consideração os requisitos legais e as melhores práticas internacionais. Destaca-se a abordagem baseada em risco proposta, que reconhece a dinâmica complexa do ambiente de tratamento de dados e a necessidade de uma avaliação contínua dos riscos de identificação. Além disso, a ANPD enfatiza a importância da transparência, da legitimidade do tratamento e do respeito aos direitos dos titulares de dados ao longo do processo de anonimização e pseudonimização. Esses princípios fundamentais são essenciais para promover a confiança e a conformidade com a LGPD, garantindo que os dados pessoais sejam tratados de forma ética e responsável. A participação ativa da sociedade nesse processo de consulta é crucial para garantir a eficácia e a legitimidade do guia final. As contribuições recebidas serão cuidadosamente avaliadas pela ANPD e incorporadas, conforme apropriado, para garantir que o guia final reflita as necessidades e preocupações dos diversos stakeholders envolvidos. A consulta pública estará aberta até o dia 28 de fevereiro de 2024, e as contribuições podem ser enviadas através da plataforma participa+Brasil. Com essa iniciativa, a ANPD reafirma seu compromisso em promover uma cultura de proteção de dados robusta e em constante evolução, alinhada com os princípios da LGPD e as melhores práticas internacionais. Leia a nota na íntegra: https://www.gov.br/participamaisbrasil/consulta-a-sociedade-estudo-preliminar-anonimizacao-e-pseudonimizacao-para-protecao-de-dados. ANPD abre consulta à sociedade sobre o Guia de Anonimização e Pseudonimização — Autoridade Nacional de Proteção de Dados (www.gov.br) Para mais informações, consulte os nossos especialistas da área de Privacidade e Proteção de Dados do PDK Advogados.
Dia da Internet Segura

Hoje, dia 06 de Fevereiro, é Dia da Internet Segura. Muitos de nós não conseguem imaginar a sua vida sem a Internet. A Internet oferece uma lista quase interminável de serviços. Ela permite nos comunicar de forma instantânea, acessar uma fonte inesgotável de informações e, ainda, possibilita o trabalho remoto, realidade vivenciada principalmente no mundo pós-pandemia. Em razão disso, é notória sua onipresença em nossas vidas. De acordo com o estudo publicado pelo site Datareportal, em 2024 serão 5.35 bilhões de pessoas utilizando a Internet, o que equivale a 66,2% da população mundial total. Espera-se uma taxa de crescimento dos números de usuários na porcentagem de 1,8% apenas nos próximos meses. Por outro lado, proporcionalmente à contínua expansão do alcance da Internet, o número de crimes cibernéticos também aumentou. A Fortinet, líder global em soluções de segurança cibernética, divulgou dados coletados no primeiro semestre de 2022 pelo seu laboratório de inteligência de ameaças, o FortiGuard Labs, constatando que o Brasil, em 2022, foi o segundo país mais impactado por crimes cibernéticos na América Latina, sofrendo 31,5 bilhões de ataques cibernéticos apenas nos meses de janeiro a junho daquele ano. O PDK Advogados enfatiza a importância de se proteger nos meios digitais e, por isso, separamos algumas dicas para você navegar de forma segura: Mantenha seus softwares e hardwares atualizados As atualizações de softwares e hardwares devem ser realizadas de forma regular. Além de garantir a funcionalidade e o bom desempenho de seus dispositivos, trata-se de uma prática de enorme importância em termos de segurança, uma vez que as atualizações promovem a correção de vulnerabilidades, fortalecendo as defesas contra ransomware, malware e outros ataques cibernéticos. Utilize senhas fortes Ao navegar por diferentes sites e redes sociais, crie senhas fortes e únicas para cada conta. Utilize uma combinação de letras, números e caracteres especiais, e evite informações particulares para garantir a maior proteção de seus dados pessoais. Autenticação de dois fatores (2FA) Ao implementar a autenticação de dois fatores, os usuários e organizações podem fortalecer significativamente suas defesas contra ameaças cibernéticas. A 2FA fornece uma camada adicional de proteção que vai além da tradicional combinação de nome de usuário e senha, garantindo a proteção adequada de informações sensíveis. Controle de privacidade nas redes sociais Limite a quantidade de informações pessoais compartilhadas publicamente para proteger sua intimidade e segurança em um ambiente digital altamente interconectado. Restringir o acesso reduz o risco de roubo de sua identidade, dados financeiros e dados sensíveis. Para mais informações, entre em contato com nossos especialistas.
Sistema Eletrônico da ANPD

Nesta terça-feira, 16 de janeiro de 2024, a Autoridade Nacional de Proteção de Dados (ANPD) deu um passo significativo no fortalecimento de sua autonomia institucional ao apresentar seu sistema próprio de peticionamento para usuários externos, a “SUPER/ANPD”, podendo ser acessada neste link. Usuários externos, sejam pessoas físicas ou jurídicas, que desejam protocolizar suas petições nos processos da ANPD precisarão se cadastrar no novo sistema, pois o antigo não será mais utilizado pela entidade. E para melhor entendimento da nova plataforma, a autarquia criou um manual do usuário, como guia orientativo para cadastro, peticionamento, acesso – externo ou interno – e controle de representação, assinatura e, por fim, a intimação eletrônica. Para a efetivação do cadastro no atual sistema é necessário preencher um formulário com informações pertinentes ao uso da plataforma. Em seguida, cabe ao interesse o envio do documento para o seguinte endereço eletrônico: protocolo@anpd.gov.br. Após o período de 03 (três) dias úteis há um retorno da entidade para a liberação de acesso ao uso do sistema. Uma novidade citada pela ANPD é que em breve serão lançados módulos específicos de gestão de procuração. Esses módulos visam facilitar a representação de pessoas jurídicas e de pesquisa pública, tornando o processo mais eficiente e alinhado com as necessidades variadas dos envolvidos. É importante destacar que esse movimento não apenas reforça a autonomia da ANPD, mas também assegura um ambiente mais especializado e focado nas demandas específicas relacionadas à proteção de dados pessoais, com um evidente aumento do grau de maturidade para o cenário de privacidade em todo o território nacional. Para assuntos relacionados a Privacidade e Proteção de Dados Pessoais, consulte o time de especialistas do PDK Advogados.
Atualização da ANPD para o Biênio 2024-2025

No dia 13 de dezembro, a Autoridade Nacional de Proteção de Dados (ANPD) publicou a primeira edição do “Mapa de Temas Prioritários” para o biênio de 2024-2025, com o objetivo de planejar os assuntos a serem abordados nesse período, para, então, poder agir de maneira estratégica, aplicando desde ações orientativas a uma maior fiscalização dos setores e atividades. Principais Pontos da Resolução: Mapa de Temas Prioritários (Anexo I): Aprovação do Mapa que servirá como guia para a elaboração de documentos de governança e definição de prioridades para as áreas técnicas da ANPD. Ciclo de Monitoramento Bianual: Será elaborado um Relatório de Ciclo de Monitoramento 2024-2025, abrangendo dados coletados entre o 2º semestre de 2023 e o 1º semestre de 2025. Projeções Futuras: A Resolução estabelece que deverá ser apresentado ao final do biênio um novo mapa de temas prioritários (2026-2027). Vigência: A Resolução entra em vigor na data de sua publicação (13/12/23). Destaques do Mapa de Temas Prioritários: Tema 1 – Direitos dos Titulares: Realização de ações de fiscalização no escopo do tratamento de dados realizado pelo Poder Público, por plataformas digitais, pelo setor financeiro e pelo setor de telecomunicações e, a partir disso, consolidar orientações para as atividades desenvolvidas por tais setores. . Tema 2 – Tratamento de Dados de Crianças e Adolescentes no Ambiente Digital: Tem como objetivo verificar se o tratamento de dados pessoais de crianças e adolescentes realizado por plataformas digitais está compatível com a LGPD e propor medidas de salvaguarda nesse ambiente. Tema 3 – Inteligência Artificial para Reconhecimento Facial e Tratamento de Dados Pessoais: Foco na identificação de riscos e garantia do cumprimento da LGPD em sistemas de reconhecimento facial. Tema 4 – Raspagem de Dados e Agregadores de Dados: Inclui atividades de fiscalização, consolidação de parâmetros e orientações e proposição de medidas assegurando o tratamento de dados conforme a LGPD. Interconexões Institucionais: Destaca-se a intenção da ANPD em realizar interações com órgãos públicos e outras autoridades de proteção de dados em todas as temáticas abordadas. A ANPD reafirma seu compromisso em fortalecer a proteção de dados pessoais no Brasil, e estamos entusiasmados para contribuir com esses avanços significativos! Leia a nota na integra: https://www.gov.br/anpd/pt-br/assuntos/noticias/mapa-de-temas prioritarios-estabelece-principais-linhas-de-acao-ate-2025 Para mais informações, entre em contato com nossos especialistas de Privacidade e Proteção de Dados Pessoais.