O avanço da Inteligência Artificial Generativa trouxe eficiência e escala inéditas para empresas de todos os setores. Contudo, sem diretrizes éticas e mecanismos de controle, a tecnologia pode gerar efeitos contrários aos esperados. O fenômeno conhecido como “Workslop” ilustra esse risco: conteúdos criados por IA que aparentam qualidade, mas são imprecisos, incompletos ou incorretos — transferindo o trabalho de revisão e correção ao destinatário.
O CASO DELOITTE AUSTRÁLIA
Em 2025, a Deloitte Austrália foi obrigada a reembolsar parte de um contrato firmado com o governo após entregar um relatório com erros e citações inexistentes — gerados, em parte, por um modelo de IA.
O episódio, amplamente divulgado pela imprensa internacional, expôs falhas graves de revisão e ausência de controle sobre o uso de IA generativa em documentos oficiais.
A repercussão foi imediata: além do prejuízo financeiro, o caso levou o governo australiano a revisar contratos e incluir cláusulas restritivas ao uso de IA, reforçando a importância da Governança de Inteligência Artificial em consultorias e instituições públicas.
Os custos invisíveis do “Workslop” corporativo
Uma pesquisa conduzida pela BetterUp Labs em parceria com a Universidade de Stanford revelou que colaboradores gastam, em média, quase duas horas por dia revisando conteúdos produzidos com IA não supervisionada, o que representa cerca de US$ 186 por colaborador/mês em retrabalho.
Esse fenômeno anula os ganhos de produtividade e amplia o risco operacional, criando uma cadeia de ineficiências que pode custar milhões de dólares ao ano em grandes organizações.
RISCOS JURÍDICOS E REPUTACIONAIS
Além do impacto financeiro, o uso inadequado de IA pode gerar consequências legais e reputacionais significativas, como:
● Informações inverídicas em relatórios corporativos ou pareceres técnicos;
● Responsabilidade civil por danos causados a clientes e parceiros;
● Violação de direitos autorais e de dados pessoais;
● Descumprimento de normas de transparência e compliance;
● Erosão da confiança institucional.
GOVERNANÇA DE IA: DO DISCURSO À PRÁTICA
A Pesquisa Nacional de Proteção de Dados 2025 (#PNPD25) confirma essa tendência: 68% dos profissionais entrevistados afirmam que a integração entre Governança de Dados e Governança de IA é cada vez mais necessária, e 48% reconhecem que sem ferramentas tecnológicas e políticas claras, a gestão se torna inviável.
Nesse cenário, ter uma Política de Uso Responsável de IA Generativa é essencial. Ela deve:
● Definir limites e responsabilidades;
● Exigir revisão humana obrigatória antes da publicação de qualquer material;
● Prever rastreabilidade e documentação de uso;
● Garantir alinhamento com os princípios da LGPD e as diretrizes éticas da OAB.
CONCLUSÃO
Casos como o da Deloitte demonstram que a inovação sem governança é um risco corporativo. A adoção de IA Generativa deve vir acompanhada de políticas internas, capacitação contínua e comitês de supervisão técnica e ética.
No PDK Advogados, acreditamos que a Governança de IA é o próximo passo natural da Governança de Dados, e um diferencial competitivo para empresas que desejam inovar com segurança, responsabilidade e conformidade