Insights

Workslop e o Caso Deloitte: o custo da ausência de Governança de IA nas organizações

O avanço da Inteligência Artificial Generativa trouxe eficiência e escala inéditas para empresas de todos os setores. Contudo, sem diretrizes éticas e mecanismos de controle, a tecnologia pode gerar efeitos contrários aos esperados. O fenômeno conhecido como “Workslop” ilustra esse risco: conteúdos criados por IA que aparentam qualidade, mas são imprecisos, incompletos ou incorretos — transferindo o trabalho de revisão e correção ao destinatário.

O CASO DELOITTE AUSTRÁLIA

Em 2025, a Deloitte Austrália foi obrigada a reembolsar parte de um contrato firmado com o governo após entregar um relatório com erros e citações inexistentes — gerados, em parte, por um modelo de IA.
O episódio, amplamente divulgado pela imprensa internacional, expôs falhas graves de revisão e ausência de controle sobre o uso de IA generativa em documentos oficiais.

A repercussão foi imediata: além do prejuízo financeiro, o caso levou o governo australiano a revisar contratos e incluir cláusulas restritivas ao uso de IA, reforçando a importância da Governança de Inteligência Artificial em consultorias e instituições públicas.

Os custos invisíveis do “Workslop” corporativo
Uma pesquisa conduzida pela BetterUp Labs em parceria com a Universidade de Stanford revelou que colaboradores gastam, em média, quase duas horas por dia revisando conteúdos produzidos com IA não supervisionada, o que representa cerca de US$ 186 por colaborador/mês em retrabalho.
Esse fenômeno anula os ganhos de produtividade e amplia o risco operacional, criando uma cadeia de ineficiências que pode custar milhões de dólares ao ano em grandes organizações.

RISCOS JURÍDICOS E REPUTACIONAIS

Além do impacto financeiro, o uso inadequado de IA pode gerar consequências legais e reputacionais significativas, como:

●     Informações inverídicas em relatórios corporativos ou pareceres técnicos;

●     Responsabilidade civil por danos causados a clientes e parceiros;

●     Violação de direitos autorais e de dados pessoais;

●     Descumprimento de normas de transparência e compliance;

●     Erosão da confiança institucional.

GOVERNANÇA DE IA: DO DISCURSO À PRÁTICA

A Pesquisa Nacional de Proteção de Dados 2025 (#PNPD25) confirma essa tendência: 68% dos profissionais entrevistados afirmam que a integração entre Governança de Dados e Governança de IA é cada vez mais necessária, e 48% reconhecem que sem ferramentas tecnológicas e políticas claras, a gestão se torna inviável.

Nesse cenário, ter uma Política de Uso Responsável de IA Generativa é essencial. Ela deve:

●     Definir limites e responsabilidades;

●     Exigir revisão humana obrigatória antes da publicação de qualquer material;

●     Prever rastreabilidade e documentação de uso;

●     Garantir alinhamento com os princípios da LGPD e as diretrizes éticas da OAB.

CONCLUSÃO
Casos como o da Deloitte demonstram que a inovação sem governança é um risco corporativo. A adoção de IA Generativa deve vir acompanhada de políticas internas, capacitação contínua e comitês de supervisão técnica e ética.

No PDK Advogados, acreditamos que a Governança de IA é o próximo passo natural da Governança de Dados, e um diferencial competitivo para empresas que desejam inovar com segurança, responsabilidade e conformidade

Conteúdo relacionado

8 de outubro de 2025

Reconhecimento e Excelência: Raphael Dutra é destaque na LACCA 2025 em Data, Technology and Privacy Law

8 de outubro de 2025

STF define novos critérios para inclusão de empresas em execuções trabalhistas

29 de setembro de 2025

Negligência em Compliance pode reduzir em até 15% o valuation de uma empresa

MENU