O mercado jurídico, assim como tantos outros negócios de serviços profissionais, vive um momento de aceleração intensa – e, talvez, um tanto desenfreada – em torno da inteligência artificial generativa. Ferramentas voltadas à advocacia multiplicam-se rapidamente, o discurso de agentes de IA como revolução se consolida e a pressão por adoção vem de múltiplas frentes. Nos escritórios, essa pressão vem da busca por produtividade e diferenciação competitiva. Nos departamentos jurídicos, ela se manifesta na expectativa de fazer mais com menos, atender à demanda crescente sem ampliar o headcount e demonstrar eficiência operacional para a gestão da empresa

Essa pressão, somada ao temor generalizado de ficar para trás, tem produzido uma dinâmica preocupante: a adoção da IA como algo que “todo mundo precisa ter”, sem reflexão sobre como, onde e por que utilizá-la. Não é exagero afirmar que o entusiasmo por adquirir as ferramentas mais recomendadas do mercado raramente vem acompanhado de um raciocínio estruturado sobre sua aderência ao cotidiano e sobre o legado que elas constroem – ou deixam de construir – na prática. Tampouco esse ímpeto é precedido de um mapeamento cuidadoso de desafios, gargalos e processos a serem aprimorados: um estudo que deveria anteceder qualquer estratégia de IA.

Dados recentes reforçam esse diagnóstico. Estudo publicado em março de 2026 pela Anthropic, desenvolvedora do Claude, introduziu uma métrica de “exposição observada” que mede não o que a IA poderia fazer em teoria, mas o que ela efetivamente está fazendo na prática profissional. A conclusão é reveladora: em praticamente todos os setores, a cobertura real permanece uma fração do potencial teórico[i]. No setor jurídico, a adoção efetiva alcança um percentual modesto da capacidade estimada – embora múltiplos fatores expliquem essa diferença, a ausência de estratégia institucional é um dos mais negligenciados. A ferramenta existe; o que falta, em muitos casos, é a estrutura para utilizá-la.

Não pretendemos oferecer receitas universais, mas é possível e necessário traçar diretrizes que reduzam os riscos mais comuns. Diante dessa corrida acelerada, cabe um alerta: é preciso cautela para não avançar sem compreender o impacto das decisões que estão sendo tomadas agora. Sair na frente não necessariamente significa ter os melhores resultados no futuro.

Os riscos que a velocidade esconde


A pergunta que deveria orientar qualquer decisão de adoção – “como o trabalho está organizado hoje e onde exatamente a IA pode agregar valor?” – é frequentemente substituída por outra, mais perigosa: “qual ferramenta os outros estão usando?”

Esse risco se soma a outros já conhecidos. Preocupações com segurança da informação e privacidade, por exemplo, são fundamentais, mas também visíveis e, hoje, gerenciáveis, desde que avaliadas por equipes competentes nessas áreas. O risco mais insidioso, contudo, é de outra natureza: menos óbvio, ainda pouco compreendido pelas organizações.

A erosão do raciocínio jurídico. Esse é um risco central. Quem advoga precisa compreender por que está usando a IA e conhecer seus limites. Não pode se sentir substituível; pelo contrário, é preciso fortalecer seu papel crítico, reconhecendo o quanto a expertise jurídica é determinante para extrair o melhor resultado possível do trabalho com IA. Como diversos especialistas alertam, operamos hoje em uma “fronteira irregular”[ii] da capacidade tecnológica: a IA pode resumir contratos complexos com brilhantismo, mas alucinar em uma jurisprudência simples. Os dados são eloquentes: no estudo de campo conduzido por Dell'Acqua, Mollick e colegas com consultores da BCG, profissionais que utilizaram GPT-4 dentro da fronteira de capacidade da ferramenta foram 12,2% mais rápidos e produziram resultados de qualidade significativamente superior. Contudo, aqueles que utilizaram a IA fora dessa fronteira – em tarefas que exigiam julgamento contextual – tiveram desempenho 19 pontos percentuais inferior ao grupo de controle. A "fronteira irregular" não é apenas uma metáfora: é um dado empírico que reforça a necessidade de saber onde a IA funciona e onde ela falha.

Cabe a quem opera a IA identificar o erro. Sem esse preparo e essa interlocução, o resultado não é eficiência: é retrabalho. E o risco não é apenas interno. Em 2023, no caso Mata v. Avianca perante a justiça federal de Nova York, advogados apresentaram em juízo citações jurisprudenciais inteiramente fictícias, geradas por ChatGPT, sem qualquer verificação humana.[iii] O episódio se tornou emblemático: quando a supervisão falha, quem sofre as consequências é o cliente e a credibilidade de quem advoga.

E aqui surge um conceito que merece atenção: o “AI Slop”.[iv] O termo refere-se ao conteúdo medíocre, verborrágico e superficial gerado automaticamente que, se não filtrado, polui a tomada de decisão e gera um volume crescente de retrabalho. No ambiente jurídico, o slop se manifesta de forma particularmente perigosa: uma minuta aparentemente coerente, com linguagem técnica adequada, mas que não reflete a tese do caso ou ignora nuances fáticas relevantes. A ferramenta que deveria economizar tempo acaba exigindo mais revisão, mais correção, mais supervisão. O benefício de curtíssimo prazo (“ficou pronto mais rápido”) esconde um custo real e crescente, com impacto financeiro inequívoco: o aumento de horas não faturáveis dedicadas à correção de minutas ruins e o custo de oportunidade da equipe sênior, que deixa de atuar na estratégia para revisar entregas de IA.

O custo oculto da adoção sem direcionamento. Boas ferramentas de IA não são baratas. Quando adotadas sem contexto ou sem um plano claro de utilização, correm o risco de se tornarem investimentos subutilizados ou empregados de maneira tão dispersa que não constroem um legado eficaz. Em escritórios, o risco é o investimento subutilizado que corrói margem. Em departamentos jurídicos, o risco adicional é a ferramenta imposta sem participação do jurídico no processo de seleção ou, inversamente, o jurídico que adota uma ferramenta sem conseguir demonstrar o retorno do investimento para a gestão corporativa.

A ferramenta em si, quando não inserida em um plano claro, pode potencializar justamente os problemas que se propunha a resolver: a ineficiência operacional (agora digitalizada e em escala) e a fragmentação do conhecimento, criando silos de informações inacessíveis dentro de chats individuais. O investimento sem retorno é sintoma de um problema mais profundo: a confusão entre adotar tecnologia e transformar o modelo de trabalho. Como alerta Mark A. Cohen, referência em Legal Operations, a inovação jurídica falha quando tratada como projeto de tecnologia e não como transformação de modelo de negócio: "a tecnologia é um habilitador, não uma estratégia".[v]

A adoção deve ser estruturada e conduzida pela liderança. Como aponta David De Cremer[vi], para ter sucesso com IA, os líderes precisam engajar toda a organização (bring everyone on board), definindo não apenas a tecnologia, mas a cultura de uso. Se a liderança não souber direcionar o uso de uma tecnologia probabilística, não conseguirá controlar os resultados e aumentará a exposição ao risco. É por isso que a adoção de IA na advocacia não pode ser espontânea e pulverizada.

Na prática, isso exige que se enfrente uma pergunta prévia, aparentemente simples, mas que poucos fazem antes de contratar qualquer ferramenta: como o trabalho está efetivamente organizado hoje e onde, concretamente, há espaço para a IA agregar valor?

Os três graus de uso: onde a IA é agente, copiloto ou coadjuvante


Nem toda tarefa se beneficia de IA da mesma maneira. A adoção estruturada exige distinguir pelo menos três níveis:

Onde a IA pode ser agente. Tarefas como catalogação de documentos, estruturação analítica de dados, extração e organização de grandes volumes de informação, triagem de contratos de baixo risco ou análise preliminar de compliance. Mesmo aqui, o direcionamento e o contexto dado pelo humano são fundamentais – sem eles, os erros aparecem. Mas o ganho de eficiência é real e mensurável.

Onde a IA é copiloto. Diferentemente do nível agente, em que o humano define os parâmetros e valida o output, no nível copiloto o profissional participa ativamente da construção do resultado. Aqui está a maior parte do trabalho jurídico de média complexidade. Nas suas iterações atuais, a IA não demonstra capacidade de análise contextual equiparável à de profissionais experientes em cenários de alta complexidade – embora esse cenário possa evoluir. Atualmente, a IA contribui com a leitura de documentos, a sistematização e a análise inicial, a condução de due diligence interna ou a análise de cláusulas em contratos de fornecedores, podendo até sugerir primeiras minutas ou elaborar trechos específicos, mas depende do profissional para contextualizar, validar resultados e direcionar o aprofundamento.

Com um prompt bem construído e validado pela equipe, a IA processa documentos de maneira adequada e direciona a atenção de quem advoga para onde ela precisa estar. Pode ajudar a construir partes de uma peça, a cruzar informações entre processos, a identificar conexões entre casos. Mas o profissional permanece no centro do trabalho, elaborando com o cuidado que o caso exige. A IA, nesse nível, não substitui a análise, mas a acelera e amplia seu alcance, desde que o profissional mantenha o controle sobre as premissas e a direção do raciocínio.

Onde o humano ainda é insubstituível. Quem advoga segue relevante – e cada vez mais – em casos de alta complexidade: no contencioso de escritórios, o humano segue fundamental em arbitragens, disputas que envolvem múltiplas camadas de contexto, estratégia processual que depende de nuances que só a experiência e o raciocínio jurídico conseguem capturar; em departamentos jurídicos, no aconselhamento estratégico ao board, na gestão de crises regulatórias e em decisões que envolvem exposição reputacional da empresa. A IA não possui capacidade de análise contextual nesse nível e, embora não se possa prever a velocidade dessa evolução, nas suas iterações atuais permanece aquém do que cenários de alta complexidade exigem. Nesses cenários, ela pode apoiar com a sistematização e a organização das informações, mas a construção de tese, o posicionamento estratégico e a leitura do caso seguem sendo domínio exclusivo do profissional.

Essa hierarquia protege a qualidade do trabalho e preserva o raciocínio jurídico como ativo central da prática. A diferenciação entre tarefas de alta e baixa complexidade encontra respaldo na análise de McGinnis e Pearce, que em 2014 previram a polarização[vii] do mercado jurídico – embora, para os autores, essa polarização representasse não um ponto de equilíbrio, mas o início de uma transformação estrutural mais profunda da profissão. Eles previram que a inteligência de máquina transformaria profundamente a atuação jurídica e não apenas nas tarefas periféricas. Os dados e estudos recentes sugerem que a disrupção é real, mas sua velocidade de penetração efetiva ainda está aquém do potencial teórico. Essa defasagem não invalida a previsão; ao contrário, reforça que há uma janela – talvez breve – para que as organizações se estruturem antes que a disrupção se acelere.

De uso individual a método institucional


A distinção entre adoção de IA que gera valor e a que gera frustração reside, em última análise, em uma pergunta: o conhecimento fica com o indivíduo ou com a organização?

A professora Michele DeStefano alerta frequentemente para o skills gap na inovação jurídica: não basta ter a ferramenta, é preciso ter a competência colaborativa para usá-la.[viii] Quando cada profissional utiliza a ferramenta que quer, do jeito que quer, o resultado é experimentação individual não escalável. Quando a organização mapeia os fluxos, cria workflows documentados, valida prompts e estabelece guias claros sobre onde e como o humano precisa intervir, o que se constrói é método. O conhecimento deixa de ser tácito e passa a integrar a metodologia do escritório ou do departamento jurídico. Novos profissionais que chegam já encontram um caminho traçado, e trocas de equipe não significam recomeçar do zero. O legado é institucional.

Essa transição, contudo, não é isenta de atrito. Em muitas organizações jurídicas, a resistência à IA não se manifesta em oposição aberta, mas em indiferença silenciosa: a ferramenta é formalmente disponibilizada, mas na prática permanece subutilizada. Profissionais com trajetória consolidada e métodos que funcionam há anos não veem razão para mudar e, sem orientação clara da liderança, não mudam. Ignorar essa resistência não a elimina; apenas a converte em adoção de fachada. Enfrentá-la exige uma combinação de legitimação pela liderança (que precisa não apenas autorizar, mas usar e valorizar o uso) e de capacitação estruturada, que demonstre, na prática, como a IA se integra ao trabalho sem substituir o julgamento profissional. A ferramenta não se impõe por decreto; se adota pela experiência de valor percebido, conduzida de forma direcionada.

Um exemplo prático desse método é a criação de equipes dedicadas (squads) por tipo de entrega ou área temática – contestação, recurso especial, contratos de fornecedores, compliance trabalhista, contencioso de massa. Esse modelo, inspirado em práticas de desenvolvimento ágil adaptadas ao contexto jurídico, propõe que cada squad seja composta por profissionais de diferentes senioridades: quem lidera a equipe define o escopo e os critérios de qualidade; profissionais de nível intermediário conduzem a execução com apoio da IA; integrantes mais jovens operam as ferramentas e documentam os fluxos. Juntos, em ciclos curtos de validação – idealmente por entrega ou em revisões semanais –, identificam onde a IA agrega valor e onde os limites aparecem. Os prompts que funcionam são registrados em bibliotecas compartilhadas; os que falham, descartados com registro do motivo. O resultado é um fluxo validado e documentado: aqui entra a IA, aqui entra o humano, e por quê. Essa alternância, quando formalizada, transforma a ferramenta em método institucional – replicável, auditável e independente de quem compõe a equipe em determinado momento. Para departamentos jurídicos, há uma camada adicional: a integração do método interno de uso de IA com os escritórios contratados. Definir expectativas claras sobre como a IA pode ou não ser utilizada nas entregas externas é parte essencial da governança.

A inovação está precisamente nisso: em reconhecer a preponderância do fator humano e a importância da estruturação dos trabalhos. A IA é uma peça da engrenagem, não a engrenagem inteira.

Um checklist antes de adotar


A partir dessas reflexões, propomos um roteiro mínimo para organizações jurídicas que desejam transformar o diagnóstico em ação:

1. Mapeie antes de automatizar. O teórico Richard Susskind chama isso de “decomposição” (decomposition): quebrar o trabalho jurídico em tarefas distintas para identificar quais são passíveis de automação e quais exigem julgamento especializado.[ix] Isso significa documentar os fluxos de trabalho por área de atuação, identificar onde há repetição que consome tempo sem agregar valor e onde estão os gargalos que comprometem prazos ou qualidade. O produto desse exercício é um mapa de processos; não uma planilha genérica, mas um retrato fiel de como o trabalho acontece hoje. Sem ele, qualquer ferramenta é um tiro no escuro. Como já argumentamos em trabalho anterior sobre Legal Operations: sem redesenho de processos, a tecnologia apenas cria uma camada superficial de inovação[x]. Com IA, essa lógica se aplica com ainda mais força.

2. Defina os três graus de uso. Identifique onde a IA pode ser agente, onde ela é copiloto e onde o humano é insubstituível. Essa clareza protege a qualidade do trabalho e a integridade do raciocínio jurídico. Na prática, isso significa criar uma matriz de tarefas por área de atuação, indicando o grau de autonomia adequado para cada uma e revisando-a periodicamente à medida que a tecnologia evolui.

3. Direcione pela liderança. A liderança precisa definir quais ferramentas serão utilizadas, para quais finalidades e com quais protocolos. Isso inclui estabelecer critérios de seleção de fornecedores, parâmetros de segurança e governança, e expectativas claras de uso por área e senioridade. Sem esse direcionamento, o resultado é fragmentação, não eficiência – cada profissional usando uma ferramenta diferente, de forma diferente, sem que o conhecimento se consolide. Em escritórios, a liderança jurídica tipicamente detém o poder de decisão sobre ferramentas. Em departamentos jurídicos, esse poder é frequentemente compartilhado com áreas como TI, compras e inovação, o que torna ainda mais crítico que a liderança jurídica participe ativamente do processo de seleção e defina os critérios de uso, em vez de delegar integralmente a decisão tecnológica.

4. Treine para a interlocução, não apenas para o uso. O treinamento não deve ensinar apenas como operar a ferramenta, mas como dialogar criticamente com ela: como formular boas perguntas, como identificar respostas imprecisas, como confrontar resultados com fontes primárias. Daniel Martin Katz, pesquisador de referência em computational law, defende que a adoção eficaz de IA no direito exige o desenvolvimento de pensamento computacional (computational thinking) como competência essencial – não para que profissionais aprendam a programar, mas para que compreendam a lógica subjacente às ferramentas que utilizam.[xi] Isso implica criar programas de capacitação contínua, com exercícios práticos de validação e análise crítica de outputs, segmentados por perfil: profissionais juniores precisam aprender a operar e questionar; profissionais de nível intermediário, a validar e integrar; lideranças, a direcionar o uso e avaliar resultados. O objetivo não é formar operadores de ferramenta, mas profissionais capazes de identificar quando o output da IA é útil, quando é insuficiente e quando é perigoso.

5. Construa legado, não dependência. O objetivo é criar uma metodologia que fique na organização – prompts validados, workflows documentados, checklists de qualidade, critérios de revisão formalizados. Esses artefatos devem ser armazenados em repositórios acessíveis, atualizados periodicamente e integrados ao onboarding de novos profissionais. Se o conhecimento fica apenas na cabeça de quem usa a ferramenta, qualquer troca de equipe ou de tecnologia recomeça do zero.

6. Meça o impacto real e respeite a curva de maturação. “Ficou pronto mais rápido” não é sinônimo de eficiência se o resultado exige três rodadas de revisão. Estabeleça indicadores que capturem o ciclo completo: tempo total da tarefa (incluindo revisões), taxa de retrabalho, satisfação do cliente interno e externo, e evolução da qualidade das entregas ao longo do tempo. Para departamentos jurídicos, os indicadores devem incluir a percepção das áreas de negócio atendidas: a IA acelerou o tempo de resposta? Reduziu a necessidade de follow-ups? Melhorou a clareza dos pareceres? Revisões periódicas desses indicadores permitem ajustar rotas e identificar onde a IA efetivamente agrega valor e onde ainda não. É igualmente importante reconhecer que os resultados não são imediatos. Os primeiros meses de adoção tendem a gerar mais atrito do que ganho: a equipe ainda está aprendendo, os prompts não foram validados, os fluxos não estão estabilizados. Reconhecer essa curva e comunicá-la com transparência é condição para que a iniciativa sobreviva ao primeiro ciclo de resultados.

Estrutura guiada pela liderança, antes de velocidade

Os dados disponíveis e os estudos recentes confirmam que a IA produz ganhos reais quando inserida em estruturas bem desenhadas. Fora delas, potencializa os problemas que deveria resolver.

O caminho não é frear a adoção. É direcioná-la e criar as condições para que a IA se acomode à estrutura do escritório ou do departamento jurídico e não o contrário. É reconhecer que o diferencial competitivo não está em quem adota a IA primeiro, mas em quem constrói, ao redor dela, a estrutura que transforma capacidade tecnológica em qualidade de entrega.

Que a reflexão sirva para isso: não para temer a tecnologia, mas para adotá-la com a mesma seriedade que aplicamos ao raciocínio jurídico e à governança das organizações que servimos. Porque, no fim, é exatamente disso que se trata.


[i]  MASSENKOFF, Maxim; McCRORY, Peter. "Labor market impacts of AI: A new measure and early evidence". Anthropic Research, 2026. Disponível em: https://www.anthropic.com/research/labor-market-impacts. O estudo introduziu a métrica de "exposição observada" (observed exposure), que combina a capacidade teórica dos modelos de linguagem com dados de uso real, ponderando mais fortemente os usos automatizados e relacionados ao trabalho.

[ii] DELL'ACQUA, Fabrizio; MOLLICK, Ethan et al. "Navigating the Jagged Technological Frontier: Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality". Harvard Business School Working Paper, 2023.

[iii] Mata v. Avianca, Inc., Case No. 1:22-cv-01461 (S.D.N.Y. 2023). O juiz P. Kevin Castel aplicou sanções aos advogados por apresentarem citações jurisprudenciais fictícias geradas por IA sem verificação.

[iv] O termo foi popularizado pelo desenvolvedor e analista de tecnologia Simon Willison em 2024 e adotado por grandes veículos (The Atlantic, New York Magazine) para descrever conteúdo de baixa qualidade gerado em massa. Fonte: WILLISON, Simon. "The expansive, expensive era of AI Slop". 2024.

[v] COHEN, Mark A. "Legal Operations: The Key to 'Better, Faster, Cheaper'". Forbes, 2019. Disponível em: forbes.com. Cohen argumenta que a transformação jurídica exige repensar o modelo de negócio, não apenas adotar ferramentas.

[vi] DE CREMER, David. "For Success with AI, Bring Everyone On Board". In: HBR's 10 Must Reads 2026. Harvard Business Review Press, 2025.

[vii] McGINNIS, John O.; PEARCE, Russell G. "The Great Disruption: How Machine Intelligence Will Transform the Role of Lawyers in the Delivery of Legal Services". Fordham Law Review, v. 82, n. 6, p. 3041–3066, 2014.

[viii] A lacuna de habilidades (skills gap) não é técnica (saber programar), mas colaborativa e de prestação de serviço. Quem advoga precisa aprender a trabalhar com a tecnologia e com outros profissionais (o conceito de "T-Shaped Lawyer"). Fonte: DESTEFANO, Michele. Legal Upheaval: A Guide to Creativity, Collaboration, and Innovation in Law. American Bar Association, 2018.

[ix] Decomposition (Decomposição). A ideia de que o trabalho jurídico não é um bloco indivisível, mas pode ser quebrado em tarefas, sendo que apenas algumas exigem um profissional sênior (expert trusted adviser) e outras podem ser padronizadas ou automatizadas. Fonte: SUSSKIND, Richard. Tomorrow's Lawyers: An Introduction to Your Future. 3. ed. Oxford University Press, 2023.

[x] PERAZZA, Eduardo; CARDOSO, Juliana. “Legal operations: da teoria à prática e a mudança de mentalidade”. Fonte: https://lexlegal.com.br/legal-operations-da-teoria-a-pratica-e-a-mudanca-de-mentalidade/

[xi] KATZ, Daniel Martin. "Quantitative Legal Prediction — or — How I Learned to Stop Worrying and Start Preparing for the Data-Driven Future of the Legal Services Industry". Emory Law Journal, v. 62, p. 909, 2013.