Linguagem, normatividade, interpretação, decisão e autoridade entre estatística e prática jurídica
O presente artigo examina, de forma sistemática e aprofundada, os limites epistemológicos, normativos e institucionais do uso de Modelos de Linguagem de Grande Escala (LLMs) no Direito. Sustenta-se que tais limites não decorrem apenas de insuficiências técnicas contingentes, mas da própria estrutura conceitual da linguagem jurídica e da prática decisória enquanto fenômeno normativo institucionalizado. A partir de uma articulação densa entre filosofia da linguagem, teoria do direito, teoria da argumentação e teoria da decisão judicial, demonstra-se que LLMs operam no plano da inferência estatística e da regularidade linguística, ao passo que o Direito exige operações interpretativas, axiológicas, performativas e institucionais que pressupõem ponto de vista interno, vontade normativa, autoridade e responsabilidade. Com base em Hart, Dworkin, Alexy, Kelsen, Austin, Wittgenstein, Taruffo, Posner, Floridi e Bender et al., argumenta-se que a fluência textual dos LLMs produz uma ilusão epistemológica de compreensão jurídica, obscurecendo a distinção fundamental entre coerência discursiva e validade normativa. Ao final, propõe-se um enquadramento rigoroso para o uso legítimo dessas tecnologias no Direito, restrito a funções de apoio cognitivo sob governança institucional, ancoragem normativa e supervisão humana qualificada.

Introdução: o deslocamento do problema tecnológico para o problema epistemológico
Os Modelos de Linguagem de Grande Escala (LLMs), predominantemente fundamentados na arquitetura Transformer e seus mecanismos de autoatenção (self-attention mechanisms), representam um paradigma disruptivo no campo da Inteligência Artificial. Ao empregar sofisticadas técnicas de Processamento de Linguagem Natural (NLP), esses modelos demonstram uma capacidade crescente de interpretar, gerar e interagir através da linguagem humana. Contudo, a própria tarefa de emular a cognição linguística humana, com sua riqueza semântica, pragmática e contextual, configura um desafio computacional monumental. Quando transpomos essa ambição para o universo do Direito, um sistema normativo complexo, dinâmico e intrinsecamente ligado à interpretação, os obstáculos se exponenciam, revelando limites epistemológicos e técnicos significativos.
1. O Desafio Fundamental da Emulação da Linguagem Humana pelos LLMs
A funcionalidade central de um LLM reside na sua capacidade de converter sequências textuais em representações vetoriais densas em espaços de alta dimensionalidade (embeddings). Esse processo de vetorização, embora busque capturar relações semânticas e sintáticas, é essencialmente uma aproximação estatística. O modelo aprende a prever o próximo token (palavra ou subpalavra) com base em padrões massivos extraídos de seus dados de treinamento. Ele não desenvolve uma “compreensão” no sentido humano, que envolve consciência, intencionalidade e uma teoria do mundo. A fluidez textual gerada é resultado de um sofisticado reconhecimento de padrões probabilísticos, não de um raciocínio causal ou de uma apreensão genuína do significado. Essa limitação é crucial, pois a linguagem humana é permeada por ambiguidades, subtextos, ironia, e uma dependência intrínseca do contexto situacional e do conhecimento de mundo compartilhado, aspectos que os LLMs apenas simulam superficialmente.
2. A Linguagem Jurídica: Uma Camada Adicional de Complexidade Técnico-Semântica
A linguagem jurídica transcende o vernáculo comum, constituindo-se como uma linguagem de especialidade, ou um tecnoletro, com características distintivas:
- Precisão Terminológica e Polissemia Controlada: O Direito utiliza um vocabulário técnico específico (termini technici), incluindo brocardos latinos (e.g., dura lex, sed lex; in dubio pro reo), aforismos e termos com significados precisos e, por vezes, contraintuitivos para o leigo. Expressões como “trânsito em julgado”, “periculum in mora” ou “efeitos erga omnes” possuem densidade conceitual que exige formação específica.
- Natureza Interpretativa e Textura Aberta: Conforme teorizado por H.L.A. Hart, muitas normas jurídicas possuem uma “textura aberta”, utilizando termos vagos ou polissêmicos (e.g., “boa-fé”, “justa causa”, “interesse público”) que demandam interpretação e preenchimento de sentido no caso concreto. Essa interpretação não é meramente literal, mas teleológica, sistemática e histórica.
- Estrutura Argumentativa e Retórica: Peças processuais, pareceres e decisões judiciais são construídos sobre uma lógica argumentativa rigorosa, empregando elementos de retórica forense para persuadir e fundamentar.
- Intertextualidade e Referencialidade: O discurso jurídico é altamente intertextual, referenciando constantemente leis, decretos, portarias, jurisprudência consolidada, enunciados de súmulas e obras doutrinárias. A compreensão de um texto jurídico isolado, sem o seu correspondente aparato normativo e jurisprudencial, é frequentemente impossível.
- Evolução Contínua: O Direito é um sistema dinâmico. Novas leis são promulgadas, jurisprudência é alterada (overruling, distinguishing), e conceitos doutrinários evoluem, exigindo uma atualização constante que desafia a natureza estática dos modelos treinados até um certo ponto no tempo.
A aplicação de um LLM genérico, mesmo que exposto a um vasto corpus de textos jurídicos durante seu treinamento inicial (pre-training), tende a falhar na apreensão dessas nuances. Ele pode reconhecer padrões lexicais e sintáticos, mas carece da capacidade de realizar as inferências complexas e a interpretação contextualizada que são a espinha dorsal da prática jurídica. É a diferença entre reconhecer uma palavra e compreender um instituto jurídico.
3. O Núcleo da Atividade Jurídica: Subsunção, Interpretação e a Nomologia
A função primordial do jurista transcende o mero reconhecimento de termos ou a recuperação de informações. Ela se centra no processo de subsunção do fato à norma: uma operação intelectual complexa que consiste em analisar um conjunto de fatos concretos, identificar a(s) norma(s) jurídica(s) abstrata(s) aplicável(is) e, através de um processo interpretativo, derivar a consequência jurídica específica para aquele caso. Este processo envolve:
- Hermenêutica Jurídica: A interpretação profunda do contexto fático, muitas vezes incompleto ou contestado, e das disposições normativas, considerando métodos interpretativos (gramatical, lógico, sistemático, histórico, teleológico).
- Conhecimento Axiológico e Principiológico: A aplicação de princípios jurídicos fundamentais (e.g., dignidade da pessoa humana, contraditório, ampla defesa, proporcionalidade) que orientam a interpretação e aplicação do direito.
- Hierarquia e Antinomias Normativas: O reconhecimento da estrutura hierárquica do ordenamento jurídico (Constituição, leis complementares, leis ordinárias, etc.) e a aplicação de critérios para solucionar conflitos entre normas (critério hierárquico, cronológico, da especialidade).
- Análise Crítica e Dinâmica da Jurisprudência: Não basta conhecer o texto da lei; é crucial entender como os tribunais a têm interpretado e aplicado, identificando ratio decidendi e obiter dicta, e distinguindo casos (distinguishing) ou aplicando precedentes por analogia.
Ademais, o Direito opera sob o pilar da nomologia, que postula a criação de normas com um grau de generalidade e abstração necessário para garantir a imparcialidade, a isonomia e a estabilidade das relações sociais. Essa abstração inerente cria uma lacuna entre a generalidade da norma e a singularidade do fato. Preencher essa lacuna é a tarefa do jurista, que o faz mediante juízo técnico, ponderação de valores e uma sofisticada capacidade de argumentação e justificação — habilidades que, no estado atual da tecnologia, não são replicáveis por LLMs. A tentativa de um LLM “fazer a subsunção” equivaleria a uma simulação estatística de decisões passadas, sem a capacidade de adaptação a cenários fáticos inéditos ou a evolução interpretativa do Direito.
PARTE I — FUNDAMENTOS EPISTEMOLÓGICOS E LINGUÍSTICOS
1. O erro categorial: linguagem, estatística e conhecimento jurídico
O entusiasmo contemporâneo em torno do uso de Modelos de Linguagem de Grande Escala no Direito repousa, em grande medida, sobre um erro categorial fundamental: a assimilação indevida entre competência linguística estatística e conhecimento jurídico normativo. O sucesso empírico desses modelos na geração de textos sofisticados — capazes de imitar estilos doutrinários, reproduzir estruturas decisórias e articular argumentos aparentemente coerentes — cria a impressão de que se estaria diante de uma nova forma de inteligência jurídica. No entanto, essa impressão resulta menos de uma análise conceitual rigorosa e mais de um efeito retórico produzido pela fluidez textual.
O Direito, diferentemente de outros domínios técnicos, não se constitui apenas como um corpo de informações linguisticamente codificáveis. Ele é uma prática normativa institucionalizada, cuja inteligibilidade depende de critérios de validade, autoridade, imputação e responsabilidade. Quando um órgão jurisdicional decide, não apenas produz linguagem; ele cria efeitos jurídicos, altera posições normativas, impõe deveres e autoriza o uso legítimo da coerção. A linguagem jurídica, portanto, não é meramente descritiva ou comunicativa, mas constitutiva de estados normativos.
A inferência estatística que fundamenta os LLMs opera em um plano radicalmente distinto. Esses sistemas não distinguem entre enunciados válidos e inválidos, verdadeiros ou falsos, legítimos ou ilegítimos; distinguem apenas entre sequências mais ou menos prováveis. A plausibilidade estatística substitui, silenciosamente, a validade normativa. Esse deslocamento não é um detalhe técnico, mas uma transformação epistemológica profunda, que compromete qualquer tentativa de atribuir aos LLMs funções interpretativas ou decisórias no Direito.
2. Informação, semântica e normatividade: por que dados não são Direito
A filosofia da informação desenvolvida por Luciano Floridi oferece um instrumental conceitual decisivo para compreender esse problema. Floridi distingue dados, informação e conhecimento, mostrando que a mera manipulação formal de dados — ainda que em larga escala — não é suficiente para produzir significado, muito menos conhecimento normativo. A informação exige um agente capaz de operar em níveis de abstração, atribuir relevância e integrar dados em um horizonte interpretativo orientado por finalidades.
No Direito, essa exigência é elevada a um patamar ainda mais rigoroso. O significado jurídico não é apenas semântico, mas normativo: envolve a ideia de dever-ser, de obrigatoriedade, de competência e de sanção. Um enunciado jurídico não se limita a descrever um estado de coisas; ele prescreve condutas, autoriza atos e fundamenta decisões coercitivas. A normatividade não emerge da frequência estatística do uso linguístico, mas da inserção do enunciado em uma estrutura institucional dotada de autoridade.
Os alertas de Emily Bender e seus coautores, ao caracterizarem LLMs como “papagaios estocásticos”, reforçam essa distinção. Ao operar exclusivamente no plano da forma linguística, esses modelos reproduzem padrões sem qualquer acesso ao contexto normativo que lhes confere sentido jurídico. O resultado é uma simulação convincente da linguagem do Direito, mas destituída de seu conteúdo normativo essencial.
3. Linguagem jurídica como prática social: atos, usos e formas de vida
A insuficiência da abordagem estatística torna-se ainda mais evidente quando se recorre à filosofia da linguagem ordinária. Ludwig Wittgenstein, em suas Investigações Filosóficas, rompe com a ideia de que o significado seja uma entidade mental ou uma correspondência abstrata entre palavras e coisas. O significado, afirma ele, é o uso da linguagem em práticas sociais compartilhadas, inseridas em formas de vida historicamente situadas. Seguir uma regra não é interpretar um enunciado internamente, mas participar de uma prática social regulada por critérios públicos.
Essa concepção é particularmente relevante para o Direito. Seguir uma norma jurídica não é decodificar semanticamente um texto, mas agir de acordo com práticas institucionais que envolvem tribunais, procedimentos, sanções e expectativas sociais. A normatividade é inseparável da prática.
J. L. Austin, ao desenvolver a teoria dos atos de fala, complementa esse quadro ao demonstrar que a linguagem não serve apenas para descrever o mundo, mas para fazer coisas. Sentenciar, contratar, legislar, absolver — todos esses são atos performativos cuja validade depende de autoridade, intenção e observância de procedimentos convencionais. Um LLM pode reproduzir a forma linguística de uma sentença, mas não pode realizar o ato jurídico correspondente, pois lhe falta status institucional e capacidade performativa.
A consequência é decisiva: a linguagem jurídica não é um código neutro passível de mera replicação estatística, mas uma prática normativa situada, cuja inteligibilidade exige participação institucional e responsabilidade.
PARTE II — TEORIA DO DIREITO E INTERPRETAÇÃO
4. Textura aberta, indeterminação e ponto de vista interno: a insuficiência estrutural da regularidade estatística
A contribuição de H. L. A. Hart para a compreensão dos limites epistemológicos dos LLMs no Direito é central, pois permite demonstrar que a indeterminação jurídica não é um defeito técnico a ser corrigido por mais dados ou melhores modelos, mas uma característica estrutural da linguagem normativa. Ao introduzir o conceito de textura aberta, Hart mostra que toda norma geral, ao empregar linguagem ordinária, deixa inevitavelmente casos de penumbra, nos quais não existe uma resposta previamente determinada pelo texto normativo. Nessas situações, a aplicação do Direito não pode ser reduzida a um procedimento de subsunção mecânica, pois exige escolhas interpretativas que extrapolam a descrição linguística da regra.
Esse ponto tem implicações diretas para o debate sobre LLMs. Sistemas estatísticos operam precisamente pela identificação de regularidades e padrões recorrentes em grandes conjuntos de dados. Contudo, casos juridicamente relevantes são, com frequência, precisamente aqueles em que a regularidade falha, seja por inovação fática, seja por mudança social, seja por colisão de valores. A textura aberta não é estatisticamente eliminável: ela emerge exatamente onde a previsão probabilística perde força explicativa.
Mais decisivo ainda é o conceito hartiano de ponto de vista interno. Para Hart, um sistema jurídico não existe apenas porque padrões de comportamento são observáveis externamente, mas porque seus participantes — juízes, advogados, autoridades e cidadãos — aceitam as regras como razões para agir e como critérios legítimos de crítica. Essa aceitação não é um estado psicológico subjetivo, mas uma atitude normativa compartilhada, que confere sentido ao próprio conceito de validade jurídica.
LLMs, por definição, não podem adotar o ponto de vista interno. Eles observam como normas são invocadas, aplicadas e justificadas, mas não se reconhecem vinculados por elas. Não podem considerar uma decisão “errada” no sentido normativo, apenas improvável ou atípica em relação aos dados. Assim, operam exclusivamente no plano externo da regularidade, incapazes de participar da prática jurídica enquanto prática normativa. Essa limitação não é superável por treinamento adicional: trata-se de uma impossibilidade conceitual.
5. A moldura normativa e a decisão como ato de vontade: o limite kelseniano
Se Hart demonstra a indeterminação estrutural da linguagem jurídica, Hans Kelsen fornece o argumento decisivo contra qualquer pretensão decisória da IA ao situar a aplicação do Direito no plano da vontade normativa institucionalizada. Na Teoria Pura do Direito, Kelsen insiste na distinção rigorosa entre a interpretação cognoscitiva da norma — própria da ciência jurídica — e a interpretação autêntica, realizada pelos órgãos competentes e dotada de força criadora de Direito.
Segundo Kelsen, toda norma superior estabelece apenas uma moldura (Rahmen) dentro da qual existem várias possibilidades juridicamente admissíveis de aplicação. A escolha entre essas possibilidades não decorre de um raciocínio lógico-dedutivo, mas de um ato de vontade praticado por um órgão investido de competência. A decisão jurídica, portanto, não é a conclusão necessária de uma inferência, mas um ato normativo que produz novos efeitos no ordenamento.
Esse ponto é absolutamente incompatível com o funcionamento dos LLMs. Sistemas de IA não realizam atos de vontade; realizam operações de cálculo estatístico. Ainda que consigam mapear todas as interpretações possíveis de uma norma, não podem escolher entre elas de modo juridicamente vinculante, pois não possuem autoridade, competência nem imputabilidade. A decisão jurídica não é apenas um “output”; é um ato institucional que cria Direito.
A consequência é contundente: mesmo um LLM epistemicamente perfeito — sem erros factuais, sem vieses, com acesso total ao ordenamento — ainda assim não poderia decidir juridicamente, pois lhe faltaria o elemento constitutivo da decisão: a vontade normativa autorizada. O limite aqui não é técnico, mas ontológico e institucional.
6. Interpretação construtiva, princípios e integridade: o limite moral da IA
A teoria de Ronald Dworkin introduz uma dimensão adicional, frequentemente ignorada em análises tecnológicas: a dimensão moral e política da interpretação jurídica. Para Dworkin, o Direito não é um sistema fechado de regras, mas uma prática interpretativa orientada por princípios. Decidir juridicamente é reconstruir o Direito à luz de valores que conferem coerência e legitimidade à prática institucional como um todo.
A famosa metáfora do romance em cadeia indica que cada decisão judicial é, simultaneamente, continuidade e inovação: ela deve respeitar a história institucional do Direito, mas também apresentá-la sob a melhor luz possível. Essa exigência não é meramente técnica; é normativa e moral. O intérprete assume responsabilidade por afirmar que determinada decisão é a melhor resposta possível à luz dos princípios de justiça, equidade e devido processo.
Esse ponto estabelece um limite epistemológico e moral definitivo para os LLMs. Não há interpretação jurídica sem responsabilidade moral, e não há responsabilidade moral sem agência. Um sistema estatístico pode reproduzir a linguagem dos princípios, articular ponderações sofisticadas e até imitar o estilo argumentativo de decisões paradigmáticas, mas não pode responder pela escolha desses princípios nem assumir o ônus político de suas consequências.
A integridade, em Dworkin, não se confunde com coerência textual. Ela exige fidelidade normativa a princípios que vinculam a comunidade política. LLMs podem simular coerência; não podem sustentar integridade. Falta-lhes o compromisso moral que transforma uma interpretação em uma decisão juridicamente legítima.
7. A convergência Hart–Kelsen–Dworkin: por que interpretação não é computação
A articulação entre Hart, Kelsen e Dworkin permite formular um diagnóstico teórico robusto sobre os limites dos LLMs no Direito. Em Hart, a interpretação emerge da indeterminação linguística e exige ponto de vista interno; em Kelsen, a decisão é um ato de vontade dentro de uma moldura normativa; em Dworkin, a interpretação é um exercício construtivo orientado por princípios morais. Apesar de divergirem em diversos aspectos, os três convergem em um ponto decisivo: a aplicação do Direito não é redutível a um procedimento algorítmico.
O erro recorrente nas tentativas de “automatizar” a interpretação jurídica está em tratar a decisão como um problema de otimização informacional, quando ela é, na verdade, um problema de legitimação normativa. A decisão jurídica não é correta porque é provável, frequente ou estatisticamente consistente; ela é correta porque pode ser justificada à luz de regras, princípios, autoridade e responsabilidade institucional.
LLMs podem auxiliar na identificação de padrões, na recuperação de precedentes e na organização argumentativa. Mas, ao tentar deslocá-los para o centro da interpretação ou da decisão, incorre-se em um erro conceitual profundo: confundir regularidade com normatividade, inferência com juízo, linguagem com autoridade.
PARTE III — ARGUMENTAÇÃO, JUSTIFICAÇÃO E DECISÃO JUDICIAL
8. Racionalidade prática e discurso jurídico: a insuficiência da coerência argumentativa
A teoria da argumentação jurídica desenvolvida por Robert Alexy é frequentemente invocada no debate sobre IA no Direito como uma possível ponte entre racionalidade formal e correção normativa. No entanto, uma leitura atenta revela que, longe de legitimar a automação da decisão jurídica, a teoria alexyana explicita com maior nitidez os limites epistemológicos dos sistemas algorítmicos. Para Alexy, o discurso jurídico é um caso especial do discurso prático racional, orientado por uma reivindicação de correção (Anspruch auf Richtigkeit). Essa reivindicação não é uma propriedade formal do texto argumentativo, mas uma pretensão normativa assumida por quem participa do discurso.
O ponto decisivo reside no fato de que a racionalidade discursiva pressuposta por Alexy envolve condições que ultrapassam em muito a coerência lógica ou a consistência interna dos argumentos. Ela exige, entre outras coisas, sinceridade, possibilidade de contestação, disposição para revisão e compromisso com razões que possam ser aceitas intersubjetivamente. O discurso jurídico não é apenas estruturado; ele é responsável. Cada afirmação normativa carrega consigo a obrigação de ser justificada diante de críticas racionais, e essa obrigação recai sobre um agente que pode responder por suas posições.
LLMs podem reproduzir com impressionante fidelidade a forma externa desse discurso: articulam premissas, distinguem casos, ponderam princípios, respondem a objeções simuladas. Contudo, essa capacidade não equivale à participação em um discurso racional no sentido alexyano. Falta-lhes a possibilidade de assumir a reivindicação de correção como compromisso normativo. Um modelo não acredita no que afirma, não pode ser desafiado no sentido próprio, nem pode revisar suas posições à luz de críticas recebidas. O resultado é uma simulação de racionalidade discursiva, desprovida de seu núcleo normativo.
9. Justificação interna, justificação externa e o problema da responsabilidade
A distinção entre justificação interna e justificação externa, central tanto em Alexy quanto em Michele Taruffo, permite aprofundar ainda mais o problema. A justificação interna refere-se à coerência lógica da decisão: à relação consistente entre premissas normativas, premissas fáticas e conclusão. A justificação externa, por sua vez, diz respeito à aceitabilidade das próprias premissas — isto é, à correção da interpretação normativa adotada, à valoração das provas e à escolha dos critérios relevantes.
LLMs são particularmente eficazes na produção de justificação interna. Conseguem estruturar raciocínios formalmente consistentes, identificar relações inferenciais e apresentar conclusões que “decorrem” das premissas fornecidas. Contudo, é precisamente na justificação externa que reside o núcleo da decisão jurídica, e é aqui que os limites epistemológicos da IA se tornam incontornáveis. A justificação externa exige valoração, escolha e responsabilidade. Exige que alguém responda pela seleção das premissas normativas e fáticas, reconhecendo que outras seleções seriam possíveis, mas defendendo uma delas como juridicamente superior.
Taruffo enfatiza que a motivação da sentença não é um exercício heurístico ou psicológico, mas um discurso justificativo público, dirigido não apenas às partes, mas à comunidade jurídica e à sociedade. A motivação cumpre funções de controle, transparência e legitimidade. Para que essas funções sejam efetivas, é indispensável que exista um sujeito institucionalmente identificável que possa ser responsabilizado pela decisão. Um texto bem escrito, por si só, não satisfaz essa exigência.
LLMs produzem textos; não produzem responsabilidade. A ausência de imputabilidade compromete a própria ideia de justificação jurídica, que não se esgota na aparência de racionalidade, mas exige a possibilidade de atribuir erro, arbitrariedade ou abuso a um agente concreto.
10. Contexto de descoberta, contexto de justificação e a falácia da explicabilidade algorítmica
A distinção taruffiana entre contexto de descoberta e contexto de justificação é particularmente relevante para desmontar a retórica contemporânea da “explicabilidade” dos sistemas de IA no Direito. O contexto de descoberta diz respeito aos processos psicológicos, heurísticos ou contingentes pelos quais uma decisão é alcançada; o contexto de justificação, por sua vez, refere-se às razões públicas apresentadas para legitimar essa decisão.
No debate sobre LLMs, frequentemente se afirma que, se um sistema consegue “explicar” seus resultados, por exemplo, expondo uma cadeia de raciocínio (chain-of-thought), então ele estaria atendendo às exigências de transparência e racionalidade jurídica. Essa afirmação, contudo, confunde níveis conceituais distintos. A externalização de uma sequência textual de passos inferenciais não equivale à justificação jurídica no sentido forte. Trata-se, no máximo, de uma racionalização post hoc de um resultado estatisticamente produzido.
A explicabilidade algorítmica, mesmo quando tecnicamente sofisticada, permanece confinada ao plano do contexto de descoberta. Ela descreve como um sistema chegou a determinado output, mas não fornece razões normativas pelas quais esse output deve ser aceito como juridicamente válido. A justificação jurídica exige mais do que transparência causal; exige aceitabilidade normativa, que só pode ser avaliada à luz de critérios jurídicos compartilhados e sob responsabilidade institucional.
11. Pragmatismo judicial e decisão real: além do ideal normativo
A incorporação da perspectiva pragmática de Richard Posner permite tensionar ainda mais o debate. Posner critica a imagem idealizada do juiz como aplicador neutro de regras e princípios, enfatizando que decisões judiciais são frequentemente influenciadas por considerações pragmáticas, estratégicas, políticas e consequencialistas. Longe de enfraquecer o argumento sobre os limites dos LLMs, essa perspectiva o reforça.
O pragmatismo judicial revela que a decisão jurídica real envolve avaliações de impacto, previsões sobre consequências sociais, econômicas e institucionais, e escolhas estratégicas situadas em contextos específicos de poder. Essas avaliações não são redutíveis a inferências estatísticas sobre textos passados, pois envolvem juízos prospectivos e contingentes sobre um mundo em transformação. Além disso, são realizadas por agentes que respondem politicamente e institucionalmente por suas decisões.
LLMs, ao operarem exclusivamente sobre dados históricos, tendem a cristalizar padrões passados, reproduzindo vieses e estruturas de poder existentes. A tentativa de utilizá-los como substitutos da decisão humana corre o risco de naturalizar o status quo sob a aparência de neutralidade técnica, obscurecendo o caráter político e valorativo das escolhas jurídicas.
12. A convergência Alexy–Taruffo–Posner: por que justificar não é gerar texto
A articulação entre Alexy, Taruffo e Posner permite consolidar uma tese central desta parte: a decisão jurídica não se legitima pela qualidade textual de sua motivação, mas pela possibilidade de controle normativo e responsabilização institucional. A racionalidade discursiva, a motivação da sentença e o pragmatismo judicial convergem na afirmação de que decidir é assumir um compromisso público com razões, consequências e valores.
LLMs podem auxiliar na elaboração formal de argumentos, na organização de informações e na simulação de diferentes linhas argumentativas. Contudo, ao tentar deslocá-los para o centro da justificação ou da decisão, incorre-se em um erro epistemológico profundo: confundir produção discursiva com responsabilidade normativa. A decisão jurídica não é um problema de geração de texto, mas de imputação de razões a um agente investido de autoridade.
PARTE IV — SÍNTESE CRÍTICA E IMPLICAÇÕES PARA A IA NO DIREITO
13. Por que LLMs não interpretam, não decidem e não justificam: uma síntese sistemática
As análises desenvolvidas nas partes anteriores permitem agora formular, de maneira sistemática e integrada, a tese central deste capítulo: Modelos de Linguagem de Grande Escala não interpretam, não decidem e não justificam juridicamente, não por insuficiência técnica contingente, mas porque o tipo de operação cognitiva que realizam é estruturalmente incompatível com as condições de possibilidade da prática jurídica. A persistência de tentativas de atribuir a esses sistemas funções interpretativas ou decisórias decorre, em grande medida, de uma confusão conceitual entre linguagem, racionalidade e normatividade.
Do ponto de vista epistemológico, LLMs operam por inferência estatística sobre dados linguísticos. Essa operação pode produzir textos altamente coerentes, argumentativamente sofisticados e estilisticamente indistinguíveis daqueles produzidos por juristas humanos. No entanto, como demonstrado a partir de H. L. A. Hart, Hans Kelsen e Ronald Dworkin, a aplicação do Direito não se reduz à manipulação de enunciados normativos, mas envolve a adoção de um ponto de vista interno, a realização de atos de vontade institucionalmente autorizados e a assunção de responsabilidade moral e política pela decisão. Nenhum desses elementos é replicável por sistemas estatísticos, por mais sofisticados que sejam.
Interpretar juridicamente não é apenas atribuir significado a um texto, mas inseri-lo em uma prática normativa contínua, orientada por princípios, valores e critérios de legitimidade. Decidir juridicamente não é escolher a opção mais provável ou frequente, mas selecionar, dentro de uma moldura normativa, uma possibilidade que se tornará vinculante para os destinatários do Direito. Justificar juridicamente não é produzir uma narrativa coerente, mas oferecer razões públicas pelas quais uma decisão deve ser aceita, sob a possibilidade permanente de crítica, revisão e responsabilização. Em todos esses níveis, os LLMs falham não por erro, mas por impossibilidade conceitual.
14. As ilusões tecnológicas: coerência, neutralidade e autoridade algorítmica
A força retórica dos LLMs no campo jurídico decorre, em grande medida, de três ilusões tecnológicas recorrentes: a ilusão da coerência como racionalidade, a ilusão da neutralidade como objetividade e a ilusão da autoridade como resultado técnico. Essas ilusões, se não forem criticamente examinadas, podem comprometer seriamente a integridade do sistema jurídico.
A primeira ilusão consiste em identificar coerência discursiva com racionalidade jurídica. Como demonstrado a partir de Robert Alexy e Michele Taruffo, a racionalidade jurídica não se esgota na consistência lógica interna de um texto argumentativo. Ela exige reivindicação de correção, possibilidade de contestação e justificação externa das premissas adotadas. LLMs podem produzir textos coerentes, mas não podem assumir a reivindicação de correção nem responder criticamente por ela. A coerência textual, isolada, é epistemicamente insuficiente.
A segunda ilusão é a da neutralidade algorítmica. A aparência de objetividade produzida por sistemas estatísticos frequentemente encobre o fato de que tais sistemas reproduzem, amplificam e cristalizam padrões presentes nos dados de treinamento. Como alertam Emily Bender e Luciano Floridi, a ausência de agência não equivale à ausência de valores. A escolha dos dados, dos critérios de otimização e dos contextos de aplicação envolve decisões humanas carregadas de pressupostos normativos. No Direito, essa falsa neutralidade é particularmente perigosa, pois pode legitimar desigualdades e vieses sob a aparência de inevitabilidade técnica.
A terceira ilusão é a da autoridade algorítmica. A crescente confiança depositada em sistemas automatizados pode levar à atribuição indevida de autoridade normativa a outputs gerados por LLMs. Essa autoridade, contudo, não decorre da correção jurídica, mas da opacidade técnica e da aura de sofisticação matemática. Trata-se de um deslocamento preocupante: decisões passam a ser aceitas não porque são justificadas, mas porque são produzidas por sistemas percebidos como superiores ou infalíveis. Esse fenômeno ameaça diretamente os princípios de publicidade, controlabilidade e responsabilidade que sustentam o Estado de Direito.
15. Explicabilidade, transparência e o equívoco da “justificação algorítmica”
No esforço de mitigar esses riscos, tem-se enfatizado a importância da explicabilidade (explainable AI). No entanto, é crucial distinguir entre explicabilidade técnica e justificação jurídica. A primeira diz respeito à capacidade de descrever como um sistema chegou a determinado resultado; a segunda refere-se às razões normativas pelas quais esse resultado deve ser aceito como válido.
A explicabilidade algorítmica, mesmo quando sofisticada, permanece confinada ao plano causal ou procedimental. Ela pode esclarecer quais dados foram considerados, quais pesos foram atribuídos ou quais padrões foram ativados. Contudo, como demonstrado a partir da distinção taruffiana entre contexto de descoberta e contexto de justificação, nenhuma explicação causal substitui uma razão normativa. A decisão jurídica exige razões que possam ser debatidas, contestadas e avaliadas à luz de critérios jurídicos compartilhados. Um log algorítmico, por mais transparente que seja, não cumpre essa função.
O risco, portanto, é substituir a exigência de justificação jurídica por uma exigência mais fraca de transparência técnica. Essa substituição empobrece o conceito de racionalidade jurídica e desloca o foco do debate das razões normativas para os mecanismos computacionais, invertendo prioridades fundamentais do Direito.
16. Arquiteturas legítimas de uso: RAG, Human-in-the-Loop e governança normativa
Reconhecer os limites epistemológicos dos LLMs não implica rejeitar seu uso no Direito, mas delimitá-lo de maneira rigorosa e normativamente consciente. O espaço legítimo dessas tecnologias é o de instrumentos de apoio cognitivo, jamais o de intérpretes ou decisores autônomos. Para que esse uso seja juridicamente aceitável, algumas condições estruturais devem ser observadas.
Em primeiro lugar, a Geração Aumentada por Recuperação (RAG) é essencial para ancorar os outputs do modelo em fontes normativas verificáveis. O LLM não deve ser tratado como fonte de Direito, mas como interface linguística para acesso a legislação, jurisprudência e doutrina previamente selecionadas. Mesmo assim, a recuperação de fontes não elimina a necessidade de interpretação humana; apenas reduz o risco de alucinações e desvios factuais.
Em segundo lugar, a implementação de Human-in-the-Loop (HITL) não é uma boa prática opcional, mas uma exigência normativa mínima. Toda utilização relevante de LLMs no Direito deve estar subordinada à validação, correção e responsabilidade de um jurista humano. O humano não “supervisiona” a máquina; ele decide, e a máquina auxilia. Inverter essa relação é comprometer a imputabilidade jurídica.
Por fim, é indispensável uma governança normativa explícita, que estabeleça critérios de uso, responsabilidades, mecanismos de auditoria e limites claros para a automação. Sem governança, a introdução de LLMs tende a deslocar silenciosamente centros de decisão e a obscurecer cadeias de responsabilidade, minando a legitimidade institucional do Direito.
17. O risco sistêmico: erosão da responsabilidade e da legitimidade
Talvez o risco mais profundo associado ao uso indiscriminado de LLMs no Direito não seja o erro pontual, mas a erosão gradual das condições de possibilidade da responsabilidade jurídica. Quando decisões passam a ser fortemente influenciadas, ou de fato determinadas, por sistemas automatizados, torna-se cada vez mais difícil identificar quem responde por elas. O juiz, o advogado, o programador, a instituição? A difusão da responsabilidade compromete a própria ideia de controle jurídico.
O Estado de Direito pressupõe que decisões que afetam direitos e deveres possam ser atribuídas a agentes identificáveis, sujeitos a crítica, revisão e sanção. A substituição progressiva do juízo humano por outputs algorítmicos, ainda que formalmente supervisionados, ameaça esse pressuposto fundamental. O Direito corre o risco de transformar-se em uma prática tecnicamente eficiente, porém normativamente opaca e politicamente irresponsável.
Conclusão
Este artigo buscou demonstrar que os limites epistemológicos do uso de Modelos de Linguagem de Grande Escala no Direito são profundos, estruturais e, em grande medida, intransponíveis. Esses limites não decorrem de falhas técnicas corrigíveis, mas da própria natureza do Direito enquanto prática normativa institucionalizada, fundada em interpretação, decisão, autoridade e responsabilidade.
LLMs podem, e devem, ser utilizados como ferramentas de apoio ao trabalho jurídico, ampliando capacidades cognitivas e operacionais. Contudo, não podem ocupar o lugar do intérprete, do decisor ou do responsável. Onde há Direito, há sempre alguém que responde por ele. E essa responsabilidade, ao menos por ora, e talvez por princípio, não é delegável a máquinas.
Palavras-chave: modelos de linguagem; epistemologia do direito; interpretação jurídica; decisão judicial; linguagem normativa; inteligência artificial.

