RESUMO: O presente artigo analisa os obstáculos metodológicos para a implementação da pesquisa jurimétrica no Brasil, partindo da premissa de que a existência de processos eletrônicos não assegura, por si só, a viabilidade de análises quantitativas robustas. O estudo discute inicialmente a transição epistemológica do paradigma dogmático-dedutivo para o modelo zetético-indutivo, impulsionada pela necessidade de gestão da hiperlitigiosidade. Em seguida, examina-se o abismo técnico entre a promessa do Big Data jurídico e a realidade dos dados desestruturados (documentos em texto livre e PDFs opacos), que exigem complexo pré-processamento. Por fim, investiga-se a inconsistência taxonômica decorrente da falha na aplicação das Tabelas Processuais Unificadas (TPU), gerando o fenômeno garbage in, garbage out. Conclui-se que o avanço da jurimetria e da Inteligência Artificial no Judiciário depende, prioritariamente, da consolidação de uma governança de dados que garanta a padronização e a interoperabilidade na fonte, superando a mera digitalização burocrática.
Palavras-chave: Jurimetria; Ciência de Dados Jurídica; Dados Desestruturados; Tabelas Processuais Unificadas; Governança Judiciária.
ABSTRACT: This article analyzes the methodological obstacles to the implementation of jurimetric research in Brazil, based on the premise that the existence of electronic lawsuits does not, by itself, ensure the viability of robust quantitative analyses. The study initially discusses the epistemological transition from the dogmatic-deductive paradigm to the zetetic-inductive model, driven by the need to manage hyper-litigation. Next, it examines the technical gap between the promise of legal Big Data and the reality of unstructured data (free-text documents and opaque PDFs), which require complex pre-processing. Finally, it investigates the taxonomic inconsistency resulting from the failure to apply the Unified Procedural Tables (TPU), generating the "garbage in, garbage out" phenomenon. It is concluded that the advancement of jurimetrics and Artificial Intelligence in the Judiciary depends, primarily, on the consolidation of data governance that guarantees standardization and interoperability at the source, surpassing mere bureaucratic digitalization.
Keywords: Jurimetrics; Legal Data Science; Unstructured Data; Unified Procedural Tables; Judicial Governance.
INTRODUÇÃO
O paradigma da ciência jurídica contemporânea atravessa um momento de inflexão histórica, impulsionado pela crise de eficiência do sistema de justiça e pela onipresença das tecnologias digitais. No Brasil, o Poder Judiciário lida com um fenômeno de hiperlitigiosidade que desafia a capacidade de resposta do modelo tradicional, historicamente centrado na figura do juiz artesão e na análise subjetiva do caso concreto.
Diante da necessidade de gerir acervos que ultrapassam a casa dos milhões de processos, a intuição jurídica cede espaço para a racionalidade baseada em dados. É nesse contexto que a emerge a Jurimetria, compreendida como a aplicação de métodos estatísticos e quantitativos ao Direito, serve não apenas como uma ferramenta de gestão, mas como uma nova lente epistemológica capaz de revelar padrões decisórios e conferir previsibilidade às relações jurídicas.
Todavia, a promessa de um Judiciário orientado por dados colide com uma realidade técnica e material ainda incipiente. Embora o Brasil tenha protagonizado um amplo processo de informatização de suas cortes, com a migração massiva de autos físicos para plataformas digitais, observa-se um descompasso entre a modernização da infraestrutura e a qualidade da informação produzida. A existência de processos eletrônicos não implica, necessariamente, a disponibilidade de dados estruturados aptos à análise estatística. Ao contrário, o pesquisador jurimétrico depara-se com uma predominância de arquivos desestruturados e pela ausência de padronização taxonômica.
Delimitando-se o tema, o presente artigo tem por objeto de estudo os desafios metodológicos e técnicos para a implementação da pesquisa jurimétrica no Brasil. A problemática central reside na investigação das barreiras que impedem a extração de conhecimento fidedigno a partir dos repositórios judiciais atuais. Questiona-se: em que medida a morfologia dos dados disponíveis (documentos em texto livre) e a inconsistência na classificação processual (falhas na taxonomia) comprometem a validade das inferências estatísticas no Direito?
O objetivo geral da pesquisa é analisar criticamente o estágio atual da infraestrutura de dados do Judiciário brasileiro, demonstrando que a precariedade do dado bruto constitui o principal gargalo para o avanço da jurimetria. Para tanto, definem-se como objetivos específicos: a) discutir a transição epistemológica do método qualitativo-dogmático para o quantitativo-zetético; b) examinar as dificuldades técnicas de mineração de dados em documentos não estruturados (linguagem natural e PDFs); e c) avaliar o impacto da falta de padronização taxonômica e o desrespeito às Tabelas Processuais Unificadas (TPU) na confiabilidade das pesquisas.
Metodologicamente, o estudo adota uma abordagem hipotético-dedutiva, partindo da análise da literatura especializada sobre Ciência de Dados aplicada ao Direito e das normativas do Conselho Nacional de Justiça (CNJ) para diagnosticar os entraves práticos da pesquisa empírica.
Para o desenvolvimento do raciocínio, o artigo estrutura-se em três eixos fundamentais. Inicialmente, aborda-se a transição metodológica, contextualizando a mudança de pensamento necessária para a adoção da análise quantitativa. Em seguida, explora-se o desafio técnico, contrastando a rigidez necessária aos bancos de dados com a fluidez dos documentos jurídicos não estruturados. Por fim, analisa-se o desafio da classificação, ilustrando como a "Torre de Babel" das nomenclaturas processuais e a falha na interoperabilidade dos sistemas geram distorções analíticas que podem comprometer desde a simples medição de tempo processual até a execução penal.
Por fim, a relevância deste estudo assenta-se na necessidade urgente de desmistificar a aplicação imediata de tecnologias preditivas sem o devido saneamento das bases de dados. Compreender esses gargalos metodológicos não constitui apenas um exercício de rigor acadêmico, mas uma etapa indispensável para que o sistema de justiça brasileiro possa, efetivamente, transitar de uma era de digitalização burocrática para uma era de inteligência estratégica.
1 A TRANSIÇÃO METODOLÓGICA: DO QUALITATIVO PARA O QUANTITATIVO
A ciência jurídica, em sua matriz clássica continental, foi historicamente estruturada sob a predominância da metodologia dogmática, na qual o objeto central de estudo é a norma posta e o método dominante é o dedutivo-hermenêutico.
Nesse modelo, a operação lógica ocorre por meio de um silogismo: parte-se de premissas universais (normas) para, mediante interpretação, subsumir fatos e alcançar conclusões sobre casos concretos. Trata-se de um sistema que combina dedução lógica e hermenêutica do sentido, priorizando a validade formal do argumento jurídico.
Contudo, conforme observa Ferraz Jr. (2003), a abordagem dogmática possui uma função eminentemente diretiva, voltada a guiar a ação e garantir a decidibilidade dos conflitos, mas frequentemente carece de capacidade investigativa sobre a realidade social. Ao permanecer restrita às suas próprias premissas para assegurar segurança jurídica, ela não examina empiricamente os efeitos ou a frequência das decisões judiciais. É nesse vácuo de compreensão da facticidade que a jurimetria encontra espaço, propondo uma transição para o enfoque zetético.
Diferentemente da resposta pronta do dogma, a postura zetética privilegia a investigação e a dúvida sistemática. No campo jurídico, isso implica adotar uma atitude crítica diante das normas, analisando não apenas a coerência interna do sistema, mas também seus fundamentos, impactos e aderência à realidade social. A inferência jurimétrica assume forma indutiva: seleciona amostras espaço-temporais de processos, identifica frequências e deduz regras ou padrões repetitivos (por exemplo, em jurisprudência ou comportamento de operadores).
A gênese dessa mudança metodológica remonta às propostas do Realismo Jurídico norte-americano. Já no final do século XIX, Holmes Jr. (1897) provocava a comunidade jurídica ao afirmar que o Direito não seria apenas lógica, mas experiência. Para essa corrente, compreender o fenômeno jurídico exigiria mais do que a leitura de códigos; demandaria a capacidade de prever o comportamento efetivo dos tribunais e seus padrões decisórios.
Essa virada foi formalizada em meados do século XX, quando Loevinger (1949) cunhou o termo "Jurimetria". O autor criticava o fato de o Direito ser a única disciplina moderna que tentava resolver problemas complexos valendo-se apenas de retórica e especulação filosófica, rejeitando o método científico. Para Loevinger (1949), a aplicação da estatística não serviria para substituir o julgamento humano, mas para retirar o Direito do campo do “curandeirismo” e inseri-lo no domínio da ciência observável e verificável.
A jurimetria contemporânea operacionaliza essa visão realista ao transformar a “profecia” sobre o comportamento judicial, antes fundamentada apenas na intuição do advogado experiente, em um cálculo de probabilidade construído a partir de dados concretos.
Conforme Taruffo (1990, apud Silva, 2025), a jurimetria integra duas perspectivas complementares: a qualitativa, voltada à resolução justa dos conflitos, e a quantitativa, comprometida com eficiência e embasamento numérico. A segunda dimensão, em especial, permite ganhos analíticos relevantes, como estimativas objetivas do tempo médio de julgamento e identificação de padrões decisórios, reduzindo vieses cognitivos da argumentação humana.
Essa visão crítica do normativismo rígido alinha-se ao espírito da jurimetria: os modelos matemáticos e estatísticos são então vistos como instrumentos epistemológicos para revelar a dimensão real do direito, conforme destacado por Carvalho, Costa e Costa (2024).
Essa migração exige, contudo, superar entraves epistemológicos. Enquanto a pesquisa quantitativa realiza afirmações descritivas sobre o direito (o “ser”), a dogmática formula normas (o “dever-ser”). A jurimetria propõe conciliar essas abordagens internas e externas, oferecendo um caminho científico para compreender o “direito em ação”. Isso requer análise de dados reais e abertura à correção de teorias, demandando não apenas novas ferramentas técnicas, mas também uma mudança cultural no Judiciário e na academia para valorizar a verificação empírica.
No contexto brasileiro atual, essa transição metodológica torna-se urgente também por necessidade de gestão. O modelo artesanal de jurisdição, focado na subjetividade do juiz solitário, colide com a realidade de uma justiça de massa. Pesquisadores como Nunes (2016) apontam que insistir apenas na metodologia tradicional para analisar um Judiciário com milhões de processos é insuficiente. A dogmática indica qual decisão seria “correta” segundo a doutrina, mas somente a metodologia indutiva da jurimetria, partindo da observação de milhares de casos para extrair padrões gerais, é capaz de revelar como o sistema funciona na prática, expondo gargalos e tendências invisíveis à simples leitura da lei.
Segundo Menezes e Barros (2017), ao organizar estatisticamente as decisões judiciais, torna-se possível identificar parâmetros ou padrões de julgamento para classes específicas de conflitos, os quais podem então ser confrontados com outros indicadores sociais.
Portanto, a adoção da jurimetria na pesquisa jurídica configura mais que uma inovação técnica; trata-se de uma ruptura epistemológica, que desloca o foco da busca exclusiva pela verdade normativa para a inclusão da verdade factual.
Entretanto, a operacionalização dessa mudança no Brasil esbarra em um obstáculo prático anterior à própria análise estatística: a natureza do dado jurídico disponível. Antes de se alcançar a inteligência dos números, o pesquisador enfrenta a barreira dos dados desestruturados e a falta de padronização, desafios técnicos que comprometem a aplicação do método e que serão analisados a seguir.
2 O DESAFIO TÉCNICO: DADOS ESTRUTURADOS VS. NÃO ESTRUTURADOS
Superada a barreira epistemológica da transição para o método quantitativo, a pesquisa jurimétrica no Brasil encontra imediatamente um desafio material relevante: a configuração e a consistência dos dados disponíveis. Apesar de o Judiciário brasileiro ser reconhecido pelo alto grau de informatização e pelo expressivo volume de processos, o que poderia sugerir um ambiente favorável ao Big Data, a realidade técnica revela limitações substanciais. Conforme alertam Mayer-Schönberger e Cukier (2013), a promessa da era dos dados não reside apenas no volume de informações acumuladas, mas na capacidade efetiva de extrair valor delas. No Direito, essa extração é dificultada pela natureza predominantemente não estruturada do registro judicial.
Para compreender a dimensão desse entrave, impõe-se a distinção morfológica dos dados. Dados estruturados caracterizam-se pela organização rígida em bancos relacionais, compostos por linhas e colunas, nos quais cada informação funciona como uma etiqueta semântica unívoca, a exemplo de data de distribuição, valor da causa e classe processual.
Em contrapartida, os dados não estruturados são aqueles registrados em linguagem natural livre, desprovidos de esquema fixo. É sob essa morfologia que o Direito opera predominantemente. As peças processuais são, por natureza, dados não estruturados, pois consistem em textos livres permeados por jargões técnicos, variações linguísticas e nuances argumentativas, o que torna sua leitura por software complexa e, por vezes, opaca.
Com o objetivo de lidar com esse cenário, destaca-se a iniciativa do CN, com a Resolução nº 46/2007, de criar as Tabelas Processuais Unificadas (TPU), voltadas para padronizar as classificações processuais por meio de códigos únicos para classes, assuntos e movimentações. Contudo, sua aplicação ainda enfrenta fragilidades. Conforme destaca Monteiro de Castro et al. (2024), uma parte significativa das informações relevantes permanece inacessível a análises quantitativas, pois está contida em formatos não estruturados.
A extração dessas informações demanda técnicas avançadas, como mineração de dados e processamento de linguagem natural (PLN), ou, na prática, codificação manual exaustiva. Mesmo com acesso via APIs públicas, como o DataJud do CNJ, nem sempre é possível obter o conteúdo integral dos processos, seja por limitações tecnológicas nos sistemas, problemas de interoperabilidade entre tribunais ou cláusulas de sigilo judicial. Isso torna a montagem de bases de dados numéricas robustas um desafio de engenharia de dados.
Essa característica impõe o que Susskind (2013) descreve como o desafio da "inteligibilidade computacional" do Direito. Para um algoritmo, uma sentença judicial em formato PDF é, a priori, apenas uma imagem ou um bloco de texto sem significado semântico. A máquina percebe a existência do arquivo, mas não compreende, por exemplo, se o pedido foi julgado "procedente" ou "improcedente" sem que haja um metadado explícito indicando o resultado. A ausência de estruturação intrínseca exige que o pesquisador recorra a técnicas complexas ou triagens manuais para converter a narrativa jurídica em dados computáveis.
No cenário nacional, o problema é agravado pelo modelo de digitalização adotado pelos tribunais. Nunes (2016) tece uma crítica contundente a esse processo, classificando-o como uma mera "eletronização da burocracia de papel". Ao transpor a lógica do processo físico para o meio virtual sem reestruturar o fluxo de dados, o sistema de justiça criou repositórios gigantescos de documentos digitalizados, muitas vezes imagens escaneadas não pesquisáveis, em vez de bancos de dados inteligentes. O processo eletrônico (PJe), sob essa ótica, funcionou mais como uma modernização do arquivamento do que como uma ferramenta de gestão da informação.
Consequentemente, o pesquisador jurimétrico é forçado a deslocar seu esforço intelectual para a etapa de pré-processamento dos dados. Em vez de dedicar-se à análise de fenômenos jurídicos, grande parte do tempo de pesquisa é consumida na fase de limpeza de dados (data wrangling). É necessário criar dicionários de sinônimos para capturar a variedade vocabular dos juízes. Exemplificativamente, o ato de deferir uma liminar pode ser registrado como "concedida", "acolhida" ou "procedente". Embora essas variações sejam triviais para o operador humano, exigem do pesquisador computacional a criação de códigos de normalização para evitar distorções estatísticas.
Em síntese, a dificuldade na análise de dados encontra três entraves centrais:
a) Digitalização sem estruturação: a simples migração de processos físicos para o meio digital não estrutura adequadamente as informações.
b) Falta de padronização nas classificações: diferentes operadores do Direito atribuem códigos e categorias segundo suas próprias interpretações, resultando em taxonomias inconsistentes.
c) Sistemas processuais distintos: tribunais utilizam plataformas diversas, o que dificulta a integração e a verificação cruzada das informações.
Portanto, a aplicação da jurimetria enfrenta a tensão permanente entre a fluidez argumentativa do Direito e a rigidez formal do método estatístico. A crise dos dados não estruturados impõe a tarefa complexa de padronizar a linguagem e identificar metadados. E, mesmo após superar o desafio de extrair e estruturar os dados em tabelas, desponta um segundo problema: as inconsistências nas etiquetas classificatórias. Essa falta de padronização cria uma verdadeira "Torre de Babel" processual, em que demandas idênticas são nomeadas de maneiras distintas, comprometendo a confiabilidade das conclusões, conforme se analisará a seguir.
3 O DESAFIO DA CLASSIFICAÇÃO: A "TORRE DE BABEL" DAS TABELAS PROCESSUAIS
A padronização da classificação dos processos é essencial para a jurimetria, mas enfrenta resistência significativa na prática forense. Cada tribunal e sistema eletrônico (PJe, e-SAJ, Eproc, Projudi etc.) opera com terminologias próprias, de modo que um mesmo fenômeno jurídico recebe nomenclaturas distintas conforme a comarca ou plataforma. Essa inconsistência semântica, conforme ressalta Donizetti (2015), cria uma verdadeira “Torre de Babel” processual, na qual os dados não se comunicam de forma clara nem interoperável.
No plano normativo, essa questão deveria ter sido superada com a implementação das Tabelas Processuais Unificadas (TPU) pelo Conselho Nacional de Justiça, instituídas pela Resolução nº 46/2007, que estabelece expressamente: “a padronização e uniformização taxonômica e terminológica de classes, assuntos e movimentações processuais”. Em outras palavras, buscava-se uma linguagem comum capaz de permitir que todas as unidades do Judiciário compartilhassem um mesmo dicionário de classes e assuntos. A adoção das TPU, em tese, permitiria comparar o desempenho de diferentes tribunais e medir a litigiosidade de forma sistêmica.
Conforme observa Lourenço Filho (2021), a unificação taxonômica é condição indispensável para a governança judiciária, pois sem uma linguagem comum torna-se impossível estabelecer métricas comparativas entre tribunais ou aferir a litigiosidade com rigor científico.
Contudo, a realidade prática divergiu da normativa, gerando um cenário de fragilidade na entrada de dados. O ponto crítico reside no fato de que a classificação inicial do processo é realizada de forma descentralizada e sem rigor técnico-estatístico. No momento do protocolo eletrônico, cabe ao advogado selecionar, em uma lista suspensa com milhares de opções, qual classe e assunto melhor definem sua petição. Nunes (2016) alerta para a falha desse modelo declaratório, no qual, muitas vezes por desconhecimento da árvore taxonômica complexa ou pela pressa imposta pelos prazos, o operador opta por categorias genéricas como “Outros”, “Procedimento Comum” ou “Indenização”, comprometendo a granularidade necessária para análises jurimétricas refinadas.
Como explicam Provost e Fawcett (2013), a qualidade dos dados é determinante para a validade das inferências analíticas, pois erros na entrada comprometem todo o processo de modelagem, fenômeno conhecido como garbage in, garbage out. Assim, se a entrada dos dados está corrompida por uma classificação equivocada, qualquer estatística gerada a partir dela será, necessariamente, falaciosa. Um estudo que pretenda medir o tempo médio de tramitação de processos de “Erro Médico”, por exemplo, apresentará resultados distorcidos se uma parcela significativa dessas ações estiver oculta sob a etiqueta genérica “Responsabilidade Civil”, tornando-se invisível aos filtros automatizados.
Além do erro humano no cadastro, há o problema estrutural da falta de interoperabilidade semântica entre os sistemas. A coexistência de diferentes plataformas de processo eletrônico no Brasil (PJe, e-SAJ, Eproc, Projudi) cria dialetos digitais incompatíveis. Embora as TPUs busquem a unificação, a interface de cada sistema induz o usuário a caminhos classificatórios diferentes. Segundo Gomes e Freitas (2017), essa fragmentação tecnológica inviabiliza a formação de um Big Data jurídico nacional coeso, pois o que é catalogado como um incidente processual em um sistema pode ser tratado como petição avulsa em outro, gerando duplicidade ou subnotificação nos indicadores globais.
A gravidade dessa fragmentação tipológica atingiu níveis tão críticos que obrigou o Conselho Nacional de Justiça a intervir drasticamente na esfera penal. A falta de comunicação entre os sistemas permitia que um mesmo indivíduo acumulasse condenações em diferentes estados sem que houvesse unificação das penas. Na prática, a desorganização judiciária favorecia a impunidade ou gerava injustiças, pois o sistema de um estado não “enxergava” a pena imposta pelo estado vizinho, comprometendo a execução penal correta e a progressão de regime baseada na totalidade da condenação.
Para mitigar esse caos informacional, foi instituída a obrigatoriedade do Sistema Eletrônico de Execução Unificado (SEEU) pela Resolução CNJ nº 280/2019. A medida reconheceu, implicitamente, a falência do modelo anterior de sistemas isolados: somente por meio da imposição de uma plataforma única e centralizada foi possível garantir que a identidade do apenado e o histórico de suas condenações trafegassem com integridade entre as jurisdições. Isso evidencia que a padronização de dados no Brasil não é apenas uma questão estatística, mas um imperativo de segurança jurídica e justiça material.
A consequência metodológica imediata é a necessidade de auditoria manual. O pesquisador sério não pode confiar cegamente no metadado fornecido pelo tribunal; ele precisa validar uma amostra das petições iniciais para verificar se o rótulo corresponde ao conteúdo material da demanda. Esse procedimento encarece e desacelera a produção científica, reafirmando que o maior gargalo da jurimetria no Brasil não é a ausência de tecnologia para processar os dados, mas a falta de uma cultura de gestão da informação que assegure qualidade na origem, antes mesmo de o dado se tornar estatística.
CONCLUSÃO
A trajetória percorrida ao longo deste estudo evidencia que a pesquisa jurídica no Brasil atravessa um momento de inflexão irreversível. O esgotamento do modelo artesanal de jurisdição, historicamente centrado na subjetividade do juiz e na análise caso a caso, revelou-se incapaz de responder à explosão da litigiosidade de massa.
Nesse contexto, a transição para o paradigma quantitativo não se apresenta como uma mera opção metodológica ou um refinamento acadêmico, mas como uma condição de sobrevivência institucional. A jurimetria, ao propor a substituição do "achismo" dogmático pela evidência dos dados, oferece a única via possível para conferir racionalidade e previsibilidade a um sistema que opera na casa dos milhões de processos.
Entretanto, a análise crítica dos obstáculos técnicos demonstra que essa promessa de modernização corre o sério risco de se converter em uma "ilusão tecnológica". Ao confrontar a realidade material dos acervos, constata-se que o Judiciário brasileiro realizou, nas últimas décadas, uma digitalização de superfície: transpôs-se a burocracia do papel para a tela, criando gigantescos repositórios de arquivos desestruturados (PDFs opacos), sem a preocupação arquitetural de transformá-los em bancos de dados relacionais inteligíveis.
Aprofundando o diagnóstico, identifica-se que o problema transcende a morfologia do arquivo e atinge a própria semântica da justiça. A persistência de uma "Torre de Babel" taxonômica, onde a falta de rigor no preenchimento das Tabelas Processuais Unificadas (TPU) gera inconsistências graves, contamina a base da pirâmide analítica. Como evidenciado pelo princípio garbage in, garbage out, a inserção de dados precários inviabiliza qualquer modelagem preditiva confiável.
A experiência dramática da Execução Penal, que demandou a imposição forçada do SEEU para evitar o colapso do sistema carcerário e a perpetuação de injustiças, serve como a prova empírica de que a desorganização dos dados não gera apenas ruído estatístico, mas ofensa direta a direitos fundamentais.
Diante desse cenário, alerta-se para o perigo de se acelerar a adoção de ferramentas de Inteligência Artificial generativa ou preditiva sem antes sanear os alicerces. Construir algoritmos sofisticados sobre uma base de dados desestruturada e classificada erroneamente equivale a erguer um edifício sobre areia movediça. O risco não é apenas a ineficiência, mas a automatização do erro e a amplificação de vieses, criando um sistema de "caixa preta" onde decisões automatizadas podem ser tomadas com base em premissas de dados falaciosas, sem que haja rastreabilidade ou auditabilidade clara.
Conclui-se que o verdadeiro avanço da ciência jurídica no Brasil depende, paradoxalmente, de um retorno aos fundamentos. Antes de vislumbrar um futuro de "Juízes Robôs", é imperioso consolidar uma cultura de Governança de Dados. Isso exige uma mudança de mentalidade onde o cadastro processual deixe de ser visto como uma formalidade burocrática menor e passe a ser compreendido como o ato constitutivo da memória judicial. Enquanto não houver investimento massivo na estruturação, na higienização e na interoperabilidade da matéria-prima informacional, a jurimetria brasileira permanecerá uma potência teórica represada, limitada pela precariedade dos dados que deveriam alimentá-la.
REFERÊNCIAS
BRASIL. Conselho Nacional de Justiça. Resolução nº 46, de 18 de dezembro de 2007. Cria as Tabelas Processuais Unificadas do Poder Judiciário. Brasília, DF: CNJ, 2007. Disponível em: https://atos.cnj.jus.br/atos/detalhar/119. Acesso em: 10 dez. 2025.
BRASIL. Conselho Nacional de Justiça. Resolução nº 280, de 9 de abril de 2019. Estabelece diretrizes e parâmetros para o processamento da execução penal nos tribunais brasileiros por intermédio do Sistema Eletrônico de Execução Unificado – SEEU. Brasília, DF: CNJ, 2019. Disponível em: https://atos.cnj.jus.br/atos/detalhar/2892. Acesso em: 10 dez. 2025.
CARVALHO, Silzia Alves; COSTA, Andréa Abrahão; COSTA, Rafael Correa. Jurimetria e Ministério Público: levantamento empírico e estatística como ferramentas necessárias à tomada de decisão estratégica institucional. Revista da Faculdade de Direito da FMP, Porto Alegre, v. 19, n. 2, p. 140–156, 2024.
DONIZETTI, Elpídio. Processo eletrônico ou torre de babel? JusBrasil, 2015. Disponível em: https://www.jusbrasil.com.br/artigos/processo-eletronico-ou-torre-de-babel/306633463. Acesso em: 10 dez. 2025.
FERRAZ JUNIOR, Tércio Sampaio. Introdução ao estudo do direito: técnica, decisão, dominação. 4. ed. São Paulo: Atlas, 2003.
HOLMES JUNIOR, Oliver Wendell. The Path of the Law. Harvard Law Review, Cambridge, v. 10, n. 8, p. 457-478, 1897.
LOEVINGER, Lee. Jurimetrics: The Next Step Forward. Minnesota Law Review, Minneapolis, v. 33, p. 455-493, 1949.
LOURENÇO FILHO, Ricardo. Governança judiciária: a gestão do sistema de justiça e a independência dos juízes. Rio de Janeiro: Lumen Juris, 2021.
MAYER-SCHÖNBERGER, Viktor; CUKIER, Kenneth. Big Data: como extrair volume, variedade, velocidade e valor da avalanche de informação cotidiana. Tradução de Paulo Polzonoff Jr. Rio de Janeiro: Campus, 2013.
MENEZES, Daniel Francisco Nagao; BARROS, Bruno César de Melo. Jurimetria e a análise econômica do direito: novas perspectivas para o judiciário brasileiro. Revista Thesis Juris, São Paulo, v. 6, n. 1, p. 1-22, jan./abr. 2017.
MONTEIRO DE CASTRO, M. C. et al. O uso do DataJud para a gestão da saúde: desafios e perspectivas. Cadernos Ibero-Americanos de Direito Sanitário, Brasília, v. 13, n. 2, p. 134-151, 2024. Disponível em: https://www.cadernos.prodisa.fiocruz.br/index.php/cadernos/article/view/1034. Acesso em: 10 dez. 2025.
NUNES, Marcelo Guedes. Jurimetria: como a estatística pode reinventar o Direito. São Paulo: Revista dos Tribunais, 2016.
PROVOST, Foster; FAWCETT, Tom. Data Science for Business: What You Need to Know about Data Mining and Data-Analytic Thinking. Sebastopol: O’Reilly Media, 2013.
SILVA, João Victor da. Breve análise sobre a jurimetria: os desafios para a sua implementação e as vantagens correspondentes. 2025. Disponível em: https://www.academia.edu/98465341. Acesso em: 10 dez. 2025.
SUSSKIND, Richard. Tomorrow's Lawyers: An Introduction to Your Future. Oxford: Oxford University Press, 2013.
Graduada em Direito pela Universidade de Fortaleza, Pós-Graduada em Direito Penal e Processo Penal pela Universidade Estadual do Ceará (UECE), Mestranda em Direito Constitucional pela Unichristus e Promotora de Justiça do Estado do Ceará.
Conforme a NBR 6023:2000 da Associacao Brasileira de Normas Técnicas (ABNT), este texto cientifico publicado em periódico eletrônico deve ser citado da seguinte forma: PALACIO, LIA MAACA LEAL VASCONCELOS. Jurimetria e a crise dos dados no Brasil: desafios metodológicos entre a digitalização e a estruturação da informação Conteudo Juridico, Brasilia-DF: 13 abr 2026, 04:36. Disponivel em: https://conteudojuridico.com.br/consulta/artigos/70046/jurimetria-e-a-crise-dos-dados-no-brasil-desafios-metodolgicos-entre-a-digitalizao-e-a-estruturao-da-informao. Acesso em: 13 abr 2026.
Por: Erick Labanca Garcia
Por: LEONARDO RODRIGUES ARRUDA COELHO
Por: Amanda Caroline Soares
Por: Rafael Gomes de Queiroz Neto
Por: PATRICIA GONZAGA DE SIQUEIRA

Precisa estar logado para fazer comentários.