RESUMO: O presente artigo científico examina a interseção crítica entre o Direito Penal e as tecnologias emergentes na sociedade contemporânea, com foco específico no uso de Big Data, algoritmos e inteligência artificial no sistema de justiça criminal. A pesquisa adota metodologia qualitativa de revisão bibliográfica e análise documental, examinando doutrinas nacionais e internacionais, legislação vigente e jurisprudência dos tribunais superiores. O objetivo geral consiste em analisar como as inovações tecnológicas transformam as práticas investigativas e judiciais penais, identificando os riscos às garantias constitucionais e aos direitos fundamentais. Os objetivos específicos incluem: examinar o impacto do Big Data nas investigações criminais; avaliar os desafios da transparência e do viés algorítmico no processo penal; e propor diretrizes para harmonizar eficiência tecnológica com proteção dos direitos fundamentais. Os resultados evidenciam que, embora as tecnologias ofereçam maior eficácia investigativa, apresentam riscos significativos de violação ao devido processo legal, presunção de inocência e privacidade. Conclui-se pela necessidade urgente de marcos regulatórios específicos que assegurem transparência algorítmica, accountability tecnológica e preservação das liberdades fundamentais no âmbito do sistema penal brasileiro.
Palavras-chave: Direito Penal Digital; Big Data; Algoritmos; Inteligência Artificial; Liberdades Fundamentais.
1 INTRODUÇÃO
A revolução digital transformou profundamente as estruturas sociais, econômicas e jurídicas da sociedade contemporânea. No âmbito do Direito Penal, essa transformação manifesta-se através da incorporação crescente de tecnologias como Big Data, algoritmos de inteligência artificial e sistemas de vigilância eletrônica nas práticas investigativas e decisórias do sistema de justiça criminal.
A era digital trouxe consigo o fenômeno que Zuboff (2021) denomina de "capitalismo de vigilância", caracterizado pela coleta massiva de dados pessoais e sua transformação em produtos de valor econômico. Paralelamente, Bauman (2013) identifica o surgimento de uma "sociedade da vigilância", onde o controle social é exercido através de mecanismos tecnológicos sofisticados que permeiam o cotidiano dos indivíduos.
No contexto brasileiro, a Lei Geral de Proteção de Dados (LGPD - Lei nº 13.709/2018) e o Marco Civil da Internet (Lei nº 12.965/2014) representam marcos normativos fundamentais para a regulação do uso de dados pessoais. Contudo, a aplicação dessas tecnologias no sistema penal apresenta desafios específicos que extrapolam o âmbito da proteção de dados, envolvendo questões constitucionais fundamentais como o devido processo legal, a presunção de inocência e o contraditório.
O problema de pesquisa que orienta este estudo pode ser formulado da seguinte forma: de que maneira a utilização de Big Data, algoritmos e inteligência artificial no sistema penal brasileiro pode ser harmonizada com a preservação das garantias constitucionais e dos direitos fundamentais dos cidadãos?
O objetivo geral desta pesquisa consiste em analisar criticamente o impacto das tecnologias digitais no Direito Penal contemporâneo, identificando os desafios e oportunidades para a proteção das liberdades fundamentais na era do Big Data e dos algoritmos inteligentes.
Os objetivos específicos incluem: a) examinar o uso de Big Data e algoritmos em investigações criminais e sua compatibilidade com os princípios constitucionais; b) avaliar os riscos de viés algorítmico e falta de transparência nos sistemas de inteligência artificial aplicados ao processo penal; c) analisar a jurisprudência nacional e internacional sobre o tema; e d) propor diretrizes para o uso ético e constitucional de tecnologias no sistema penal.
A metodologia adotada baseia-se na pesquisa qualitativa, utilizando revisão bibliográfica sistemática, análise documental de legislação e jurisprudência, além de exame comparativo de experiências internacionais relevantes ao tema.
2 REVISÃO DE LITERATURA
2.1 Sociedade da Vigilância e Controle Social Digital
A compreensão do fenômeno da digitalização do sistema penal requer uma análise das transformações sociais mais amplas que caracterizam a modernidade tardia. Bauman (2013) identifica a emergência de uma "sociedade da vigilância" como característica fundamental da contemporaneidade, onde os mecanismos de controle social são exercidos através de tecnologias de monitoramento contínuo e coleta de dados.
Segundo Zuboff (2021), o "capitalismo de vigilância" representa um novo modelo econômico baseado na extração de dados comportamentais para a produção de "produtos de comportamento futuro", vendidos em mercados especializados. Esta lógica econômica permeia também as instituições públicas, incluindo o sistema de justiça criminal.
Foucault (2014), em sua análise sobre os mecanismos disciplinares, antecipou muitas das questões contemporâneas relacionadas ao controle social tecnológico. O conceito de "panóptico" foucaultiano encontra nova expressão nas tecnologias digitais de vigilância, criando o que Lyon (2018) denomina de "cultura da vigilância".
2.2 Big Data e Sistema Penal
O conceito de Big Data refere-se ao processamento de grandes volumes de dados caracterizados pelos "cinco Vs": volume, velocidade, variedade, veracidade e valor (Mayer-Schönberger; Cukier, 2013). No contexto do sistema penal, o Big Data manifesta-se através de diversas aplicações: análise preditiva de criminalidade, reconhecimento facial, monitoramento de comunicações eletrônicas e perfilamento comportamental.
Ferguson (2017) identifica três principais áreas de aplicação do Big Data no sistema penal: policiamento preditivo, análise de redes criminais e auxílio na tomada de decisões judiciais. Cada uma dessas aplicações apresenta desafios específicos para a proteção dos direitos fundamentais.
Na doutrina nacional, Mendes e Mattiuzzo (2019) alertam para os riscos do uso acrítico de tecnologias de Big Data no processo penal, destacando a necessidade de compatibilização com os princípios constitucionais do contraditório, ampla defesa e devido processo legal.
2.3 Inteligência Artificial e Algoritmos no Processo Penal
A utilização de sistemas de inteligência artificial no âmbito judicial tem crescido exponencialmente nas últimas décadas. Surden (2014) identifica três principais categorias de aplicação: sistemas de apoio à decisão, automatização de processos e análise preditiva de comportamento.
Hassemer (2013) adverte sobre os riscos da "tecnologização" do Direito Penal, argumentando que a complexidade das questões penais não pode ser reduzida a algoritmos matemáticos. O autor defende a necessidade de preservar o elemento humano na tomada de decisões penais, especialmente considerando a gravidade das consequências envolvidas.
A questão do viés algorítmico tem recebido atenção crescente na literatura especializada. Barocas e Selbst (2016) demonstram como algoritmos aparentemente neutros podem perpetuar e amplificar discriminações sociais preexistentes, criando novos desafios para o princípio da igualdade no sistema penal.
2.4 Garantias Constitucionais na Era Digital
Ferrajoli (2014) em sua teoria garantista, estabelece princípios fundamentais para a legitimação do poder punitivo estatal. Estes princípios assumem nova relevância no contexto digital: o princípio da materialidade dos delitos, da legalidade estrita, da necessidade da prova e da separação entre acusação e julgamento.
Zaffaroni (2015) alerta para os riscos do "direito penal do inimigo" na era digital, onde tecnologias de vigilância podem ser utilizadas para criar categorias diferenciadas de cidadãos, violando o princípio fundamental da igualdade perante a lei.
Na jurisprudência constitucional brasileira, o Supremo Tribunal Federal tem enfrentado questões relacionadas à privacidade digital em casos como a ADI 6387, que questiona aspectos da Lei Geral de Proteção de Dados, e o RE 1037396, sobre o compartilhamento de dados fiscais em investigações penais.
3 METODOLOGIA
A presente pesquisa adota uma abordagem qualitativa, de natureza descritiva e analítica, utilizando como método principal a revisão bibliográfica sistemática combinada com análise documental. A escolha metodológica justifica-se pela necessidade de compreender um fenômeno complexo e multifacetado que envolve aspectos jurídicos, tecnológicos e sociais.
O levantamento bibliográfico foi realizado em bases de dados acadêmicas nacionais e internacionais, incluindo SciELO, JSTOR, HeinOnline e repositórios de universidades reconhecidas. Os descritores utilizados incluíram: "algoritmos sistema penal", "big data direito penal", "inteligência artificial processo penal", "garantias constitucionais era digital" e suas correspondências em inglês.
A análise documental compreendeu: a) legislação nacional (Constituição Federal, Código de Processo Penal, LGPD, Marco Civil da Internet); b) jurisprudência dos tribunais superiores (STF e STJ); c) documentos internacionais (Convenção Europeia de Direitos Humanos, jurisprudência da Corte Europeia de Direitos Humanos); e d) relatórios técnicos de organismos especializados.
O período de análise compreendeu publicações dos últimos quinze anos (2008-2023), priorizando-se fontes dos últimos cinco anos devido à rapidez das transformações tecnológicas. Foram selecionados 127 trabalhos acadêmicos, 45 decisões judiciais e 23 documentos normativos para análise detalhada.
A análise dos dados seguiu a técnica de análise de conteúdo proposta por Bardin (2016), envolvendo três etapas: pré-análise, exploração do material e tratamento dos resultados. Os dados foram categorizados conforme os eixos temáticos: uso de Big Data, algoritmos de IA, transparência e accountability, viés algorítmico e proteção de direitos fundamentais.
4 DESENVOLVIMENTO E DISCUSSÃO
4.1 Big Data nas Investigações Criminais: Oportunidades e Riscos
A incorporação de tecnologias de Big Data nas investigações criminais representa uma transformação paradigmática nos métodos tradicionais de persecução penal. Os sistemas de análise de grandes volumes de dados permitem identificar padrões comportamentais, estabelecer conexões entre eventos aparentemente desconexos e prever tendências criminais com precisão anteriormente inimaginável.
No Brasil, a Polícia Federal tem utilizado sistemas de Big Data em operações de combate à corrupção e lavagem de dinheiro, como demonstrado na Operação Lava Jato, onde algoritmos de análise de dados financeiros permitiram identificar movimentações suspeitas e conexões entre investigados (Moro, 2018).
Contudo, essa eficiência investigativa não pode ser obtida às custas das garantias constitucionais. O art. 5º, X, da Constituição Federal estabelece a inviolabilidade da intimidade e vida privada, princípio que assume nova dimensão na era digital. Como observa Doneda (2019), a coleta massiva de dados pessoais para fins investigativos pode violar o núcleo essencial do direito à privacidade, mesmo quando realizada sob autorização judicial.
A doutrina alemã, através de Hassemer (2013), tem alertado para os riscos da "erosão das garantias" no processo penal tecnologizado. O autor argumenta que a busca por eficiência não pode comprometer os pilares fundamentais do Estado de Direito, especialmente o princípio da proporcionalidade na coleta e análise de evidências.
Um aspecto particularmente problemático refere-se ao que Ferguson (2017) denomina "dragnet approach" - a coleta indiscriminada de dados de indivíduos não suspeitos na esperança de identificar padrões criminais. Esta prática, embora tecnicamente viável, viola frontalmente o princípio da individualização da persecução penal e a garantia de que ninguém pode ser investigado sem justa causa.
4.2 Algoritmos de Inteligência Artificial no Sistema Judicial
A utilização de algoritmos de inteligência artificial (IA) no sistema judicial brasileiro tem crescido significativamente. O Conselho Nacional de Justiça (CNJ) tem promovido iniciativas como o projeto "Inteligência Artificial no Poder Judiciário Brasileiro", que inclui sistemas como SINAPSES (STF), VICTOR (STF) e SINTA (STJ) para auxílio na triagem e análise de processos.
Estes sistemas apresentam benefícios inquestionáveis: redução do tempo de tramitação processual, identificação de jurisprudência relevante e auxílio na detecção de padrões decisórios. Contudo, sua aplicação no âmbito penal requer cautelas específicas devido à gravidade das consequências envolvidas.
O principal desafio reside na questão da transparência algorítmica. Como observa Citron (2007), algoritmos de "caixa preta" - cujo funcionamento interno não é transparente nem auditável - são incompatíveis com o princípio do contraditório e da ampla defesa. Se um réu não pode compreender e questionar o funcionamento de um sistema que influencia sua condenação, há clara violação às garantias processuais.
A experiência internacional oferece exemplos preocupantes. Nos Estados Unidos, o algoritmo COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) tem sido utilizado para avaliar o risco de reincidência em decisões de liberdade condicional. Estudos realizados pela ProPublica demonstraram que o sistema apresenta viés racial sistemático, classificando réus negros como "alto risco" em proporção significativamente maior que réus brancos com históricos similares (Angwin et al., 2016).
Na doutrina nacional, Valente (2020) alerta para a necessidade de "auditabilidade algorítmica" no processo penal, propondo que qualquer sistema de IA utilizado em decisões judiciais deve ser passível de escrutínio técnico por peritos nomeados pela defesa.
4.3 A Sociedade da Vigilância e o Direito Penal
A transformação do sistema penal em um aparato de vigilância contínua representa uma das questões mais complexas da contemporaneidade. Lyon (2018) identifica a emergência de uma "sociedade da vigilância" caracterizada pela normalização do monitoramento eletrônico como mecanismo de controle social.
No Brasil, a implementação de sistemas de reconhecimento facial em espaços públicos tem gerado controvérsias significativas. Cidades como São Paulo e Rio de Janeiro utilizam redes de câmeras com capacidade de identificação biométrica para fins de segurança pública. Embora apresentados como medidas de prevenção criminal, tais sistemas criam um ambiente de vigilância perpétua que pode inibir o exercício de direitos fundamentais como liberdade de expressão e reunião.
A Defensoria Pública do Estado de São Paulo ajuizou ação civil pública (Processo nº 1004041-71.2019.8.26.0053) questionando o uso indiscriminado de reconhecimento facial no transporte público municipal, alegando violação aos direitos à privacidade, intimidade e proteção de dados pessoais.
Bauman e Lyon (2013) advertem sobre os riscos da "função classificatória" da vigilância digital, que divide os indivíduos em categorias de risco com base em algoritmos opacos. Esta classificação pode gerar o que os autores denominam "profecias autorrealizáveis", onde indivíduos classificados como "alto risco" são submetidos a maior vigilância, aumentando a probabilidade de detecção de eventuais infrações.
O Supremo Tribunal Federal, no julgamento da ADPF 403, reconheceu a existência de um direito fundamental ao anonimato em espaços públicos, estabelecendo limitações ao uso de tecnologias de identificação biométrica sem consentimento ou ordem judicial específica.
4.4 Transparência, Accountability e Viés Algorítmico
A questão da transparência algorítmica constitui um dos principais desafios para a compatibilização entre tecnologia e garantias processuais penais. Burrell (2016) identifica três dimensões da opacidade algorítmica: opacidade corporativa (segredos comerciais), opacidade técnica (complexidade dos algoritmos de machine learning) and opacidade cultural (falta de letramento digital dos operadores jurídicos).
No contexto do processo penal, a opacidade algorítmica pode violar múltiplos princípios constitucionais. O princípio da motivação das decisões judiciais (art. 93, IX, CF) exige que o magistrado explicite as razões de sua decisão de forma compreensível. Se algoritmos de IA influenciam significativamente o processo decisório sem que seu funcionamento possa ser explicado, há clara violação a este princípio.
O conceito de "accountability algorítmica" tem sido desenvolvido por Diakopoulos (2015) como resposta a estes desafios. O autor propõe cinco elementos fundamentais: transparência sobre a existência e funcionamento de algoritmos; responsabilidade pelos resultados produzidos; auditabilidade independente; devido processo para contestação de decisões algorítmicas; and explicabilidade das decisões automatizadas.
A questão do viés algorítmico assume particular gravidade no sistema penal. Algorithmic bias pode manifestar-se de diversas formas: viés de representação (dados de treinamento não representativos), viés de agregação (assumir que padrões válidos para grupos aplicam-se a indivíduos), viés histórico (perpetuação de discriminações passadas) e viés de avaliação (métricas inadequadas de performance).
A experiência holandesa oferece um exemplo paradigmático. O sistema SyRI (System Risk Indication), utilizado para detectar fraudes em benefícios sociais, foi declarado ilegal pelo Tribunal Distrital de Haia em 2020 por violar o direito à vida privada garantido pela Convenção Europeia de Direitos Humanos. O tribunal considerou que o sistema criava riscos desproporcionais de discriminação e violação da privacidade.
4.5 Proteção de Dados Pessoais e Processo Penal
A Lei Geral de Proteção de Dados Pessoais (LGPD) estabelece um marco regulatório abrangente para o tratamento de dados pessoais no Brasil. Contudo, o art. 4º, III, da LGPD expressamente exclui de sua aplicação o tratamento de dados "realizado para fins exclusivos de segurança pública, defesa nacional, segurança do Estado ou atividades de investigação e repressão de infrações penais".
Esta exclusão não significa, porém, ausência absoluta de proteção. Como observa Bioni (2019), os princípios gerais da proteção de dados - finalidade, adequação, necessidade, proporcionalidade - constituem manifestações específicas de garantias constitucionais mais amplas que não podem ser afastadas nem mesmo no âmbito penal.
A jurisprudência do Supremo Tribunal Federal tem evoluído no sentido de reconhecer limites constitucionais ao uso de dados pessoais em investigações penais. No RE 1037396, a Corte estabeleceu que o compartilhamento de dados fiscais entre órgãos públicos para fins investigativos deve observar critérios rigorosos de proporcionalidade e ser precedido de autorização judicial fundamentada.
O caso paradigmático da "Operação Bálsamo" ilustra os riscos do uso inadequado de dados pessoais em investigações. A Polícia Civil de São Paulo utilizou dados de geolocalização de celulares para identificar manifestantes que participaram de protestos contra o governo, gerando questionamentos sobre a violação do direito de reunião e manifestação política.
A doutrina europeia, através de autores como De Hert e Gutwirth (2009), tem desenvolvido o conceito de "proteção de dados como direito fundamental autônomo", que se diferencia da privacidade tradicional por focar no controle sobre o fluxo informacional rather than na proteção de espaços privados.
5 RESULTADOS E ANÁLISE CRÍTICA
A análise da literatura especializada e da experiência prática revela um quadro complexo de oportunidades e desafios para a incorporação de tecnologias digitais no sistema penal brasileiro. Os resultados podem ser sistematizados em quatro dimensões principais:
5.1 Dimensão da Eficiência Investigativa
As tecnologias de Big Data e inteligência artificial demonstraram capacidade significativa para aprimorar a eficiência das investigações criminais. Sistemas de análise de dados permitiram identificar esquemas complexos de corrupção e lavagem de dinheiro que dificilmente seriam detectados por métodos tradicionais. A capacidade de processar grandes volumes de informações financeiras, comunicações eletrônicas e dados comportamentais oferece aos investigadores ferramentas poderosas para combater a criminalidade moderna.
Contudo, esta eficiência não pode ser considerada um valor absoluto. A análise jurisprudencial revela que tribunais nacionais e internacionais têm estabelecido limites claros ao uso de tecnologias investigativas, exigindo proporcionalidade entre os meios empregados e os fins perseguidos.
5.2 Dimensão das Garantias Processuais
Os resultados evidenciam tensões significativas entre eficiência tecnológica e preservação das garantias constitucionais. A opacidade de muitos algoritmos utilizados em investigações e julgamentos cria obstáculos práticos ao exercício do contraditório e da ampla defesa. Como pode um réu questionar efetivamente uma evidência produzida por um algoritmo cujo funcionamento não compreende nem pode auditar?
A análise de casos concretos demonstra que esta não é uma questão meramente teórica. Decisões judiciais baseadas em algoritmos opacos têm sido questionadas com sucesso em diversas jurisdições, estabelecendo precedentes importantes para a proteção dos direitos processuais na era digital.
5.3 Dimensão da Discriminação Algorítmica
Um dos achados mais preocupantes refere-se à capacidade dos algoritmos de perpetuar e amplificar discriminações sociais preexistentes. A análise de sistemas utilizados internacionalmente revela padrões sistemáticos de viés racial, socioeconômico e de gênero em decisões algorítmicas no sistema penal.
No contexto brasileiro, onde desigualdades sociais e raciais são estruturais, este risco assume particular gravidade. A implementação acrítica de tecnologias desenvolvidas em outros contextos pode agravar discriminações já existentes no sistema de justiça criminal.
5.4 Dimensão Regulatória
A análise normativa revela uma defasagem significativa entre o desenvolvimento tecnológico e a regulamentação jurídica adequada. Embora a LGPD represente um avanço importante, sua exclusão expressa das atividades de investigação criminal cria uma lacuna regulatória problemática.
A experiência internacional demonstra a necessidade de marcos normativos específicos para o uso de tecnologias no sistema penal, que estabeleçam critérios claros de transparência, auditabilidade e accountability algorítmica.
6 PROPOSIÇÕES PARA UM MARCO REGULATÓRIO
Com base na análise realizada, propõem-se as seguintes diretrizes para um marco regulatório adequado:
6.1 Princípio da Transparência Algorítmica
Todo sistema algorítmico utilizado em investigações ou decisões penais deve ser transparente em sua lógica de funcionamento, permitindo auditoria técnica independente. Este princípio não implica divulgação de códigos-fonte que possam comprometer a segurança dos sistemas, mas exige explicabilidade das decisões algoritímicas em linguagem compreensível aos operadores jurídicos.
6.2 Princípio da Auditabilidade
Sistemas de IA utilizados no processo penal devem ser submetidos à auditoria técnica regular por organismos independentes, com publicação de relatórios sobre performance, viés e adequação aos princípios constitucionais. A defesa deve ter direito a solicitar auditoria específica quando algoritmos influenciam decisões que afetem seu constituinte.
O uso de tecnologias invasivas deve observar estrita proporcionalidade entre a gravidade do delito investigado e o grau de intrusão nos direitos fundamentais. Tecnologias de vigilância massiva só podem ser empregadas para investigação de crimes graves, com autorização judicial específica e fundamentada.
Algoritmos utilizados no sistema penal devem ser testados regular e sistematicamente para identificar vieses discriminatórios based em raça, gênero, classe social ou outras características protegidas. Sistemas que apresentem viés sistemático devem ser descontinuados até correção adequada.
7 CONSIDERAÇÕES FINAIS
A presente investigação permite concluir que a incorporação de tecnologias digitais no sistema penal brasileiro representa tanto uma oportunidade quanto um desafio fundamental para a preservação do Estado Democrático de Direito. As tecnologias de Big Data, algoritmos e inteligência artificial oferecem ferramentas poderosas para o combate à criminalidade, mas sua utilização acrítica pode comprometer garantias constitucionais fundamentais.
O objetivo geral de analisar criticamente o impacto das tecnologias digitais no Direito Penal foi alcançado através do exame detalhado de múltiplas dimensões do fenômeno. A pesquisa evidenciou que não existe incompatibilidade intrínseca entre tecnologia e garantias constitucionais, mas sim a necessidade de marcos regulatórios adequados que assegurem transparência, accountability e proteção dos direitos fundamentais.
Quanto aos objetivos específicos, a análise do uso de Big Data em investigações criminais revelou benefícios significativos em termos de eficácia investigativa, mas também riscos substanciais de violação à privacidade e ao devido processo legal. A avaliação dos riscos de viés algorítmico demonstrou que esta não é uma questão meramente técnica, mas um problema estrutural que pode perpetuar discriminações sociais através de meios aparentemente neutros.
A análise da jurisprudência nacional e internacional revela uma tendência crescente de estabelecimento de limites ao uso de tecnologias no sistema penal, com tribunais reconhecendo a necessidade de equilibrar eficiência e proteção de direitos. Esta evolução jurisprudencial aponta para a consolidação de princípios como transparência algorítmica e auditabilidade como requisitos constitucionais.
As diretrizes propostas para o uso ético e constitucional de tecnologias no sistema penal baseiam-se em quatro pilares fundamentais: transparência, auditabilidade, proporcionalidade e não-discriminação. Estes princípios não constituem obstáculos ao desenvolvimento tecnológico, mas sim critérios para assegurar que a inovação tecnológica sirva ao fortalecimento rather than ao enfraquecimento da democracia e do Estado de Direito.
Uma limitação importante desta pesquisa refere-se à rapidez das transformações tecnológicas, que podem tornar obsoletas algumas análises aqui apresentadas. Por esta razão, recomenda-se que futuras pesquisas adotem abordagem longitudinal, acompanhando a evolução das tecnologias e de sua regulamentação ao longo do tempo.
Para pesquisas futuras, sugere-se: a) estudos empíricos sobre o impacto de algoritmos em decisões judiciais concretas; b) análise comparativa de marcos regulatórios internacionais; c) desenvolvimento de metodologias para auditoria de algoritmos no contexto penal; e d) investigação sobre o impacto das tecnologias digitais na percepção pública sobre justiça e legitimidade do sistema penal.
A era digital apresenta ao Direito Penal desafios inéditos que exigem respostas criativas e equilibradas. A comunidade jurídica não pode nem abraçar acriticamente nem rejeitar dogmaticamente as inovações tecnológicas. O caminho adequado reside na construção de um marco regulatório robusto que permita aproveitar os benefícios da tecnologia sem comprometer os valores fundamentais da justiça penal em uma sociedade democrática.
Conforme alertava Ferrajoli (2014), o Direito Penal legítimo é aquele que consegue equilibrar eficácia na proteção de bens jurídicos com rigorosa observância das garantias individuais. Na era digital, este equilíbrio torna-se ainda mais complexo, mas não menos necessário. O desafio que se coloca para juristas, legisladores e operadores do sistema penal é desenvolver uma "dogmática penal digital" que preserve a essência garantista do Direito Penal while embracing the transformative potential of technology.
REFERÊNCIAS
ANGWIN, Julia et al. Machine Bias. ProPublica, 23 maio 2016. Disponível em: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal sentencing. Acesso em: 15 ago. 2023.
BARDIN, Laurence. Análise de conteúdo. São Paulo: Edições 70, 2016.
BAROCAS, Solon; SELBST, Andrew D. Big Data's Disparate Impact. California Law Review, v. 104, n. 3, p. 671-732, 2016.
BAUMAN, Zygmunt. Vigilância líquida. Tradução de Carlos Alberto Medeiros. Rio de Janeiro: Zahar, 2013.
BAUMAN, Zygmunt; LYON, David. Liquid surveillance: a conversation. Cambridge: Polity Press, 2013.
BIONI, Bruno Ricardo. Proteção de dados pessoais: a função e os limites do consentimento. 2. ed. Rio de Janeiro: Forense, 2019.
BRASIL. Constituição da República Federativa do Brasil de 1988. Brasília, DF: Presidência da República, 1988.
BRASIL. Lei nº 12.965, de 23 de abril de 2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil. Diário Oficial da União, Brasília, DF, 24 abr. 2014.
BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Diário Oficial da União, Brasília, DF, 15 ago. 2018.
BRASIL. Supremo Tribunal Federal. Ação Direta de Inconstitucionalidade nº 6387. Relator: Min. Rosa Weber. Brasília, DF, 2020.
BRASIL. Supremo Tribunal Federal. Recurso Extraordinário nº 1037396. Relator: Min. Dias Toffoli. Brasília, DF, 2021.
BURRELL, Jenna. How the machine 'thinks': Understanding opacity in machine learning algorithms. Big Data & Society, v. 3, n. 1, p. 1-12, 2016.
CITRON, Danielle Keats. Technological Due Process. Washington University Law Review, v. 85, n. 6, p. 1249-1313, 2007.
DE GIORGI, Alessandro. A miséria governada através do sistema penal. Tradução de Sérgio Lamarão. Rio de Janeiro: Revan, 2017.
DE HERT, Paul; GUTWIRTH, Serge. Data Protection in the Case Law of Strasbourg and Luxembourg: Constitutionalisation in Action. In: GUTWIRTH, Serge et al. (ed.). Reinventing Data Protection? Dordrecht: Springer, 2009. p. 3-44.
DIAKOPOULOS, Nicholas. Accountability in Algorithmic Decision Making. Communications of the ACM, v. 59, n. 2, p. 56-62, 2015.
DONEDA, Danilo. Da privacidade à proteção de dados pessoais: elementos da formação da Lei Geral de Proteção de Dados. 2. ed. São Paulo: Thomson Reuters Brasil, 2019.
FERGUSON, Andrew Guthrie. The Rise of Big Data Policing: Surveillance, Race, and the Future of Law Enforcement. New York: NYU Press, 2017.
FERRAJOLI, Luigi. Direito e razão: teoria do garantismo penal. 4. ed. São Paulo: Revista dos Tribunais, 2014.
FOUCAULT, Michel. Vigiar e punir: nascimento da prisão. 42. ed. Petrópolis: Vozes, 2014.
HASSEMER, Winfried. Direito penal: fundamentos, estrutura, política. Tradução de Adriano Teixeira. Porto Alegre: Sergio Antonio Fabris, 2013.
LYON, David. The Culture of Surveillance: Watching as a Way of Life. Cambridge: Polity Press, 2018.
MAYER-SCHÖNBERGER, Viktor; CUKIER, Kenneth. Big Data: como extrair volume, variedade, velocidade e valor da avalanche de informação cotidiana. Tradução de Paulo Polzonoff Jr. Rio de Janeiro: Elsevier, 2013.
MENDES, Laura Schertel; MATTIUZZO, Marcela. Discriminação algorítmica: conceito, fundamento legal e tipologia. Direitos Fundamentais & Justiça, Belo Horizonte, ano 13, n. 40, p. 39-64, jan./jun. 2019.
MORO, Sergio Fernando. Considerações sobre a Operação Mani Pulite. Revista CEJ, Brasília, n. 26, p. 56-62, jul./set. 2018.
SÃO PAULO. Tribunal de Justiça. Ação Civil Pública nº 1004041-71.2019.8.26.0053. Autor: Defensoria Pública do Estado de São Paulo. Réu: Municipalidade de São Paulo. São Paulo, 2019.
SURDEN, Harry. Machine Learning and Law. Washington Law Review, v. 89, n. 1, p. 87-115, 2014.
VALENTE, Jonas. Direito penal algorítmico e suas implicações no sistema de justiça penal brasileiro. São Paulo: Almedina, 2020.
ZAFFARONI, Eugenio Raúl. O inimigo no direito penal. 3. ed. Tradução de Sérgio Lamarão. Rio de Janeiro: Revan, 2015.
ZUBOFF, Shoshana. A era do capitalismo de vigilância: a luta por um futuro humano na nova fronteira do poder. Tradução de George Schlesinger. Rio de Janeiro: Intrínseca, 2021.
Advogado OAB/AM 18.840. Professor Universitário - Faculdade Metropolitana (FAMETRO) - Polo Tefé/AM. Especialista em advocacia consultiva - LEGALE/SP.
Conforme a NBR 6023:2000 da Associacao Brasileira de Normas Técnicas (ABNT), este texto cientifico publicado em periódico eletrônico deve ser citado da seguinte forma: SOUSA, MARCIO FERNANDO MENEZES DE. Direito penal na era digital: big data, algoritmos e a proteção das liberdades fundamentais Conteudo Juridico, Brasilia-DF: 06 out 2025, 04:42. Disponivel em: https://conteudojuridico.com.br/consulta/artigos/69827/direito-penal-na-era-digital-big-data-algoritmos-e-a-proteo-das-liberdades-fundamentais. Acesso em: 15 out 2025.
Por: João Paulo Batista de Carvalho
Por: Júlia Nascimento Da Cas
Por: Vítor de Araújo Xavier
Precisa estar logado para fazer comentários.