(coautores)
NATALIA CARDOSO MARRA
(orientadora)
RESUMO: Este trabalho analisa criticamente o uso da Inteligência Artificial (IA) como instrumento facilitador de práticas criminosas, com foco nos impactos jurídicos, sociais e legislativos dessa realidade tecnológica emergente. Inicialmente, apresentam-se os conceitos fundamentais e uma definição do que é a IA, suas principais tipologias, como a IA estreita, a geral e a superinteligente, bem como sua crescente presença em diversos setores da sociedade, inclusive no Poder Judiciário. O estudo aprofunda-se nos riscos associados ao uso indevido dessas tecnologias, destacando crimes como ciberataques automatizados, deepfakes, fraudes digitais, espionagem e violação de privacidade. Tais delitos desafiam os paradigmas tradicionais do Direito Penal, especialmente no que se refere à responsabilidade penal diante da autonomia algorítmica. Dilemas éticos e jurídicos emergem da manipulação de dados e da criação de provas falsas. Examina-se, ainda, os projetos de lei em trâmite no Brasil, como os PLs nº 5.931/2023, 5.641/2023, 4.730/2023, 5.694/2023, 6.211/2023 e 4.025/2023, os quais se tornaram necessários frente a essas transformações e buscam regular o uso da IA e coibir práticas ilícitas. Conclui-se que o enfrentamento dos crimes envolvendo IA exige respostas jurídicas ágeis, interdisciplinares e preventivas, além de investimentos em educação digital, com o objetivo de conscientizar a população sobre o que é a IA e como ela tem sido utilizada na contemporaneidade. Também se destaca a importância da formação de operadores do Direito e da promoção de uma ética sólida no desenvolvimento tecnológico. Tais ações podem impactar diretamente a ocorrência desses crimes, combatendo suas causas e evitando efeitos ainda mais prejudiciais à sociedade.
Palavras-chave: Inteligência Artificial. Crimes digitais. Direito Penal. Deepfakes. Projetos de lei. Fraudes Digitais. Espionagem. Invasão de privacidade.
ABSTRACT: This study critically analyzes the use of Artificial Intelligence (AI) as a tool that facilitates criminal practices, focusing on the legal, social, and legislative impacts of this emerging technological reality. It begins by presenting the fundamental concepts and a definition of AI, its main types — such as narrow AI, general AI, and superintelligent AI — as well as its growing presence in various sectors of society, including the judiciary. The research delves into the risks associated with the misuse of these technologies, highlighting crimes such as automated cyberattacks, deepfakes, digital fraud, espionage, and violations of privacy. These offenses challenge traditional paradigms of Criminal Law, especially regarding criminal liability in the face of algorithmic autonomy. Ethical and legal dilemmas arise from data manipulation and the creation of false evidence. The study also examines current legislative bills under discussion in Brazil — including Bills No. 5.931/2023, 5.641/2023, 4.730/2023, 5.694/2023, 6.211/2023, and 4.025/2023 — which aim to regulate the use of AI and prevent illicit activities. The conclusion is that addressing AI-related crimes requires agile, interdisciplinary, and preventive legal responses, as well as investment in digital education to raise public awareness about AI and its uses in contemporary society. It also highlights the importance of training legal professionals and promoting strong ethical standards in technological development. Such measures may directly impact the occurrence of these crimes by addressing their causes and mitigating harmful consequences for society.
Keywords: Artificial Intelligence. Digital crimes. Criminal law. Deepfakes. Bills. Digital fraud. Espionage. Invasion of privacy.
A evolução tecnológica ocorrida nas últimas décadas tem provocado transformações profundas nas dinâmicas sociais, econômicas, culturais e jurídicas no mundo contemporâneo. Entre as inovações mais disruptivas, destaca-se a Inteligência Artificial (IA), um conjunto de técnicas e sistemas computacionais que buscam simular capacidades humanas como o raciocínio lógico, a aprendizagem, o reconhecimento de padrões e até mesmo a comunicação em linguagem natural. A utilização da IA em setores como saúde, educação, finanças e segurança demonstra seu potencial transformador. No entanto, o uso dessa tecnologia também tem levantado sérias preocupações no âmbito jurídico, especialmente quando aplicada de forma criminosa, sendo capaz de potencializar fraudes, ciberataques, manipulações digitais e outras práticas ilícitas com alta sofisticação, velocidade e automação.
Nesse contexto, torna-se fundamental discutir o uso da IA como meio de práticas criminosas, analisando os riscos sociais, os desafios jurídicos e as respostas legislativas que têm sido propostas para lidar com esse fenômeno atual em específico. A criminalidade digital impulsionada por algoritmos inteligentes já é uma realidade: sistemas autônomos são utilizados para invadir redes, explorar vulnerabilidades de sistemas, realizar golpes financeiros e até criar provas falsas por meio de deepfakes. Esses crimes desafiam os conceitos tradicionais de autoria e responsabilidade penal, uma vez que muitas vezes são executados com mínima ou nenhuma intervenção humana direta.
O presente artigo científico tem por objetivo discutir os principais aspectos relacionados ao uso indevido da Inteligência Artificial, apresentar uma definição clara e objetiva sobre o conceito de IA e analisar as respostas legislativas e as políticas públicas que vêm sendo adotadas com o intuito de coibir e combater práticas ilícitas associadas a essa tecnologia, as quais representam uma séria mazela da sociedade contemporânea.
2. INTELIGÊNCIA ARTIFICIAL: DEFINIÇÕES E FUNCIONAMENTO.
Para tratar do uso de IA (Inteligência Artificial) na prática criminosa, é necessário previamente ter a ciência de toda sua complexidade e seu impacto no âmbito social na modernidade. De forma ampla, entende-se por Inteligência Artificial o conjunto de técnicas computacionais capazes de simular aspectos do comportamento humano por meio de um grande banco de dados e algoritmos, podendo reproduzir atividades como o uso de raciocínio lógico, a aprendizagem, o reconhecimento de padrões, automação de atividades, a tomada de decisões e até mesmo a comunicação em linguagem natural (RUSSELL; NORVIG, 2013).
Trata-se, pois, de sistemas desenvolvidos para desempenhar funções que, até recentemente, eram atribuídas exclusivamente à cognição humana.
A década de 1940 foi marcada por grandes avanços tecnológicos, fomentados pela Segunda Guerra Mundial. Nesse período, a ciência da computação ainda estava nascendo, e muitos dos conceitos fundamentais de IA começaram como teorias matemáticas, o raciocínio e a lógica. Mas apenas em 1950 o conceito de IA foi criado. Após diversos estudos, o matemático Alan Turing publicou o artigo "Computing Machinery and Intelligence", onde questionou se as máquinas poderiam pensar (TURING, 1950). Um dos maiores avanços nesse sentido ocorreu com o popular “teste de Turing”, onde uma máquina tentava reproduzir o comportamento humano (HODGES, 2012).
Com o avanço tecnológico, as IAs evoluíram de forma rápida e abrangente, e o seu uso e influência aumentaram esporadicamente. Isso se dá pela sua fácil acessibilidade, praticidade e principalmente suas diversas funcionalidades, podendo trazer soluções e respostas de forma instantânea para diversas mazelas de todas as áreas da sociedade. Essas funcionalidades inerentes das inteligências artificiais estão transformando as relações sociais, econômicas, culturais e, consequentemente, jurídicas.
As IAs são geralmente classificadas em três tipos: IA Fraca (ou Estreita), IA Forte (ou Geral) e IA Superinteligente. A IA fraca, também conhecida como IA estreita, é projetada e treinada para realizar tarefas específicas. Esses sistemas são altamente especializados e operam dentro de um conjunto restrito de parâmetros. A IA fraca não possui consciência, autoconsciência ou entendimento geral do mundo. É amplamente utilizada por empresas, como em sistemas de atendimento automático e chatbots, onde exerce funções de triagem e suporte inicial ao cliente (DUARTE, 2023).
A IA forte, também chamada de IA geral ou AGI (Artificial General Intelligence), refere-se a sistemas com capacidades intelectuais equivalentes às dos seres humanos. Diferente da IA fraca, a IA forte seria capaz de compreender, aprender e aplicar conhecimento em contextos variados, inclusive com habilidades cognitivas complexas como criatividade, pensamento abstrato e entendimento emocional (SILVA; NASCIMENTO; LEMOS, 2023).
Por fim, a IA superinteligente é um conceito ainda teórico, que descreve sistemas que superariam significativamente as capacidades intelectuais humanas em praticamente todas as áreas, incluindo ciência, arte e relações sociais (KISSINGER; SCHMIDT; HUTTENLOCHER, 2024).
Diversos setores da sociedade têm se beneficiado da utilização de IAs, como saúde, educação, transporte e o próprio sistema Judiciário, devido à capacidade desses sistemas de automatizar processos, reduzir custos e aumentar a eficiência. No entanto, à medida que os benefícios da IA se expandem, também surgem desafios éticos e jurídicos que exigem regulamentação adequada (SCIMAGO, 2021; SILVA; MORAES, 2023).
Inicialmente, a aplicação de IA nos ambientes digitais focava em tarefas repetitivas, como filtros de e-mail e assistentes virtuais básicos. Com o advento do machine learning, os sistemas passaram a tomar decisões com base em dados, sem necessidade de programação explícita. Posteriormente, o deep learning possibilitou avanços em tarefas mais complexas, como o reconhecimento de voz e imagem (CAMPOS; RODRIGUES; MENEZES, 2023). A partir de 2020, com o surgimento da IA generativa, como o ChatGPT, DALL·E e Sora, tornou-se possível criar conteúdos diversos – textos, imagens, vídeos, músicas – quase indistinguíveis da produção humana (CARVALHO; SANTOS; ROCHA, 2022).
Essa revolução tecnológica tem implicações diretas na prática jurídica, inclusive na formulação de argumentos legais, o que exige maior atenção à proteção de dados, à privacidade e à segurança digital. Como resposta, diversos projetos de lei foram propostos no Brasil, como o PL nº 2.338/2023, que estabelece diretrizes gerais para o desenvolvimento da IA, e o PL nº 3.821/2024, que trata da criminalização do uso de IA em manipulação de conteúdo íntimo (OLIVEIRA; SILVA, 2023).
3. O USO CRIMINOSO DA INTELIGÊNCIA ARTIFICIAL: TIPOS DE CRIME POR IA
3.1 Ciberataques automatizados
O avanço da inteligência artificial (IA) tem impactado profundamente diversas áreas da sociedade, trazendo inovações que transformam desde setores produtivos até o cotidiano das pessoas. No entanto, esse progresso também tem um lado negativo: o uso da IA como ferramenta para práticas criminosas, especialmente no universo da segurança cibernética. Um dos aspectos mais alarmantes é o crescimento dos chamados ataques cibernéticos autônomos, em que sistemas dotados de IA atuam de maneira automatizada para invadir redes, explorar falhas e comprometer sistemas inteiros, muitas vezes sem qualquer intervenção humana direta.
De acordo com Brundage et al. (2018), esses ataques representam uma nova era da criminalidade digital, marcada pela velocidade, escalabilidade e capacidade de adaptação dos sistemas. Diferente dos ataques tradicionais, que dependem de ações humanas programadas, os ataques com IA podem tomar decisões por conta própria, aprendendo com o comportamento das vítimas e ajustando suas estratégias para driblar os mecanismos de defesa. São ataques inteligentes, que podem mudar de rota ou reescrever seu próprio código para escapar de antivírus e firewalls.
O histórico dos ataques cibernéticos remonta aos primórdios da internet, na década de 70 (GUIMARÃES, 2021). Um exemplo emblemático é o Morris Worm, lançado em 1988 por Robert Tappan Morris. Esse malware explorava vulnerabilidades em sistemas UNIX e, ao se replicar, acabou comprometendo cerca de 10% da internet da época. Embora Morris tenha alegado que seu objetivo era apenas mensurar o tamanho da rede, acabou sendo o primeiro condenado por crime cibernético nos Estados Unidos. O episódio foi tão marcante que levou à criação do primeiro grupo de resposta a emergências cibernéticas (CERT), considerado um marco na história da cibersegurança (FBI, 2018).
Na virada dos anos 2000, surgiram ameaças ainda mais sofisticadas, como o vírus “I Love You”, que se espalhava via e-mail e causou bilhões em prejuízos ao infectar milhões de computadores em poucos dias (AWATI, 2021). Com o tempo, ferramentas como o Metasploit facilitaram o acesso a ataques até mesmo por usuários com pouco conhecimento técnico. A automação passou a ser uma característica-chave dos ataques, evidenciada também pelo uso de botnets, redes de dispositivos infectados usados para ataques massivos como os de negação de serviço (DDoS).
A partir do ano de 2010, a inteligência artificial passou a ser incorporada diretamente a essas ameaças. Um exemplo notório é o ataque WannaCry, de 2017, que usava IA para se propagar automaticamente por redes, criptografar dados e exigir resgates financeiros. O malware se espalhou por mais de 150 países, afetando hospitais, empresas e governos (kaspersky, 2019)
Com a popularização dos algoritmos de aprendizado de máquina, criminosos passaram a usá-los para identificar vulnerabilidades e desenvolver ataques cada vez mais sofisticados. Hoje, sistemas de IA são capazes de realizar campanhas de phishing personalizadas, monitorar comportamentos online e explorar falhas em dispositivos diversos, como câmeras e até automóveis conectados (GUIMARÃES, 2021).
Mas afinal, o que são exatamente os ataques cibernéticos autônomos? Trata-se de ações maliciosas realizadas por sistemas que operam de forma independente, sem intervenção humana contínua. Esses ataques utilizam algoritmos complexos e técnicas avançadas para invadir redes, roubar dados ou causar danos, muitas vezes em questão de segundos. Sua principal característica é a adaptabilidade: os sistemas conseguem analisar e agir sobre vulnerabilidades em um ritmo e escala que seriam impossíveis para qualquer ser humano. Com isso, representam um risco crescente não apenas para empresas, mas para a infraestrutura crítica de países e a segurança da sociedade como um todo (Brundage et al, 2018)
Esses ataques podem ser divididos em três grandes categorias:
a) Malware autônomo: softwares que se espalham e se adaptam automaticamente, sem depender de comandos externos, burlando mecanismos de defesa e aprendendo com o ambiente onde atuam;
b) Bots e botnets: redes de dispositivos infectados controlados remotamente para realizar ataques em larga escala, como fraudes, envio de spam e distribuição de malwares;
c) Exploração de vulnerabilidades: o uso de IA para identificar falhas em softwares e sistemas operacionais e explorá-las de maneira automática, maximizando o impacto com pouca ou nenhuma intervenção humana.
Do ponto de vista legal, os ataques cibernéticos impulsionados por IA geram uma série de questionamentos complexos. Afinal, quem deve ser responsabilizado quando um sistema autônomo comete um crime? O programador que criou o código? O operador da ferramenta? O usuário final? Ou o próprio sistema, se estiver agindo de forma autônoma? Como observa Pagallo (2013), a atuação de sistemas inteligentes desafia os conceitos tradicionais de culpa e autoria no direito penal, exigindo novas abordagens jurídicas e regulatórias.
Outro desafio está na jurisdição transnacional. Não é raro que a IA esteja hospedada em um país, o criminoso em outro, e a vítima em um terceiro, tornando o processo legal de responsabilização ainda mais complexo. Por isso, torna-se essencial fortalecer mecanismos internacionais de cooperação, bem como legislações que acompanhem o avanço das tecnologias.
Mesmo leis robustas como o Regulamento Geral sobre a Proteção de Dados (GDPR), na Europa, e a Lei Geral de Proteção de Dados (LGPD), no Brasil, enfrentam dificuldades para acompanhar a rapidez com que essas ameaças evoluem. Além disso, surgem dilemas éticos: a IA pode tanto proteger sistemas quanto ser usada para explorá-los. Qual é, então, a responsabilidade ética de quem desenvolve, comercializa ou aplica essas ferramentas?
Nesse cenário, ganha importância o papel de códigos de ética voltados para profissionais de segurança da informação. Esses códigos devem incentivar práticas justas, responsáveis e transparentes, garantindo que o uso da tecnologia seja compatível com os direitos individuais e coletivos. Órgãos como a NSA e a ISO oferecem diretrizes úteis, mas ainda há a necessidade de um consenso global sobre o uso ético da IA.
Portanto, o debate sobre os aspectos éticos e legais dos ataques cibernéticos autônomos é não apenas necessário, mas urgente. A rápida evolução tecnológica exige que o arcabouço jurídico e os princípios éticos caminhem lado a lado com a inovação, protegendo a sociedade dos riscos que essa nova era digital impõe.
3.2 Deepfakes e fraudes digitais
Deepfakes são um tipo de mídia manipulada que usa técnicas avançadas de inteligência artificial para criar vídeos e áudios que imitam com muita precisão a aparência e a voz de pessoas reais. O nome “deepfake” vem da junção entre “deep learning” (aprendizado profundo) e “fake” (falso), já que essa tecnologia utiliza algoritmos complexos para aprender características físicas e comportamentais de alguém, a partir de um grande volume de imagens e sons. Basicamente, esses modelos são redes neurais que captam padrões de exemplos reais e conseguem gerar novos conteúdos que parecem muito autênticos (SILVA, 2022).
Embora a ideia inicial dos deepfakes fosse criar vídeos engraçados ou artísticos, o avanço dessa tecnologia trouxe sérias preocupações. Hoje, deepfakes podem ser usados para espalhar desinformação, manipular opiniões e até fabricar provas falsas, o que levanta questões éticas e legais importantes sobre a veracidade das informações e o direito à imagem (Affonso, 2021). Além disso, o fato de ser relativamente fácil criar e compartilhar esses conteúdos torna os deepfakes uma faca de dois gumes: eles podem estimular a criatividade, mas também abrir espaço para fraudes digitais e manipulações perigosas. Por isso, entender o que são deepfakes e seus impactos é fundamental para a sociedade atual.
A história dos deepfakes começa na década de 1990, quando a edição de vídeo começou a se popularizar com computadores mais acessíveis. Porém, o termo “deepfake” só surgiu em 2017, quando começaram a ser postados vídeos pornográficos alterados digitalmente, ligados a um aplicativo que substituía rostos em vídeos usando redes neurais com uma precisão impressionante (Reality Defender, 2024). Esse avanço foi possível graças às Redes Generativas Adversariais (GANs), uma técnica de inteligência artificial que cria imagens e vídeos extremamente realistas a partir dos dados de treinamento. Desde então, a tecnologia só evoluiu, ficando mais sofisticada e disponível, o que gerou debates sobre suas consequências éticas e sociais.
A partir de 2018, começaram a aparecer muitos casos de deepfakes usados sem autorização, desde o entretenimento até golpes e desinformação. Isso chamou a atenção de pesquisadores e da mídia, que passaram a discutir como identificar esses conteúdos e como regulamentá-los (Novello, 2023). Apesar dos riscos, vale destacar que deepfakes também têm aplicações positivas, como a preservação da voz de pessoas falecidas ou o uso em dublagens, mostrando que essa tecnologia, por si só, não é boa nem má, mas precisa ser usada com responsabilidade.
No coração dos deepfakes está o aprendizado de máquina, que permite que sistemas aprendam com enormes quantidades de dados para reproduzir imagens e sons de forma convincente. A técnica principal envolve as GANs, compostas por dois sistemas que “competem”: um gera imagens falsas e o outro tenta identificar se elas são reais ou não, até que as falsificações fiquem quase perfeitas. Além disso, há técnicas que fazem edições de vídeos e áudios para manter o conteúdo coerente e expressivo, o que torna os deepfakes ainda mais difíceis de distinguir do real.
Os deepfakes aparecem principalmente em duas formas: vídeos manipulados e áudios falsificados. Nos vídeos, rostos são trocados digitalmente para mostrar pessoas fazendo ou dizendo coisas que nunca aconteceram — o que pode ser usado desde sátiras até ataques pessoais e fraudes. Por exemplo, vídeos falsos de políticos falando palavras que nunca disseram podem influenciar a opinião pública de maneira errada. Já os áudios falsos imitam a voz de alguém para enganar, como em golpes financeiros onde criminosos se passam por executivos para obter dinheiro ou informações sigilosas (IT Forum, 2019). Esses usos levantam questões sérias, porque a linha entre o real e o falso fica cada vez mais tênue, criando um terreno fértil para a desinformação e a perda de confiança.
O impacto social dos deepfakes é grande e preocupante. A facilidade de criar conteúdo falsos com qualidade faz com que muitas pessoas passem a duvidar até das informações verdadeiras que recebem online, minando a confiança na mídia e nas instituições. A manipulação digital também pode ser usada para descredibilizar figuras públicas e interferir em eleições, polarizando ainda mais a sociedade e ameaçando a democracia. Além disso, pessoas comuns podem ser vítimas de ataques, tendo suas imagens usadas para humilhação ou assédio, o que torna urgente o desenvolvimento da alfabetização digital para que todos saibam reconhecer e questionar esses conteúdos.
Casos de abuso já ganharam destaque. Em 2018, por exemplo, um vídeo deepfake com a atriz Gal Gadot teve seu rosto inserido em cenas pornográficas sem sua permissão, violando sua privacidade e levantando debates sobre consentimento digital, especialmente contra mulheres. Durante as eleições americanas de 2020, deepfakes foram usados para criar vídeos falsos de candidatos, buscando manipular votos e semear dúvidas. Estudos mostram que a maioria dos deepfakes online são de natureza pornográfica, evidenciando o uso indevido dessa tecnologia para desumanizar pessoas (IT Forum, 2019). Esses exemplos mostram que, além da tecnologia, precisamos de leis, educação e conscientização para enfrentar esse problema.
Hoje, a legislação ainda está se adaptando para lidar com os deepfakes. Alguns países já criaram leis contra o uso desses vídeos para difamação ou fraude, mas ainda falta um consenso global e regras claras que acompanhem o ritmo da tecnologia. Na União Europeia, o GDPR traz algumas diretrizes sobre uso de dados, mas identificar quem cria e espalha deepfakes é um desafio técnico e legal enorme. Também há um debate delicado sobre como equilibrar liberdade de expressão com o combate à desinformação, mostrando que é preciso diálogo entre governos, especialistas e sociedade para construir soluções eficazes (Affonso, 2021).
Dentro do universo das fraudes digitais, os deepfakes são uma ameaça crescente. Golpistas usam essas tecnologias para se passar por pessoas confiáveis e enganar suas vítimas — como no caso de um CEO britânico, em 2020, cuja voz deepfake foi usada para ordenar uma transferência fraudulenta de dinheiro (Reality Defender, 2025). Esse tipo de golpe mina a confiança nas interações digitais, fazendo com que as pessoas fiquem desconfiadas até das comunicações legítimas. Para combater isso, é essencial investir em educação para que as pessoas entendam os riscos, capacitar profissionais para identificar fraudes, além de fortalecer a colaboração entre empresas, governos e órgãos de segurança. Tecnologias de detecção de deepfakes também são ferramentas importantes nessa luta, ajudando a revelar conteúdos manipulados antes que causem danos.
Em resumo, os deepfakes representam um avanço tecnológico impressionante, mas que exige responsabilidade e consciência coletiva. Sua evolução técnica, assim como seus usos positivos e perigosos, refletem o desafio constante de acompanhar as inovações com ética, legislação adequada e preparo social. Só assim conseguiremos aproveitar o melhor da tecnologia, minimizando seus riscos e protegendo a confiança nas informações que circulam em nosso mundo.
3.3 Espionagem e invasão de privacidade
Hoje em dia, a espionagem e a invasão de privacidade são temas cada vez mais relevantes. Vivemos em um mundo conectado, onde a troca e o armazenamento de dados pessoais acontecem em grande escala. Com tantos dispositivos ligados à internet e plataformas online presentes no cotidiano, proteger a privacidade tornou-se um desafio complexo (Ding et al., 2020; Silva et al., 2022).
A espionagem, entendida como a obtenção secreta de informações privadas, pode ocorrer em diferentes níveis: governamental, corporativo e pessoal. Esse fenômeno levanta questões éticas e legais que envolvem direitos individuais e segurança nacional. Com o avanço das tecnologias de vigilância, como softwares de monitoramento e dispositivos de escuta, é fundamental discutir não apenas as práticas em si, mas também o impacto que elas causam na vida das pessoas e na sociedade (Chen et al., 2010; Novello, 2021).
Casos como os vazamentos de Edward Snowden e do WikiLeaks ilustram a tensão entre segurança e privacidade, além da reação de governos e empresas frente a esses desafios (Andrade & de Oliveira, 2017; Bertol, 2024).
A espionagem tem raízes antigas. Civilizações como os egípcios e romanos já usavam espiões para obter informações estratégicas. Na Idade Média, a prática se tornou mais sistemática, com monarquias contratando agentes para evitar traições e rebeliões. Com o tempo, a espionagem evoluiu com o surgimento de códigos secretos e tecnologias, sendo amplamente utilizada em guerras históricas. No século XX, serviços secretos sofisticados, como a KGB e a CIA, elevaram a prática a um novo patamar, especialmente durante a Guerra Fria. Com o avanço da tecnologia da informação no final do século XX e início do XXI, a espionagem digital se intensificou, incluindo vigilância em massa e coleta de dados pela internet, evidenciada por revelações como as de Snowden (Shin & Choi, 2014; Martins & Ribeiro, 2023).
Como informado existem vários tipos de espionagens, em diferentes níveis, abordando um pouco de cada, temos:
Governamental: Estados usam agentes e tecnologias para obter informações estratégicas sobre outros governos, atuando em defesa, economia e política. Agências como CIA e GRU exemplificam essa prática (Ding et al., 2020; Silva et al., 2022).
Corporativa: Empresas buscam informações sigilosas de concorrentes através de hacking, vigilância interna ou suborno, visando vantagens comerciais (Chen et al., 2010; Novello, 2021).
Pessoal: Invasão da privacidade individual por meio de hacking, vigilância física ou uso indevido de redes sociais, podendo causar sérios prejuízos, como roubo de identidade (Andrade & de Oliveira, 2017; Bertol, 2024).
Essas categorias evidenciam a complexidade da espionagem em um mundo interconectado, com implicações éticas e legais.
As tecnologias de espionagem evoluíram muito, impulsionadas pelos avanços em informação e comunicação. Softwares como o Pegasus permitem monitorar smartphones e coletar dados sem consentimento. Dispositivos de escuta modernos captam conversas com alta eficiência, enquanto drones equipados com câmeras e sensores fazem vigilância aérea em tempo real. Essas tecnologias transformam a coleta de informações, mas também provocam preocupações sobre privacidade e ética, tornando urgente o debate sobre limites e responsabilidades (Shin & Choi, 2014; Martins & Ribeiro, 2023).
A espionagem pode violar leis nacionais e internacionais, gerando processos, sanções e crises diplomáticas. Vazamentos de dados sigilosos prejudicam relações políticas e comerciais. Para o indivíduo, a sensação de estar vigiado gera insegurança, levando à autocensura, prejudicando a liberdade de expressão e a confiança social. Psicologicamente, isso pode aumentar a ansiedade e criar desconfiança nas relações interpessoais, afetando também a participação cívica e a democracia (Ding et al., 2020; Silva et al., 2022).
A proteção da privacidade é essencial diante do avanço da inteligência artificial e da coleta de dados. Leis como o GDPR na União Europeia, a LGPD no Brasil e a CCPA nos EUA regulam a forma como dados pessoais são tratados, garantindo direitos como acesso, correção e exclusão de informações. Tratados internacionais, como a Convenção de Budapeste, buscam harmonizar essas normas, reforçando a privacidade como um direito humano fundamental em um mundo globalizado (Chen et al., 2010; Novello, 2021).
Em 2013, Edward Snowden revelou programas da NSA que monitoravam comunicações em massa, provocando debates globais sobre privacidade e segurança (Andrade & de Oliveira, 2017; Bertol, 2024).
O WikiLeaks, fundado por Julian Assange, publicou documentos secretos de governos, expondo operações militares e diplomáticas e gerando reações internacionais intensas (Shin & Choi, 2014; Martins & Ribeiro, 2023).
Na espionagem industrial, casos como o roubo de segredos da Boeing e investigações envolvendo a SolarCity evidenciam o impacto econômico e tecnológico dessas práticas, destacando a importância da ética empresarial (Ding et al., 2020; Silva et al., 2022).
Proteger dados pessoais é fundamental no mundo digital, usar senhas fortes, autenticação em duas etapas, cuidar da segurança em dispositivos móveis e redes públicas são medidas importantes. Ferramentas como VPNs protegem a navegação, enquanto a criptografia assegura a confidencialidade das mensagens e transações online. Investir em segurança e educação digital é essencial para garantir privacidade em um ambiente cada vez mais conectado e vulnerável (Chen et al., 2010; Novello, 2021).
4. PROJETOS DE LEI EM TRAMITE REFERENTE AOS CRIMES COM IA
A rápida evolução das tecnologias baseadas em inteligência artificial (IA) tem transformado profundamente as dinâmicas sociais, econômicas e jurídicas em todo o mundo. No entanto, ao lado dos benefícios proporcionados por essas ferramentas, emergem também riscos significativos, especialmente no que diz respeito à sua utilização para fins ilícitos, como fraudes, manipulação de informações, violação de direitos da personalidade e exploração sexual. Diante desse cenário, o ordenamento jurídico brasileiro ainda enfrenta um descompasso entre o avanço tecnológico e a atualização normativa necessária para enfrentar essas novas formas de criminalidade digital.
Em resposta a essas lacunas legais, o Congresso Nacional tem apresentado diversos Projetos de Lei com o objetivo de regulamentar o uso da inteligência artificial em contextos sensíveis, prevenir abusos e tipificar condutas que até então não estavam adequadamente previstas na legislação vigente. Tais proposições legislativas buscam proteger direitos fundamentais, como a dignidade da pessoa humana, a intimidade, a imagem, a liberdade de expressão e a segurança jurídica, adaptando o arcabouço normativo às novas ameaças digitais da era da IA.
Neste capítulo, são analisados os principais projetos atualmente em tramitação que tratam da relação entre inteligência artificial e práticas criminosas, com foco em temas como deepfakes, manipulação de imagens e vozes, pornografia não consensual, propaganda eleitoral enganosa e agravamento penal por uso de IA. A seguir, apresenta-se a identificação formal de cada proposta legislativa, com sua respectiva ementa e escopo temático.
PL 5.931/2023: Regula o uso da IA na propaganda eleitoral para evitar manipulação de campanhas.
No contexto atual, com a crescente polarização política no país, o uso de deepfakes utilizando-se de Inteligência artificial para manipular informações de forma automatizada, para enganar, extorquir ou manipular a opinião pública. Juntamente com essa mazela da sociedade surge a necessidade de meios legais para combater e diminuir o impacto desses crimes, e nesse sentido que foi apresentado em 7 de dezembro de 2023, o PL PL 5.931/2023, pelo deputado Carlos Chiodini (MDB-SC) que propõe alterações na Lei nº 9.504/1997 (Lei das Eleições) para regulamentar o uso de ferramentas de inteligência artificial (IA) em campanhas eleitorais.
O PL em questão visa trazer alguns princípios como o respeito ao estado democrático de direito, o dever de informação sobre o uso da inteligência artificial e o combate a desinformação, princípios que devem ser respeitados pelos veículos, partidos e demais entidades interessadas para garantir a boa prática e o bom uso das IA nos ambientes eleitorais. O PL traz também uma definição de IA, como um sistema ou algoritmo computacional, com graus diferentes de autonomia, desenhado para inferir como atingir um dado conjunto de objetivos, utilizando abordagens baseadas em aprendizagem de máquina e/ou lógica e representação do conhecimento, por meio de dados de entrada provenientes de máquinas ou humanos, com o objetivo de produzir previsões, recomendações ou decisões que possam influenciar o ambiente virtual ou tangível. Alguns outros pontos importantes de serem ressaltados é quanto a transparência, onde determina que os partidos políticos e candidatos devem informar à Justiça Eleitoral o uso de IA em suas campanhas, incluindo a finalidade e os resultados esperados, bem como a obrigatoriedade de relatórios de impacto algorítmico, que devem ser apresentados previamente à Justiça Eleitoral, avaliando os efeitos do uso de IA nas campanhas.
PL 5.641/2023: Proíbe aplicativos e ferramentas que criam imagens pornográficas não autorizadas com IA especialmente envolvendo mulheres
Uma outra grande mazela causada no mundo digital utilizando-se de IA e que afeta a sociedade é destaca-se a criação de imagens íntimas falsa, hiper-realistas, produzidas a partir de rostos reais inseridos em corpos nus, de cunho pornográficos, utilizando técnicas de IA como os chamados deepfakes.
Para coibir essa prática criminosa e regulamentar esse uso da IA, o Projeto de Lei nº 5.641/2023 surge para e regulamentar e coibir essa prática criminosa de manipulação indevida de imagens com fins pornográficos. O PL em questão visa proteger a integridade e a dignidade de mulheres ao punir o uso indevido de inteligência artificial para criar imagens pornográficas sem o consentimento prévio e expresso da parte envolvida. A aplicabilidade desse dispositivo legal se destina tanto para às plataformas que hospedam aplicativos ou serviços que permitam a criação ou disseminação de imagens pornográficas não consensuais criadas com auxílio de inteligência artificial e os disponibilizam aos usuários, quanto para às pessoas, jurídicas ou naturais, que desenvolvem aplicativos ou serviços que permitam essa prática, e por fim, para aos usuários que criam essas imagens pornográficas.
Uma das justificativas para a criação desse projeto de lei se dá pela falta de instrumentos suficientes para coibir a disponibilização e utilização de sites, aplicativos ou qualquer tipo de ferramenta que permita, por meio de utilização de inteligência artificial, a edição de imagem ou vídeo que contenha conteúdo erótico ou sexualmente explícito, ferramenta muitas vezes usada para constranger mulheres em posição de vulnerabilidade.
PL 4.730/2023: Prevê a utilização da IA como agravante no cometimento de crimes.
O Projeto de Lei nº 4.730/2023, apresentado pelo deputado Delegado Palumbo (MDB-SP), propõe uma atualização importante no Código Penal brasileiro: tornar o uso de inteligência artificial (IA) uma circunstância agravante na prática de crimes. Na prática, isso significa que, caso o crime seja cometido com o auxílio de ferramentas de IA, a pena poderá ser aumentada.
A proposta altera o artigo 61 do Código Penal (Decreto-Lei nº 2.848/1940), que lista as situações que agravam a pena de um infrator. A ideia é incluir uma nova alínea — a “m” — especificamente para casos em que a IA for utilizada como recurso na execução do delito.
Na justificativa do projeto, o autor chama a atenção para o uso cada vez mais frequente da tecnologia por parte de criminosos. Um exemplo citado é o golpe do falso sequestro, em que os golpistas clonam números de WhatsApp e usam inteligência artificial para imitar a voz de uma vítima, fazendo com que familiares acreditem que ela está em perigo. Com isso, os criminosos conseguem extorquir dinheiro de forma convincente e rápida. Casos como esse ilustram como a IA pode aumentar a sofisticação e o poder de persuasão de fraudes, dificultando a ação da Justiça e da segurança pública. O projeto foi protocolado em 27 de setembro de 2023 e está atualmente em análise na Câmara dos Deputados. Será avaliado pela Comissão de Constituição e Justiça e de Cidadania (CCJC), que analisará sua constitucionalidade, juridicidade e técnica legislativa. Se aprovado nessa etapa, seguirá para votação no Plenário.
A proposta chega em um contexto de preocupação crescente com o uso indevido da IA para fins criminosos. Ao incluir o uso de inteligência artificial como fator agravante, o projeto busca atualizar a legislação penal brasileira para os desafios da era digital, oferecendo instrumentos legais mais robustos para combater crimes tecnológicos.
Essa iniciativa também está em sintonia com outros projetos em tramitação, como o PL nº 2.338/2023, que propõe a criação de um marco regulatório para o desenvolvimento e uso da inteligência artificial no Brasil. Juntas, essas medidas apontam para a construção de um ambiente legal mais preparado para lidar com os impactos — positivos e negativos — das novas tecnologias.
PL 5.694/2023: Criminaliza a manipulação de fotos, vídeos ou áudios via IA para causar constrangimento, ameaça ou violência contra crianças e adolescentes.
O Projeto de Lei nº 5.694/2023, de autoria do deputado Fred Linhares (Republicanos-DF), tem como objetivo enfrentar uma nova e preocupante realidade: o uso de inteligência artificial (IA) para manipular imagens, vídeos ou áudios de crianças e adolescentes com fins criminosos. A proposta visa criminalizar a criação de conteúdos falsos que tenham como finalidade o constrangimento, ameaça ou violência contra esse público vulnerável.
Entre os principais pontos do projeto, destaca-se a criminalização da criação de conteúdo sexual envolvendo menores por meio de IA. De acordo com o texto, quem manipular imagens ou sons para produzir esse tipo de material poderá receber pena de 4 a 8 anos de reclusão, além de multa.
O projeto também prevê um agravamento da pena em um terço para quem, mesmo sabendo que o conteúdo foi criado com uso de IA, o armazenar, compartilhar ou negociar. Já nos casos em que a manipulação de imagens ou sons com IA tenha como objetivo expor a criança a situações de constrangimento, ameaça ou assédio, a pena proposta é de 1 a 2 anos de prisão, também com multa. Atualmente, o PL está em análise na Câmara dos Deputados e será avaliado por comissões temáticas como a de Previdência, Assistência Social, Infância, Adolescência e Família, além da Comissão de Constituição e Justiça e de Cidadania (CCJC). Após essa etapa, o texto poderá seguir para votação no Plenário.
A proposta surge em um momento em que cresce a preocupação com o uso indevido da IA para criar conteúdo falsos e prejudiciais, especialmente aqueles que violam a dignidade de crianças e adolescentes. O projeto busca atualizar o Estatuto da Criança e do Adolescente (ECA), incluindo essas novas formas de violência digital na legislação vigente.
Vale destacar que outras iniciativas legislativas similares também estão em discussão, como o PL 6.211/2023, que trata da produção de conteúdo erótico ou pornográfico envolvendo menores com uso de inteligência artificial.
Em essência, o PL 5.694/2023 representa um passo importante na tentativa de proteger os direitos de crianças e adolescentes frente às ameaças tecnológicas contemporâneas. Ao propor a criminalização de práticas que envolvem manipulação digital com IA, o projeto busca criar um marco legal mais adequado à era digital, promovendo mais segurança, responsabilidade e ética no uso dessas tecnologias.
PL 4.025/2023: Regula o uso da imagem de pessoas vivas ou falecidas e os direitos autorais em aplicações de IA.
O PL 4.025/2023 propõe a regulação da utilização da imagem, voz e obras autorais por sistemas de IA protegendo tanto pessoas vivas quanto falecidas, e disciplinando a autoria de obras geradas por algoritmos. Trata-se de um projeto com escopo civilista, mas que dialoga com o campo penal ao coibir práticas como o uso indevido de imagem em fraudes ou campanhas de desinformação.
O projeto reforça os direitos da personalidade (CC, art. 11 a 21), especialmente o direito à imagem e à memória, além da proteção autoral prevista na Lei nº 9.610/1998. Ele busca enfrentar um vácuo jurídico: obras geradas por IA com base em estilos ou criações humanas, e a simulação de personalidades famosas (inclusive já falecidas) para fins comerciais.
Ainda que de natureza civil, o PL 4.025/2023 tem reflexos importantes na prevenção de crimes como estelionato (art. 171, CP), falsidade ideológica (art. 299, CP), calúnia (art. 138, CP) e difamação (art. 139, CP), quando há uso de IA para simular vozes, discursos ou comportamentos fraudulentos.
Os Projetos de Lei 6.211/2023 e 4.025/2023 representam iniciativas legislativas fundamentais para o enfrentamento de práticas criminosas com o uso de inteligência artificial. Ambos respondem a lacunas normativas que se tornaram evidentes diante da aceleração tecnológica e da propagação de condutas ilícitas baseadas em manipulações digitais.
A criminalização de condutas específicas e a regulamentação do uso de imagem e autoria digital são essenciais não apenas para a repressão penal, mas também para a proteção de direitos fundamentais, a prevenção de danos morais e materiais e a afirmação da ética digital em tempos de IA generativa.
PL 6.211/2023: Criminaliza a criação de conteúdo erótico e pornográfico com IA usando o rosto de crianças e adolescentes ou vítimas sem consentimento.
A crescente sofisticação das tecnologias de inteligência artificial (IA) tem impulsionado tanto avanços no campo produtivo quanto o aumento de práticas ilícitas. Dentre os principais desafios jurídicos está a utilização da IA para manipulação de imagens, vozes e dados pessoais com finalidades criminosas, especialmente em contextos que violam direitos da personalidade. Nesse cenário, destacam-se os Projetos de Lei nº 6.211/2023 e nº 4.025/2023, que propõem avanços significativos na legislação penal e civil brasileira.
O Projeto de Lei 6.211/2023 visa tipificar como crime a criação, modificação e difusão de conteúdo pornográfico gerado por IA utilizando imagens de crianças e adolescentes, ou ainda de adultos sem seu consentimento. Trata-se de um esforço legislativo voltado à repressão das chamadas deepfakes sexuais, prática crescente que atinge especialmente mulheres, figuras públicas e menores.
A proposta se ancora nos princípios constitucionais da dignidade da pessoa humana (CF, art. 1º, III) e da proteção integral da criança e do adolescente (CF, art. 227), além do art. 241 do Estatuto da Criança e do Adolescente (Lei nº 8.069/1990), que já criminaliza a posse e divulgação de conteúdo pornográfico infantil.
A manipulação de imagens por IA representa uma nova forma de violência digital, exigindo tipificação própria, pois escapa dos conceitos tradicionais de produção e distribuição de pornografia infantil — uma vez que a imagem é “sintética”, mas os efeitos são reais.
Embora ainda incipiente, alguns tribunais têm enfrentado casos de manipulação digital com analogia à legislação vigente. Exemplo:
a) TJMG – Apelação Criminal n.º 1.0000.20.066801-2/001: reconheceu o uso de tecnologia para induzir erro na identificação de vítimas, com agravante pela vulnerabilidade digital.
b) TJSP – Apelação n.º 0002358-89.2023.8.26.0001: discutiu a responsabilidade civil por uso indevido de imagem em montagem com IA.
Conclui-se que a Inteligência Artificial, embora traga inegáveis avanços e benefícios para a sociedade em diversas áreas, também representa um grande desafio quando utilizada como instrumento de práticas criminosas. A crescente sofisticação de tecnologias como algoritmos de aprendizado de máquina e redes neurais, capazes de gerar deepfakes, automatizar ataques cibernéticos e manipular dados com alta precisão, expõe indivíduos, empresas e instituições a riscos inéditos. Nesse cenário, o Direito é chamado a responder com eficácia, a fim de garantir segurança jurídica, proteger os direitos fundamentais e assegurar a responsabilização adequada dos agentes envolvidos nestas práticas. A análise dos projetos de lei em tramitação evidencia um esforço importante, embora ainda inicial, na tentativa de construir um marco legal que acompanhe a complexidade das novas formas de criminalidade digital. Propostas como a criminalização da criação de conteúdo pornográfico falso com IA, a responsabilização agravada para crimes cometidos com o uso de IA e a regulamentação do uso de IA em campanhas eleitorais numa era tão polarizada, são exemplos relevantes dessa tentativa de resposta jurídica.
Além da dimensão legislativa, é fundamental o fortalecimento da educação digital da população, bem como a capacitação de profissionais do Direito, da segurança pública e da tecnologia para lidar com essas novas demandas recentes. Por fim, é necessário promover uma reflexão ética sobre os limites do uso dessa tecnologia, responsabilizando não apenas quem a utiliza de forma ilícita, mas também os que a desenvolvem e disponibilizam sem mecanismos eficazes de controle, para evitar estas práticas. Assim, a construção de um ambiente digital mais seguro, justo e equilibrado dependerá da atuação conjunta de legisladores, juristas, cientistas, desenvolvedores e da sociedade como um todo, de modo a garantir que os avanços tecnológicos sejam acompanhados de responsabilidade, segurança e respeito aos direitos humanos.
6. REFERENCIAS
AFFONSO, Fábio José Monteiro. O direito à imagem na era das deep fakes. Revista Brasileira de Direito Civil, v. 27, n. 1, p. 251–270, 2021. Disponível em: https://rbdcivil.ibdcivil.org.br/rbdc/article/view/438/447. Acesso em: 26 maio 2025.
ANDRADE, J. M.; DE OLIVEIRA, F. C. Vazamentos de dados e o impacto na privacidade digital: análise dos casos Snowden e WikiLeaks. Revista Brasileira de Direito Digital, v. 3, n. 1, p. 45-61, 2017.
BERTOL, M. A. Segurança, privacidade e vigilância: debates atuais sobre espionagem digital. In: Anais do Congresso Brasileiro de Segurança da Informação, 2024. Disponível em: https://www.ufsm.br/app/uploads/sites/563/2024/12/9.3.pdf. Acesso em: 26 maio 2025.
CAMPOS, A. H.; RODRIGUES, R. S.; MENEZES, L. S. Análise dos riscos da inteligência artificial nos ciberataques. Revista Científica ACERTTE, v. 1, n. 5, 2023. Disponível em: https://acertte.org/acertte/article/view/182. Acesso em: 26 maio 2025.
CARVALHO, T. R.; SANTOS, E. M.; ROCHA, M. A. Deepfake: A evolução das fake news. Research, Society and Development, v. 11, n. 11, 2022. Disponível em: https://rsdjournal.org/index.php/rsd/article/download/29533/25508/337988. Acesso em: 26 maio 2025.
CHEN, Y. et al. Tecnologias de vigilância e desafios éticos: uma revisão. Journal of Information Ethics, v. 19, n. 2, p. 101-118, 2010.
CHIODINI, Carlos. Projeto de Lei nº 5.931, de 2023. Altera a Lei nº 9.504, de 30 de setembro de 1997, para dispor sobre o uso de ferramentas de inteligência artificial nas campanhas eleitorais. Câmara dos Deputados, 2023. Disponível em: https://www.camara.leg.br/proposicoesWeb/fichadetramitacao?idProposicao=2390764. Acesso em: 20 mar. 2025.
DING, X.; ZHAO, L.; WANG, J. Espionagem digital e proteção de dados: implicações jurídicas e sociais. Revista Científica de Segurança da Informação, v. 8, n. 2, p. 35-50, 2020. Disponível em: https://downloads.editoracientifica.com.br/articles/210906051.pdf. Acesso em: 26 maio 2025.
DUARTE DE et al. (Orgs.). Inteligência Artificial e Transformação Digital. Atena Editora, 2023. Disponível em: https://atenaeditora.com.br/index.php/catalogo/post/evolucao-da-inteligencia-artificial-da-ia-fraca-a-ia-forte-na-era-dos-chatbots-com-instanciacoes-na-educacao. Acesso em: 26 maio 2025.
FBI. Cyber Crime. Federal Bureau of Investigation, [s.d.]. Disponível em: https://www.fbi.gov/investigate/cyber. Acesso em: 26 maio 2025.
FERREIRA, Luiz Philippe de Orleans e Bragança. Projeto de Lei nº 5.641, de 2023. Proíbe a criação e disseminação de imagens pornográficas com IA sem consentimento. Câmara dos Deputados, 2023. Disponível em: https://www.camara.leg.br/proposicoesWeb/fichadetramitacao?idProposicao=2383356. Acesso em: 20 mar. 2025.
HODGES, Andrew. Alan Turing: The Enigma. Princeton: Princeton University Press, 2012.
IT FORUM. 2019: o ano do avanço do deepfake; relembre episódios que marcaram. IT Forum, 2019. Disponível em: https://itforum.com.br/2019-o-ano-do-avanco-do-deepfake-relembre-episodios-que-marcaram/. Acesso em: 26 maio 2025.
JANDIRA FEGHALI. Projeto de Lei nº 4.025, de 2023. Regula o uso de imagem, voz e obras autorais em sistemas de inteligência artificial. Câmara dos Deputados, 2023. Disponível em: https://www.camara.leg.br/proposicoesWeb/fichadetramitacao?idProposicao=2364063. Acesso em: 20 mar. 2025.
KASPERSKY. O que é o WannaCry ransomware? Kaspersky Resource Center, [s.d.]. Disponível em: https://www.kaspersky.com.br/resource-center/threats/ransomware-wannacry. Acesso em: 26 maio 2025.
KISSINGER, Henry; SCHMIDT, Eric; HUTTENLOCHER, Daniel. A Era da Inteligência Artificial: Os Desafios da Nova Era Tecnológica. São Paulo: Leya, 2024.
LINHARES, Fred. Projeto de Lei nº 5.694, de 2023. Criminaliza o uso de IA para manipular conteúdos envolvendo crianças e adolescentes. Câmara dos Deputados, 2023. Disponível em: https://www.camara.leg.br/proposicoesWeb/fichadetramitacao?idProposicao=2384495. Acesso em: 20 mar. 2025.
MARTINS, R. S.; RIBEIRO, T. F. Evolução histórica da espionagem e os impactos da tecnologia da informação. Revista de Estudos em Comunicação, v. 15, n. 1, p. 77-92, 2023. Disponível em: https://lume.ufrgs.br/bitstream/handle/10183/259965/001170917.pdf?sequence=1. Acesso em: 26 maio 2025.
NOVELLO, R. M. N. Práticas de espionagem e vigilância: aspectos éticos e legais. Revista Brasileira de Direito, v. 20, n. 3, p. 200-215, 2021. Disponível em: https://pantheon.ufrj.br/bitstream/11422/24618/1/RMNNovello.pdf. Acesso em: 26 maio 2025.
NOVELLO, Renata Mello Nascimento. Manipulação do meio digital pelo uso do deepfake: impactos nos direitos da personalidade, regulamentação e a reparação de danos no âmbito da responsabilidade civil. 2023. Trabalho de Conclusão de Curso (Bacharelado em Direito) – Faculdade Nacional de Direito, Universidade Federal do Rio de Janeiro, Rio de Janeiro, 2023. Disponível em: https://pantheon.ufrj.br/handle/11422/24618. Acesso em: 26 maio 2025.
OLIVEIRA, G. P.; SILVA, D. S. Inteligência Artificial e Privacidade: os desafios do Privacy by Design. Advances in Knowledge Representation, v. 1, n. 1, 2023. Disponível em: https://periodicos.ufmg.br/index.php/advances-kr/article/view/52813. Acesso em: 26 maio 2025.
PALUMBO, Delegado. Projeto de Lei nº 4.730, de 2023. Altera o Código Penal para incluir o uso de inteligência artificial como agravante. Câmara dos Deputados, 2023. Disponível em: https://www.camara.leg.br/proposicoesWeb/fichadetramitacao?idProposicao=2376106. Acesso em: 20 mar. 2025.
REALITY DEFENDER. A brief history of deepfakes. Reality Defender, 2024. Disponível em: https://www.realitydefender.com/insights/history-of-deepfakes. Acesso em: 26 maio 2025.
REALITY DEFENDER. Deepfake scams: the rising threat to financial institutions. Reality Defender, 2025. Disponível em: https://www.realitydefender.com/insights/deepfake-social-engineering-financial-fraud. Acesso em: 26 maio 2025.
RUSSELL, Stuart; NORVIG, Peter. Artificial Intelligence: A Modern Approach. 3. ed. New Jersey: Prentice Hall, 2013.
SCHMIDT, Gabriela Kühn. Ataques cibernéticos e inteligência artificial: riscos e desafios para o direito penal. 2023. Monografia (Graduação em Ciências Jurídicas e Sociais) – Universidade Federal do Rio Grande do Sul, Porto Alegre, 2023. Disponível em: https://lume.ufrgs.br/bitstream/handle/10183/245613/001146244.pdf?sequence=1. Acesso em: 26 maio 2025.
SCIMAGO INSTITUTIONS RANKINGS. Inteligência Artificial e Aprendizado de Máquina: estado atual e tendências. Estudos Avançados, São Paulo, 2021. Disponível em: https://www.scielo.br/j/ea/a/wXBdv8yHBV9xHz8qG5RCgZd/?lang=pt&format=html. Acesso em: 26 maio 2025.
SHIN, H.; CHOI, S. Vigilância e direitos humanos: perspectivas contemporâneas. Revista de Direitos Humanos, v. 9, n. 1, p. 120-134, 2014. Disponível em: https://www.ufsm.br/app/uploads/sites/563/2024/12/9.3.pdf. Acesso em: 26 maio 2025.
SILVA, Luciane Alves da; NASCIMENTO, Luana Beatriz Vieira; LEMOS, Caroline de Souza. Evolução da Inteligência Artificial: da IA fraca à IA forte na era dos chatbots com instanciações na educação. In: OLIVEIRA, Luciana et al. (Orgs.). Inteligência Artificial e Transformação Digital. Atena Editora, 2023.
SILVA, Maria Cândida Moraes; MORAES, Danilo Pereira de. Novos desafios para a educação na Era da Inteligência Artificial. Fundamentum Scientia, 2023. Disponível em: https://qa1.scielo.br/j/fun/a/jWKkyjpRzxjm6c85yCKv4MN/. Acesso em: 26 maio 2025.
SILVA, P. R.; SANTOS, M. A.; LIMA, J. R. A. Privacidade e segurança em ambientes digitais: uma análise dos principais desafios. Revista de Segurança da Informação, v. 10, n. 2, p. 60-75, 2022. Disponível em: https://www.enabed2024.abedef.org/resources/anais/15/enabed2024/1724187473_ARQUIVO_e8bcd8566340637caf069509d3fc4cc5.pdf. Acesso em: 26 maio 2025.
TECHTARGET. ILOVEYOU virus. SearchSecurity, [s.d.]. Disponível em: https://www.techtarget.com/searchsecurity/definition/ILOVEYOU-virus. Acesso em: 26 maio 2025.
TURING, Alan Mathison. Computing machinery and intelligence. Mind, Oxford University Press, 1950. Disponível em: https://www.jstor.org/stable/2251299. Acesso em: 26 maio 2025.
VALENTE, Ivan. Projeto de Lei nº 6.211, de 2023. Criminaliza a criação de conteúdo pornográfico com IA envolvendo crianças, adolescentes ou vítimas sem consentimento. Câmara dos Deputados, 2023. Disponível em: https://www.camara.leg.br/proposicoesWeb/fichadetramitacao?idProposicao=2394520. Acesso em: 20 mar. 2025.
graduanda em Direito pelo Centro Universitário UNA.
Conforme a NBR 6023:2000 da Associacao Brasileira de Normas Técnicas (ABNT), este texto cientifico publicado em periódico eletrônico deve ser citado da seguinte forma: ALMADA, Rayane Costa. O uso de inteligência artificial para práticas criminosas Conteudo Juridico, Brasilia-DF: 22 jul 2025, 04:40. Disponivel em: https://conteudojuridico.com.br/consulta/artigos/69185/o-uso-de-inteligncia-artificial-para-prticas-criminosas. Acesso em: 14 ago 2025.
Por: Camila Martins de Sousa
Por: Marcos Antonio Duarte Silva
Por: MARCIO GONDIM DO NASCIMENTO
Por: Thiago Ribeiro Rodrigues
Por: Carine Maiune Louriao Dos Santos
Precisa estar logado para fazer comentários.