Segurança Pública
Implicações do policiamento preditivo mediante o uso de inteligência artificial
O uso de IA no policiamento preditivo reforça estigmas sociais e pode violar direitos fundamentais. Como evitar que essas tecnologias sejam ferramentas de discriminação e não de segurança pública?

Resumo: Com o despertar tecnológico e a crescente sensação de insegurança e ameaça, acaba-se por viabilizar o uso indiscriminado de tecnologias em busca de segurança, tornando-se corriqueiro o uso de sistemas preditivos baseados em inteligência artificial e algoritmos. Nesta perspectiva, encontra-se o questionamento acerca de qual seria o limite para que o uso de tais tecnologias preditivas, cada vez mais utilizadas para identificação de possíveis locais de crimes, infratores e vítimas, não se tornem ferramentas de lesão a direitos inerentes ao indivíduo. Dessa maneira, destaca-se a existência de alteração no próprio modus operandi da polícia com relação aos indivíduos, refletindo então uma lesão aos princípios constitucionais, fazendo-se necessário compreender a aprendizagem da máquina, de forma supervisionada ou não supervisionada e seus desdobramentos, falhas e responsabilização. A sobreposição da segurança nacional à liberdade dos civis, com ênfase na discriminação racial e de gênero, a falta de nitidez sobre o funcionamento desses sistemas e a escassez de um arcabouço jurídico acerca da temática, atinge diretamente o corpo social e seus direitos fundamentais. Ademais, a pesquisa conclui que o uso de tecnologias preditivas enviesadas resulta diretamente na estigmatização de um grupo social específico, identificado como ‘criminoso’, chancelando a teoria do labelling approach e, caracterizando, no dizer de Becker (2011), o paradoxo existente na situação em que os riscos ocasionam o incremento de técnicas que objetivam segurança e controle, mas que concomitantemente acabam por gerar novos riscos.
1. Introdução
O crescente surgimento de inteligências artificiais deu azo a sua utilização como ferramenta na propagação da ideia de melhorias na segurança pública, com o objetivo de propiciar decisões cada vez mais assertivas e racionais, em razão da necessidade de um processamento de dados e informações cada vez mais volumoso. Entretanto, ao relacionar a segurança pública ao uso de tecnologias, é necessário compreender que existe uma relação entre riscos e oportunidades que pode causar consequências irreparáveis na sociedade (Goldschmidt e Passos, 2005). Deste modo, cria-se uma relação direta entre as Inteligências Artificiais – IA’s e a inserção de um sistema preditivo de dados na sociedade.
Um dos principais vetores dessas inteligências artificiais é o reconhecimento facial, presente no cotidiano da população de diversas formas, como para desbloquear os próprios smartphones; para além dessa função tão usual, busca-se aplicar o reconhecimento facial em sistemas de policiamento preditivo, pretendendo alcançar um menor índice de insegurança pública e aliar as inovações tecnológicas a uma das, senão a maior, problemáticas atuais – a criminalidade.
O sistema de reconhecimento facial é usado para verificar ou identificar pessoas a partir de dados biométricos e, baseando-se nisso, cria-se um modelo de predição (Fernandes; Branco; Mendes e Santana, 2024). Sob essa ótica, a maior crítica relacionada a esse sistema é a lesão a direitos fundamentais – privacidade, honra, imagem, intimidade, proteção de dados pessoais, segurança e liberdade de expressão. Além disso, a máquina que produz tal sistema é fruto da inteligência humana e, também, de seus vieses; destacando-se a inteligência de Schwarcz (2019) ao dizer que nosso presente continua a espelhar nosso passado e que o aprendizado da máquina se dá através de indivíduos que possuem em sua formação pessoal, diversas convicções raciais e/ou de gênero.
De tal modo, o alvo de tais tecnologias será o mesmo, igualmente seletivo: o grupo minoritário. Assim, com a falta de implicações legais acerca desses sistemas, questiona-se qual seria o limite para que os usos de tais tecnologias preditivas não se tornem ferramentas de lesão a direitos inerentes ao indivíduo e ainda, propagadores de estigmas sociais?
O uso de sistemas de policiamento preditivo tem ganhado destaque no Brasil e no mundo, tornando-se uma questão de grande relevância, fazendo-se necessário um estudo aprofundado relacionado aos impactos diretos aos atingidos por ele e a criação de regulação para o funcionamento de tais tecnologias no afã de que, ao invés de uma ferramenta de auxílio na segurança pública, elas não se tornem um instrumento de lesão e insegurança à sociedade.
Dessa forma, a presente pesquisa se desenvolve através de uma abordagem qualitativa, utilizando-se do método indutivo, caracterizando-se como exploratória e bibliográfica e possui como objetivo geral identificar os impactos do policiamento preditivo e da utilização de inteligências artificiais nas lesões às garantias constitucionais, relacionando o uso indevido de tecnologias preditivas como ferramenta favorável à propagação de estigmas sociais.
Neste sentido, surge o seguinte questionamento: qual seria o limite para que os usos de tais tecnologias preditivas não se tornem ferramentas de lesão a direitos inerentes ao indivíduo? Para responder a esta questão norteadora, o presente artigo objetiva verificar quais encaminhamentos foram estabelecidos para melhor adequabilidade do uso da IA ao policiamento preditivo, e quais perspectivas jurídicas o ordenamento brasileiro tem seguido para proteção e garantia de direitos fundamentais.
2. Inteligência Artificial (IA) e o Aprendizado de Máquinas (Machine Learning e Big Data)
Nas últimas décadas ficou explícita a incidência do uso de inteligência artificial em diversas áreas da sociedade, desde as mais complexas, que processam dados sensíveis e em um quantitativo exorbitante e tomadas de decisões, como também em tecnologias corriqueiras do dia a dia, como softwares de tradução, sites de busca e pesquisa, smartphones.
Segundo Schwab (2019), na obra intitulada ‘A Quarta Revolução Industrial’, estamos no caminho para mudanças cada vez mais disruptivas e significativas, que possibilitam impactos nos meios de produção, na economia e na segurança, ou seja, inovações tangíveis que resultam da interdependência entre tecnologias distintas que não mais constituem mera ficção científica, mas interagem com materiais, corpos, produtos, enfim.
A Inteligência Artificial aprimora-se cada vez mais, isto se dá pela sua capacidade de ser alimentada e atualizada por dados que nós, humanos, fornecemos diariamente, o que se denomina ‘aprendizagem automática’, que se configura através de algoritmos, estes resultantes de um volume de diferentes dados que, pouco ou não estruturados são recepcionados pela IA, constituindo o Big Data e que estão sempre em constante transformação, ou seja, o Big Data possui os ‘3 V ‘s’: volume, contemplando o tratamento de uma quantidade exacerbada de dados; variedade, oferecendo uma análise de dados mais veloz e ágil na medida em que novas informações são coletadas; e velocidade, tratando de dados que contemplam maior variedade de informações, em diversidade de formatos e origens (Goldschmidt, Bezerra e Passos, 2015).
Essa capacidade de analisar toneladas de dados é crucial para garantir a agilidade do processamento, deste modo, apreciados pelo machine learning, ou aprendizado de máquina, utiliza-se dados coletados para softwares e ferramentas capazes de realizar previsões, estabelecer padrões e realizar tarefas de forma supervisionada ou não supervisionada. Caso ocorra de forma supervisionada, o aprendizado se dá pelo abastecimento de exemplos que o treinam para o rótulo desejável, a fim de que o dado fornecido se torne um classificador e possa posteriormente rotular outros dados não rotulados (Monard, 2003); em contrapartida, no aprendizado não supervisionado, a máquina busca analisar os exemplos que lhe foram fornecidos e agrupá-los de forma a gerar um rótulo (Cheeseman e Stutz, 1990).
Deste modo, a inteligência artificial pode ser um dispositivo capaz de realizar as mais diversas previsões relacionadas desde questões econômicas até as relacionadas aos fenômenos biológico-naturais. Ou seja, sua aplicabilidade ultrapassa a área da máquina em si, perpassando pelas demais esferas sociais. Entretanto, como já alerta Buchner (2006), o uso de tais tecnologias de forma mais dependente acende um alerta quanto à possibilidade de imprecisão na coleta e análise de dados (Big Data), visto que, diante de dados errôneos, as consequências podem ser prejudiciais e irreversíveis para quem delas se utilizar.
Neste panorama, faz-se necessário compreender a aquisição do conhecimento nesses modelos inteligentes de sistema, do aprendizado de máquina, que ocorrem de forma indutiva, ou seja, de forma lógica, permitindo a obtenção de conclusões genéricas ou estritamente objetivas, sobre um conjunto particular de exemplos. Por este viés, percebe-se que, com o uso de inteligências artificiais específicas, tais dados são processados, interpretados e capazes de possibilitar a criação de padrões, por conseguinte, modelos preditivos (Cohen, 2013 apud Ferguson, 2015), atrelado a isso, o big data analytics possibilita a análise e interpretação de dados por meio de um processo algorítmico que busca encontrar padrões em dados brutos.
Diante do exposto, explicita-se uma grande participação humana no aprendizado de máquina, visto que, no decorrer do processo de aprendizagem, há intervenção humana em um momento crucial: o do fornecimento de dados exemplificativos, ou seja, o padrão dos rótulos criados futuramente pelo sistema preditivo poderá, por diversas vezes, ser baseado em preconceitos e crenças do indivíduo fornecedor. Esta circunstância determina atenção, no que tange às consequências do uso de tais tecnologias em sistemas preditivos, quando utilizados na segurança pública, pois, os dados coletados necessitam de controle, supervisão e regulação, para evitar violação coletiva de direitos fundamentais consagrados na carta política.
3. Sistemas Preditivos: O que são e seu funcionamento na segurança pública
Os sistemas preditivos consistem em softwares ou dispositivos, aparelhados, com o objetivo de realizar predição, ou seja, garantir maior previsibilidade de atos específicos. Tal tecnologia é empregada em atividades distintas, apesar de ser muito reconhecida no marketing e nas relações de consumo e tendências, faz-se um recorte para sua aplicabilidade em sistemas preditivos de segurança pública, intitulado ‘policiamento preditivo’.
Neste recorte, o policiamento preditivo torna-se uma ferramenta importante para a prevenção e resolução de crimes, visto que a segurança pública se tornou pauta de extrema importância, trazendo sobre si uma cobertura midiática e de maior relevância social, o que influenciou o interesse e o investimento em atrelar as novas tecnologias com maior capacidade de vigilância. Entretanto, o uso desses apetrechos não é, ou não deveriam ser, isentos de normativas. A RAND Corporation (2013), em seu guia para policiamento preditivo, aduz que a metodologia segue uma categorização com o objetivo de atender às demandas policiais, conforme sistematizado na tabela abaixo:
Tabela 1 – Categorias principais de métodos de policiamento preditivo
Classificação | Métodos |
---|---|
I | Métodos para prever crimes |
II | Métodos para prever infratores |
III | Métodos para prever as identidades dos perpetradores |
IV | Métodos para prever vítimas de crime |
Fonte: Predictive Policing –The Role of Crime Forecasting in Law Enforcement Operations (2013)
Deste modo, cada classificação vai obter, dentro da atividade policial, um enfoque diferente, utilizando ferramentas diversificadas e que exigem modelos cada vez mais sofisticados no processamento, visando redução de erros nas predições. Ou seja, essas técnicas, unidas a tecnologias como machine learning, inteligência artificial e mineração de dados, podem auxiliar no processo de tomada de decisões, garantindo maior objetividade e eficácia no alcance das finalidades estabelecidas.
Na mesma senda, reitera-se que tais dispositivos utilizam dados pessoais e sensíveis (dados de caráter subjetivos) e perpassam pela intimidade e privacidade do cidadão. Atenta-se que, os dados e informações utilizados podem derivar de erros, possibilitando, de forma indiscriminada, uma abordagem meramente objetiva, onde caberia uma análise subjetiva sobre o caso concreto, não dispensando uma análise crítica.
Destarte, duas perspectivas são amplamente utilizadas no enfoque da segurança pública: (i) policiamento preditivo baseado no lugar, onde a ferramenta se atenta para a ‘zonas de perigo/risco’, através da identificação dos locais que oferecem maior vulnerabilidade para a sociedade, com o objetivo de viabilizar segurança através de policiamento intensificado, e (ii) policiamento preditivo baseado na pessoa, que segundo Braga (2020), classifica-se através de registros de dados pessoais, sensíveis, inquéritos policiais e cruzamento de dados diversos, interferindo diretamente na relação existente entre a pessoa, que pode ser categorizada como ‘possível ameaça’ e as equipes de vigilância, de tal modo a despertar suspeita de culpabilidade em relação a um cidadão que sequer cometeu crime algum, o que entende-se na forma lógica como ‘provável criminoso’, mostrando-se como um procedimento desarrazoado.
4. Propagação de estigmas sociais através de sistemas preditivos e IA´S
Na lição Schwarcz (2019, p.40): “nós, brasileiros, andamos atualmente perseguidos pelo nosso passado e ainda nos dedicando à tarefa de expulsar fantasmas que, teimosos, continuam a assombrar”.
Faz-se necessário destacar que do século XVI ao XIX o Brasil foi palco de um sistema escravocrata e excludente e a adoção de tal modelo de sociedade, reverbera suas consequências até hoje. Para além disso, tem-se também a desvalorização da mulher em toda construção da história brasileira, aponta-se como exemplo o fato da possibilidade de ingressar em um ensino superior só ter sido concedida em 1879 e também da oportunidade de exercer um direito político, como o voto, só ter sido ofertada em 1932. Sob essa ótica, destacam-se duas grandes implicações: negros e mulheres sempre foram vítimas de negligência e marginalização e que tais atributos perseguem não só essas duas classes, mas outros grupos minoritários como os LGBTQIAPN+, indígenas, idosos e descapacitados, até os dias atuais; como abordado, mais uma vez por Schwarcz (2019, p. 29): “um sistema como esse só poderia originar uma sociedade violenta e consolidar uma desigualdade estrutural no país.”
O termo estigma é proveniente do grego antigo – stigmata – que tem sua significação atrelada a ‘cicatriz ocasionada por uma ferida ou por um machucado’. Nos casos de grupos minoritários, essa cicatriz é estrutural, pautada na construção basilar do Brasil, extremamente segregacionista e transformou o corpo social em uma miniatura de Estado autoritário, dotado de preconceitos enraizados e certo convencimento de superioridade.
A relação entre a manutenção desses estigmas e o policiamento preditivo se dá no momento em que a consumação de tais convicções pessoais e preconceituosas torna-se uma arma lesiva à comunidade que está sendo marginalizada. Desse modo, o fato de estar sempre na mira da sociedade, possibilita a facilidade de também estar na mira da culpabilidade e de ser apontado como motivador de mazelas sociais.
Os estigmas são provenientes de desvios sociais e tais desvios podem ser configurados como o cometimento de uma infração a alguma regra geralmente aceita (Becker, 2021), tal infração leva a procura incessante sobre os fatores de personalidade e situações da vida dos indivíduos que poderiam explicar a motivação para a prática daquele ato, ou seja, o desviante é uma pessoa vítima de rótulos impostos pelo corpo social e, para uma conduta ser considerada ou não desvio, deve-se analisar como as pessoas reagem a ela, sendo nesse ponto que os estigmas se sobressaem. Assim, é válida a análise de um exemplo para explicitar tal afirmação: se um homem branco é visto adentrando um shopping center e ingressando em uma loja de artigos de luxo, tem-se um cenário de normalidade; em contrapartida, se um homem negro personifica a mesma cena, independentemente de como se porte, haverá, com certeza, um alerta por parte da segurança do shopping e da própria loja, como se aquela conduta fosse algo desviante e que na realidade, não é, necessariamente; configura-se um possível desvio apenas pelo imaginário estigmatizado do negro como um corpo a margem da alta sociedade.
Na linha de pensamento de Becker (2021, p. 27): “o grau em que um ato será tratado como desviante depende também de quem o comete de quem se sente prejudicado por ele. Regras tendem a ser aplicadas mais a algumas pessoas que a outras.”
A problemática é exatamente essa, os sistemas de policiamento preditivo são alimentados por seres humanos que possuem suas próprias convicções políticas, morais e sociais e esse sistema tem como objetivo “prevenir crimes em determinados locais, com prognóstico de informações de quando e onde ocorrerão” ou até mesmo “intervindo em pessoas suspeitas, infratores contumazes, por vezes identificando eventuais perpetradores” (Moraes, 2022, p.41).
Assim, nota-se que a possibilidade de crenças pessoais intervir no julgamento de escolhas de locais estratégicos a serem posicionadas as câmeras de vigilância, contemplando bairros nobres, por exemplo, para segregar grupos minoritários e lesar direitos fundamentais.
Essa necessidade de examinar reações alheias, foi a principal mudança no paradigma da Criminologia Tradicional e que deu palco para a Teoria do Labelling Approach. Desse modo, essa análise é a prova de que a conduta é qualificada, adequada ou não, baseada no que o corpo social julga negativo ou positivo. Deve-se destacar, então, que:
A criminalidade se revela, principalmente, como um status atribuído a determinados indivíduos mediante um duplo processo: a ‘definição’ legal de crime, que atribui a conduta o caráter criminal e a ‘seleção’ que etiqueta e estigmatiza um autor como criminoso entre todos aqueles que praticam tal conduta. Dessa forma, a teoria do labelling approach constrói um caminho sobre a problematização do conceito de criminalidade que perpassa por três níveis: a investigação da definição da conduta desviada, a atribuição do status de criminoso e o impacto na identidade desviante. (Andrade. 1996, p. 280).
Nesse viés, percebe-se que, o crime não é mais definido como um fenômeno individual, tal qual defendia a Criminologia Tradicional, mas sim como um sistema complexo e que envolve as esferas sociais. Com isso, os questionamentos que antes pairavam sobre ‘quem é o criminoso?’ ou ‘como se tornam desviantes?’, transformaram-se, com teoria do etiquetamento social, em perguntas como: “quem é definido como desviante?” e “o que causa tal definição?” (Baratta, 2011, p. 89). Nota-se que a teoria do labelling approach foi responsável pela denúncia da seletividade e rotulação do sistema penal, consequentemente apontando como fator provedor de tais seleções rotuladas: as interações sociais, os fatores históricos, econômicos e políticos, que no Brasil, faz total sentido, visto que, como exposto alhures, possui sua construção pautada em um país excludente de negros, mulheres e minorias, fazendo com que a intervenção do sistema penal, ao invés de ressocializar e reinserir o indivíduo, torne-se o instrumento que consolida a identidade de desviante por um processo de estigmatização e, por via de consequência, levaria o indivíduo à carreira no sub mundo do crime (Baratta, 2011).
Estudo publicado pela National Academies of Sciences, Engineering (2017 n.p.), com o título de ‘Policiamento proativo: Efeitos sobre o Crime e as Comunidades’ contempla artigo acerca da metodologia do policiamento preditivo:
O policiamento o preditivo usa dados sobre os horários, locais e natureza dos crimes passados, para fornecer informações aos estrategistas da polícia sobre onde e em que horas as patrulhas policiais vem patrulhar ou manter uma presença, a fim de fazer o melhor uso dos recursos ou para onde tem a maior chance de dissuadir ou prevenir crimes futuros. Este tipo de policiamento detecta sinais e padrões em relatórios de crimes para antecipar se o crime aumentará, quando um tiroteio pode ocorrer, onde o próximo carro será roubado e quem será a próxima vítima do crime. Os algoritmos são produzidos levando-se em consideração esses fatores, que consistem em grandes quantidades de dados que podem ser analisados. O uso de algoritmos cria uma abordagem mais eficaz que acelera o processo de policiamento preditivo, uma vez que pode fatorar rapidamente em diferentes variáveis para produzir um resultado automatizado. A partir das previsões que o algoritmo gera, elas devem ser acopladas a uma estratégia de prevenção, que normalmente envia um policial ao local e hora previstos pelo crime.
Diante do exposto, entende-se que o modelo de sistema preditivo que utiliza as inteligências artificiais, com um grande volume de dados e algoritmos, escolhe essas ferramentas a fim de estabelecer estratégias de segurança pública, gerando uma vigilância automatizada que promove uma falsa ideia de seguridade social. Isso acontece porque, a forma com que tais tecnologias são manejadas, tornam-nas lesivas aos direitos fundamentais da sociedade, visto que, a massividade dos dados é adquirida, por muitas vezes, de forma nada transparente, fazendo com que o funcionamento de tais sistemas, seja algo restrito aos órgãos de segurança pública que propagam um ideal de defesa social e combate a criminalidade, quando na verdade, o incremento dessas técnicas inovadoras que buscam segurança e controle, geram novos riscos (Becker, 2011). Com isso, o acesso a informações acerca da metodologia desses sistemas preditivos é como uma nuvem de fumaça e a desinformação atinge majoritariamente os principais alvos de tal sistema; uma vez que os agentes reproduzem no seu modus operandi suas visões de mundo e propagam suas ferramentas de controle social, atingindo predominantemente os mais vulneráveis.
Ademais, a existência dos sistemas preditivos com base em dados pessoais e reconhecimento facial, leva diretamente a criação de um profiling criminal, ou seja, uma tentativa de realizar o perfil do criminoso que é pautado nos ideais que a própria sociedade e as instituições de controle possuem de características que configuram um criminoso, tal pensamento converge com Lombroso (2010, p. 43-44) que defendia a existência de uma série de estigmas degenerativos comportamentais e sociais atrelados a determinados aspectos físicos e morais, os quais seriam determinantes para a criação do perfil de um criminoso nato. Dessa maneira, acreditar na padronização de um modelo criminal, a ponto de utilizar reconhecimento facial para facilitar a busca desse processo e da diminuição da criminalidade, é ir de encontro inteiramente contra o preceito constitucional da presunção de inocência: “se a presunção de inocência não for estendida ao profiling criminal ela perderá seu papel de princípio norteador na atual era de vigilância ubíqua e de big data” (Gless, 2020, p.4).
Nesse sentido, vale destacar que não somente a garantia da presunção de inocência é ferida, mas alguns outros direitos fundamentais dos indivíduos como o direito à privacidade, à honra, à imagem, à intimidade, a proteção de dados pessoais, a segurança e liberdade de expressão também são atingidos.
Assim, é válido refletir acerca dos impactos dos sistemas de policiamento preditivo e das inteligências artificiais nos direitos constitucionais do corpo social, ressaltando que a qualidade da segurança pública é crucial, tanto quanto os direitos e garantias fundamentais.
5. Sistemas preditivos e IA´S: na perspectiva de garantia a direitos e princípios fundamentais constitucionais
Com a revolução industrial, no século XVII e a consequente diminuição dos processos manuais, passou-se a buscar agilidade na produção, possibilitando a substituição do homem por máquinas. Entretanto, com o avanço da tecnologia, surgiram outras necessidades, onde a difusão da internet transformou-se em ferramenta para disseminação, colaboração, troca ou até mesmo compartilhamento de informações, tornando-se bastante presente e procurando colaborar para mudanças gramaticais das redes sociais e dessa forma, influenciando na dinâmica social (Silva, 2022).
Entretanto, se por um lado a internet colabora com a sociedade, em outra perspectiva, existem grandes impactos negativos que a tecnologia inteligente pode trazer à democracia e ao âmbito jurídico. Neste sentido, os autores Chiarini e Silva (202, n.p.) afirmam que:
Tecnologias de informação e comunicação (TICs), por exemplo, possibilitaram mudanças sociais profundas e influenciaram a configuração das chamadas “sociedades do conhecimento” e “economias baseadas no conhecimento”, facilitando a comunicação, o compartilhamento de dados e o surgimento das redes virtuais. Embora, essas tecnologias não são neutras. Por um lado, as TICs permitiram uma difusão acelerada e deliberada de informações falsas (fake news) em dimensões assustadoras, por meio de redes sociais e também de contas autônomas programadas (conhecidas por bots) para espalhar mensagens, manipulando a opinião pública.
Partindo deste pressuposto, os resultados negativos das tecnologias têm sido notados como uma ameaça às democracias e à segurança jurídica. Nota-se que as TICs oferecem oportunidades significativas para o avanço da sociedade, sendo válido abordar e mitigar os desafios associados ao seu uso, a fim de promover um ambiente digital mais seguro, inclusivo e democrático.
Nesse viés, de acordo com Lemes (2019), potenciais efeitos negativos à democracia podem ser gerados pela tecnologia inteligente, sobretudo por terem sido revelados por seus operadores, outputs (saídas) com erros e distorções que reproduziam desigualdades e geravam injustiças. A sociedade brasileira, com uma grande intolerância ao risco, está rumando para um Estado de vigilância total, buscando uma maior sensação de segurança, questionando-se até que ponto essa necessidade de controle e vigilância não se tornará prejudicial?
Nessa esteira de pensamento, em uma perspectiva de chave mestra ao alcance do controle social, a motivação para utilização de meios tecnológicos, sobretudo no que concerne às inteligências artificiais, é constante, especialmente em momentos de emergência social, no entanto, a razão de eficácia nunca pode se sobressair às razões de legitimidade (Menezes e Sanllehí, 2021), atingindo e violando coletivamente direitos individuais constitucionais.
Sob o mesmo olhar, os entes de segurança pública devem atentar-se às normas e não utilizar dados pessoais e sensíveis da população, sem o devido tratamento e controle. A Lei nº 9.296/96, mais conhecida como Lei das Interceptações Telefônicas, cuida de estabelecer os critérios para a violação da privacidade e intimidade em casos de crimes graves, ou seja, no mesmo sentido, há necessidade de regulação para que a utilização dessa novel ferramenta tecnológica não seja instrumento de desmonte do sistema de garantias.
Na mesma ótica, Menezes e Sanllehí (2021) aduzem que as investigações prospectivas (phishing expeditions) são proibidas a partir do momento em que afetam um direito fundamental, necessitando de uma autorização prévia. Ou seja, as intervenções mais hostis devem ser antecipadas de suspeita razoável (probable cause). Todavia, a empolgação através dos métodos de análise mais sofisticado realizados por meio IA, podem gerar ocultações de dificuldades metodológicas, valendo ressaltar que, se não forem corrigidas, podem representar ameaças aos direitos fundamentais constitucionais dos indivíduos.
Fernandes (1977, p. 71-72), há quase 50 anos, abordava:
A vida privada é o direito de excluir razoavelmente da informação alheia ideias, fatos e dados pertinentes ao sujeito. Este poder jurídico atribuído à pessoa consiste, em síntese, em opor-se à divulgação de sua vida privada e a uma investigação desta, reduzindo a privacy a um jus prohibitionis, isto é, é um direito de proibir a intervenção ou o conhecimento alheio.
Notadamente, o direito à segurança é preocupação premente, relacionada à proteção e bem-estar da sociedade, garantindo estabilidade, proteção e confiança em uma gama de espectros, inclusive o tecnológico e o jurídico. Segundo um estudo de Sousa (2021), no Brasil, em 2019, começou a ser testada a tecnologia de reconhecimento facial, sendo presas 184 pessoas, já no primeiro ano de utilização, constatando-se que desse total, 90% eram pessoas negras. Compreende-se, nesse sentido, que a liberdade pessoal, integridade e dignidade devem ser compatíveis com a necessidade de segurança, ou melhor, a eficácia do sistema de controle deve estar associada ao arcabouço principiológico que norteia a carta política.
Diante do exposto, a constitucionalização do indivíduo e da privacidade é fundamental na construção e solidificação de uma sociedade democrática, uma vez que estabelece limites ao poder do Estado, evitando-se o retorno do Leviatã, em sua versão moderna, hi-tech.
Nesta senda, no tratamento de dados, existem direitos que devem ser sempre observados, quais sejam: o direito à privacidade; a honra; a imagem; a intimidade; a proteção de dados pessoais; a segurança e a liberdade de expressão. Acrescente-se ainda os princípios da relevância e da proporcionalidade, segundo os quais a coleta de dados pessoais deve ser mínima, de modo que seu uso seja realizado de maneira ética, transparente e responsável, levando em consideração os direitos e interesses individuais e só, excepcionalmente, o interesse coletivo.
Portanto, tal situação demanda por respostas jurídicas urgentes para essa sociedade tecnologicamente mais avançada, pois o uso dos sistemas preditivos e das inteligências artificiais vem, cotidianamente, acarretando lesões aos direitos fundamentais de forma coletiva.
6. A escassez legislativa acerca dos sistemas preditivos e IA’S
Uma das principais questões que pairam acerca do uso do policiamento preditivo é a falta de uma legislação clara e coerente relacionada a ele. Desse modo, vale destacar que a Constituição Federal de 1988, em seu artigo 5º, inciso LXXIX, define como direito fundamental o direito a proteção de dados pessoais: “é assegurado, nos termos da lei, o direito à proteção dos dados pessoais, inclusive nos meios digitais.” Assim, nota-se que é de suma importância que o ordenamento jurídico resguarde os dados pessoais dos indivíduos, o que implica diretamente nos sistemas preditivos e no uso de reconhecimento facial.
No afã de proteger tais direitos fundamentais, em 2018 entrou em vigência a Lei Geral de Proteção de Dados (LGPD), dispondo sobre o tratamento de dados pessoais, inclusive nos meios digitais, por pessoa natural ou pessoa jurídica de direito público ou privado. O seu o art. 6º traz alguns princípios que devem ser observados e respeitados quando houver o tratamento de dados pessoais, entre eles, destaca-se o do inciso VI: “transparência: garantia, aos titulares, de informações claras, precisas e facilmente acessíveis sobre a realização do tratamento e os respectivos agentes de tratamento, observados os segredos comercial e industrial”
Em contrapartida, apesar de existir o dever de transparência aos titulares, a mesma lei dispõe no art. 4º, III, que não será aplicado os dispositivos ao tratamento de dados realizados para fins exclusivos de: a) segurança pública; b) defesa nacional; c) segurança do Estado; ou d) atividades de investigação e repressão de infrações penais.
Ou seja, o uso de reconhecimento facial ou tecnologias preditivas, torna-se indisponível aos indivíduos que serão alvos, visto que, terão seus dados sensíveis coletados e não poderão buscar a informação acerca do intuito da coleta ou de como está sendo realizado o tratamento de tais dados. Essa intransparência é uma lesão direta ao direito de proteção dos dados pessoais.
Ademais, a escassez de informações acerca de qual o funcionamento ou quais são os critérios de análise do sistema ou do banco de reconhecimento facial, direciona os indivíduos a um campo em que, caso sejam acusados erroneamente, não terão como se defender pela desinformação acerca da metodologia utilizada para encontrar o alvo, ferindo o direito à presunção de inocência e também à paridade de armas. Diferentemente do que o senso comum pensa, os casos de erros em reconhecimento facial são bastante recorrentes, o site O Globo registrou que, no Rio de Janeiro, em Copacabana, estava sendo utilizado um sistema que identificou, via reconhecimento facial, o rosto de uma mulher – Josiete Pereira do Carmo – e a apontou como foragida, com um mandado de prisão preventiva em aberto, a mulher foi detida e posteriormente foi comprovado que ela estava cumprindo sua pena – em regime aberto – e que foi recolhida equivocadamente por um erro do sistema (Grinberg; Araújo, 2024). Vale ressaltar que, na mesma época do caso anterior, O Globo emitiu uma notícia referente a um segundo indivíduo que foi solto devido a uma prisão equivocada, mesmo caso de Josiete, constava um mandado de prisão em aberto contra o argentino Silvio Gabriel Juarez, mas o rapaz já estava solto desde a audiência de custódia porque sua condenação foi extinta e em 2020, teve um alvará de soltura expedido em seu nome (Grinberg; Araújo, 2024). Erros humanos ocorrem na alimentação ou na sua ausência, mas a máquina, até então, é fruto de comandos humanos e estes, por sua condição de falibilidade, não devem impingir lesões como as narradas alhures.
Diante do exposto, a falibilidade nos processos de reconhecimentos é mais comum do que parece e, a desinformação dos indivíduos acerca do funcionamento de tais sistemas e de como seus dados estão sendo tratados gera uma insegurança no resultado das pesquisas e prisões provenientes desses modelos de segurança pública. Além disso, as prisões inadequadas que são realizadas, são extremamente vergonhosas e lesivas aos direitos fundamentais dos indivíduos.
No cenário mundial, o parlamento Europeu, em 13 de março de 2024 aprovou o primeiro marco regulatório acerca das IA ́ s. Com isso, Tudorache, um dos relatores do texto da novel regulação afirma que é o início de uma busca entre “um equilíbrio muito delicado entre o interesse pela inovação e os interesses que devem ser protegidos.” (PARLAMENTO…14 mar. 2024), evidenciando a necessidade de unir os interesses e criar um arcabouço jurídico que proteja não só o coletivo, mas o individual, de modo plural. De tal modo, destaca-se, em matéria publicada no portal Conjur (2024) que o denominado ‘AI Act’ 1 objetiva a transparência do uso das inteligências artificiais com a população, além disso, independentemente do cenário da criminalidade e de estratégias de segurança pública, é proibido que os agentes policiais utilizem-se do reconhecimento facial em tempo real, a única exceção é caso estejam a procura de um indivíduo condenado ou suspeito de crimes graves, como terrorismo, assassinato, tráfico, estupro e demais crimes explicitados na própria lei; para utilizar a ferramenta em outros cenários, é preciso prévia autorização judicial.
A regulamentação autoriza o uso de diversos sistemas de inteligência artificial desde que sejam analisados e classificados em graus de riscos que podem ofertar aos usuários; quanto maior o risco de violação de direitos, mais rigorosa a regulamentação. Nos casos dos sistemas que oferecem um alto risco, haverá uma avaliação obrigatória de impacto sobre direitos fundamentais e atrelado a isso, a própria população pode reivindicar alguma medida, caso seja desfavorável a ela. Dessa forma, cada estado-membro da União Europeia deve indicar uma entidade reguladora que será responsável pela fiscalização da adesão dos sistemas à regulamentação, possibilitando a aplicação de multas caso haja descumprimento.
Sob essa ótica, nota-se que a União Europeia deu um passo significativo no contexto mundial com relação a questão da regulamentação das inteligências artificiais, abrindo um leque de possibilidades e de incentivo para que o restante do mundo busque regulamentar o uso de tais sistemas e tecnologias, a fim de que inteligências artificiais e avanços tecnológicos não se tornem vilões dentro da sociedade, mas sim, aliados que possam convergir em questões públicas, sem inferir diretamente em lesões de garantias constitucionais fundamentais.
7. Conclusão
No presente artigo, não se pretende esgotar as abordagens acerca de um tema que prossegue em atualizações e refinamentos, e sim, trazer perspectivas iniciais do uso dessas tecnologias pelo poder público através do policiamento preditivo. Diante disso, conclui-se que tais ferramentas não representam, em sua totalidade, uma ameaça para o cumprimento das previsões legislativas, apenas carecem de maior detalhamento e regulamentação.
À luz das reflexões citadas anteriormente, pontua-se que: (i) existe uma carência no que tange ao marco legal, por ser uma matéria de recentes reflexões, onde os casos concretos são praticamente inéditos, necessitando de uma maior previsibilidade através de leis e normativas que garantam maior eficácia e responsabilidade no uso de IA’s em operações, (ii) a credibilidade de tais softwares não pode se sobressair à princípios e garantias constitucionais fundamentais, visto que, existe a possibilidade de erros, (iii) no que se refere à diminuição dos erros, atenta-se para a origem dos dados coletados pelos algoritmos que não são meramente imparciais, e sim, enviesados pelas perspectivas sociais, demandado um banco de dados ainda mais refinado, com rigor metodológico, responsável e em constante evolução crítica.
Diante dos pontos apresentados, percebe-se que a ação policial em casos de predição necessita de maior treinamento e aprimoramento, requerendo maior conhecimento de domínio acerca das ferramentas a serem utilizadas, para que, não se perpetuem injustiças penais. Além de que, faz-se necessário um trabalho paralelo da corporação policial aos sistemas preditivos e as IA´s, no afã de que o resultado atingido tecnologicamente não seja uma verdade absoluta, mas sim uma ferramenta de auxílio no âmbito da segurança pública.
Nesse viés, como exposto na pesquisa, o policiamento preditivo pode se tornar um instrumento de propagação de estigmas e injustiças no sistema jurídico-penal e deve ter seu uso de forma ponderada, consciente e crítica, onde os fornecedores de dados e os responsáveis pelo funcionamento do sistema, possam criar filtros entre os preconceitos e as convicções pessoais e a realidade social; para que, as tecnologias e as inteligências artificiais transformem-se em aliadas no processo de segurança social e não lesivas a direitos e garantias fundamentais.
Referências
ALVAREZ, Vanessa Gonçalves. AI Act: projeto de estrutura regulatória de IA na União Europeia. 2024. Disponível em: https://www.conjur.com.br/2024-mar-14/ai-act-projeto-de-estrutura-regulatoria-de-ia-na-uniao-europeia/. Acesso em: 28 mar. 2024.
ANDRADE, Vera Regina Pereira de. Do paradigma etiológico ao paradigma da reação social: mudança e permanência de paradigmas criminológicos na ciência e no senso comum. Revista Brasileira de Ciências Criminais, São Paulo, v. 4, n.14, p. 276-287, abr. 1996.
ARAÚJO, Fernanda Carolina. A teoria criminológica do labelling approach e as medidas socioeducativas. 2010. 251. f. Dissertação (Mestrado) – Curso de Direito, Universidade de São Paulo, São Paulo, 2010. Disponível em: https://pdfs.semanticscholar.org/6ddb/ed263e1fc1282adfe647638dc153602b1eb4.pdf. Acesso em: 27 mar. 2024
ARRUDA, Ana Julia Pozzi; RESENDE, Ana Paula Bougleux Andrade; FERNANDES, Fernando Andrade. Sistema de Policiamento Preditivo e Afetação de Direitos Humanos à Luz da Criminologia Crítica. Revista Direito Público, Brasília, v. 18, n. 100, p. 664-689, out. /dez. 2021.
BAIÃO, Kelly Sampaio; GONÇALVES, Kalline Carvalho. A garantia da privacidade na sociedade tecnológica: um imperativo à concretização do princípio da dignidade da pessoa humana. Revista Eletrônica de Direito Civil: Civilistica.com. Rio de Janeiro, v. 3, n. 2, p. 1-14, 2014. Disponível em: https://civilistica.emnuvens.com.br/redc/article/view/151. Acesso em: 27. mar. 2024
BARATTA, Alessandro. Criminologia crítica e crítica do direito penal: introdução à sociologia do direito penal. Tradução: Juarez C. dos Santos. 6. ed. Rio de Janeiro: Revan, 2011. 256. p.
BECKER, Howard S. Outsiders: estudos de sociologia do desvio. 2. ed. Rio de Janeiro: Zahar, 2021. 285. p.
BUCHNER, Benedikt. Informationelle Selbstbestimmung im Privatrecht. Tübingen: Mohr Siebeck, 2006. 343. p.
CARVALHO Gonçalves Eler, K. A releitura da privacidade: do “direito de ser deixado só” ao direito à autodeterminação informativa. TECHNO REVIEW. International Technology, Science and Society Review. Revista Internacional de Tecnología, Ciencia y Sociedad, v. 5, n. 2, p. 185–196, 2016.
CHIARINI, Tulio e SILVA, Victor: Inovações tecnológicas permitem maior participação política? IPEA, 2021. Disponível em: https://www.ipea.gov.br/cts/pt/central-de-conteudo/artigos/artigos/267-inovacoes-tecnologicas-permitem-maior-participacao-politica. Acesso em 29 mar. 2024.
FERNANDES, Milton. Proteção civil da intimidade. São Paulo: Saraiva, 1977. 315. p.
GLESS, Sabine. Policiamento preditivo: em defesa dos “verdadeiros positivos”. Tradução: Heloisa Estellita e Miguel Lima Carneiro. Revista Direito GV, São Paulo, v. 16, n. 1, jan. /abr. 2020.
GOLDSCHMIDT, Ronaldo; BEZERRA, Eduardo; PASSOS, Emanuel. Data Mining: conceitos, técnicas, algoritmos, orientações e aplicações. 2. ed. Rio de Janeiro: Elsevier, 2015.
GRINBERG, Felipe; ARAÚJO, Vera. Mulher identificada por reconhecimento facial em Copacabana é solta após erro em sistema ser constatado (…) O Globo, jan. 2024. Disponível em: https://oglobo.globo.com/rio/noticia/2024/01/04/mulher-identificada-pelo-sistema-de-reconhecimento-facial-em-copacabana-e-liberada-apos-ser-constatado-que-mandado-de-prisao-estava-no-sistema-por-erro.ghtml. Acesso em: 28 mar. 2024.
GRINBERG, Felipe; ARAÚJO, Vera. Preso identificado por reconhecimento facial em Copacabana é o segundo a ser solto após constatado erro em sistema de mandados (…) O Globo, jan. 2024. Disponível em: https://oglobo.globo.com/rio/noticia/2024/01/04/preso-identificado-por-reconhecimento-facial-em-copacabana-e-o-segundo-a-ser-solto-apos-constatado-erro-em-sistema-de-mandados.ghtml. Acesso em: 28 mar. 2024.
LEMES, Marcelle Martins. Inteligência artificial, algoritmos e policiamento preditivo no poder público federal brasileiro. 2019. 113. p. Monografia (Graduação em Direito) – Faculdade de Direito da Universidade de Brasília. Brasília, DF.
LOMBROSO, Cesare. O Homem Delinquente. Tradução: Sebastian José Roque. 1. Reimpressão. São Paulo: Ícone, 2010. 223. p.
MENEZES, C. S. De; SANLLEHÍ, J. R. A. Big Data, Inteligência Artificial e Policiamento Preditivo: Bases para uma adequada regulação legal que Respeite os direitos fundamentais. Novos Estudos Jurídicos, v. 26, n. 1, p. 103–135, 2021.
MONARD, Maria Carolina; BARANAUSKAS, José Augusto. Conceitos sobre Aprendizado de Máquina. 2003. Departamento de Computação e Matemática. Disponível em: https://dcm.ffclrp.usp.br/~augusto/publications/2003-sistemas-inteligentes-cap4.pdf. Acesso em: 25 mar. 2024.
MORAES, Felipe de. Policiamento Preditivo e aspectos constitucionais. 2022. 143. p. Dissertação (Mestrado em Direito) – Universidade Católica do Rio de Janeiro. Rio de Janeiro, 2022.
OLIVEIRA, Ilson de. SANTOS, Franck Cione Coelho. Inteligência artificial e policiamento preditivo (…). Brazilian Journal of Technology, p. 30-62. jan./mar. 2022. Disponível em: https://ojs.brazilianjournals.com.br/ojs/index.php/BJT/article/view/45351. Acesso em: 28 mar. 2024.
PARLAMENTO EUROPEU ADOTA LEI QUE REGULAMENTA O USO DA INTELIGÊNCIA ARTIFICIAL. Exame, 14.mar. 2024, disponível em: https://exame.com/inteligencia-artificial/parlamento-europeu-adota-lei-que-regulamenta-o-uso-da-inteligencia-artificial/. Acesso em 28.mar 2024.
RAND Corporation. Predictive Policing – The Role of Crime Forecasting in Law Enforcement Operations. 2013. Disponível em: https://www.rand.org. Acesso em: 28 mar. 2024.
SANTA MARIA, José Serpa de. Direitos da personalidade e a sistemática civil geral. Campinas: Julex, 1987. 374. p.
SCHWAB, Klaus. A Quarta Revolução Industrial. Brasil. Tradução: Daniel Moreira Miranda. 1. ed. São Paulo. Edipro, 2016. 211. p.
SCHWARCZ, Lilia Mortiz. Sobre o autoritarismo brasileiro. 1. ed. São Paulo: Companhia das Letras, 2020. 273. p.
SILVA, Tarzício. Racismo Algorítmico: inteligência artificial e discriminação nas redes digitais. São Paulo: Edições Sesc, 2022
Nota
1 A expressão AI Act se refere ao projeto de estrutura regulatória de IA na União Europeia.
Abstract: With the technological awakening and the growing feeling of insecurity and threat, the indiscriminate use of technologies in the search for security becomes viable, making the use of predictive systems based on artificial intelligence and algorithms common. From this perspective, the question arises as to what would be the limit so that the use of such predictive technologies, increasingly used to identify possible locations of crimes, offenders and victims, do not become tools for harming the rights inherent to the individual. In this way, the existence of a change in the police’s own modus operandi in relation to individuals stands out, thus reflecting an injury to constitutional principles, making it necessary to understand machine learning, in a supervised or unsupervised way and its consequences, failures and accountability. The overlap between national security and civil freedom, with an emphasis on racial and gender discrimination, the lack of clarity regarding the functioning of these systems and the scarcity of a legal framework on the subject, directly affects the social body and its fundamental rights. Furthermore, the research concludes that the use of biased predictive technologies directly results in the stigmatization of a specific social group, identified as ‘criminal’, supporting the theory of the labeling approach and, characterizing, in the words of Becker (2011), the paradox that exists in a situation in which risks cause the increase in techniques that aim for safety and control, but which concomitantly end up generating new risks.
Key words : Predictive policing. Artificial intelligence. Fundamental rights.
Sobre as autoras

Graduanda em Direito – Centro Universitário Frassinetti do Recife (UniFafire).; Monitora de Direito Civil I, Direito Penal I e II; Pesquisadora acadêmica.
Graduada em Pedagogia – Universidade Federal de Pernambuco (UFPE). Atuou como aluna voluntária nas edições, PIBID/UFPE-CNPQ 2016-2018, PIBIC/UFPE-CNPq 2018-2019 e PIBIC/UFPE-CNPq 2019-2020, desenvolvendo pesquisas com ênfase no processo de alfabetização e letramento. Entre 2018 e 2020 estagiou na instituição de ensino: ECPBG (Escola de Contas Públicas Professor Barreto Guimarães, participou do Grupo de Pesquisas em Alfabetização, Leitura e Escrita: avaliação, práticas e políticas (ALEP) do Programa de Pós-Graduação em Educação do CE/UFPE. Atualmente cursa Bacharelado em Direito na FAFIRE, pesquisadora no NUPEX/Unifafire, com ênfase em Direito Penal e garatias constitucionais.