CIÊNCIA & TECNOLOGIA
Modelos de IA aptos a reproduzir expressões da personalidade humana
Hiatos legislativos e desafios à privacidade
Em Poemas de Portinari (1964), o artista escreve: “Passaram os acontecimentos; só não passaram os sonhos. Tão reais que ninguém saberia distingui-los de coisas acontecidas”. Concretizando o verso de Portinari, atualmente, são diversos os modelos de inteligência artificial que, embora, ainda, não manifestem personalidade própria, já são capazes de dar forma à manifestação da personalidade de seus usuários.
São modelos que interpretam os dados recebidos com mais sensibilidade, no sentido de terem uma aptidão de percepção mais abrangente e contextualizada dos dados recebidos. Programados de modo a aproximarem-se do processo cognitivo humano, integrados por algoritmos com redes neurais artificiais extremamente complexas, tais modelos processam quantidades enormes de dados e em velocidade altíssima, aprendendo, de modo não supervisionado, e expandindo seu próprio conhecimento exponencialmente (IBM, 2023).
A aprendizagem profunda permite que mimetizem o funcionamento do cérebro biológico, ampliando seu poder de extrair informações dos dados recebidos (por mais brutos que sejam), e os organizarem de tal modo, que o resultado desse processamento é, impressionantemente, similar ao que seria criado pela criatividade do espírito humano. Seus usuários, então, deparam-se com uma ferramenta capaz de interpretá-los, intimamente, que entrega espécie de retrato de seus pensamentos. Viram autores, dos mais variados veículos de manifestação das expressões de suas personalidades.
Com isso, os sistemas evoluem, e passam a aglutinar mais e mais dados (muitos deles privados), fornecidos por seus usuários. Dados, estes, não apenas seus (pessoais), mas, também, de terceiros (frequentemente, sem autorização), reconhecendo-os e retratando-os em cenas jamais ocorridas, em contextos fictícios e alternativos, frutos da imaginação de seus autores.
Podem ir, inclusive, ainda mais além, pois têm a peculiaridade de gerar manifestações inéditas da personalidade de pessoas naturais já não existentes, mantendo viva a personalidade de pessoas mortas, realidade, essa, que denominamos ressurreição digital da personalidade humana (Souza e Souza, 2022).
Ou seja, mais do que meros programas que viabilizam e materializam o processo criativo de seus autores, essa vertente de modelos de IA, por conseguir não apenas reproduzir, mas, também, criar informações, transfigura-se em instrumento de alto potencial lesivo, sobretudo quando analisada sob a perspectiva do dano à privacidade.
Considerando a publicação mais recente da pesquisa TIC Domicílios (realizada pelo Centro de Estudos para o Desenvolvimento da Sociedade da Informação – Cetic.BR), uma média de 80% dos domicílios brasileiros têm acesso à internet (CETIC.BR, 2023).
Mais acesso à internet, permite a disseminação mais veloz, e, consideravelmente, irresponsável, desses modelos de IA. E, nesse sentido, quando a IA é usada sem ética, objetivando gerar falsas representações da realidade (desinformando a sociedade), a tecnologia causa danos à privacidade (em múltiplas configurações).
Isso porque os dados privados, utilizados sem autorização de seus sujeitos, são devassados, replicados e servem de fonte à criação de cenários fictícios, mas, com tamanha riqueza de detalhes que, mesmo sem representarem a realidade, expõem, profundamente, as pessoas neles (artificialmente) inseridas.
Tal potencial de gerar conteúdo de alta qualidade gráfica (uma imagem, por exemplo), se, por um lado, impressiona, por outro, causa preocupação. Sobretudo por inexistir, no Brasil, regulamentação específica ao tema, alcançando-o em sua completude peculiar, fator que acaba por, de algum modo, enaltecer suas características lesivas.
Dados que permitem o reconhecimento de terceiros, são, por evidente, dados pessoais privados, os quais servem à evolução de modelos tecnológicos mais inteligentes, e menos artificiais, em suas respostas. À mercê da intenção manifestada por seu usuário, a IA cria novos dados pessoais (fictícios), expondo terceiros em situações íntimas, com nuances e particularidades que intensificam o potencial do dano à personalidade. O hiato legislativo, aqui, é perigoso e permissivo.
A Lei Geral de Proteção de Dados, norma nacional mais recente, dedicada à regulamentação da utilização de tecnologias de captação, processamento e análise de dados da nossa sociedade, Lei 13.709/2018 (LGPD), ignorou parte significativa do avanço e expansão da presença da IA no país, não oferecendo formatos de barreiras normativas concretas ao uso nocivo de modelos de IA.
E mais, embora reforce a privacidade como fundamento de sua elaboração, a LGPD, quando tem oportunidade de impedir, efetivamente, a ocorrência do dano à privacidade, não o faz. Em seu Art. 50, (§ 2º), por exemplo, ao regulamentar a governança em privacidade, o legislador faz uso do verbo sugerir, ao invés do termo exigir (mais adequado e incisivo), ao demandar do controlador demonstração de comprometimento “com normas e boas práticas relativas à proteção de dados pessoais”.
O vácuo legal continua na redação do Art. 51, que fica desprovido de força, quando apenas estimula que a autoridade nacional adote “padrões técnicos que facilitem o controle pelos titulares dos seus dados pessoais”.
Não se quer dizer, aqui, que a LGPD não representa marco importante no processo de amadurecimento do Ordenamento Jurídico Nacional. No entanto, nos parece claro que falta potência ao texto, sobretudo na prevenção do dano à privacidade. Nesse sentido, a LGPD mantém a incompreensão, que vigora, em geral, na legislação nacional, da natureza unicamente negativa da privacidade, enquanto bem. Sua tutela, no Brasil, é, nesse sentido, preponderantemente, voltada a remediar o dano (indenizando a vítima), quando deveria impedir, a priori, sua ocorrência. Isso porque, dentre todos os bens tutelados pelos Direitos da Personalidade, a privacidade é o único que gera dano perpétuo e irreversível. Afinal, a partir do momento que determinada informação sai do âmbito privado, é impossível retorná-la ao seu estado original (CANCELIER, 2017).
Entendemos, assim, urgente assumir as distinções entre o exercício do direito à privacidade e as ações de censura, comumente confundidos na aplicação da norma pelo Poder Judiciário nacional. Tampouco, buscamos enfraquecer o direito à liberdade de expressão, tão caro à formação democrática de nosso País. Muito pelo contrário, acreditamos que o direito à liberdade de expressão e o direito à privacidade reforçam-se mutuamente, viabilizando, juntos, um ambiente propício ao desenvolvimento da personalidade humana e, retomando nosso tema, ao uso ético da IA.
Nessa senda, enxergamos na Resolução 332/2020, do CNJ, um texto mais condizente com a realidade. Embora direcionada ao uso de IA pelo Poder Judiciário, o texto apresentado poderia, tranquilamente, ser aplicado à sociedade brasileira, como um todo. A Resolução, assim, exige que o desenvolvimento e uso da IA sejam pautados por “critérios éticos de transparência, previsibilidade e possibilidade de auditoria”, respeitando a privacidade, promovendo o controle dos dados pessoais por seus detentores (cabendo-lhes ciência e controle sobre os mesmos), e garantindo e promovendo a dignidade humana.
Refletir sobre instrumentos regulatórios que limitam a expressão do usuário, por meio de sistemas de IA, sem ética, é defender um modelo de sociedade que promove a liberdade cidadã e responsável; é reconhecer o uso da tecnologia a serviço do ser humano, e em benefício dele. Desenvolver instrumentos que servem de vetor à democratização da cultura e do entretenimento, com informação de qualidade (e verdadeira) é essencial para a formação de comunidades mais educadas. No entanto, algumas formas de expressão vão de encontro com a autodeterminação individual, fundamento do direito que às tutelam.
Finalmente, diante do exposto, nos permitimos oferecer outra perspectiva do poema de Portinari, e concluímos: frente a fatos, realmente, acontecidos, alguns sonhos devem permanecer, apenas, sonhados.