CIÊNCIA & TECNOLOGIA
Regulação e inovação da inteligência artificial
À medida que 2024 se inicia, intensificam-se os esforços globais de governança da inteligência artificial. Em nosso debate anterior, discutimos sua influência nas eleições, na democracia e na disseminação de desinformação. Nesta ocasião, abordaremos o que vem sendo discutido mundialmente de forma mais abrangente, uma vez que a discussão evoluiu de ‘se’ a IA deve ser regulamentada para ‘como’ regulá-la.
O processo de governança dessa tecnologia não é tão simples, principalmente porque envolve níveis globais, regionais e nacionais. Ademais, sua rápida capacidade de mudança, dificulta a regulação jurídica. Por isso, organismos internacionais propõem princípios éticos que, embora não tenham natureza coercitiva ou sancionatória, servem como norteadores para futuras normativas.
Isso é evidenciado na ISO/IEC 42001, norma publicada pela ISO (International Organization for Standardization), entidade global não governamental que desenvolve e propõe normas voluntárias que apoiam a inovação e oferecem soluções relevantes para o mercado, em 18 de dezembro de 2023. Esta norma internacional prevê requisitos para estabelecer, implementar, manter e aprimorar continuamente um Sistema de Gestão de Inteligência Artificial (AIMS) dentro das organizações.
Diante dessa transição, é crucial observar o aumento desproporcional na utilização da IA Generativa. O estudo realizado pela Writerbuddy revelou que as ferramentas de IA registraram mais de 24 bilhões de visitas em seu tráfego de setembro de 2022 a agosto de 2023, destacando a liderança da OpenAI com o ChatGPT em termos de acesso. Esse dado manifesta-se como alerta e contribui para compreensão do porquê há uma competição global para regulamentar sistemas de IA, os quais, quando desregulados, podem ameaçar direitos fundamentais, ética, segurança e privacidade.
Considerando essa realidade, cada país segue uma abordagem regulatória de acordo com suas particularidades políticas, culturais e econômicas para a implementação de estratégias nacionais. Na linha de frente destas discussões, a União Europeia alcançou um acordo provisório. Este define os elementos-chave do projeto de lei EU AI Act, o qual passará para aprovação final. Sob a ótica da inovação responsável, o regulamento é fundamentado nos riscos associados à Inteligência Artificial, enfatizando a importância da transparência e a gestão eficaz de situações de alto risco.
Adicionalmente, estabelece proibições em contextos particularmente perigosos, nos quais o elevado risco ameaça os direitos fundamentais. Essas proibições incluem o uso de IA para explorar vulnerabilidades de indivíduos devido à idade, deficiência, situação social ou econômica, e a implementação de vigilância biométrica em cenários sensíveis. Paralelamente, é possível encontrar interseções normativas em legislações internacionais, como no projeto de lei brasileiro “PL 2338/2023” e no projeto canadense “AIDA, C-27, the Digital Charter Implementation Act, 2022”, por apresentarem propostas legislativas baseadas em riscos esperados, a fim de prevenir danos.
Avançando além da regulação, a inovação dos sistemas de Inteligência Artificial desdobra-se de forma avassaladora, remodelando o comércio e a indústria. Em resposta a isso, a Ucrânia, com foco na autorregulação, apresentou seu roteiro nacional para a regulamentação dos sistemas de IA. Este plano, proposto pelo vice-primeiro-ministro ucraniano Mykhailo Fedorov, concentra-se no setor empresarial. Na sua fase inicial, as autoridades ucranianas planejam apoiar as empresas no desenvolvimento da cultura de autorregulação e na criação de produtos de IA que estejam consoante as legislações europeias.
Contudo, existe uma propensão em países emergentes, especialmente do Sul Global, a “importarem” normas de países e blocos regionais, como a União Europeia, que pode provocar limitação e ineficácia normativa. Assim, é indispensável a participação ativa desses Estados no desenvolvimento dos seus padrões regulatórios.
Dessa maneira, a governança da IA no Brasil está sendo moldada e sua liderança no G20 será uma oportunidade para retomar o protagonismo digital. Além do PL 2338/2023 para a implementação segura de IA, a partir de riscos e uma modelagem regulatória baseada em direitos, verificamos os esforços advindos do TSE, diante da preocupação com o fenômeno da desinformação, que foi intensificado pelo uso da Inteligência Artificial. Com efeito, em 4 de janeiro de 2024, o TSE publicou a minuta que dispõe de regras para a utilização da IA para a criação, produção e edição de propagandas eleitorais e será discutida em audiência pública nos próximos dias 23 a 25 de janeiro de 2024, para prevenir danos ao equilíbrio do pleito ou à integridade do processo eleitoral.
Prosseguindo o debate nas Américas, os Estados Unidos, apesar de ser um dos maiores líderes em inovação em IA, ainda não estabeleceram uma legislação específica. Contudo, a Executive Order emitida em outubro de 2023 por Joe Biden, repleta de diretrizes para orientar o desenvolvimento seguro de IA, com força vinculante dos órgãos públicos, determinou que o Instituto Nacional de Padrões e Tecnologia (NIST) é responsável pela criação de padrões e protocolos de testes para a segurança de IA.
Dessa forma, impulsionado pela ordem, a agência está realizando uma consulta pública até o dia 2 de fevereiro de 2024. Segundo a Reuters, “O pedido busca a contribuição de empresas de IA e do público sobre a gestão generativa de riscos de IA e a redução dos riscos de desinformação gerada por IA”, para desenvolver diretrizes para avaliar a IA na indústria e está utilizando a estratégia “red-teaming” em busca da segurança e confiança nos sistemas de IA.
Em conclusão à nossa breve abordagem, à medida que essa tecnologia se expande abruptamente, a busca por um equilíbrio entre inovação e regulação continuará sendo um foco nos próximos anos em todas as partes do mundo. Dessa forma, ainda que cada país alcance uma regulação adequada à sua realidade, a governança global da IA exigirá uma abordagem holística, multifacetada e inclusiva, a fim de usufruirmos os benefícios dessas ferramentas e mitigarmos seus impactos negativos.
Diante dessa transição, é crucial observar o aumento desproporcional na utilização da IA Generativa. O estudo realizado pela Writerbuddy revelou que as ferramentas de IA registraram mais de 24 bilhões de visitas em seu tráfego de setembro de 2022 a agosto de 2023, destacando a liderança da OpenAI com o ChatGPT em termos de acesso. Esse dado manifesta-se como alerta e contribui para compreensão do porquê há uma competição global para regulamentar sistemas de IA, os quais, quando desregulados, podem ameaçar direitos fundamentais, ética, segurança e privacidade.
Considerando essa realidade, cada país segue uma abordagem regulatória de acordo com suas particularidades políticas, culturais e econômicas para a implementação de estratégias nacionais. Na linha de frente destas discussões, a União Europeia alcançou um acordo provisório. Este define os elementos-chave do projeto de lei EU AI Act, o qual passará para aprovação final. Sob a ótica da inovação responsável, o regulamento é fundamentado nos riscos associados à Inteligência Artificial, enfatizando a importância da transparência e a gestão eficaz de situações de alto risco.
Adicionalmente, estabelece proibições em contextos particularmente perigosos, nos quais o elevado risco ameaça os direitos fundamentais. Essas proibições incluem o uso de IA para explorar vulnerabilidades de indivíduos devido à idade, deficiência, situação social ou econômica, e a implementação de vigilância biométrica em cenários sensíveis. Paralelamente, é possível encontrar interseções normativas em legislações internacionais, como no projeto de lei brasileiro “PL 2338/2023” e no projeto canadense “AIDA, C-27, the Digital Charter Implementation Act, 2022”, por apresentarem propostas legislativas baseadas em riscos esperados, a fim de prevenir danos.
Avançando além da regulação, a inovação dos sistemas de Inteligência Artificial desdobra-se de forma avassaladora, remodelando o comércio e a indústria. Em resposta a isso, a Ucrânia, com foco na autorregulação, apresentou seu roteiro nacional para a regulamentação dos sistemas de IA. Este plano, proposto pelo vice-primeiro-ministro ucraniano Mykhailo Fedorov, concentra-se no setor empresarial. Na sua fase inicial, as autoridades ucranianas planejam apoiar as empresas no desenvolvimento da cultura de autorregulação e na criação de produtos de IA que estejam consoante as legislações europeias.
Contudo, existe uma propensão em países emergentes, especialmente do Sul Global, a “importarem” normas de países e blocos regionais, como a União Europeia, que pode provocar limitação e ineficácia normativa. Assim, é indispensável a participação ativa desses Estados no desenvolvimento dos seus padrões regulatórios.
Dessa maneira, a governança da IA no Brasil está sendo moldada e sua liderança no G20 será uma oportunidade para retomar o protagonismo digital. Além do PL 2338/2023 para a implementação segura de IA, a partir de riscos e uma modelagem regulatória baseada em direitos, verificamos os esforços advindos do TSE, diante da preocupação com o fenômeno da desinformação, que foi intensificado pelo uso da Inteligência Artificial. Com efeito, em 4 de janeiro de 2024, o TSE publicou a minuta que dispõe de regras para a utilização da IA para a criação, produção e edição de propagandas eleitorais e será discutida em audiência pública nos próximos dias 23 a 25 de janeiro de 2024, para prevenir danos ao equilíbrio do pleito ou à integridade do processo eleitoral.
Prosseguindo o debate nas Américas, os Estados Unidos, apesar de ser um dos maiores líderes em inovação em IA, ainda não estabeleceram uma legislação específica. Contudo, a Executive Order emitida em outubro de 2023 por Joe Biden, repleta de diretrizes para orientar o desenvolvimento seguro de IA, com força vinculante dos órgãos públicos, determinou que o Instituto Nacional de Padrões e Tecnologia (NIST) é responsável pela criação de padrões e protocolos de testes para a segurança de IA.
Dessa forma, impulsionado pela ordem, a agência está realizando uma consulta pública até o dia 2 de fevereiro de 2024. Segundo a Reuters, “O pedido busca a contribuição de empresas de IA e do público sobre a gestão generativa de riscos de IA e a redução dos riscos de desinformação gerada por IA”, para desenvolver diretrizes para avaliar a IA na indústria e está utilizando a estratégia “red-teaming” em busca da segurança e confiança nos sistemas de IA.
Em conclusão à nossa breve abordagem, à medida que essa tecnologia se expande abruptamente, a busca por um equilíbrio entre inovação e regulação continuará sendo um foco nos próximos anos em todas as partes do mundo. Dessa forma, ainda que cada país alcance uma regulação adequada à sua realidade, a governança global da IA exigirá uma abordagem holística, multifacetada e inclusiva, a fim de usufruirmos os benefícios dessas ferramentas e mitigarmos seus impactos negativos.
Referências:
1 DIAS, JOELSON; ROCHA, ANA CLARA. A Influência da Inteligência Artificial nas Eleições: Oportunidades,Riscos e Prognósticos para 2024 Disponível em: A influencia da Inteligência Artificial nas eleições
2 BIONI, Bruno; GARROTE, Marina; GUEDES, Paula. Temas centrais na Regulação de IA: O local, o regional e o global na busca da interoperabilidade regulatória. São Paulo: Associação Data Privacy Brasil de Pesquisa, 2023.
3 MULHOLLAND, CAITLIN; FRAJHOF, ISABELLA, Z. Entre as leis da robótica e a ética: regulação para o adequado desenvolvimento da inteligência artificial. Disponível em: https://vlex.com.br/vid/as-leis-da-robotica-875663479
4 A Inteligência Artificial generativa ainda não possui uma definição exata. Dessa forma, o projeto de terminologia e taxonomia UE-US para Inteligência Artificial propôs uma definição: Uma classe de modelos de linguagem que usam algoritmos de aprendizagem profunda e são treinados em conjuntos de dados textuais extremamente grandes que podem ter vários terabytes de tamanho. LLMs( (large language model) podem ser classificados em dois tipos: generativos ou discriminatórios. LLMs generativos são modelos desse texto de saída, como a resposta a uma pergunta ou até mesmo escrever um ensaio sobre um tópico específico. Eles são normalmente modelos de aprendizagem não supervisionados ou semi supervisionados que prevêem qual é a resposta para uma determinada tarefa. LLMs discriminatórios são modelos de aprendizagem supervisionada que geralmente se concentram na classificação de texto, como determinar se um texto foi feito por um ser humano ou por IA. Disponível em:https://digital-strateu-us-terminology-and-taxonomy-artificial-intelligence
5 EU – EUROPEAN PARLIAMENT. “Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI”. 07/12/2023. Disponível em: https://www.europarl.europa.eu/artificial-intelligence-act-deal-
6 SENADO. Projeto de Lei n° 2338, de 2023, dispõe em seu Art. 3º “O desenvolvimento, a implementação e o uso de sistemas de inteligência artificial observarão a boa-fé e os seguintes princípios: XI – prevenção, precaução e mitigação de riscos sistêmicos derivados de usos intencionais ou não intencionais e de efeitos não previstos de sistemas de inteligência artificial”;
Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233
7 CANADÁ. The Artificial Intelligence and Data Act (AIDA) – Companion document. No âmbito da AIDA, os critérios para sistemas de alto impacto seriam definidos na regulamentação, a fim de permitir precisão na identificação de sistemas que precisam de ser regulamentados através deste quadro, para interoperabilidade com quadros internacionais, como a Lei da UE sobre IA, e que as atualizações ocorram à medida que a tecnologia avança. Isto permitiria ao Governo evitar a imposição de impactos indevidos no ecossistema de IA.Disponível: artificial-intelligence-and-data-act-aida
8 ATLANTIC COUNCIL. Ukraine’s AI road map seeks to balance innovation and security. Disponível em:https://www.atlanticcouncil
9 WHITEHOUSE. “Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence”. Disponível em: https://www.whitehouse.executive-order
10 REUTERS. “A equipe vermelha externa tem sido usada há anos na segurança cibernética para identificar novos riscos, com o termo referindo-se às simulações da Guerra Fria dos EUA, onde o inimigo era denominado “equipe vermelha”. Disponível em: https://www.reuters.com/technology/biden-administration