top of page
  • Foto do escritorAnna Carolina Romano

A regulação da Inteligência Artificial no Brasil


Título do artigo ao lado de uma imagem em 3D de metade de um cérebro ligado a fios e à palavra IA

A crescente utilização de sistemas de Inteligência Artificial (IA) no Brasil e no mundo está transformando diversos setores da sociedade, trazendo benefícios significativos e desafios que exigem respostas regulatórias adequadas. O debate sobre a regulação da IA no Brasil, embora ainda em desenvolvimento, ganhou tração recentemente com o Projeto de Lei 2338/2023, proposto no Senado Federal. 


Este artigo apresenta destaques da discussão a favor e contra a regulação dessa tecnologia, analisando o contexto global, os riscos e benefícios envolvidos, e os principais pontos do PL da Inteligência Artificial.


Por que regular a Inteligência Artificial?


A regulação da IA é uma resposta aos impactos sociais, econômicos e éticos que essa tecnologia gera. No campo da inovação, a IA já é utilizada para otimizar processos empresariais, analisar grandes volumes de dados, desenvolver diagnósticos médicos e até mesmo recomendar conteúdos em plataformas de streaming.


Esses exemplos demonstram como a IA tem potencial para ampliar a produtividade e promover avanços científicos e educacionais. Por outro lado, há uma série de riscos associados ao uso dessa tecnologia. Modelos de IA, como o reconhecimento facial, têm demonstrado vieses discriminatórios que reproduzem estereótipos raciais e de gênero. 


No Brasil, onde 47% da população se declara parda e 9,1% preta, esses sistemas podem perpetuar discriminações e injustiças, como prisões equivocadas. Além disso, a alta demanda computacional para treinar grandes modelos de IA gera um impacto ambiental considerável, equivalente a quase cinco vezes as emissões de dióxido de carbono de um carro médio durante toda sua vida útil.


Aspectos como esses exigem uma abordagem regulatória que equilibre a promoção da inovação com a proteção de direitos fundamentais, garantindo que a IA seja desenvolvida de maneira ética, transparente e segura.

Um robô em formato de um animal andando em quatro patas em uma sala com computadores e um letreiro luminoso escrito "central de monitoramento smartsampa"
Monitoramento por meio de IA e reconhecimento facial. Créditos: Rovena Rosa - Agência Brasil

Projeto de Lei 2338/2023: um marco no debate brasileiro


O Projeto de Lei 2338/2023, atualmente em tramitação no Senado Federal, representa o mais recente e avançado esforço legislativo para regulamentar o uso da Inteligência Artificial no Brasil. 


Este projeto nasceu como uma evolução de propostas anteriores, como o PL 21/2020, que foi amplamente criticado por seu caráter excessivamente teórico e por não abordar de maneira eficaz as questões práticas de governança, segurança e responsabilização. 


Para superar essas limitações, o Senado instituiu uma Comissão Temporária Interna sobre Inteligência Artificial do Brasil, encarregada de revisar o texto original e elaborar um substitutivo que pudesse responder melhor às demandas sociais e tecnológicas do país, resultando na formulação do atual projeto.


O principal mérito do PL 2338/2023 é buscar um equilíbrio entre a abordagem regulatória baseada em riscos e a proteção dos direitos fundamentais dos cidadãos. Isso significa que, além de propor diretrizes gerais para o uso responsável da IA, o projeto também inclui ferramentas específicas para avaliar riscos, prever impactos e promover a transparência nas práticas relacionadas ao uso dessa tecnologia. 


Com isso, a legislação passa a oferecer um nível maior de segurança jurídica e previsibilidade para empresas e organizações que já utilizam ou pretendem adotar soluções de IA em suas operações.


Apesar dos avanços significativos, o texto ainda enfrenta críticas e pontos que demandam aprimoramento. Uma das preocupações é em relação à definição dos limites de uso para tecnologias de alto risco, como sistemas de reconhecimento facial. O projeto ainda precisa amadurecer no que tange à clareza sobre quais aplicações são aceitáveis e quais devem ser limitadas ou mesmo banidas.


Principais avanços do PL 2338/2023


Um dos pontos mais importantes do projeto é o foco na proteção de direitos fundamentais. O texto avança ao incluir mecanismos que asseguram a privacidade e a autonomia dos cidadãos, ampliando os direitos à transparência e permitindo a contestação de decisões automatizadas. Dessa forma, qualquer pessoa impactada por um sistema de IA terá o direito de entender como as decisões foram tomadas e de questionar resultados que considere prejudiciais ou injustos.


Outro destaque é a abordagem regulatória baseada em riscos, que propõe uma metodologia de avaliação de risco adaptada a diferentes contextos e setores. Isso significa que a regulação não será a mesma para todos os tipos de IA, mas será calibrada conforme o nível de risco envolvido em cada aplicação, considerando potenciais impactos éticos, sociais e econômicos.


Pontos de atenção e desafios

Apesar de seus méritos, o PL 2338/2023 ainda apresenta algumas fragilidades. A definição de limites para o uso de tecnologias de alto risco, como o reconhecimento facial e o policiamento preditivo, é uma delas. 


O texto sugere a proibição de tecnologias como armas autônomas e sistemas de reconhecimento de emoções, mas a falta de consenso sobre esses temas indica que é necessário um debate mais aprofundado para que a legislação seja adequada à realidade brasileira. Esses sistemas, se mal regulamentados, podem ampliar desigualdades e gerar sérios riscos à privacidade e à segurança dos cidadãos.


Outro ponto sensível é a criação de uma autoridade competente para regulamentar a IA, com poderes e autonomia suficientes para monitorar e fiscalizar a conformidade com a legislação. A ausência de uma estrutura regulatória forte e bem delineada pode comprometer a eficácia da lei e dificultar a aplicação de sanções em caso de uso inadequado.


Sem esses elementos, a regulação corre o risco de ser meramente declaratória, sem um impacto prático que garanta a segurança e a proteção dos direitos dos cidadãos.

Homens de terno em pé, em reunião plenária do Senado
Senado propôs novo projeto para regulamentar IA no Brasil. Créditos: Jefferson Rudy - Agência Senado

A favor e contra a regulação: o dilema da inovação


O debate sobre a regulação da IA no Brasil é marcado por um dilema central: o equilíbrio entre a proteção de direitos fundamentais e o estímulo à inovação tecnológica. De um lado, os defensores da regulação argumentam que ela é essencial para garantir que o desenvolvimento e o uso de IA não comprometam a privacidade, a segurança e a liberdade dos cidadãos. 


Ao estabelecer diretrizes claras, a legislação pode prevenir abusos e assegurar que essas tecnologias sejam utilizadas de maneira ética e responsável. Além disso, para empresas que investem em IA, a existência de uma regulamentação robusta oferece previsibilidade e segurança jurídica, facilitando a implementação de novas soluções e reduzindo riscos regulatórios no futuro.


Outro ponto positivo é que a regulação pode promover a transparência e a responsabilização das empresas em relação ao uso de dados e decisões automatizadas. Com regras definidas, os usuários têm a possibilidade de contestar resultados e exigir medidas de reparação em casos de danos causados por falhas nos sistemas de IA. 


A adoção de um arcabouço regulatório também alinha o Brasil a tendências internacionais, como o regulamento europeu para IA, ajudando o país a se posicionar como um ambiente com práticas seguras e responsáveis, o que, por sua vez, pode atrair mais investimentos e parcerias tecnológicas.


No entanto, há preocupações quanto ao impacto negativo de uma regulação excessivamente rígida. Muitos especialistas apontam que uma legislação muito restritiva pode desestimular o desenvolvimento de novas tecnologias e afastar empresas inovadoras do Brasil, especialmente em setores emergentes. 


O exemplo recente da Califórnia, onde o projeto de lei SB 1047 foi vetado por ser considerado um entrave ao crescimento econômico e à competitividade tecnológica, mostra como normas rigorosas podem acabar desencorajando a pesquisa e o desenvolvimento. Além disso, a falta de flexibilidade nas leis pode representar um problema, já que a IA evolui rapidamente, e uma regulação que se torne obsoleta antes mesmo de ser implementada pode gerar mais insegurança do que benefícios.


Outro fator a ser considerado é o custo de implementação das medidas de conformidade e auditoria para garantir a segurança dos sistemas. Esse custo pode ser particularmente elevado para pequenas e médias empresas, limitando suas oportunidades de desenvolvimento local e inibindo a criação de soluções inovadoras.

Há ainda o risco de que a regulação impacte as relações comerciais internacionais, especialmente para empresas brasileiras que dependem de tecnologias desenvolvidas no exterior. Se a legislação nacional divergir muito dos padrões globais, pode haver dificuldades de adaptação e restrições ao uso de certas ferramentas, afetando a competitividade das empresas nacionais.


Encontrar um equilíbrio é o desafio que o Brasil enfrenta à medida que avança no debate sobre a regulação da IA, refletindo sobre as experiências internacionais e buscando soluções adaptadas à sua própria realidade tecnológica e social.


O caminho para uma regulação equilibrada


O futuro da IA no Brasil depende de um debate contínuo e multissetorial, que inclua não apenas especialistas e legisladores, mas também representantes da sociedade civil, empresas e desenvolvedores. Somente com um diálogo aberto e transparente será possível construir um marco regulatório que reflita as especificidades e necessidades do país, alinhando-se às melhores práticas internacionais sem perder de vista a realidade brasileira.


Contar com ferramentas que permitam acompanhar as proposições legislativas e discutir seus impactos é fundamental para profissionais de Relações Governamentais, advogados e empresas que atuam no setor de tecnologia.


Nesse contexto, a Inteligov se posiciona como uma aliada estratégica, facilitando o monitoramento contínuo de projetos de lei e outras iniciativas legislativas que possam afetar a implementação de IA no Brasil.


Com funcionalidades como a Matriz de Relevância e o Termômetro, a plataforma Inteligov oferece previsões sobre a probabilidade de aprovação de proposições, ajudando profissionais a se anteciparem às mudanças regulatórias.


Assim, ao acompanhar as movimentações do PL 2338/2023 e outras regulamentações emergentes, a Inteligov contribui para que empresas e organizações se preparem de forma proativa, ajustando suas estratégias de compliance e mitigação de riscos, fortalecendo a capacidade de influenciar decisões e assegurar que a inovação tecnológica seja sempre desenvolvida de maneira ética e alinhada aos princípios fundamentais de uma sociedade democrática.



Banner com a foto e mini bio profissional da autora do artigo


bottom of page