Projeto de lei busca regulamentar uso de inteligência artificial no Brasil

Texto já foi aprovado na Câmara e recebeu adições no Senado; foco é em garantir direitos de usuários.

O uso de inteligência artificial já é uma realidade em diversos setores da economia, mas foi nas últimas semanas que essa tecnologia ganhou mais atenção e destaque, graças a serviços como o ChatGPT e o Lensa. E, como qualquer nova área, o tema de regulamentação também ganhou impulso, incluindo um projeto sobre o tema no Brasil.

O texto que mais avançou no Congresso brasileiro é o PL 21/2020, que cria um Marco Regulatório para o setor e foi aprovado na Câmara dos Deputados em setembro de 2021. Desde então, o projeto aguarda votação no Senado Federal, onde recebeu uma série de adições após a criação de uma comissão de juristas ligados ao tema.

O foco do projeto é principalmente evitar a violação dos direitos básicos dos usuários que tiverem contato, em algum nível, com inteligência artificial. Agora, com uma nova legislatura, a expectativa é que o texto continue sendo analisado e possa ser votado para, então, ser enviado novamente à Câmara, que aprovará ou não as mudanças realizadas.

Pontos do projeto


Rodolfo Tamanaha, sócio do Madrona Advogados, observa que o projeto aprovado na Câmara era menor e teve forte apoio do mercado porque era “uma regulação que pouco regularia, criando menos obrigações para as empresas. Mas ele foi aprovado muito rápido, gerando críticas pela falta de debate”.

Para reverter esse quadro, o Senado criou uma comissão com juristas que propuseram adições ao texto, no chamado “anteprojeto”, que Tamanaha avalia ser mais detalhado e completo que o projeto original, também combinando outras propostas que buscavam regulamentar a inteligência artificial. Isso não significa, porém, que o texto final está livre de controvérsias e críticas.

A primeira, segundo o advogado, está na própria definição de inteligência artificial. Esse ponto é controverso pois é essa explicação que determinará o alcance da lei, e quais projetos precisarão cumpri-la ou não. “O problema dela é que, se define de forma muito estrita, empresas com tecnologia de IA mas que não se enquadram nisso podem ficar fora da regulação. Mas se ela é muito ampla, fica difícil, pode afetar tecnologias que não necessariamente são IA”, explica Tamanaha.

Mesmo assim, ele acredita que o texto foi bem-sucedido ao adotar uma postura “pragmática, que entende a complexidade do tema. Como é uma tecnologia que se desenvolve de forma rápida, o direito tenta fotografar uma realidade que pode ter mudado já. Mas a lei trata da regulação de usos que apresentam mais risco, como usar IA para influenciar na tomada de decisões. O que não tiver risco, pode ser usado sem problemas”.

Além disso, Tamanaha observa que o projeto estabelece uma responsabilização dos desenvolvedores dessa tecnologia: “se houver algum dano e o desenvolvedor e aplicador da inteligência artificial adotou uma prática que levou a isso, responde juridicamente. Isso permite regular melhor, não violando direitos fundamentais. Você pode usar a tecnologia, mas se tiver problema, responde por isso, então fica aberto para aplicações futuras”.

Outro ponto destacado pelo advogado é o esforço para garantir os direitos dos usuários. O projeto estabelece, por exemplo, a necessidade de evitar adotar práticas que tenham algum tipo de preconceito, como racial, e estudar os possíveis riscos atrelados à aplicação desenvolvida. Ao mesmo tempo, ele pondera que a lei traz uma proximidade excessiva com a área de processamento de dados, o que é “complicado”.

“Por mais que tenha elementos gerais das ferramentas de inteligência artificial, cada setor que usa essa tecnologia tem uma realidade. Faria mais sentido ter uma previsão de regulações setoriais específicas depois desse Marco Geral. Mais importante que discutir coisas como ter ou não um órgão específico pro tema, seria capacitar as agências setoriais existentes”, defende.

Tamanaha também acredita que o texto “não considera a realidade brasileira”: “não somos desenvolvedores de tecnologia, somos consumidores. Temos presença digital forte, mas mesmo tendo uma camada de prestadores de serviços grande, não criamos essas tecnologias, redes, a base. Faltam incentivos para o desenvolvimento e uso de ferramentas nacionais, estimular essa tecnologia no Brasil”.

O texto não aborda ainda temas que ganharam força com a popularidade do ChatGPT e outras ferramentas, incluindo o de propriedade intelectual dos materiais criados e dos dados usados para treinar essas inteligências artificiais. O advogado acredita que seria mais relevante direcionar a discussão para a Lei de Direitos Autorais que para o Marco Regulatório em si, mas reconhece que o tema é “complexo”.

Mesmo assim, ele diz que “por mais que a tecnologia seja muito nova, somos um mercado muito interessante para as empresas, tem muita coisa vindo pra cá, então uma regulação que busca proteger o usuário é válida”. “O projeto está em linha com o que vemos lá fora ao considerar o aspecto da ética. Existe muito viés de quem alimenta a tecnologia, o que mostra a necessidade de ter uma avaliação quase que filosófica sobre como os dados são colocados e quais dados são usados”.

Visão do mercado


Na visão de Rafael Franco, CEO da AlphaCode – que usa inteligência artificial -, o projeto tem “dificuldade em definir o que é inteligência artificial. A partir do momento que faz a legislação sobre, precisa definir bem o que é essa coisa, para aplicar a regra a um universo bem definido de situações. É o maior problema. Ao dizer que são ‘sistemas baseados em conhecimento e lógica’, isso engloba praticamente todos os softwares existentes, não delimita e causa insegurança jurídica”.

Ele acredita que é importante que o projeto busque proteger os consumidores e usuários, mas que também é preciso “pensar na indústria brasileira” para não correr o risco de limitar o crescimento do setor no Brasil e acabar gerando uma dependência ainda maior de países mais avançados na área, cujas tecnologias não estarão sujeitas à lei brasileira.

Na visão de Franco, o fato do projeto original ser de 2020 acabou tornando o texto “defasado”, já que “mudou tudo em relação à inteligência artificial”, o que leva a problemas como a falta de abordagem sobre direitos de propriedade. “Tem que trazer para a discussão as pessoas do setor, ver o que o mundo está fazendo. Tem que ver o que o resto do mundo está fazendo e ir em linha, buscando proteger o consumidor. Um exemplo bom seria já ter uma LGDP que funcionasse melhor, ou criar canais de denúncias de usos indevidos, e buscar proteger a privacidade”, defende.

Outra empresa que já emprega a inteligência artificial nos serviços que oferece é a iCertus. O seu CEO, Fábio Ieger, opina que a tecnologia trouxe uma “revolução” para a sociedade, e como qualquer outra revolução, trouxe pontos positivos e negativos. “Várias profissões podem ser extintas, então o primeiro ponto que vem é uma negatividade sobre o tema. Por outro lado, não se pode impedir que a revolução aconteça, mesmo que seja doloroso”.

Ieger comenta que ainda faltam algumas regulações mais básicas para a tecnologia por parte do governo, e que por isso considera que “não é tarefa do governo criar uma regra agora, porque se cria um ambiente regulatório punitivo ou restritivo, impede que novos projetos nasçam”.

“Eu acredito que sim, deve ter um limite, porque a inteligência artificial pode vir pro bem e pro mal, e o detalhe é como distinguir isso. Mas o medo é que esse projeto acabe colocando o país para trás. Hoje, a tecnologia é o novo petróleo, tem uma mão de obra qualificada no Brasil mas nossos talentos estão indo todos pra fora”, pondera.

Exatamente por ainda ser uma tecnologia “muito inicial” em termos de aplicação, Ieger considera que seria melhor esperar antes de criar um Marco Regulatório, e que o ideal na verdade seria ter medidas para fomentar investimentos e desenvolvimento na área: “ao invés de discutir como regular, deveriam estar discutir como se tornar líder na área, já que ela vai sim ser o futuro”.

Fonte: Exame Imagem: FIA Business School