PL que regula IA avança adota escala de riscos e reduz pressão em big techs
O Senado aprovou o projeto de lei sobre inteligência artificial na noite de terça (10). Visto como um marco para o setor, especialistas consideram positivo o texto, aprovado em consenso entre governo e oposição. Mas, ressaltam que o projeto reduziu o escrutínio a big techs sobre algoritmos de recomendação e mudanças relacionadas aos feitos de IA nos trabalhadores.
Com a aprovação no Senado, o projeto segue para ser analisado na Câmara dos Deputados, onde deverá ser apreciado apenas no ano que vem e ainda sofrer alterações.
Entendendo o PL sobre IA: riscos, transparência e ANPD 'guardiã'
O projeto define regras para uso e desenvolvimento de inteligência artificial, além de definir direitos para as pessoas.
A base dele é que as IAs devem ser definidas pelo risco: dependendo da gravidade do uso, há mais ou menos obrigações. Se for de alto risco, é necessário ter testes de segurança e identificar riscos e medidas de mitigação.
Um exemplo de IA de alto risco é um sistema que concede aposentadoria, por exemplo. Nesse caso, as pessoas inclusive têm o direito de saber o motivo em caso de recusa do benefício.
Se for algo de risco excessivo, não pode haver nem desenvolvimento de IA.
Exemplo: uso de IA para criar um sistema à la "Minority Report", que tenta determinar o cometimento de crimes a partir de traços de personalidade ou comportamentos passados. Ou uso de inteligência artificial para armas capazes de selecionar e atacar alvos sem intervenção humana.
A ANPD (Autoridade Nacional de Proteção de Dados) será responsável pela coordenação da aplicação da lei por meio do SIA (Sistema Nacional de Regulação e Governança de Inteligência Artificial). A entidade pode mudar a classificação de risco de IA, promoverá boas práticas e aplicações de sanções, caso sistemas afetem muitas pessoas, por exemplo.
Menos pressão sobre big techs
Numa das versões do texto, algoritmo de recomendação de plataformas (como redes sociais ou sistemas de busca) era considerado de alto risco.
Na prática, isso obrigaria as empresas a explicarem suas decisões para as pessoas, que houvesse supervisão humana e ainda ter análise de impacto de que sistema não infringe direitos fundamentais.
"Esses sistemas influenciam o que as pessoas consomem de conteúdo", diz Paula Guedes, integrante do grupo de trabalho de IA da CDR (Coalizão Direitos na Rede).
"Nos Facebook Papers [documentos internos vazados da companhia], ficou claro que a rede sabia que o Instagram fazia mal para crianças e adolescentes, e não fizeram nada para evitar."
Rafael Zanatta, codiretor da Data Privacy Brasil, também considera uma derrota, porém diz que há outras formas de legislar sobre redes sociais.
"Esse tema esbarra na regulação de redes sociais, e o assunto não vai se esgotar agora. Tem tanto uma discussão no STF quanto a possibilidade de voltar a discussão do PL 2630 [que ficou conhecido como PL da Fake News]."
Consultadas, tanto Meta quanto Google não quiserem se pronunciar.
Direito dos trabalhadores
Versões anteriores do projeto incluíam uma série de medidas de proteção aos trabalhadores afetados por IA, seja por "substituição" por sistema de IA ou avaliados por IA.
"Antes tinha regras mais rigorosas, como coibir despedida de trabalhadores em massa [em caso de substituição por IA]", explica Zanatta.
Mesmo assim, foi mantido que um dos fundamentos da regulação é a promoção dos interesses dos trabalhadores.
Paula Guedes, da CDR, ressalta outro ponto removido que é a supervisão humana em decisões de demissão ou sanção a trabalhadores tomadas por IA. "Isso pode ser especialmente nocivo para quem trabalha usando aplicativos [como entrega ou carona]. A pessoa pode ser excluída e nem saber a razão", afirma.
Direito autoral
Uma novidade do projeto brasileiro, e que não tem na legislação europeia, é a parte de direitos autorais.
Considerada uma vitória do campo artístico, a legislação prevê que quem desenvolve IA deve informar o uso de conteúdos protegidos por direitos autorais. Se a IA tiver fins lucrativos, o dono do direito autoral tem direito a receber remuneração e ainda poderá proibir o uso do conteúdo.
Henrique Fabretti, sócio responsável pela área de proteção de dados e IA da Opice Blum Advogados, vê com ressalvas a iniciativa. Para ele, o assunto deveria ser alvo de outra legislação, e não estar junto com o tema inteligência artificial.
"Obrigar o desenvolvedor a informar o que foi usado no treino da inteligência artificial pode esbarrar numa questão e modelo de negócio [de revelar segredos do seu sistema]. Isso é algo totalmente novo e não existe um histórico ou estudo para saber como isso vai funcionar na prática", afirma.