'Minority Report' e deepfakes sexuais: as proibições de uso do PL sobre IA
O projeto de lei sobre inteligência artificial, aprovado recentemente no Senado, traz algumas proibições para desenvolvimento e implementação de IA em algumas áreas em que sabidamente o uso da tecnologia poderia ser mais prejudicial que benéfico.
Não custa lembrar que o projeto ainda precisa ser apreciado na Câmara dos Deputados, portanto ainda não virou lei. E que um dos itens do PL é justamente ter um grupo que possa eventualmente alterar o risco de desenvolvimento de IA.
Alguns itens parecem ter saído de filme de ficção científica, mesmo assim ajudam a entender os temas que preocupam legisladores e especialistas no ramo para uso de IA.
Instigar "maus comportamentos" e exploração de vulnerabilidades
PL cita a proibição de uso de IA cujo propósito é "instigar ou induzir o comportamento da pessoa ou de grupos que cause danos à saúde, segurança ou outros direitos fundamentais".
Segundo o advogado Paulo Henrique Fernandes, da Viseu Advogados e especialista em inteligência artificial, a legislação quer coibir, por exemplo, o uso de plataformas sociais que incentivem transtornos alimentares (como anorexia ou bulimia) ou automutilação. Outro possível exemplo é uso de IA para criar anúncios que manipulem o comportamento de consumidores para compra de produtos nocivos à saúde ou promoção de conteúdos extremistas e que incitem a violência.
Outro ponto é a exploração de vulnerabilidades de pessoas ou grupos com o "efeito de induzir o seu comportamento de maneira que cause danos à saúde, segurança ou outros direitos fundamentais".
Um exemplo disso seria o uso de IA para induzir idosos e "induzi-los a contratar serviços desnecessários ou a aderir a esquemas financeiros fraudulentos", explica Paulo Henrique.
"Previsão de crimes"
No filme "Minority Report", lançado em 2002, o personagem interpretado por Tom Cruise prende as pessoas antes de elas cometerem o crime. Isso ocorre graças a um sistema que, a partir de características das pessoas e circunstâncias, consegue prever o ato.
Esse é um dos cenários previstos para proibição de uso de IA. A redação proíbe o uso da tecnologia com propósito de "avaliar os traços de personalidade, comportamento passado, criminal ou não" para avaliação de risco de cometimento de crime, infrações ou de reincidência.
Deepfake sexual de crianças e adolescentes
Texto proíbe o uso de IA que possibilite a "produção, disseminação ou facilite a criação" de material que caracterize abuso ou exploração sexual de crianças e adolescentes.
Ranking social feito pelo governo
A legislação parece tentar evitar algo parecido com o que está sendo desenvolvido na China. Lá, o país tem criado um sistema que ranqueia os cidadãos, baseado no comportamento financeiro, social e político. Dependendo da pontuação, por exemplo, a pessoa pode não ter acesso a serviços públicos, empregos ou até realizar viagens.
O PL cita a vedação de uso pelo poder público de sistema para "avaliar, classificar ou ranquear pessoas, com base no seu comportamento social ou em atributos da personalidade (...) para o acesso a bens e serviços e políticas públicas, de forma ilegítima ou desproporcional".
Armas autônomas
Imagine um sistema de inteligência artificial que controle uma arma e que disparada conforme a vítima. Esse parece ser um dos cenários descritos no PL sobre IA, no terceiro inciso do artigo 13.
Identificação usando IA só pode em alguns casos
Entidades da sociedade civil queriam tirar completamente a menção ao uso de reconhecimento facial para identificação de pessoas do PL. No entanto, o texto final permite o uso em espaços públicos, mas com algumas condições.
A IA poderá ser usada em espaços acessíveis ao público (como estádios, por exemplo) para buscar vítimas de crimes, pessoas desaparecidas e para recaptura de "réus evadidos".