Direitos digitais
Muita gente acha que Inteligência Artificial (IA) são robôs futuristas que facilitam a nossa vida. Mas não, a IA é uma tecnologia que já está presente em nosso dia a dia, para o bem e para o mal. Assim, todos nós corremos riscos, seja de discriminação, seja de cair em golpes, entre outros.
Um Projeto de Lei (PL) que estabelece um Marco Regulatório para a IA no Brasil está em discussão no Senado. E nós, do Idec, estamos atentos para que ele assegure, de fato, os direitos de todos os cidadãos brasileiros.
Como esse não é um tema de fácil compreensão para o público leigo, conversamos, no mês de junho, com a coordenadora de pesquisa do Instituto de Referência em Internet e Sociedade (IRIS), Fernanda Rodrigues, que participou das audiências públicas e tem colaborado com contribuições escritas para os parlamentares envolvidos na discussão sobre o desenvolvimento e uso da IA no Brasil. Ela comentou o texto atual do PL, ressaltando os pontos positivos e negativos, e também expôs os impactos da IA em nosso cotidiano.
Confira a seguir!.
FERNANDA RODRIGUES é doutoranda em Direito pela Universidade Federal de Minas Gerais (UFMG), graduada em Direito pela Universidade Federal de Santa Maria (UFSM) e mestre em Direitos na Sociedade em Rede. É coordenadora de pesquisa e pesquisadora do Instituto de Referência em Internet e Sociedade (IRIS).
Quais os principais problemas do PL nº 2.338/2023 e quais os riscos que ele oferece aos brasileiros caso seja aprovado?
Fernanda Rodrigues: Considerando a última versão discutida na Comissão Temporária Interna da Inteligência Artificial [CTIA] do Senado, algumas coisas me chamam a atenção. A primeira é que apesar de prever no rol de tecnologias de Inteligência Artificial [IA] de risco excessivo os sistemas biométricos de identificação em tempo real em espaços públicos, como o reconhecimento facial, há tantas exceções, que o PL basicamente permite o uso que já tem sido feito para fins de segurança pública em diferentes estados do país. Há vários estudos e uma campanha nacional pelo banimento do reconhecimento facial, principalmente para fins de segurança pública, em razão dos problemas e vieses já conhecidos e demonstrados, e da capacidade de potencializar discriminações sobre grupos vulneráveis. Por isso, considero esse ponto extremamente preocupante.
A segunda é a classificação de sistemas de pontuação de crédito. Na versão do PL elaborada em 2022, eles estavam classificados como IA de alto risco, o que faz com que seja necessária uma série de medidas de governança específicas por conta dos potenciais impactos na sociedade. Recentemente, esses sistemas foram retirados do rol de IA de alto risco. Há estudos apontando o quanto essa tecnologia pode atingir a esfera individual do direito das pessoas, na medida em que uma pontuação de crédito baixa pode impedir o acesso a determinados bens e serviços. E se estamos falando de uma tecnologia que pode apresentar problemas tão significativos, é necessário classificá-la como de alto risco, para que medidas de mitigação, como a avaliação de impacto algorítmico, possam ser aplicadas.
A terceira está relacionada aos incisos que permitem o estudo analítico de crimes relativos a pessoas naturais, com a finalidade de identificar padrões e perfis comportamentais; e a possibilidade de investigação por autoridades administrativas para prever a ocorrência ou recorrência de uma infração real ou potencial com base na definição de perfis de pessoas singulares. Esses dois elementos, classificados como de alto risco, permitem, ainda que com uma série de medidas de governança mais rígidas, o desenvolvimento de tecnologias como o policiamento preditivo [ferramenta que utiliza dados estatísticos para a criação de algoritmos que identificam atividades criminosas em potencial]. O problema é que estudos já demonstraram o viés discriminatório desse tipo de tecnologia, implementado em algumas cidades dos Estados Unidos, e o quanto ela pode reforçar o vigilantismo e o policiamento de comunidades marginalizadas, de modo que entendo que deveria ser classificada como tecnologia de risco excessivo.
Qual a relação entre a IA e o score (ou pontuação) de crédito?
FR: Sistemas de IA, principalmente as de aprendizado de máquina [aquelas que, baseadas em dados, podem identificar padrões e tomar decisões com o mínimo de intervenção humana], são utilizados para tentar prever a possibilidade de inadimplência dos indivíduos e, assim, atribuir uma pontuação que vai servir para que outras empresas avaliem a possibilidade de concessão de crédito a essas pessoas.
O problema é que em alguns casos, esses sistemas não são muito transparentes e não se sabe exatamente quais informações são utilizadas e quais dados possuem mais peso do que outros. Mas já existem estudos que apontam a capacidade que esses sistemas têm de reproduzir e perpetuar discriminações sobre grupos específicos. E eu destaco o estudo do Ramon Vilarino, que trabalha com análise de risco de sistemas de aprendizado de máquina. Ele identificou que pessoas que vivem em regiões brasileiras com população mais branca têm mais chances de ter sua pontuação de crédito aumentada por conta do impacto dessa informação.
Por que as tecnologias de IA, como o reconhecimento facial, são discriminatórias, racistas e transfóbicas?
FR: Já existem diversos estudos comprovando a possibilidade de reprodução de vieses racistas, transfóbicos, dentre outros, por sistemas de reconhecimento facial. O mais emblemático é o “Gender Shades” [tons de gênero, em tradução livre], de 2018. As autoras, Joy Buolamwini e Timnit Gebru, analisaram três sistemas comerciais de reconhecimento facial e identificaram que eles possuíam índice de falibilidade muito maior sobre rostos de mulheres negras do que de homens brancos.
Outros estudos constataram que essas tecnologias também falham mais sobre rostos de pessoas trans. Isso tudo só potencializa discriminações que esses grupos já sofrem. E quando trazemos isso para o contexto brasileiro, onde temos um sistema penal seletivo e o encarceramento em massa de pessoas negras, é ainda mais grave. Temos visto frequentemente notícias de pessoas que são detidas equivocadamente em razão de uma falha na identificação de um sistema de reconhecimento facial.
Quando colocamos essa tecnologia nas mãos de um agente de segurança pública, que pode enxergar a tecnologia pelo viés da objetividade (ou seja, considerá-la neutra, sem preconceitos), pode ser difícil as pessoas provarem que uma tecnologia que deveria funcionar corretamente falhou. Todos esses fatores culminam para que a gente entenda que o reconhecimento facial é potencialmente nocivo. Então por que investir nesse tipo de tecnologia e não em alternativas que reduzam desigualdades sociais?
Como a IA pode aumentar o número de golpes e fraudes (e aprimorá-los) contra consumidores?
FR: Quando olhamos para a utilização ilícita de tecnologias de IA generativa – aquelas treinadas em grandes bases de dados para gerar, a partir de comandos textuais, novos conteúdos sintéticos, como imagem, vídeo ou som –, vemos a possibilidade do aumento dos casos de golpes e fraudes contra consumidores. Posso destacar três: 1. e-mails de phishing, que podem ser altamente personalizados, tanto com o auxílio da IA generativa de imagem, que copia leiautes de sites verdadeiros para tornar e-mails mais verídicos; como da IA generativa de texto ou que utiliza processamento de linguagem natural para gerar textos mais convincentes e, assim, enganar o consumidor; 2. criação de sites falsos que imitam um site verdadeiro com um bot de atendimento falso; 3. a clonagem de voz e a criação de deep fakes através de vídeos para se passar por pessoas conhecidas e figuras públicas, transmitindo credibilidade e fazendo os consumidores acreditarem nas informações transmitidas.
E existem pontos positivos no PL?
FR: Sim. É importante reconhecer que tivemos alguns avanços bem importantes. O primeiro é que, recentemente, os sistemas de armas autônomas foram classificadas como tecnologias de risco excessivo, ou seja, devem ser banidas. Armas autônomas são sistemas de IA que têm o poder de decisão para matar ou ferir pessoas assim que acionadas com supervisão humana (ou elas podem atirar em alguém de forma autônoma, sem intervenção humana, a partir de uma programação pré-definida). O problema é que estamos deixando na mão de robôs a definição de quem pode viver ou não, e a falha de uma máquina como essa pode significar uma vida perdida de forma equivocada. Já existem estudos que apontam que esse tipo de ferramenta não condiz com parâmetros internacionais de direitos humanos. Por isso, elas podem ser muito lesivas tanto em contexto de guerras internacionais como de vigilância interna.
O segundo foi a definição de sistemas de IA de propósito geral, que, como o próprio nome diz, são sistemas que podem servir para diversas finalidades. Eles são treinados em grandes bases de dados e podem não ser somente utilizados de forma autônoma, mas também integrados a outros sistemas e aplicações. Nesse sentido, o PL passou a prever medidas de governança específicas para esses sistemas, por exemplo, que eles sejam treinados somente em bases de dados tratadas conforme previsto na LGPD [Lei Geral de Proteção de Dados].
O terceiro é que o texto passou a prever a preocupação com impactos da IA no mercado de trabalho. Mas ainda é preciso reconhecer expressamente os efeitos da precarização advindos da plataformização do trabalho pela IA. Hoje, o PL está muito focado na ideia de deslocamento de funções e pessoas possivelmente perdendo o emprego por conta da tecnologia.
E, por fim, houve mais duas inclusões positivas: 1. a necessidade de participação social, principalmente de grupos afetados e vulnerabilizados na elaboração da avaliação do impacto algorítmico, que é o instrumento aplicado para tecnologias de IA de alto risco, a fim de verificar possíveis benefícios, riscos e como aquela tecnologia vai impactar socialmente. Hoje, essa participação, que em outras versões era facultativa, é obrigatória. 2. a participação social no Sistema Nacional de Regulação e Governança da Inteligência Artificial (SIA). Dentre as competências desse conselho estão sugerir ações a serem realizadas pelo SIA, elaborar estudos, realizar debates públicos e disseminar conhecimentos sobre essa tecnologia. Esse ponto tem um potencial muito positivo, mas ainda é preciso entender como essa participação se dará na prática.
O PL está alinhado com outras Leis e Regulações?
FR: Temos visto um esforço de fazer a regulação da IA estar alinhada com o resto do ordenamento jurídico brasileiro. E em relação à Lei Geral de Proteção de Dados (LGPD) e ao Código de Defesa do Consumidor (CDC), isso está mais nítido. A LGPD é mencionada mais de uma vez ao longo do texto, como parâmetro para o tratamento de dados por sistemas de IA. Já o CDC, nessa versão mais recente, está previsto expressamente como a legislação que se aplica a casos de responsabilidade civil envolvendo sistemas de IA no âmbito de relações de consumo. Mas ainda que a defesa do consumidor seja vista como um dos fundamentos da nova proposta, eu gostaria de destacar que enquanto o score de crédito não for classificado como de alto risco, entendo que ele vai contra o CDC, na medida em que pode afetar diretamente, de forma negativa, os consumidores.
Quais os principais desafios para a regulação da IA no Brasil?
FR: Falando como uma pessoa que participou de audiências públicas e tem participado de contribuições escritas para os parlamentares envolvidos na discussão, um dos maiores desafios para a regulação, hoje, é superar a falsa dicotomia entre regulação e inovação. Ainda é muito presente nos discursos que a regulação impede a inovação e que regular a IA pode parar o desenvolvimento da tecnologia e fazer com que as empresas fujam para outros países. Não existe só 8 ou 80 nessa discussão. O que tem sido construído no Brasil é uma busca pelo equilíbrio entre os dois, porque a regulação, quando bem elaborada, consegue construir um terreno sólido para que o setor privado possa se desenvolver com segurança e para que as pessoas tenham a garantia de que o desenvolvimento econômico não se dará às custas de seus direitos fundamentais mais básicos.
Eu acho que temos um desafio muito grande de compreender que regulação e inovação podem andar juntas. É necessário entender que a gente precisa, sim, do desenvolvimento tecnológico e econômico, mas que isso precisa vir com balizas legais que permitam que os benefícios das IAs sejam para toda a sociedade, não somente para uma parte dela.
E um segundo desafio é justamente garantir (e isso tem sido feito) a participação social efetiva e contínua no debate legislativo, para que todas as partes possam ser ouvidas, e tenhamos uma regulação multissetorial que atenda a todas as demandas, na medida do possível.
Este é o melhor momento para a aprovação dessa regulação, considerando que a IA é uma tecnologia nova e que ainda passará por muitas mudanças e evoluções?
FR: Sim. Ainda temos muito a avançar, então talvez não seja o momento da aprovação, mas é o momento de fazer o que estamos fazendo, que é discutir e caminhar para uma regulação de riscos, baseada em direitos. A tecnologia sempre estará em evolução, mas atualmente já temos danos e prejuízos reais, pessoas que já estão sendo afetadas. Assim, a regulação se faz necessária, para que possamos garantir direitos mínimos e para que haja segurança frente aos avanços dessas ferramentas.
Como está a regulação da IA em outros países? Quais poderiam servir de exemplo para o Brasil?
FR: Cada país tem construído a Lei para IA que faz sentido no seu contexto. E acho que isso é fundamental. Mundialmente, o que tem tido mais destaque é a EU AI Act, a Lei da Inteligência Artificial da União Europeia, que já gerou impactos aqui no Brasil, principalmente na versão do PL formulada pela Comissão de Juristas no Senado. Há alguns impactos muito positivos, como a ideia de uma regulação baseada em riscos e direitos.
Outros países estão construindo sua regulação. O Canadá, por exemplo, está caminhando para uma Regulação Federal. Já o Reino Unido e os Estados Unidos estão seguindo uma abordagem mais principiológica. Mas eu diria que nenhum deles deveria servir de exemplo para o Brasil. Todos podem servir de fonte de inspiração, mas devemos olhar para o que está sendo construído e enxergar o que faz sentido dentro das nossas especificidades, do desenvolvimento econômico que a gente tem, das discriminações estruturais que fazem parte, infelizmente, da nossa sociedade.
Como você vê o futuro da IA?
FR: Como falamos muito sobre os aspectos negativos da IA e que precisamos ter atenção com vieses discriminatórios, as pessoas normalmente acham que a gente é totalmente contra a inovação e as tecnologias, mas não é o caso, pelo contrário. Eu imagino um futuro em que a IA possa servir para o bem da humanidade, para a redução de desigualdades e para o avanço econômico. Mas eu receio que muito disso ainda está na minha imaginação, porque sem termos esses parâmetros mínimos, sem olhar com a devida seriedade para os vieses discriminatórios, sem fugir da ideia da IA como um fim em si mesma e sem entender que a tecnologia deve ser empregada quando ela fizer sentido dentro de determinado contexto, eu acho que a gente está caminhando para um futuro perigoso, principalmente para alguns grupos da sociedade.
Eu quero ver um futuro no qual a IA atenda a todos de uma forma igual e não gere discriminações.
Saiba mais
Campanha “IA: o que eu tenho a ver com isso?”, da Coalizão Direitos na Rede
POR DENTRO DO CDC
Consumidores cientes
O artigo 46 do Código de Defesa do Consumidor (CDC) prevê, de forma incisiva, que as pessoas consumidoras só são obrigadas a respeitar contratos que lhes forem disponibilizados previamente (ou seja, antes de assiná-los) e se o documento tiver sido redigido de forma compreensível. Isso significa que todas as informações relativas ao produto ou serviço, como características, qualidades, quantidades, composição, preços, garantias oferecidas, prazos de entrega e qualquer outra que seja fundamental, devem ser minuciosamente detalhadas de maneira clara e objetiva.
Este dispositivo legal tem como principal objetivo proteger os direitos dos consumidores, prevenindo-os contra práticas comerciais desleais ou enganosas. Ao estipular a transparência como um valor fundamental nas transações de consumo, o artigo coloca a responsabilidade pela clareza da informação primordialmente nas mãos de quem elabora o contrato.
DE OLHO NOS PODERES
Executivo, Legislativo e Judiciário sob a ótica do consumidor
⬆ Justiça determina cumprimento do prazo para implementação da lupa
A Presidência do Tribunal Federal da 3ª Região (TRF) manteve a liminar que derrubou a resolução da Agência Nacional de Vigilância Sanitária (Anvisa) que autorizava a prorrogação, por um ano, da implementação das novas regras para rotulagem de alimentos. A liminar foi concedida após o Idec entrar com uma ação civil pública contra a Anvisa em janeiro. Assim, a indústria de alimentos e bebidas teve até 22 de abril para adequar seus rótulos. Esta é a terceira vez que a Justiça decide a favor do Idec e das pessoas consumidoras nessa ação judicial.
⬆ Anvisa retira de pauta votação sobre fim das bulas impressas
Após ofício enviado pelo Idec, a Agência Nacional de Vigilância Sanitária (Anvisa) retirou da pauta de reunião da Diretoria Colegiada, em 26 de junho, a votação do item que tratava da possibilidade de extinção das bulas impressas para diversos tipos de medicamento. Para o Idec, a adoção das bulas digitais deve ser uma opção e não a única forma de acessar informações sobre remédios. Isso porque a não disponibilidade das bulas impressas pode aumentar os riscos de intoxicação por consumo inadequado de medicamentos. O Idec seguirá acompanhando o andamento do tema.
⬆ Para TJ-SP, banco e "maquininha" são corresponsáveis em caso de golpe
Ao julgar o caso de uma mulher que caiu no golpe da troca de cartão, comum em compras feitas com ambulantes e pagas com cartão de crédito, os desembargadores da 22ª Câmara de Direito Privado do Tribunal de Justiça de São Paulo (TJSP) reconheceram que tanto o banco quanto a empresa dona da maquininha de pagamento utilizada pelo golpista são responsáveis pelos danos causados à consumidora. Este é um entendimento jurisprudencial importante, já que o número de vítimas desse crime vem aumentando.