Os casos do metrô de São Paulo e os Projetos de Lei debatidos no Congresso Nacional. A recente decisão do Tribunal de Justiça de São Paulo manteve a liminar concedida em ação civil pública ajuizada contra a Companhia do Metropolitano de São Paulo para suspender “a execução do sistema de captação e tratamento de dados biométricos dos usuários de metrô para sua utilização em sistemas de reconhecimento facial, admitindo-se apenas a instalação”, pois não houve solicitação de prévio consentimento dos usuários e não havia informações suficientes sobre a finalidade do tratamento de dados biométricos (reconhecimento facial).
Esclarecemos que esse caso não se confunde com outra ação coletiva, ajuizada contra a concessionária da Linha 4 do Metrô de São Paulo (Via Quatro), na qual se questionou a utilização de tecnologia de reconhecimento facial para avaliação do comportamento dos usuários para fins de direcionamento de anúncios publicitários nas dependências das estações. A ação foi julgada parcialmente procedente em primeiro grau, pois se entendeu que era indevido o uso de dados pessoais sensíveis (dados biométricos) por sistema de reconhecimento facial para fins comerciais, sem a prévia solicitação de consentimento dos titulares de dados pessoais. Além disso, a concessionária deverá arcar com danos morais coletivos de R$ 100 mil.
O reconhecimento facial utilizado nas duas situações questionadas judicialmente utiliza inteligência artificial (IA) com objetivos e finalidades diferentes. Ambos os casos ilustram os desafios enfrentados pela utilização da IA pelo Poder Público e agentes privados. De um lado, são inegáveis os benefícios decorrentes da eficiência, assertividade e produtividade resultantes da implementação de sistemas de IA; porém, também é necessário enfrentar questões éticas que impactam os direitos humanos e fundamentais.
O Brasil dá os primeiros passos no desenvolvimento e aplicação de IA. A título de comparação, em 2019, os Estados Unidos investiram US$ 224 milhões em startups de IA e a China, US$ 45 milhões, enquanto o Brasil, somente US$ 1 milhão. Por isso, o uso de tecnologias de IA mais sofisticadas, como os carros autônomos, por exemplo, ainda é um horizonte distante. Os setores que mais investem e utilizam IA no Brasil são (i) marketing e vendas para atendimento ao cliente por meio de assistentes virtuais, direcionamento de anúncios e personalização de serviços; (ii) o setor financeiro, principalmente no sistema de análise de crédito e combate a fraude; e (iii) a agricultura. O poder público também emprega IA nas suas atividades, com grande destaque às dezenas de softwares utilizados pelos tribunais de diferentes instâncias e jurisdições.
É notório o aumento da preocupação de organizações internacionais nos últimos anos com os impactos da IA nos direitos humanos, não obstante seus potenciais benefícios econômicos e sociais, que resultaram na publicação de diversos documentos com princípios éticos a serem aplicados em IA. Até mesmo as big techs se preocupam em firmar seu compromisso com princípios éticos no desenvolvimento de AI, como é o caso do Google[1] e da Microsoft[2].
Destacamos a Recomendação do Conselho sobre Inteligência Artificial da OCDE, de 2019, que reconhece o potencial que tem a IA de melhorar o bem-estar das pessoas, contribuir para a atividade econômica global sustentável, aumentar a inovação e produtividade, e ajudar a responder aos principais desafios globais. Entratanto, também se pondera que as transformações trazidas pela IA podem ter efeitos díspares nas sociedades, especialmente em relação às mudanças econômicas, de concorrência, no mercado de trabalho, com impacto na desigualdade, democracia, direitos humanos, privacidade, proteção de dados e segurança digital. Por isso, a OCDE entende que é necessário buscar a confiabilidade de sistemas de IA por meio do debate dos potenciais benefícios e, ao mesmo tempo, limitação dos riscos associados.[3]
Inspirada nas recomendações internacionais, especialmente da OCDE, a Portaria n. 1.122/2020 estabeleceu como prioridade a área de IA para projetos de pesquisa e desenvolvimento de tecnologias. Para viabilizar o projeto foi elaborada a Estratégia Brasileira de Inteligência Artificial – EBIA.[4]
Paralelamente, o Congresso Nacional debate alguns projetos de Lei para regulação da IA, que preveem fundamentos, princípios e diretrizes para a IA, sendo o mais completo deles o PL n. 21/2020. Apesar da complexidade das questões envolvidas, a Câmara dos Deputados aprovou, com urgência na tramitação, o PL 21/2020 em 29/09/2021 e o remeteu ao Senado para deliberação. O Senado instalou uma Comissão de juristas para debater com especialistas e representantes de diferentes segmentos da sociedade diversos aspectos de IA.
Os PLs em discussão no Congresso Nacional seguem modelo totalmente diferente da Proposta de regulamentação de IA pela Comissão Europeia, que é o projeto de texto legal mais completo conhecido até o momento e discutido há anos na União Europeia. Enquanto o PL 21/2020 conta com 10 artigos que contém declarações e princípios gerais, a Proposta da Comissão Europeia tem 89 itens preambulares, 85 artigos e 8 anexos, cujo propósito é estabelecer um marco regulatório para a IA.[5]
Cabe ao Legislativo brasileiro enfrentar diversas críticas e ponderações de especialistas em IA na deliberação e votação dos PLs, dentre as quais ressaltamos: (i) a crítica à tramitação com urgência sobre tema complexo; (ii) a mera reprodução de princípios gerais previstos em declarações internacionais, sem a previsão da sua consequência prática, que é essencial para regular as relações sociais e econômicas; (iii) a indicação genérica de padrões internacionais que serão adotados como referência na medida em que há consenso sobre os princípios éticos, mas não como eles podem ser atingidos; (iv) a falta de previsão de sanção ou penalidade por violação das diretrizes legais, o que pode tornar o texto inefetivo na prática; (v) o uso equivocado do conceito de IA; (vi) a falta de previsão de avaliação e mensuração de risco que, para alguns especialistas, determinados riscos já deveriam ser proibidos de antemão, como a utilização de IA que explore grupos vulneráveis; (vii) a ausência de designação de um órgão ou autoridade competente para fiscalizar e regulamentar a aplicação de IA em diferentes setores; (viii) a ausência de definição dos agentes relevantes no âmbito da IA, que são os desenvolvedores da tecnologia, os agentes que comercializam e os usuários, com o estabelecimento da responsabilidade de cada um; (ix) a descrição de como os princípios da transparência e explicabilidade se aplicam no uso de IA pelo Estado.
É importante também fazer a ponderação sobre o modelo de regulamentação que se adotará futuramente, ou seja, se cada setor poderá adotar autorregulação (Código de Conduta), a exigência de certificações de controle da conformidade do sistema de IA com os preceitos legais, a regulação por agências reguladoras, dentre outros. Ainda há o desafio de estabelecer regulação que estimule a sua aplicação na pesquisa para aumento da competitividade global, além da necessária qualificação da mão de obra para as mudanças estruturais no mercado de trabalho.
É indispensável que a sociedade acompanhe e participe do debate sobre a regulamentação de IA, procurando influenciar o legislador em busca de um texto legal que traga segurança jurídica, proteção aos direitos fundamentais e, ao mesmo tempo, incentive a sua aplicação para o desenvolvimento econômico do país.
[1] Artificial Intelligence at Google: Our Principles. Disponível em: https://ai.google/principles/
[2] Responsible AI. Disponível em: https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6
[3] https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449
[4] https://www.gov.br/mcti/pt-br/acompanhe-o-mcti/transformacaodigital/arquivosinteligenciaartificial/ia_estrategia_documento_referencia_4-979_2021.pdf
[5] https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52021PC0206
Fonte: Jota por URSULA RIBEIRO DE ALMEIDA