Estamos a poucos passos desse importante Marco Legal
Por Gisele Truzzi, Iasmin Palotta e Dayane Vantini
Confira também esta coluna no IT Forum, clicando aqui.
A inteligência artificial já faz parte do nosso cotidiano, variando desde o âmbito doméstico, com o uso de aparelhos para tornar nossa “casa inteligente”, ao uso industrial e empresarial, para controle de estoques, reconhecimento facial e análise de comportamento do consumidor.
Trata-se, basicamente, de sistemas ou máquinas dotados de características similares à inteligência humana para executar tarefas e que podem se aprimorar iterativamente com base nas informações que coletam.
O uso massivo desse tipo de tecnologia pode melhorar processos e deixar nossa vida mais confortável, mas, ao mesmo tempo, pode trazer impactos significantes, sobretudo para os direitos de personalidade e privacidade. Logo, a regulamentação sobre os limites do uso da inteligência artificial se torna imprescindível para o desenvolvimento e manutenção deste tipo de tecnologia.
Neste sentido, o Brasil está cada dia mais perto de ter um Marco Legal que regulamenta o uso da Inteligência Artificial. Em março de 2022 foi instaurada no Senado uma comissão de 18 juristas responsáveis por promover reuniões, seminários e audiências públicas sobre o tema e que, em 06 dezembro de 2022, aprovou o anteprojeto de regulamentação de inteligência artificial e apresentou o relatório final ao presidente do Senado, Rodrigo Pacheco.
Tivemos oportunidade de contribuir para o debate do tema, com artigo próprio sobre discriminação algorítmica em razão da idade, enviado ao Senado através da iniciativa do grupo “Mulheres na Privacidade”
O texto final do anteprojeto de lei apresentado substitui três Projetos de Lei relativos ao tema — 5.051/2019, 21/2020 e 872/2021—, e estabelece em 45 artigos os princípios, regras e diretrizes para o desenvolvimento e a aplicação da inteligência artificial no Brasil.
Proteção para os cidadãos
A complexidade do tema resultou em um relatório final de mais de 900 páginas, com uma proposta de lei cuja importância é decorrente do contexto atual de desenvolvimento tecnológico desenfreado. O objetivo da proposta de lei é, justamente, proteger as pessoas físicas que são diariamente impactadas por sistemas de inteligência artificial, e regulamentar ferramentas de governança e fiscalização que garantem segurança jurídica para inovação e o desenvolvimento econômico-tecnológico.
O segundo capítulo do projeto, por exemplo, é dedicado à fixação de direitos básicos para todo e qualquer contexto em que há interação entre máquina e ser humano, prevendo a necessidade de informação e transparência, além do direito de contestação e intervenção humana, buscando assegurar o contraditório e ampla defesa.
Além disso, o mesmo capítulo prevê o direito à não-discriminação e à correção de vieses discriminatórios diretos, indiretos, ilegais ou abusivos; e o direito à privacidade e à proteção de dados pessoais.
Tratando-se de pessoas vulneráveis expostas à inteligência artificial (tais como crianças, adolescentes, idosos e pessoas com deficiência), o projeto dispõe que as tecnologias deverão ser desenvolvidas de tal modo que essas pessoas consigam entender o seu funcionamento e seus direitos em face dos agentes de inteligência artificial (fornecedores e operadores de sistemas de inteligência artificial).
Outro ponto importante previsto no projeto diz respeito às tecnologias comuns sobretudo em sistema de avaliação de crédito: segundo o projeto, quando a decisão, previsão ou recomendação de sistema de inteligência artificial produzir efeitos jurídicos relevantes ou que impactem de maneira significativa os interesses da pessoa, inclusive por meio da geração de perfis e da realização de inferências, esta poderá solicitar a intervenção ou revisão humana.
Interessante notar que o projeto prevê a impossibilidade de desenvolvimento de tecnologia com uso de inteligência artificial que induza as pessoas a se comportarem de forma prejudicial; que exploram vulnerabilidades de grupos específicos; e ainda, pelo poder público, para avaliar, classificar ou ranquear as pessoas naturais, com base no seu comportamento social ou em atributos da sua personalidade, por meio de pontuação universal, para o acesso a bens e serviços e políticas públicas, de forma ilegítima ou desproporcional.
Ainda, o capítulo terceiro do projeto de lei menciona uma classificação prévia de risco gerado pela inteligência artificial. São considerados sistemas de inteligência artificial de alto risco aqueles utilizados, por exemplo, para seleção de candidatos, acesso a serviços essenciais, sistemas de biometria, veículos autônomos e aplicações na área da saúde, inclusive as destinadas a auxiliar diagnósticos e procedimentos médicos.
O fornecedor da tecnologia será o responsável pela classificação, mas a autoridade fiscalizadora – que ainda será criada – poderá reavaliar a classificação.
O próprio texto do relatório, porém, já define o grau de risco de algumas aplicações. Além disso, prevê a responsabilidade por danos, independente de culpa, tanto do fornecedor quanto de quem estiver utilizando a IA. A classificação do risco tem impacto tanto na responsabilização quanto nas medidas de governança que devem ser tomadas.
Tudo isso em conjunto representa um avanço legislativo significativo para proteger os cidadãos contra eventuais abusos, além de permitir que no caso de dano, haja a reparação e punição do agente responsável.
É importante salientar que a nossa LGPD (Lei Geral de Proteção de Dados – Lei nº 13.709) protege o cidadão em relação aos seus dados pessoais e privacidade, a partir do ponto em que define regras, princípios e finalidades para o tratamento das informações pessoais do indivíduo, seja por parte de empresas privadas ou órgãos públicos. Sobre isso, em relação à IA, entendemos que a observância das bases legais previstas na LGPD é essencial para que o tratamento dos dados pessoais no uso dessas tecnologias não ocorra de forma abusiva ou que extrapole a sua finalidade (arts. 7 e 11).
O consentimento do titular é importante (art. 7º, inc. I), mas não é a única base legal que poderá ser utilizada em questões relacionadas à IA. Teremos situações nas quais poderemos fundamentar o tratamento de dados pessoais através de IA utilizando as bases legais da execução de contrato (art. 7, inc. V) ou da tutela da saúde (art. 7, inc. VIII), para fins de diagnóstico médico, por exemplo.
Preocupação mundial
Para enriquecer o projeto de lei, a comissão responsável analisou como ocorre a regulamentação da inteligência artificial em outros países, sobretudo aqueles pertencentes à OCDE1.
Compreensível o uso dos países da OCDE como referência, já que há anos elesproduzem diretrizes sobre o uso adequado de inteligência artificial, para evitar, por exemplo, o aumento do desemprego devido à automação, o desequilíbrio na distribuição de renda e resultados enviesados pela ausência de supervisão humana.
O relatório do projeto de lei dispõe que foi constatada uma variedade de modelos de estruturas regulatórias para a inteligência artificial: alguns países optaram por uma abordagem mais centrada em questões essencialmente éticas, outros por uma abordagem mais próxima da regulação setorial tradicional; em alguns a regulação é mais centralizada, em outros, mais setorial.
Segundo o relatório, entre os países analisados, o Japão e o Reino Unido estudam de forma mais profunda diferentes modelos de regulação, avaliando aspectos positivos e negativos de diversas opções. A Coréia do Sul, por outro lado, com base na documentação analisada, é o país que mais apoia o desenvolvimento das tecnologias de IA, atuando fortemente para eliminar ou reduzir barreiras legais ou regulatórias. A seu turno, a Alemanha se destaca pela quantidade de iniciativas de regulação.
Ainda no que diz à perspectiva internacional, multinacionais da tecnologia também manifestam preocupação com o tema. Em janeiro de 2020, durante o Fórum Econômico Mundial de Davos, na Suíça, o CEO da Microsoft, Satya Nadella, descreveu como “crucial” a regulamentação da Inteligência Artificial.
O Google, por sua vez, já anunciou que deixaria de colaborar com agentes governamentais no desenvolvimento de tecnologias de vigilância em massa, como ferramentas de reconhecimento facial, devido a preocupações com as consequências do uso da tecnologia.
Avanço Legal
O relatório apresentado pela Comissão ainda será analisado no Senado e poderá sofrer alterações, mas já caracteriza um avanço para o desenvolvimento da tecnologia observando os direitos da população. Em comparação com os demais projetos, trata-se de uma sugestão de lei robusta, com aspectos técnicos e não meramente principiológicos.
Se aprovado, servirá como um exemplo sobre como é possível garantir o desenvolvimento tecnológico ético e sustentável e, ao mesmo tempo, proteger direitos.
***
Autoras:
Gisele Truzzi , Advogada especialista em Direito Digital e Segurança da Informação. CEO e sócia-fundadora de Truzzi Advogados;
Iasmin Palotta , Advogada em Truzzi Advogados e
Dayane Vantini, Advogada e consultora de Truzzi Advogados.