Este artigo também foi publicado no itforum. Acesse clicando aqui.
Introdução
A inteligência artificial (IA) é uma das tecnologias mais inovadoras e disruptivas da atualidade, com o potencial de transformar diversos setores da sociedade e da economia. No entanto, seu uso também levanta desafios e riscos que precisam ser cuidadosamente considerados e regulamentados. Nesse contexto, diversos países do mundo estão elaborando leis e normas para estabelecer princípios e limites para o desenvolvimento e a aplicação da IA.
Neste artigo, propomo-nos a apresentar um panorama global da regulamentação da inteligência artificial, destacando os pontos de convergência e divergência entre diferentes regiões. Além disso, discutiremos os benefícios e os desafios de se criar um arcabouço jurídico para uma tecnologia tão dinâmica e complexa como a IA.
União Europeia
A União Europeia (UE) foi uma das primeiras a expressar a necessidade de regulamentar a inteligência artificial. Seguindo os princípios éticos definidos pela Organização para a Cooperação e Desenvolvimento Econômico (OCDE) em 2019, a Comissão Europeia propôs um regulamento em abril de 2021 para garantir que a IA seja usada de maneira confiável e responsável na Europa.
De acordo com a proposta, os sistemas de IA são classificados em quatro categorias de risco: inaceitável, alto, limitado e mínimo. Sistemas considerados de risco inaceitável, que violam direitos fundamentais ou valores democráticos da UE, como manipulação comportamental ou vigilância em massa, seriam proibidos na Europa.
Aqueles de alto risco, que podem afetar a saúde, a segurança ou os direitos fundamentais das pessoas, seriam submetidos a requisitos rigorosos de qualidade, transparência, supervisão humana e segurança antes de serem colocados no mercado.
Os sistemas de risco limitado, cujo impacto negativo pode ser facilmente revertido ou corrigido, deveriam informar aos usuários que estão interagindo com uma IA.
Finalmente, os sistemas de risco mínimo, que não representam nenhum risco significativo para as pessoas ou para a sociedade, não estariam sujeitos a restrições específicas.
Estados Unidos
Nos Estados Unidos, embora não exista uma legislação federal específica sobre inteligência artificial, há várias iniciativas em nível estadual e municipal regulando o uso da tecnologia em diferentes contextos. Adicionalmente, o governo federal tem publicado diretrizes e recomendações para orientar o desenvolvimento e a aplicação da IA no país.
Em 2019, o governo americano lançou o “American AI Initiative”, um plano estratégico para promover o avanço da IA nos EUA, composto por cinco pilares: investimento em pesquisa e desenvolvimento, remoção de barreiras ao acesso aos recursos, estabelecimento de padrões técnicos, capacitação da força de trabalho e engajamento internacional.
Em 2020, o governo americano publicou um documento com 10 princípios para o uso confiável da IA no setor privado. Os princípios são: respeito à lei; respeito à privacidade e à segurança; transparência; equidade; não-discriminação; segurança humana; dignidade humana; supervisão humana; precisão; robustez.
Em 2021, o governo americano publicou outro documento com 12 princípios para o uso responsável da IA no setor público. Os princípios são: legalidade; proporcionalidade; responsabilidade; equidade; não-discriminação; transparência; explicabilidade; precisão; confiabilidade; segurança; privacidade; participação pública.
China
A China é um dos países mais avançados na pesquisa e no desenvolvimento de inteligência artificial no mundo, tendo como meta se tornar líder global na área até 2030. No entanto, o país também enfrenta desafios éticos e regulatórios relacionados ao uso da tecnologia em diversos setores.
Segundo um relatório da CBInsights, a China contribuiu com 48% do investimento global em IA em 2017, superando os Estados Unidos (29%) pela primeira vez. A firma de consultoria McKinsey estima que o setor tem potencial para contribuir com cerca de 600 bilhões de dólares anualmente ao Produto Interno Bruto da China.
Em 2017, o governo chinês lançou um plano estratégico para promover o crescimento da IA no país, baseado em quatro objetivos: fortalecer as bases teóricas e tecnológicas da IA; acelerar a integração da IA com as indústrias tradicionais e emergentes; construir uma plataforma aberta e colaborativa para a inovação em IA; formar talentos qualificados e criar um ecossistema favorável à IA.
Em 2019, o governo chinês publicou um documento com princípios éticos para o desenvolvimento e a aplicação da IA no país. Os princípios são: harmonia e amizade; equidade e justiça; inclusão e compartilhamento; respeito à privacidade; segurança e controle; responsabilidade compartilhada; governança aberta.
Em 2020, o governo chinês publicou outro documento com normas técnicas para avaliar os riscos dos sistemas de IA. As normas definem quatro níveis de risco: muito baixo (sem impacto significativo), baixo (impacto reversível), médio (impacto moderado) e alto (impacto severo). As normas também estabelecem critérios para avaliar os riscos relacionados à segurança funcional, à qualidade dos dados, à transparência dos algoritmos, à proteção dos direitos humanos e à supervisão humana.
Austrália
A Austrália é um dos países que tem se destacado na área de IA, com o objetivo de ser líder global na tecnologia até 2030. Para isso, o governo australiano lançou em 2019 uma estratégia nacional de IA, que prevê investimentos em pesquisa, desenvolvimento e inovação, além de medidas para garantir que o uso da IA seja ético, responsável e inclusivo.
Uma das iniciativas da estratégia australiana é a criação de um quadro regulatório para a IA, que visa assegurar que o sistema regulatório permaneça adequado, ágil, inteligente e moderno à medida que a tecnologia se desenvolva. O quadro regulatório aborda questões como proteção de dados, privacidade, segurança, transparência, responsabilidade e confiança na IA.
Um exemplo de aplicação prática do quadro regulatório é o uso de IA para melhorar a segurança das mulheres em espaços públicos. O governo de Nova Gales do Sul, o estado mais populoso da Austrália, está testando um software de IA que analisa as imagens das câmeras de segurança em estações de trem e alerta um operador quando atividades suspeitas ou um ambiente inseguro forem detectados. O software é capaz de identificar brigas, comportamento agitado, pessoas sendo seguidas e discussões.
Brasil
O Brasil, por sua vez, ainda não tem uma legislação específica para a IA, mas tem avançado em algumas iniciativas para fomentar o desenvolvimento e o uso da tecnologia no país. Em 2019, o governo brasileiro criou uma Estratégia Brasileira de Inteligência Artificial (EBIA), que tem como objetivo definir diretrizes e ações para promover a pesquisa, a inovação, a capacitação e a governança da IA no Brasil.
A EBIA está alinhada com os princípios da Organização para a Cooperação e Desenvolvimento Econômico (OCDE) para a IA, que incluem respeito aos direitos humanos, à democracia e ao estado de direito; promoção do bem-estar social e do desenvolvimento sustentável; garantia de transparência, explicabilidade e responsabilidade; fomento à diversidade, à não discriminação e à equidade; e adoção de abordagens baseadas em evidências e em riscos.
Além da EBIA, o Brasil também conta com outras iniciativas relacionadas à IA, como o Marco Legal das Startups e do Empreendedorismo Inovador (Lei Complementar nº 182/2021), que incentiva o surgimento de novas empresas de base tecnológica; a Lei Geral de Proteção de Dados Pessoais (Lei nº 13.709/2018), que estabelece regras para o tratamento de dados pessoais por pessoas físicas e jurídicas; e o Plano Nacional de Internet das Coisas (Decreto nº 9.854/2019), que visa estimular a adoção de soluções digitais integradas à IA em áreas como saúde, indústria, agricultura e cidades inteligentes.
Conclusão
A regulamentação da inteligência artificial é um tema complexo e multifacetado que varia de país para país, refletindo as diferentes prioridades, normas culturais e realidades sociais. Há, contudo, uma concordância geral de que a IA deve ser desenvolvida e utilizada de maneira ética e responsável, protegendo os direitos e a segurança dos indivíduos e da sociedade.
É essencial que os legisladores continuem a monitorar o desenvolvimento da IA e a adaptar a regulamentação à medida que novos desafios surgem. Ao mesmo tempo, devem garantir que a regulamentação não sufoque a inovação, mas apoie o desenvolvimento de uma IA que beneficie a todos.
Esta análise apresentou um panorama geral e simplificado da regulamentação da IA em algumas regiões. Para uma compreensão mais completa, seria necessário um exame mais aprofundado das leis e regulamentos específicos em cada país ou região, bem como uma análise dos debates éticos e filosóficos em torno do tema.
Para saber mais sobre o assunto, recomendamos as seguintes fontes:
– Projeto de Lei sobre uso de Inteligência Artificial avança no Congresso — Ministério da Economia
– O que diz o projeto para regulamentar IA no Brasil – DW
– Regulamentação da inteligência artificial: entenda o debate mundial | Inside Alana Blog
– Regulamentação da Inteligência Artificial no Brasil: a quem deve ser endereçada? – Canaltech
– EBIA Estratégia Brasileira de Inteligência Artificial
***
Autora:
Gisele Truzzi
Advogada especialista em Direito Digital e Segurança da Informação.
CEO e sócia fundadora de “Truzzi Advogados”.