Navegando pelo cenário da legislação de IA
A Inteligência Artificial (IA) está transformando rapidamente os setores e a sociedade, trazendo avanços e desafios sem precedentes. À medida que os sistemas de IA se tornam mais integrados à forma como fazemos negócios e vivemos a vida cotidiana, a necessidade de uma legislação robusta para governar o desenvolvimento e o uso se torna cada vez mais importante.
A maioria das estruturas regulatórias visa equilibrar a necessidade de inovação com a proteção dos direitos fundamentais e da segurança pública. Este artigo explora o estado atual da legislação de IA, suas implicações e o caminho a seguir.
O surgimento da legislação de IA
A União Europeia apresentou recentemente a Lei de IA da UE. Essa estrutura abrangente visa garantir que os sistemas de IA sejam seguros, transparentes e respeitem os direitos fundamentais. Por estarem mais na vanguarda da tecnologia de IA, países como os Estados Unidos e a China, por exemplo, têm apresentado estruturas legislativas antecipadamente para lidar com os desafios exclusivos impostos pela IA. Independentemente da velocidade, é necessário regulamentar o cenário da tecnologia de IA para promover a inovação e gerar confiança.
Um caminho confiável para o futuro
A implementação da legislação de IA apresenta vários desafios. O ritmo acelerado do desenvolvimento da tecnologia pode superar a capacidade das estruturas regulatórias de acompanhar esse ritmo. Além disso, equilibrar a inovação com a regulamentação exige uma consideração cuidadosa para evitar sufocar o progresso tecnológico. Entretanto, a legislação de IA também oferece oportunidades significativas. Ao estabelecer diretrizes e padrões claros, a legislação pode promover a inovação, aumentar a confiança do público e garantir que os sistemas de IA sejam desenvolvidos e usados de forma responsável. Além disso, ao priorizar a segurança, a transparência e as considerações éticas, podemos aproveitar todo o potencial da IA e, ao mesmo tempo, proteger os interesses dos indivíduos e da sociedade.
Complementado por padrões internacionais
Os esforços legislativos são complementados por normas internacionais, como a ISO/IEC 42001. Essa norma certificável fornece requisitos para a implementação de um sistema de gestão de IA e transcende as fronteiras geográficas. Embora não seja uma legislação propriamente dita, espera-se que a ISO/IEC 42001 desempenhe um papel significativo na promoção de uma IA confiável, estabelecendo práticas recomendadas para a governança. Projetada para garantir o desenvolvimento, a implementação e o uso seguros, confiáveis e éticos da IA, ela é mencionada nas legislações como um meio valioso de garantir que os processos de governança adequados sejam implementados.
Principais componentes da legislação de IA
A legislação de IA costuma abranger vários componentes principais:
- Segurança e confiabilidade: É fundamental garantir que os sistemas de IA operem de forma segura e confiável. A legislação geralmente inclui requisitos de gerenciamento de riscos, testes e validação para evitar danos aos indivíduos e à sociedade.
- Transparência e responsabilidade: A transparência nos processos de tomada de decisão da IA é fundamental para criar confiança. A legislação exige que os desenvolvedores de IA forneçam explicações claras sobre como seus sistemas funcionam e estabeleçam mecanismos de responsabilidade.
- Considerações éticas: Os princípios éticos, como justiça, não discriminação e respeito à privacidade, são parte integrante da legislação de IA. Esses princípios orientam o desenvolvimento e a implantação de sistemas de IA para garantir que estejam alinhados com os valores sociais.
- Conformidade e aplicação da lei: Mecanismos eficazes de aplicação são essenciais para garantir a conformidade com a legislação de IA. Os órgãos reguladores têm a tarefa de monitorar os sistemas de IA, realizar auditorias e impor penalidades em caso de não conformidade.
Europa: A Lei de IA da UE
A União Europeia deu um passo significativo na regulamentação da inteligência artificial. A Lei de IA da UE tem como objetivo garantir que os sistemas sejam seguros, transparentes e respeitem os direitos fundamentais, além de promover a inovação. Publicada em 12 de julho de 2024, ela entrou em vigor em 1º de agosto de 2024. Suas disposições serão implementadas gradualmente, com obrigações sobre práticas proibidas aplicáveis a partir de 2 de fevereiro de 2025 e requisitos de sistemas de IA de alto risco a partir de 2 de agosto de 2026.
A Lei de IA da UE categoriza os sistemas de IA com base em seus níveis de risco:
- É proibido o uso de ferramentas inaceitáveis, como, por exemplo, pontuação social.
- O alto risco, por exemplo, recrutamento ou dispositivos médicos, é permitido, sujeito a requisitos e avaliações de conformidade.
- O risco de “transparência”, por exemplo, chatbots ou deep fakes, é permitido, sujeito a obrigações de informação/transparência.
- É permitido risco mínimo ou nenhum risco, sem restrições.
Sistemas de IA de risco inaceitável, como aqueles que manipulam o comportamento humano ou exploram vulnerabilidades, são proibidos. Os sistemas de IA de alto risco, que incluem aplicativos em infraestrutura crítica, educação e emprego, devem passar por rigorosas avaliações de conformidade antes da implantação.
A Lei de IA da UE também estabelece requisitos de transparência e responsabilidade. Os desenvolvedores de IA devem fornecer informações claras sobre como seus sistemas funcionam e garantir que eles possam ser auditados. Isso inclui a manutenção de documentação e registros detalhados para facilitar a supervisão e a conformidade. Também se aplica a empresas que operam ou vendem produtos de IA na UE. As empresas exportadoras devem garantir que seus sistemas de IA atendam aos padrões especificados e passem pelas avaliações necessárias.
Legislação de IA nos Estados Unidos
Embora adotando uma abordagem um pouco diferente da União Europeia, os Estados Unidos reconheceram desde cedo a necessidade de uma legislação abrangente para governar o desenvolvimento e uso dessa tecnologia. Isso resultou em vários atos legislativos em nível federal e estadual; mais de 40 projetos de lei estaduais foram apresentados em 2023. O cenário legislativo nos EUA é bastante complexo, mas reflete amplamente a necessidade crescente de equilibrar a inovação com salvaguardas para proteger os indivíduos e a sociedade dos riscos da IA.
Existem algumas peças importantes de legislação e ações regulatórias que estão moldando o cenário da IA nos Estados Unidos. O Blueprint for an AI Bill of Rights, lançado em outubro de 2022, descreve os princípios para proteger os indivíduos dos possíveis danos da IA. Ele se concentra em direitos como privacidade, proteção contra discriminação algorítmica e garantia de transparência. A ampla Ordem Executiva sobre IA assinada pelo Presidente Joe Biden em 2023 enfatizou a necessidade de uma IA segura, protegida e confiável. Ela também determina que as agências federais adotem medidas para garantir que os sistemas de IA sejam desenvolvidos e usados de forma responsável. Existem algumas leis que visam promover a inovação de forma segura, confiável, ética e transparente, como a Lei de Iniciativa Nacional de IA de 2020 e a Lei de Inovação do Futuro da IA. Em maio de 2024, foi assinado o inovador Colorado AI ACT, o primeiro desse tipo nos EUA, que compreende uma lei de governança de IA intersetorial que abrange o setor público. Vários projetos de lei do Congresso estão em desenvolvimento, como o projeto de lei SB 1047 California AI Safety, recentemente proposto, que visa regulamentar ainda mais o modelo de IA mais poderoso.
Legislação chinesa de IA
Até o momento, a China não publicou uma lei completa sobre IA, mas publicou regulamentações sobre aplicativos de IA. No entanto, ao contrário da União Europeia, onde a Lei de IA atua como uma estrutura regulatória geral para todos os sistemas de IA, a China está adotando uma abordagem vertical para regular determinados serviços de IA.
Com uma meta ambiciosa de se tornar o líder global em desenvolvimento e aplicativos de IA, o governo de Pequim publicou o “Plano de Desenvolvimento de IA de Nova Geração” em 2017, que é o primeiro plano sistêmico e estratégico na esfera da IA. Ele estimulou uma explosão na atividade do setor e no apoio político ao desenvolvimento da IA.
Cinco categorias principais compõem o cenário chinês de governança de IA:
- Políticas e estratégias de governança. Pequim lançou uma série de princípios, planos, orientações ou opiniões de governança em nível nacional sobre tecnologias de IA. Eles fornecem uma base para a legislação de IA. Por exemplo, o Conselho do Estado publicou “Opiniões sobre o fortalecimento da governança ética em ciência e tecnologia”, que expressa os pensamentos de Pequim sobre os princípios éticos das tecnologias de IA.
- Leis. Algumas das leis existentes abordam certos aspectos do desenvolvimento, fornecimento, implantação e uso de sistemas de IA, que têm um impacto significativo na legislação. Entre elas, três leis são destacadas, a “Lei de Proteção de Informações Pessoais”, a “Lei de Segurança de Dados” e a “Lei de Segurança Cibernética”.
- Regulamentações administrativas. Algumas regulamentações administrativas criam requisitos concretos para algoritmos de IA quando são usados em serviços de informações da Internet, como “conteúdo de síntese profunda”, “sistema de recomendação” e “sistema de IA generativo”.
- Regulamentações municipais. Algumas cidades da China (Xangai e Shenzhen) também publicaram regulamentações municipais sobre IA independente de conteúdo, com o objetivo de promover o desenvolvimento do setor de IA. Ambas as regulamentações exigem que os riscos introduzidos pela IA sejam controlados de forma eficaz, com um escrutínio mais extenso dos produtos e serviços de IA de alto risco do que daqueles que apresentam menos riscos.
- Padrões nacionais. Para apoiar a regulamentação do sistema de IA, o Instituto de Padronização de Eletrônicos da China está liderando o desenvolvimento de uma série de padrões recomendados que abrangem vários aspectos das tecnologias de IA.
Impacto nos negócios
O cenário legislativo em todo o mundo é bastante abrangente, acrescentando um grau de complexidade que precisa ser gerenciado pelas empresas, seja operando em uma região geográfica específica ou internamente. O que é comum à maioria é o fato de os órgãos governamentais quererem abordar tanto as oportunidades quanto os desafios apresentados pelas tecnologias de IA.
Em sua essência, está a intenção de promover a inovação, o desenvolvimento e o uso responsável da IA, garantindo que ela beneficie a sociedade e, ao mesmo tempo, proteja-a contra possíveis riscos. Como a tecnologia de IA continua a evoluir rapidamente, os órgãos reguladores terão o objetivo de acompanhá-la, assim como as empresas devem estar em conformidade.
Para gerenciar e garantir uma governança robusta, as empresas se beneficiariam da implementação de um sistema de gestão de inteligência artificial (AIMS) em conformidade com a ISO/IEC 42001, juntamente com sistemas de gestão voltados para a segurança da informação (ISO/IEC 27001) ou privacidade (ISO/IEC 27701). Ele fornece uma abordagem estruturada para o gerenciamento de riscos, incluindo a conformidade regulamentar, e estabelece práticas para a melhoria contínua. Também permite a certificação por um terceiro independente, como a DNV, que pode ajudar a garantir sistemas de IA seguros, confiáveis e éticos, apoiar a conformidade regulatória e preencher lacunas de confiança.