Why the AI journey needs structured governance

Para quase todas as empresas, a inteligência artificial (IA) é, sem dúvida, o tema quente do momento, e a maioria está ansiosa para explorar os benefícios alegados. No entanto, existem desafios e riscos potenciais relacionados à IA que precisam ser gerenciados para garantir o desenvolvimento, a aplicação e o uso de forma segura, responsável, confiável e ética. É aqui que entra o padrão de sistema de gestão de inteligência artificial ISO/IEC 42001, reconhecido como um pilar para orientar o desenvolvimento e fornecer soluções de IA confiáveis.

Apesar de estar presente há algum tempo, a IA não foi amplamente adotada com entusiasmo até recentemente. Uma pesquisa recente da ViewPoint, conduzida pela DNV, descobriu que uma parte significativa das empresas (58%) ainda não implementou tecnologias de IA, e no total mais de 70% estão no que pode ser considerado o início da jornada de IA. Os números mostram que a IA ainda não é uma prioridade estratégica para a maioria.

Muitas das empresas que responderam à pesquisa podem estar iniciando no que diz respeito à IA, mas não são novas empresas no sentido comum do termo, nem são alheias à necessidade ou aos benefícios da governança. Elas já implementaram um sistema de gestão em conformidade com pelo menos um padrão ISO, como o ISO 9001 (qualidade), ISO 14001 (meio ambiente) ou ISO/IEC 27001 (segurança da informação). No entanto, especialmente aquelas nas fases iniciais, ainda não viram a necessidade de aplicar a mesma abordagem em sua jornada de IA.

A crescente necessidade de governança

O que poderíamos chamar de empresas "iniciantes" estão focadas principalmente em usar a IA para aumentar a eficiência e melhorar processos internamente. Este é um primeiro passo comum devido à natureza relativamente simples das soluções, como o Copilot e o ChatGPT, e sua implementação. No entanto, à medida que as empresas amadurecem, tende a haver uma mudança para iniciativas de IA externas, mais complexas, com o objetivo de gerar receita e explorar novas oportunidades de negócios. Com o progresso, surge a necessidade crescente de uma governança estruturada para controlar melhor os riscos e garantir o desenvolvimento, a implementação e o uso seguro, confiável e ético da IA.

As regulamentações em torno da IA estão crescendo, e as empresas terão que demonstrar conformidade. Além disso, existe um ceticismo inerente dos usuários, criando uma lacuna de confiança que precisa ser superada. Para confiar e aproveitar uma tecnologia, devemos entender como ela funciona e ser capazes de avaliar sua segurança, confiabilidade e transparência. Essa questão foi destacada em um relatório de março de 2024, publicado pelo AI Assurance Club, intitulado Tendências Globais em Governança e Garantia de IA 2023-24. O relatório detalha tendências globais e o desenvolvimento de leis em todo o mundo. Sobre a questão da confiança, o relatório afirma: “No centro do quebra-cabeça da governança de IA está a questão da confiança. À medida que os sistemas de IA se tornam mais integrados às nossas vidas — em infraestruturas, processos de negócios, serviços públicos ou em bens de consumo — os usuários precisam ter confiança de que os sistemas operarão consistentemente como previsto, sem causar danos.”

Superando a lacuna

A lacuna de confiança refere-se à potencial falta de confiança e transparência em torno dos produtos e/ou serviços habilitados por IA de uma organização. Por exemplo, se um hospital usa diagnósticos habilitados por IA, eu, como paciente, posso confiar que é tão bom ou até melhor que a avaliação feita apenas pelo médico? Superar a lacuna de confiança antes que os sistemas de IA se tornem muito complexos e autônomos requer uma governança sólida.

Construir confiança é uma característica central de todos os padrões de sistemas de gestão da ISO, por isso não deve ser uma surpresa que a mesma abordagem possa ser aplicada quando se trata de IA. A pesquisa ViewPoint revelou que a maioria das empresas que estão liderando o desenvolvimento e a implementação de IA já estão considerando a adoção de um sistema de gestão de IA para garantir a devida governança e já conhecem o padrão ISO/IEC 42001.

Vários frameworks de IA e padrões complementares já existem, incluindo o NIST AI Risk Management Framework, o ISO/IEC 23894 (orientação sobre gestão de riscos em IA), o ISO/IEC 5338 (processo do ciclo de vida dos sistemas de IA) e o ISO/IEC TS 25058. Em dezembro de 2023, a ISO lançou o padrão ISO/IEC 42001 (AIMS), o primeiro padrão de AIMS certificável, que oferece uma abordagem robusta para gerenciar as inúmeras oportunidades e riscos da IA em uma organização. Este padrão, portanto, ajuda as empresas a dar mais um passo para superar a lacuna de confiança, já que a conformidade resulta em um certificado emitido por um organismo de certificação independente, como a DNV. Além disso, como ele se baseia na Estrutura de Alto Nível da ISO (HLS), pode ser facilmente integrado a outros sistemas de gestão.

O ISO/IEC 42001 é modelado em torno das mesmas estruturas de alto nível de outros padrões de gestão ISO e, portanto, será familiar para empresas que já possuem outro sistema de gestão ISO em vigor. Seguindo a metodologia "Plan-Do-Check-Act", o ISO/IEC 42001 especifica requisitos e se concentra em estabelecer, implementar, manter e melhorar continuamente um sistema de gestão de IA. Sabendo que todos os respondentes da pesquisa ViewPoint apontaram a cibersegurança como a principal ameaça à implementação de IA, pode ser extremamente benéfico integrá-lo a um sistema de gestão de segurança da informação em conformidade com o ISO/IEC 27001.

Construindo confiança

O padrão ISO/IEC 42001 certamente ganhará ainda mais relevância à medida que mais países introduzam regulamentações sobre IA. Regulamentos e políticas já existem nos EUA e na China. Na Europa, a primeira lei abrangente sobre IA do mundo, o Ato Europeu de IA, entrou em vigor recentemente. O ato busca promover e garantir o desenvolvimento seguro, confiável e ético dos sistemas de IA, e estabelecer a governança corporativa de IA surge como um aspecto-chave para garantir a conformidade regulatória e construir confiança.

Construir uma função centralizada em várias equipes que reconheça e compreenda as tecnologias de IA, casos de uso e fornecedores é essencial para garantir a governança da IA. Além disso, devido ao campo da IA em constante evolução e seu ambiente regulatório em mudança, será necessário que um comitê de governança identificado e os stakeholders revisem e atualizem o programa de governança de IA regularmente. Aqui está mais um benefício de implementar um sistema de gestão em conformidade com o ISO/IEC 42001 e obter a certificação.

Adotar uma abordagem estruturada para a governança e o uso responsável da IA pode, em última análise, ser uma vantagem competitiva e ajudará qualquer empresa a demonstrar, tanto para os stakeholders internos quanto externos, que a empresa possui uma abordagem robusta para proteger os usuários e melhorar continuamente. Um sistema de gestão certificado demonstra o compromisso da empresa e as ações tomadas diariamente para garantir o desenvolvimento, a implementação e o uso seguro, confiável e ético da IA em seus processos e ofertas de produtos e serviços.