Skip to main content Skip to footer

RELATÓRIO DA PESQUISA

Da conformidade à confiança

Como adotar uma nova mentalidade para promover a maturidade de IA responsável

5 minutos de leitura

11 dezembro 2024

Resumo

  • Os riscos da IA generativa continuam a crescer. Novas regulamentações estão se expandindo, e as cadeias de valor de IA ficam cada vez mais complexas.

  • As empresas devem desenvolver uma IA responsável e madura para reduzir riscos e compartilhar benefícios do uso da IA.

  • Embora estejam evoluindo, nenhuma empresa alcançou a maturidade total. Essa maturidade depende do foco em cinco prioridades.

À medida que a IA generativa continua a transformar as empresas e a sociedade, seus potenciais riscos e benefícios tornaram-se um foco crítico para organizações no mundo todo. Casos como chatbots que "distorcem" políticas, funcionários que expõem dados sigilosos acidentalmente ou algoritmos que identificam erroneamente pessoas como fraudadoras ressaltam a urgência de práticas responsáveis de IA.

Nossa pesquisa mais recente, realizada em parceria com a Universidade de Stanford, entrevistou mil líderes executivos em C-suite em 19 setores e 22 países, avaliando o grau de maturidade de IA responsável e a importância de adotar uma abordagem consciente para explorar todo o potencial da tecnologia.

Os resultados revelam uma lacuna significativa no preparo das empresas para implementar a IA de forma responsável: a maioria não tem tantas práticas avançadas de IA responsável quanto acredita, e apenas uma minoria consegue lidar com os riscos e colher os maiores benefícios da IA.

À medida que os riscos relacionados à IA crescem e o cenário regulatório evolui, a IA responsável desempenhará um papel crucial na garantia de uma vantagem competitiva e no incentivo ao crescimento sustentável no ambiente tecnológico em constante mudança.

Negócio arriscado

Descobrimos que o cenário de risco continuará a evoluir em 3 áreas principais:

A IA generativa transforma o cenário de risco. Incidentes causados pela IA, especialmente a IA generativa, dispararam, representando cerca de dois terços de todos os incidentes, o que destaca a necessidade urgente de estratégias de redução de riscos.

51%

dos entrevistados citaram privacidade e governança de dados como os riscos mais significativos, seguidos por segurança (47%) e confiabilidade (45%).

Sem uma abordagem global para a regulamentação da IA, a conformidade está se tornando cada vez mais complexa para as multinacionais. Além disso, 90% das empresas pesquisadas esperam estar sujeitas a obrigações legais relacionadas à IA nos próximos 5 anos.

77%

das empresas já enfrentam regulamentação de IA ou esperam estar sujeitas a ela nos próximos 5 anos.

À medida que as empresas compram e desenvolvem modelos de IA, elas também precisam se preparar para os riscos associados. Quase um terço (28%) das empresas entrevistadas desempenha o papel de comprador e desenvolvedor.

43%

das empresas que adquirem modelos de IA têm medidas de aquisição em vigor, como verificações regulatórias e auditorias de terceiros.


Conversamos com Cathly Li, do Fórum Econômico Mundial, sobre regulamentações e conformidade.
"Precisamos encontrar uma abordagem regulatória que seja abrangente e flexível o suficiente para lidar com a natureza multifacetada da IA, evitando encargos regulatórios desnecessários."

Assista ao vídeo com Valerio Cencig, do Intesa Sanpaolo, que compartilhou insights relevantes sobre os riscos e benefícios da IA responsável.
"Não há valor real sem responsabilidade naquilo que criamos."

Da conformidade ao valor

Antigamente, as empresas viam a IA responsável como uma questão de conformidade, e não como uma forma de gerar valor. Felizmente, essa mentalidade está mudando. Praticamente metade das empresas entrevistadas (49%) vê a IA responsável como um dos principais contribuintes para o crescimento da receita relacionada à IA para sua empresa. Embora essa mudança de mentalidade seja positiva, queremos entender como a intenção se traduz em execução e quão próximas as empresas entrevistadas estão de atingir suas metas de IA responsável.

Redefinir a maturidade em IA responsável

Para mensurar a maturidade das empresas em IA responsável nesta nova era, desenvolvemos uma estrutura de quatro etapas em colaboração com a Universidade de Stanford. Com base nas respostas da pesquisa, posicionamos as organizações em seus respectivos estágios, atribuindo uma pontuação para maturidade organizacional e outra para a maturidade operacional (consulte as definições abaixo. A empresas sem iniciativas de IA responsável foram excluídas da análise).

Marcos de maturidade em IA responsável

No cenário atual dos negócios, a mudança contínua é a nova realidade. Preparar-se para essa mudança significa estar pronto para a transformação em todas as funções e componentes da sua empresa. A IA responsável não é diferente.

O que significa "estar preparado para a transformação" quando falamos de IA responsável? Curiosamente, nenhuma empresa atingiu esse marco até agora. Entretanto, aquelas que chegarem primeiro serão pioneiras em IA responsável. Essas organizações irão operacionalizar plenamente a IA responsável como uma plataforma para uma abordagem mais sistêmica e voltada para o futuro, capaz de desbloquear o verdadeiro valor da IA.

Definimos quatro marcos da maturidade em IA responsável, que, em última análise, as deixam prontas para a reinvenção.

Princípios

A empresa tem algumas capacidades fundamentais para desenvolver sistemas de IA, mas seus esforços em IA responsável são pontuais.

Programa

Após uma avaliação de IA responsável, a organização adotou estratégia, abordagem, processos e governança de IA responsável, porém, ainda sem um suporte sistêmico em ferramentas e tecnologia.

Prática

A empresa implementou sistematicamente medidas em todos os setores para atender às exigências legais e regulatórias.

Pioneirismo

IA responsável totalmente operacionalizada como uma plataforma para abordagem mais sistêmica e voltada para o futuro, capaz de desbloquear o verdadeiro valor da IA.

Nossa análise das respostas da pesquisa mostra que 8% das organizações estabeleceram princípios de IA responsável, 78% desenvolveram um programa de IA responsável e 14% colocaram a IA responsável em prática. Não há pioneirismo em IA responsável atualmente.

Para saber mais sobre as quatro etapas e ver exemplos na prática, leia o relatório completo.

Verificação de responsabilidade: quão preparadas estão as empresas para a IA responsável

Nossa pesquisa mostra que a maioria das empresas (78%) já criou um programa de IA responsável, considerando maturidade organizacional, operacional e em IA generativa.

Contudo, apenas 14% colocou essas práticas em ação, já 8% está ainda começando sua jornada estabelecendo princípios de IA responsável. Especificamente, nenhuma das empresas é pioneira em IA responsável.

Ao comparar a maturidade organizacional (abrangência e eficácia dos processos e práticas de IA responsável) com a maturidade operacional (nível de adoção de medidas práticas), ficou evidente uma desconexão.

Para saber mais sobre essa desconexão, leia o relatório completo.

O que define um pioneiro em IA responsável

Quando se trata de maturidade de IA responsável, alcançar o estágio pioneiro deve ser o objetivo principal. Embora uma pequena minoria (9%) das empresas entrevistadas já demonstre maturidade organizacional nesse nível, esse número cai para menos de 1% no quesito maturidade operacional.

Até agora, nenhuma empresa combina os dois aspectos a ponto de ser considerada pioneira.

O que diferencia as empresas pioneiras? Identificamos três caraterísticas, detalhadas no relatório completo.

As pioneiras são:

  • Antecipadoras
  • Responsáveis desde a concepção
  • Parceiras proativas

Preparar, avançar, crescer: cinco prioridades para a IA responsável

Uma empresa que apenas define princípios de IA responsável terá prioridades diferentes daquelas que buscam melhorar as capacidades da IA responsável, estabelecem um programa estruturado ou colocam essas práticas em ação. No entanto, nossas pesquisas e experiência com clientes mostram que todas as empresas podem se beneficiar ao focar nestas cinco prioridades para aprimorar sua maturidade:

Desenvolver uma estratégia e um roteiro abrangentes de IA responsável com políticas e diretrizes claras. Nossa pesquisa mostra que 55% das empresas já estabeleceram princípios de IA responsável.

Entender a exposição a riscos do uso de IA é essencial para operacionalizar a IA responsável. As empresas parecem subestimar os riscos relacionados, o que não surpreende, já que mais de 50% não têm um processo sistemático de identificação de riscos.

Ao testar e escalar a IA responsável, as organizações adotam diversas medidas de mitigação de riscos ao longo do ciclo de vida e da cadeia de valor. No entanto, apenas 19% das empresas entrevistadas escalaram mais da metade das medidas que mencionamos.

Criar uma função dedicada de monitoramento de IA é essencial para garantir o desempenho ético, sustentável e em conformidade dos modelos de IA. Ainda assim, 43% das empresas ainda não operacionalizaram seus processos de controle.

Para que um programa de IA responsável seja bem-sucedido, ele deve envolver diferentes áreas e considerar impactos sobre a força de trabalho, sustentabilidade e programas de privacidade e segurança em toda a organização.

Se, no passado, IA responsável era vista apenas como uma obrigação regulatória, esse tempo ficou para trás. Hoje, as empresas entendem que, para maximizar os investimentos em IA generativa e outras tecnologias de IA, elas devem colocar a IA responsável no centro de sua estratégia. As empresas devem adotar as cinco prioridades acima e se tornar pioneiras em IA responsável se quiserem permanecer competitivas. Isso exige mentalidade preditiva, melhoria contínua e atuação que vá além da empresa, alcançando a cadeia de valor e o ecossistema de IA como um todo.

O retorno será considerável: transformar riscos de IA em valor de negócio significativo.

ESCRITO POR

Arnab Chakraborty

Chief Responsible AI Officer

Karthik Narain

Group Chief Executive – Technology and Chief Technology Officer

Senthil Ramani

Lead – Data & AI, Global