24/01/2026

IA em alta, governança em falta: os desafios da informação na adoção de inteligência artificial

Por Inon Neves, vice-presidente da Access

Das salas de reunião às janelas de chat, a inteligência artificial passou a ser uma ferramenta integrada à rotina das empresas brasileiras. Uma pesquisa realizada pela Associação Brasileira de Recursos Humanos, e divulgada em outubro passado, apontou que ao menos 79% dos profissionais no país já utilizam ferramentas de IA em suas tarefas diárias, mas apenas 23,7% afirmam que suas empresas têm políticas claras sobre o tema.

Esse descompasso mostra que enquanto as organizações correm para adotar inovações de IA, a governança da informação nem sempre acompanha o ritmo. No Brasil, essa lacuna se traduz em desafios práticos que afetam diretamente a qualidade dos dados, a conformidade legal e a confiança nas decisões automatizadas. Em um momento em que regulações ganham forma – a União Europeia aprovou o AI Act e o Brasil discute seu Marco Legal da IA (PL 2338/2023) – as empresas brasileiras precisam equilibrar a euforia da transformação digital com controles robustos.

 

Dados “sujos” e desatualizados: quando a IA aprende errado

Para a IA entregar valor real, a qualidade e organização dos dados são fundamentais. Porém, muitas empresas brasileiras ainda enfrentam um cenário de dados caótico: informações espalhadas em silos, duplicadas, inconsistentes e sem padronização ou qualquer governança. Modelos de IA treinados sobre essa base fragmentada absorvem vieses e erros, comprometendo a confiabilidade das previsões.

 

O perigo é que decisões automatizadas equivocadas – por exemplo, na análise de crédito ou em recomendações ao cliente – podem escapar ao radar até causarem prejuízos tangíveis. Sem governança de dados, os Data Lakes viram “pântanos” de informações de baixa qualidade, e a IA, em vez de ativo estratégico, vira fonte de risco técnico e reputacional.

 

Além disso, dados não classificados por sensibilidade podem acabar alimentando modelos inadvertidamente. Sem saber exatamente que tipo de dado está sendo usado, uma empresa pode, por exemplo, treinar um algoritmo de atendimento ao cliente com informações desatualizadas ou incompletas, resultando em respostas imprecisas, ou – pior – incorporar dados pessoais sensíveis sem as devidas salvaguardas, violando legislações como a LGPD. Dados desgovernados “contaminam” a inteligência artificial, criando um efeito cascata de decisões mal-informadas e potenciais conflitos éticos. Esse cenário torna evidente que IA confiável só nasce de dados confiáveis – e confiabilidade exige classificação, atualização e qualidade contínua, pilares da boa governança de informação.

 

Ausência de políticas e inventário: terreno fértil para a Shadow AI

 

Outro ponto crítico é a falta de políticas corporativas formais e de um inventário abrangente de dados. Na prática, isso significa que muitas empresas   não sabem exatamente quais dados possuem, onde eles estão ou como são utilizados pelos algoritmos. Um estudo setorial realizado pela  Miti – Markets Innovation & Technology Institute, e divulgado há pouco mais de um mês mostrou que apenas 27% das empresas brasileiras possuem políticas formais de governança de IA, revelando que a grande maioria opera sem regras claras para uso da tecnologia.

 

Da mesma forma, levantamento da IBM indica que 87% das organizações no Brasil não têm nenhuma política de governança de IA em vigor. Sem um catálogo de dados bem definido e políticas de uso, projetos de IA acabam se desenvolvendo no escuro: dados são aproveitados sem rastreabilidade de origem ou verificação de atualidade, e decisões importantes podem estar sendo tomadas com base em informações desconhecidas pela própria TI.

 

Essa ausência de diretrizes abre caminho para o fenômeno da “Shadow AI” – a infiltração silenciosa de inteligência artificial fora dos radares oficiais. Colaboradores, movidos pela urgência ou entusiasmo, passam a utilizar ferramentas de IA sem autorização ou supervisão da TI.

 

Um analista pode, por exemplo, inserir dados confidenciais de clientes em um chatbot público para gerar um relatório, ou um gerente pode alimentar uma planilha de planejamento estratégico em uma plataforma de IA generativa na nuvem, tudo à revelia de políticas internas. Esse uso desorganizado é mais comum do que se imagina: embora 40% das empresas afirmem oferecer ferramentas oficiais de IA, 90% dos funcionários já utilizam a tecnologia de forma não estruturada, segundo pesquisa da MIT Tech Review Brasil.

 

A Shadow AI expõe as empresas a vazamentos de dados, falhas de compliance e decisões tomadas fora do escopo corporativo. Um simples upload de dados sigilosos em um serviço de IA na nuvem pode comprometer segredos comerciais ou violações regulatórias, sem que a liderança sequer tome conhecimento imediato. Sem políticas e inventário de dados, a IA avança de forma desordenada, e os gestores perdem a visibilidade sobre quem usa o quê, com quais dados e para qual finalidade.

 

Decisões sem rastreabilidade: auditabilidade em xeque

Conforme a IA ganha papel em decisões de negócio – da concessão de crédito à triagem de currículos – surge uma nova dificuldade: auditar e explicar essas decisões automatizadas. Muitos algoritmos de aprendizado de máquina funcionam como verdadeiras caixas-pretas, das quais saem recomendações ou predições sem que fique claro aos humanos o porquê.

 

Nas empresas brasileiras, a capacidade de rastrear e inspecionar o funcionamento interno dos modelos ainda é incipiente. Mesmo entre as organizações que já adotam alguma governança de IA, apenas 34% realizam auditorias regulares para detectar uso não autorizado ou comportamentos anômalos em algoritmos. Ou seja, em muitos casos as decisões tomadas pela IA ocorrem sem registro acessível do processo: não há logs detalhados, nem documentação suficiente para reconstruir quais dados de entrada levaram àquela saída.

 

Decisões automatizadas sem auditoria dificultam identificar se um modelo está, por exemplo, discriminando certos clientes ou recomendando ações com base em dados equivocados. Quando um resultado controverso aparece – como a recusa de crédito a um perfil que teoricamente seria elegível – a empresa pode se ver de mãos atadas para explicar os critérios que o algoritmo utilizou, o que é problemático tanto internamente quanto perante órgãos reguladores.

 

Agilidade versus controle: o falso dilema estratégico

Diante de todos esses desafios, muitos executivos de TI se veem num dilema: como impor controle e governança sem sufocar a agilidade que a IA promete entregar? Num mercado competitivo, a pressão por inovar rapidamente é real – qualquer atraso na adoção de uma tecnologia pode significar perda de vantagem. Isso leva alguns a enxergarem a governança como sinônimo de burocracia ou freio à inovação.

 

Contudo, essa é uma percepção equivocada, que os dados e os especialistas vêm desmentindo. Governança efetiva não diminui a velocidade da inovação; pelo contrário, reduz fricções e riscos, tornando o avanço mais seguro e sustentável. De fato, as empresas que crescem mais rápido com IA são justamente as que tratam governança como alicerce da inovação, e não como obstáculo.

 

O equilíbrio entre rapidez e controle, portanto, não é apenas possível – é necessário. O diferencial competitivo da próxima década estará em adotar IA com velocidade, mas sobretudo com responsabilidade. Agir rápido demais ignorando governança pode render ganhos imediatos, porém com riscos latentes que cedo ou tarde cobram seu preço (seja em multas, perda de reputação ou até na necessidade de refazer projetos inteiros após incidentes).

 

Por outro lado, incorporar frameworks de governança desde o início permite escalar a inteligência artificial de modo consistente, sem surpresas desagradáveis no caminho. Isso envolve desde políticas de acesso e autenticação robustas, segregação de ambientes, até registro detalhado de logs e monitoramento contínuo de modelos – práticas que algumas organizações pioneiras já adotam para assegurar que a IA atue como um ativo de negócio, e não como uma fonte de insegurança.


Legenda:
Créditos: Arquivo/Reprodução