O risco que a velocidade esconde: desenvolvimento de software com IA
Por Ramon Ribeiro, Diretor Comercial da Solo Network
Quase metade do código gerado por assistentes de inteligência artificial contém vulnerabilidades de segurança. Esse dado, aferido de forma independente por pesquisadores da Universidade de Nova York e por um dos maiores laboratórios de segurança de software do mundo, deveria estar no centro das discussões de qualquer time de engenharia que usa IA para código hoje.
E, no entanto, as conversas sobre desenvolvimento de software com IA ainda giram, com frequência, em torno de produtividade: quantas linhas por hora, qual o ganho de velocidade, como reduzir o tempo de entrega de features. Mas o problema principal é: o que está sendo entregue junto com esse código?
Ao menos 8 em cada dez desenvolvedores já usam alguma forma de assistência por IA no trabalho. Estimativas recentes indicam que entre 40% e 46% do código enviado para repositórios corporativos tem participação de IA, seja com a sugestão automática de código, geração de funções completas ou revisão. Em algumas das maiores empresas de tecnologia do mundo, esse percentual ultrapassa 50%.
É uma transformação de escala histórica no modo como software é produzido, e isso aconteceu sem que a maior parte das organizações tivesse políticas, processos ou controles à altura da velocidade de adoção.
O que a pesquisa diz sobre segurança no desenvolvimento com IA
Quando múltiplos estudos independentes chegam ao mesmo lugar por caminhos diferentes, é difícil atribuir o resultado a viés metodológico ou interesse comercial. É exatamente o que acontece com a pesquisa sobre segurança em código gerado por IA: acadêmicos de universidades de ponta e laboratórios de segurança do setor privado, sem coordenação entre si, encontraram taxas de vulnerabilidade semelhantes em contextos distintos.
O estudo mais citado na área, conduzido por pesquisadores da Universidade de Nova York e publicado no IEEE Symposium on Security and Privacy, analisou mais de 1.600 programas gerados por um dos assistentes de código mais usados do mercado em 89 cenários de teste ligados às vulnerabilidades mais comuns catalogadas pelo MITRE.
Resultado: aproximadamente 40% dos programas eram vulneráveis, chegando a 50% em linguagens como C. O paper ficou conhecido na comunidade como "Asleep at the Keyboard", nome que captura bem o problema central: a IA gera código funcionalmente correto com frequência, mas sem o rigor de segurança que um desenvolvedor humano atento aplicaria.
O que esses dados revelam não é que IA é incapaz de gerar código seguro. É que IA gera código otimizado para o critério que o desenvolvedor especificou no prompt, e segurança raramente está explicitada. O modelo não sabe, a menos que instruído, que aquele campo de input precisa de sanitização, que aquela query precisa ser parametrizada, que aquela dependência tem um CVE aberto. Ele preenche o que parece correto com base em padrões estatísticos de código visto no treinamento, e boa parte desse código histórico contém vulnerabilidades que nunca foram corrigidas.
A confiança equivocada que agrava o problema
Há um componente comportamental no risco de segurança no desenvolvimento com IA que os dados técnicos sozinhos não capturam. Um estudo conduzido pelo grupo de criptografia de Stanford pediu a 47 desenvolvedores que completassem cinco tarefas de programação segura, metade com acesso a um assistente de IA e metade sem. Os que usaram IA produziram código significativamente menos seguro em quatro das cinco tarefas. Até aqui, o resultado é esperado.
O que não era esperado foi a correlação com confiança: os desenvolvedores com o código mais inseguro avaliaram sua confiança no assistente em 4 de 5. Os com o código mais seguro deram nota 1,5 de 5. A relação entre confiança na IA e qualidade do resultado foi inversa. Quanto mais o desenvolvedor acreditava que a ferramenta estava certa, menos revisava, menos questionava e mais vulnerabilidades acabavam em produção.
Não se trata apenas de uma questão de treinamento de modelos ou de pipeline de segurança. Há um efeito de delegação cognitiva em curso: desenvolvedores, especialmente os mais júniors, constroem uma confiança no output da IA que desincentiva o escrutínio crítico que qualquer revisão de código deveria ter. O assistente sugere, o desenvolvedor aceita, e a vulnerabilidade vai junto. Frameworks de governança que não considerem esse comportamento humano no loop estarão incompletos.
Quando o código vaza antes de rodar
A vulnerabilidade introduzida no código gerado é apenas uma das dimensões do risco. Há outra, menos discutida mas igualmente grave: o que vaza no sentido contrário, do desenvolvedor para a ferramenta.
Quanto mais rico é o contexto fornecido ao modelo, melhor é a sugestão de código. Isso incentiva os desenvolvedores a colar no prompt trechos de código real, esquemas de banco de dados, variáveis de ambiente e arquivos de configuração.
Em ferramentas que não garantem contratualmente onde os dados são armazenados e quem pode acessá-los, essas informações deixam a organização sem rastro e sem controle. A LGPD (Lei Geral de Proteção de Dados) e os marcos regulatórios globais não foram construídos com esse fluxo de dados em mente, e a maioria das organizações ainda não mapeou quais informações seus times estão, inadvertidamente, tornando insumo de treinamento de terceiros.
Há ainda uma terceira dimensão de risco, mais recente: as próprias ferramentas de desenvolvimento com IA tornaram-se alvo. Pesquisas acadêmicas demonstraram que é possível contaminar o comportamento de um assistente de código enviando pequenas quantidades de código malicioso para repositórios públicos usados como dado de treinamento, e que contaminar apenas 0,2% dos dados, cerca de 160 arquivos em um conjunto de 80.000, é suficiente para embutir backdoors indetectáveis.
Há também o fenômeno do slopsquatting: assistentes de IA frequentemente recomendam bibliotecas de software que não existem. Quando atacantes registram essas bibliotecas fictícias como pacotes reais contendo malware, qualquer desenvolvedor que aceite a sugestão sem verificar está instalando código malicioso na infraestrutura da empresa.
A pauta migrou, mas a maioria ainda não sabe
O debate sobre desenvolvimento de software com IA nas organizações mais maduras mudou. A pergunta não é mais "devemos usar?", mas "como governamos o uso?". Essa transição, no entanto, ainda não chegou à maioria das empresas. Levantamentos recentes mostram que apenas cerca de um em quatro organizações tem políticas formais para uso de IA no desenvolvimento de software.
A Gartner posiciona esse cenário como risco estratégico de primeira grandeza. A previsão da consultoria é de que mais de 40% dos projetos de IA agêntica serão cancelados antes de chegarem a produção, não por limitações técnicas dos modelos, mas por incapacidade das organizações de estabelecer controles adequados.
O que a virada de pauta exige, na prática, é uma revisão do processo de desenvolvimento em si. Não basta adicionar uma camada de scanning de vulnerabilidades no final do pipeline. A lógica de shift-left security, que já era consenso para o desenvolvimento tradicional, precisa ser reescrita para ambientes de IA: o raciocínio de segurança tem que estar embutido no momento em que o desenvolvedor interage com o assistente, não descoberto depois que o código chega ao repositório.
O que governança de desenvolvimento com IA significa na prática
A boa notícia é que o ecossistema de frameworks para governança de desenvolvimento com IA amadureceu rapidamente. O OWASP Top 10 para aplicações de modelos de linguagem, em sua versão mais recente, catalogou os riscos específicos de sistemas que usam IA generativa para gerar e revisar código.
Entre os dez riscos listados, cinco têm relação direta com desenvolvimento de software: injeção de prompt, tratamento inseguro de saídas, envenenamento de dados de treinamento, divulgação de informações sensíveis e riscos de cadeia de fornecimento. O NIST publicou um perfil específico de gestão de risco para IA generativa, complementando o AI RMF original com orientações sobre como as funções de governança, mapeamento, medição e gestão se traduzem para o contexto de modelos generativos. Para organizações que já operam com certificações de segurança, a ISO/IEC 42001 traz um sistema de gestão de IA com 38 controles certificáveis, compatível com a ISO 27001. Fotos
No Brasil, esse debate também é urgente. O país é um dos maiores adotantes globais de IA para geração de código, com mais de 40% das organizações industriais já usando alguma forma de inteligência artificial, segundo levantamento do IBGE. O Marco Legal da IA, em tramitação no Congresso, adota abordagem baseada em risco similar ao regulatório europeu. A Autoridade Nacional de Proteção de Dados publicou estudo preliminar sobre IA generativa que coloca em pauta a proteção de dados pessoais no contexto de modelos de linguagem. O cruzamento entre desenvolvimento de software com IA e LGPD ainda é território pouco mapeado para a maioria das empresas brasileiras, e o custo de ignorar essa intersecção tende a crescer à medida que o ambiente regulatório se consolida.
A superfície de risco criada pelo desenvolvimento de software com IA não é abstrata. Ela está nos repositórios, nos pipelines de CI/CD e nos sistemas em produção construídos mais rápido do que nunca e revisados com menos atenção do que deveriam. A pergunta que vale fazer antes do próximo sprint é: em quantos dos seus repositórios há código que nenhum humano leu com atenção suficiente para perceber que havia um problema? Se a resposta for "não sei", a conversa sobre governança de desenvolvimento com IA já está atrasada.
Sobre a Solo Network
Atuando desde 2002 no mercado brasileiro e atendendo mais de 6.000 clientes, a Solo Network é referência em consultoria e serviços de Segurança Digital, Soluções de Nuvem, Colaboração Corporativa, Criatividade e Engenharia. Premiada nacional e internacionalmente, possui os mais altos níveis de certificações técnicas, de governança, compliance e gestão de pessoas. Para saber mais acesse www.solonetwork.com.br.