top of page

IA na defesa

Aplicações da IA na Defesa Cibernética

AdobeStock_310133662.jpeg

Enquanto atacantes exploram IA para ampliar seu arsenal, empresas, governos e centros de pesquisa utilizam a inteligência artificial para detectar, responder e prevenir ameaças em tempo real. A IA tem capacidade de analisar enormes volumes de dados e identificar padrões, de modo que as aplicações baseadas em IA podem ajudar bastante na defesa cibernética, executando tarefas como:

 

Análise de tráfego e detecção de ameaças em tempo real.

A IA (algoritmos de Machine Learning) é capaz de analisar grandes volumes de tráfego de rede, identificando padrões que indicam ataques (zero-day exploits, mensagens de spam e suspeitas de ataques de phishing, movimentos laterais, malwares polimórficos etc.) com baixa taxa de falsos positivos.

Respostas automáticas para incidentes de segurança detectados. 

Aplicações integradas com a IA podem reagir automaticamente a alguns ataques, isolando máquinas, bloqueando IPs suspeitos ou desativando credenciais em segundos. Isso reduz de modo significativo o tempo médio de resposta aos incidentes, o que é muito importante por exemplo em ataques de ransomware ou tentativas de invasão por grupos especializados. Por exemplo, o Microsoft Sentinel (antigo Azure Sentinel) usa IA para detectar e priorizar ameaças, e pode reagir automaticamente a ataques desde que o usuário configure playbooks de resposta. Estes playbooks são executados por meio do por meio do Azure Logic Apps e podem (por exemplo) bloquear um endereço IP em um Firewall, desabilitar um usuário suspeito no Azure AD, isolar uma máquina comprometida no Microsoft Defender for Endpoint, enviar notificações ou abrir tickets. Ou seja, nesta solução da Microsoft a IA faz a detecção, mas a resposta depende de regras e automações previamente configuradas.

Threat Intelligence e análise preditiva

A IA pode auxiliar os especialistas de segurança humanos em testes de penetração buscando vulnerabilidades nas redes e aplicações corporativas. Modelos preditivos de IA são capazes de correlacionar dados de múltiplas fontes (ex. logs de Firewalls e SIEM) para antecipar campanhas maliciosas. Sistemas de User and Entity Behavior Analytics (UEBA) aprendem comportamentos normais dos usuários e sinalizam desvios suspeitos.

Proteção de identidade e acesso

A IA pode alimentar sistemas de autenticação adaptativa, que ajustam requisitos de login conforme risco detectado (por exemplo, exigir biometria ou autenticação de dois fatores em logins atípicos).

Detecção de deepfakes

Da mesma forma como pode ser utilizada para gerar deepfakes, a IA pode ser integrada a ferramentas forenses para identificar inconsistências em imagens, áudios e vídeos, o que é importante para proteção contra fraudes corporativas (como golpes por videoconferência que utilizam vídeos e/ou áudios falsificados).

Segurança contra ataques adversariais 

A IA pode ser utilizada para atacar outras IAs (uso malicioso), mas também pode ajudar na defesa de modelos e sistemas de IA contra ataques adversariais. Por exemplo:

  • Filtragem e validação de entradas (Input Sanitization): modelos menores, especializados e mais restritivos, podem ser utilizados para fazer "validação de entrada", isto é, verificar os Prompts dos usuários antes que eles cheguem a um LLM mais avançado. Isso ajuda a neutralizar tentativas de Prompt Injection ou de exploração de jailbreaks. Veja a próxima seção sobre o uso de AI Firewalls.

  • A IA pode ajudar na detecção de anomalias e ataques de "exemplos adversariais" (Adversarial Examples): algoritmos treinados para reconhecer padrões estranhos ou inputs maliciosos podem proteger redes neurais em cenários críticos (por exemplo, carros autônomos, sistemas médicos etc.).

  • Na defesa adaptativa, a IA pode gerar contra-exemplos e treinar continuamente o modelo principal, para que fique mais robusto contra diferentes tipos de ataques.

Duas ferramentas importantes para a defesa cibernética são os API Gateways e os AI Firewalls.

API Gateways e AI Firewalls

O uso de modelos sentinela (Guard Models) para validar Prompts antes de enviá-los aos modelos mais poderosos é uma abordagem promissora de defesa prática contra ataques de Prompt Injection. Porém, embora já existam modelos sentinela eficientes como o Sentinel da Qualifire e o PromptArmor a abordagem ainda é experimental (pesquisa acadêmica).

 

Para as empresas que queiram adquirir produtos comerciais (na modalidade SaaS) para se protegerem de ataques contra a IA integrada ao ambiente corporativo, já existem soluções mais completas chamadas AI Firewalls, que dentre outros recursos incluem componentes de validação de Prompts baseados em IA (como nos modelos sentinela). Alguns exemplos de AI FIrewalls são o Lakera Guard, o Prompt Security + F5 e o Akamai Firewall for ai.  Alguns destes produtos oferecem uma ampla proteção contra diferentes vetores de ataques contra modelos e sistemas de IA em ambiente corporativo (Prompt injection, vazamento de dados etc.) além de funcionalidades de moderação de conteúdo e detecção de shadow AI (termo adaptado do "shadow IT" que denota o uso de modelos ou serviços de IA dentro de uma organização sem o devido controle ou aprovação da área de TI/Segurança), Estas soluções também apoiam a conformidade com marcos regulatórios (como a LGPD). 

Para maior efetividade, os AI Firewalls são usualmente combinados com Gateways de API (defense in depth). Como ilustrado na figura seguinte, o API Gateway fica na borda externa e inspeciona tráfego, mas não entende o que está inspecionando. Já o AI Firewall  é uma proteção específica contra ataques de IA generativa e permite a inspeção semântica das interações com o modelo, implementando controles como sanitização de Prompts, detecção de ataques de Prompt Injection, bloqueio de chamadas perigosas a ferramentas externas, verificação de saídas para mitigar exfiltração de dados (DLP - Data Loss Prevention) e allow/deny-lists de recursos que o agente pode acessar.

2025-08-22_083335.png

Imagem gerada com apoio de IA

Red Teaming

O uso da IA na defesa cibernética hoje permite antecipar ameaças, reduzir custos e aumentar a profundidade dos testes de segurança, além de alinhar a empresa às boas práticas de mercado e regulação. Neste contexto, está se mostrando cada vez mais importante o papel de AI Red Teams corporativos com pessoal especializado (conhecimentos de cybersecurity, desenvolvimento de software e GenAI). 

Além de apoio na interpretação do que é monitorado e tomada de decisões (Human in the Loop), um Red Team dedicado pode usar modelos de GenAI como o ChatGPT-5 em Pentests em seus próprios sistemas (ou no caso de consultorias de segurança da informação em sistemas de seus clientes, quando autorizado), e assim tentar se antecipar aos atacantes, que certamente vão usar (já estão usando) estas mesmas ferramentas. 

Não se trata apenas de se proteger de ataques de hackers profissionais ou adversários de alto nível. A IA reduz as barreiras técnicas para muitos atacantes novatos, e é de se esperar que atacantes menos experientes também vão utilizar LLMs para automatizar ataques. Logo, as empresas precisam se antecipar e adotar a mesma tecnologia para se defender.

Afinal, já sabemos que...

1 - Agentes de IA baseados em LLMs já são capazes de realizar ataques *autônomos* a websites sem conhecimento prévio das vulnerabilidades, mostrando uma capacidade emergente de exploração ativa, inclusive em cenários reais.

2 - Pesquisas mostraram que agentes com GPT-4 conseguem hackear websites de forma autônoma (sem conhecer a falha antes) com ~73% de sucesso nos alvos construídos e capacidade de achar falhas em sites do mundo real. Em vulnerabilidades “one-days” reais, o GPT-4 chegou a 87% de sucesso quando recebeu a descrição do CVE da vulnerabilidade. 

3 - Como o GPT-5 tem um “reasoning mode” e uma janela de contexto expandida, ele tem ainda mais condições de conduzir ataques que exigem múltiplas etapas e raciocínio estratégico (por exemplo, mapear superfícies de ataque antes de executar o exploit).

4 - Além disso, o GPT-5 também tem o chamado Agent Mode, que já não depende apenas de responder a Prompts, mas pode executar *sequências autônomas* de ações (buscar informação, testar hipóteses, navegar em sistemas). Isso, meus caros, é obviamente relevante para segurança da informação, porque torna automatizado aquilo que antes exigia intervenção humana entre as etapas do ataque.

5 - Dado que é inevitável que usuários externos maliciosos (em alguns casos, internos) utilizem modelos avançados de GenAI para ataques adversariais, é recomendável que os times de segurança façam o mesmo, usando estas mesmas ferramentas para o Red Teaming defensivo (testar seus próprios sistemas em busca de vulnerabilidades, ou sistemas de clientes com a devida autorização).

Obviamente, utilizar GenAI em Pentests não se trata apenas de gerar um Prompt qualquer e ficar comendo pipocas enquanto a IA invade um sistema rel - é necessário um certo preparo técnico e um conhecimento básico de programação para usar GenAI em Read Teaming, mas é tudo perfeitamente exequível para uma equipe qualificada. Falando em qualificação, é importante ressaltar que a validação humana (Human-in-the-loop) continua essencial para interpretar resultados, validar e priorizar as ações de resposta a incidentes.

A propósito, esta nova realidade reforça que é cada vez mais importante que no checklist mínimo de segurança cibernética das organizações seja incluída a instalação de um Gateway de API na borda e de um AI Firewall (como já comentado na seção anterior) para inspecionar as chamadas para LLMs e implementar medidas de segurança apropriadas (Rate-Limit, DLP, bloqueio de tool calls perigosas, allow-lists de domínios etc.).

Referências

Miles Q. Li, Benjamin C. M. Fung

Aug 13, 2025

Último acesso em 18/08/2025

Mindgard

July 24, 2025

Último acesso em 18/08/2025

Tianneng Shi et at

July 21, 2025

Último acesso em 18/08/2025

Dror Ivry, Oran Nahum (Qualifire)

Jul 7, 2025

Último acesso em 18/08/2025

Dror Ivry, Oran Nahum (Qualifire)

June 5, 2025

Último acesso em 18/08/2025

Navdeep Singh Gill 

February 7, 2025

Último acesso em 11/08/2025

Microsoft AI Red Team

2025

Último acesso em 22/08/2025

Dinil Mon Divakaran, Sai Teja Peddinti

Apr 17, 2024

Último acesso em 18/08/2025

Google

Mar 15, 2024

Último acesso em 11/08/2025

Google

Feb 16, 2024

Último acesso em 11/08/2025

Kumar Shashwat et al

Jan 30, 2024

Último acesso em 11/08/2025

Vasu Jakkal (Microsoft)

Mar 28, 2023

Último acesso em 11/08/2025

Sunil Potti (Google Cloud Security)

2023

Último acesso em 11/08/2025

Alexander Culafi

April 24, 2023

Último acesso em 11/08/2025

IBM

2023

Último acesso em 11/08/2025

Abdul Basit et al

October 23, 2020

Último acesso em 11/08/2025

Microsoft Defender Security Research Team

​July 23, 2020

Último acesso em 11/08/2025

Tony Thomas et al

​ 2020

Último acesso em 11/08/2025

bottom of page