Filosofia e Inteligência Artificial
IA no ataque
Uso da IA para ataques em sistema críticos, propagação de desinformação, violação de privacidade outros riscos para as pessoas, empresas e governos.
Imagem gerada com apoio de IA.

Da mesma forma como pode ajudar na defesa cibernética, amplificando capacidades humanas, a IA também oferece novos e poderosos recursos para os hackers e outros agentes maliciosos executarem ataques contra pessoas, organizações ou nações inteiras (ataques contra infraestruturas e sistemas críticos). Este é um exemplo típico de uso malicioso da IA (Misuse).
Diversos grupos de Ameaças Persistentes Avançadas (APT) com vínculos a países como China, Irã, Coreia do Norte e Rússia já foram identificados usando o modelo Gemini da Google para automatizar fases de ataque, como coleta de informações, criação de payloads e campanhas de phishing. A Microsoft também já reportou o uso malicioso de LLMs pela Coreia do Norte e Irã. Estes e outros grupos estão utilizando aplicações de IA baseadas em grandes modelos de linguagem (LLM) como o ChatGPT para aprimorar ataques cibernéticos. Também estão surgindo na Dark Web variações malignas do ChatGPT, como o WormGPT e FraudGPT.
Exemplos de uso IA em ataques cibernéticos
A IA pode ser explorada por atores maliciosos para apoiar ataques cibernéticos de diversas formas.
Vejamos alguns exemplos.
-
Automatização de ataques cibernéticos - LLMs podem escrever scripts maliciosos, gerar malware, ou ajudar adversários humanos a explorar vulnerabilidades, apoiando ataques de phishing, ransomware ou mesmo descobrindo vulnerabilidades zero-day que possam ser exploradas para invadir sistemas.
-
Engenharia social automatizada - A IA pode gerar e personalizar e-mails e mensagens falsas com alto grau de persuasão, imitando estilos de escrita, tornando ataques de phishing mais sofisticados e difíceis de detectar.
-
Ataques a outros sistemas de IA – Modelos generativos de IA podem ser usados para explorar outras IAs, injetando comandos maliciosos disfarçados em entradas aparentemente inofensivas (Prompt Injection), tentando clonar modelos proprietários (Model Stealing) ou em vários outros tipos de ataques onde a IA é o alvo.
-
Malware escrito com IA - Estudos como este da HP confirmaram que malware já está sendo parcialmente escrito por IA, o que reduz drasticamente a barreira técnica para cibercriminosos.
-
Ataques de Negação de Serviço (DDoS) – Já há relatos de ferramentas de DDoS baseadas em IA que são capazes de ajustar seus padrões em tempo real, respondendo às estratégias defensivas para maximizar o impacto. Veja também este artigo.
O uso da IA em ataques cibernéticos é particularmente preocupante por alguns motivos:
-
Baixo custo: A IA reduz barreiras técnicas de entrada para ataques sofisticados. Além disso, acelera a varredura de alvos em potencial, o reconhecimento de vulnerabilidades e ajuda na automação de alguns ataques. Ferramentas poderosas estão cada vez mais disponíveis (algumas são open source). Um único operador pode lançar ataques em larga escala com pouca expertise técnica.
-
Velocidade de adaptação: A IA pode iterar ataques em tempo real, aprendendo com as falhas.
-
Dificuldade de contenção: Diferente de vulnerabilidades pontuais, o uso indevido de IA se adapta rapidamente e escapa dos controles tradicionais. Os ataques se tornam mais difíceis de detectar, e são cada vez mais precisos, sobretudo em phishing avançado e deepfakes.
O risco de uso mal intencionado da IA em ataques cibernéticos altamente sofisticados já é real, e tende a aumentar com o tempo. O NCSC (National Cyber Security Centre) no Reino Unido já alerta que há uma possibilidade bem real de que sistemas críticos se tornem mais vulneráveis para ataques lançados por adversários utilizando IA, e que se manter atualizado com as “capacidades” dos modelos de IA de fronteira será certamente um fator crítico para ter alguma resiliência contra tais ataques na próxima década, como alerta este relatório do National Cyber Security Centre do Reino Unido. A Europol (2025) já alertou que a IA está turbinando o crime organizado (fraudes com deepfakes, ataques a governos e infraestruturas).
Corrida armamentista
Vale ressaltar (mais uma vez) que a IA também pode ser utilizada na defesa cibernética, de modo que todos têm interesse no seu desenvolvimento tecnológico (tanto atacantes quando responsáveis pela defesa dos sistemas), o que cria uma espécie de “corrida de armamentos algorítmica”. Um exemplo interessante é o uso da IA para detectar vulnerabilidades zero day em códigos fonte, uma capacidade que pode ser utilizada tanto por atacantes como pelos defensores de sistemas, como descrito em um excelente post no Blog de Sean Heelan e no artigo de Will Knight para a Wired.
Referências selecionadas: "IA em ataques cibernéticos"
National Cyber Security Centre
May 7, 2025
Último acesso em 18/08/2025
MIKE CORDER, The Associated Press
March 18, 2025
Último acesso em 18/08/2025
SC Media
February 3, 2025
Último acesso em 18/08/2025
Thomas Claburn
17 de fevereiro de 2024
Último acesso em 11/08/2025
The Guardian
14 de fevereiro de 2024
Último acesso em 11/08/2025
Laura Pancini (Exame)
14 de fevereiro de 2024
Último acesso em 11/08/2025
Karen Renaud et al
April 18, 2023
Último acesso em 11/08/2025
Stephanie Kanowitz
APRIL 26, 2021
Último acesso em 11/08/2025
Maria Korolov
Feb 10, 2021
Último acesso em 11/08/2025
Mark Jones
September 9, 2020
Último acesso em 11/08/2025