Filosofia e Inteligência Artificial
Uso mal intencionado da IA (Misuse)
Uso da IA por agentes humanos com intenções maliciosas.
Imagem gerada com apoio de IA.

Panorama
Pesquisadores do Google DeepMind dividiram nesta pesquisa os riscos da IA em quatro grandes áreas:
-
Uso mal intencionado (Misuse) – Um usuário instrui (Prompts) a IA para causar danos. O usuário é o adversário.
-
Desalinhamento (Misalignment) – A própria IA causa danos, e “sabe” que está causando. A IA é o adversário agindo contra a intenção de seus desenvolvedores.
-
Erros (Mistakes) – A IA causa danos acidentais em função da complexidade do mundo real.
-
Riscos estruturais (Structural risks) – Danos que decorrem da complexa interação entre múltiplos agentes, sem que nenhum isoladamente seja o culpado.
ā
Nesta página vamos discutir a primeira área de riscos, ou os riscos decorrentes do uso malicioso da IA (Misuse).ā

Imagem gerada com apoio de IA
āNo contexto do uso mal intencionado da IA por agentes humanos, os alvos podem ser outros seres humanos, sistemas de informação, infraestruturas críticas ou a própria IA (IA como alvo). āāO conceito de Misuse é amplo e abrange desde práticas eticamente questionáveis até ilegais. Os impactos podem atingir indivíduos, corporações, grupos sociais, democracias e mercados globais. ā
Por exemplo:
-
Uso da IA generativa em ataques cibernéticos, como phishing automatizado ou engenharia social.
-
Uso da IA para geração de desinformação em massa ou deepfakes para manipular eleições e a opinião pública.
-
Uso da IA para criar biotoxinas ou armas químicas.
-
Uso da IA para atacar infraestruturas críticas (saúde, energia etc,).
-
Uso da IA em fraudes financeiras.
-
Uso da IA para vigilância em massa e opressão política ou social.
-
Uso abusivo ou ilegal da IA em contextos educacionais e profissionais (por exemplo, vigilância de funcionários ou uso de IA para fraudar avalliações acadêmicas).
-
etc.

Imagem gerada com apoio de IA.
Impactos em dois níveis
Os impactos do uso mal intencionado da IA ocorrem tanto em nível de governos (nações, democracias e segurança internacional) quanto em nível de corporações (mercado, reputação, operações).
ā
Há também exemplos de uso malicioso da IA que podem afetar ambos os níveis (por exemplo, uso da IA em ataques cibernéticos), bem como indivíduos específicos.

Imagem gerada com apoio de IA.
No nível de governos, os riscos de Misuse de IA têm efeitos mais abrangentes (sistêmicos) e podem comprometer instituições, a estabilidade política e até mesmo a soberania de Estados.
Vejamos alguns exemplos:
-
Manipulação eleitoral e erosão da democracia - Uso de IA generativa para criar conteúdos falsos (textos, áudios, vídeos) em escala, manipulando debates públicos e influenciando eleições. Há evidências de que a IA têm sido utilizada por diferentes agentes para criar deepfakes realistas de candidatos (voz e vídeo) ou para automatizar campanhas de desinformação em redes sociais, influenciando eleições nacionais e erodindo sistemas democráticos.
-
Ataques a infraestruturas críticas nacionais - Uso de IA para automatizar exploração de vulnerabilidades em sistemas de energia, transporte ou saúde. Um ataque desse tipo poderia paralisar uma rede elétrica inteira, bem como paralisar hospitais ou transportes com sérias consequências sociais e econômicas. Sistemas que suportam a prestação de serviços públicos (ex. previdência social, legislativo, judiciário) também podem ser alvos, com graves prejuízos para a sociedade.
-
Vigilância em massa e repressão social - Já temos exemplos de governos autoritários utilizando IA para monitorar cidadãos, reconhecer rostos em multidões, prever “comportamentos desviantes” ou identificar opositores políticos. Isso agrava as violações de direitos humanos e de liberdades civis.
-
Uso da IA em armas biológicas ou químicas – Já existe possibilidade (real) do uso da IA por agentes humanos maliciosos para sugerir combinações de moléculas que possam ser convertidas em biotoxinas letais. O impacto deste tipo de ação ultrapassa fronteiras, afetando a segurança internacional.
-
Guerra informacional e interferência geopolítica – A IA já esta sendo utilizada por Estados e grupos extremistas para criar narrativas falsas e manipular a opinião pública em países rivais (por exemplo, campanhas de desinformação patrocinadas por governos em contextos de guerra híbrida).
-
Manipulação de mercados globais – Uso da IA para gerar boatos financeiros falsos (fake news) ou realizar operações de alta frequência (HFT) que causam instabilidade em mercados globais, com impactos tanto em nível macro (governos) e também em corporações e indivíduos.
āā
No nível de corporações, o cenário não é menos preocupante. As empresas podem ser tanto alvos de ataques baseados em IA quanto podem ser responsabilizadas por usos abusivos que tragam riscos legais, reputacionais e financeiros a outros.
Por exemplo:
-
āFraudes financeiras automatizadas – Quando a IA é empregada para criar esquemas financeiros corporativos fraudulentos, manipular transações, sonegar impostos ou enganar consumidores.
-
Violação de privacidade e vigilância de funcionários (RH) - Empresas adotando sistemas de IA para monitorar mensagens, produtividade e até mesmo microexpressões de seus colaboradores em vídeo, resultando em um ambiente de trabalho opressivo e em possíveis ações judiciais.
-
Uso abusivo de IA em processos seletivos (RH) – Uso discriminatório da IA (viés algorítmico) em processos de recrutamento ou promoção de pessoal, levando a processos por discriminação e dano reputacional.āāāāā
-
Ataques cibernéticos em corporações (phishing, engenharia social, exploração de vulnerabilidades) – A IA já está sendo utilizada para automatizar ataques cibernéticos. A IA permite amplificar a escala e velocidade de ataques como deepfakes e spear-phishing automatizado com e-mails e áudios falsos que imitam a voz de executivos. Estes ataques podem causar fraudes de transferência (“CEO fraud”) de milhões de dólares. Empresas que integram modelos de IA em sua operação (como call centers, atendimento aos clientes, compliance, operações industriais etc.) podem ser alvo de ataques de Prompt Injection, Data Poisoning, DDoS e outros que podem violar a confidencialidade, a integridade ou tornar processos corporativos indisponíveis.ā
Vejamos alguns exemplos destes empregos maliciosos da IA nas próximas seções. Observar que as listas não são exaustivas - há outros exemplos de uso inadequado ou malicioso da IA em nível governamental, corporativo ou ambos.
Manipulação eleitoral e erosão da democracia
O uso da IA para a geração de Fake News (desinformação) e para manipulação da opinião pública já adquiriu proporções extremamente graves, afetando a estabilidade de democracias ao redor do mundo. Um exemplo de como a IA pode afetar até mesmo pequenas eleições locais é um vídeo que apareceu em campanhas para o Conselho Municipal de Dallas, EUA. Nele, um candidato aparece em situações falsas – o vídeo e o áudio foram gerados por IA, com intenção clara de enganar eleitores e influenciar o processo eleitoral.

Imagem gerada com apoio de IA.
Exemplos de uso malicioso da IA neste contexto:
-
Disseminação de desinformação em massa: A IA generativa pode redigir notícias falsas de forma convincente, com estilo jornalístico, em diversos idiomas. Pode inundar redes sociais com milhares de variações de uma mesma mentira, dificultando a moderação e a checagem. Pode criar perfis falsos e disparar campanhas com conteúdos manipuladores em grande escala, com regionalização e personalização automática. Comentários, curtidas e compartilhamentos gerados por IA manipulam algoritmos de recomendação para dar visibilidade a conteúdos falsos.
-
Deepfakes políticos e de celebridades: Vídeos e áudios falsos realistas de líderes políticos ou figuras públicas dizendo ou fazendo coisas que nunca aconteceram têm sido usados para influenciar eleições, desacreditar opositores ou incitar polarização.
-
Amplificação de discursos de ódio ou extremismo: A IA está sendo amplamente utilizada (inclusive no Brasil) para gerar conteúdo extremista em redes sociais, aumentando o alcance de narrativas radicais.
Ataques cibernéticos em infraestrutura críticas nacionais

Fonte da Imagem - AdobeStock
Há estimativas do NCSC (National Cyber Security Centre) do Reino Unido de que até 2027, a IA vai reduzir as barreiras técnicas para que atacantes possam “turbinar” ataques cibernéticos sofisticados, abrangendo phishing, engenharia social, reconhecimento de alvos, geração de código malicioso e exploração de vulnerabilidades — com impacto direto em infraestruturas críticas. āA academia também tem alertado neste sentido, e estudos mostram que modelos de Deep Learning podem enganar sensores e induzir estados perigosos em sistemas utilizados em controle industrial e infraestruturas de energia, abastecimento de água e outras.
É importante ter em mente que estes ataques não são conduzidos por adolescentes hackers novatos, mas sim por adversários profissionais com alta capacidade técnica, incluindo especialistas recrutados pelo crime organizado. O Europol no relatório "EU Serious and Organized Crime Threat Assessment 2025“ adverte que a IA de fato tem potencializado o crime organizado, inclusive em operações contra infraestrutura (pública e privada), por meio de ataques cibernéticos precisos e sofisticados. āāNem mesmo infraestruturas de defesa nacional e cadeia de suprimentos militares estão sendo poupados destes ataques.
ā
Alguns ataques com apoio de IA direcionados a infraestruturas críticas como energia, transportes, água e saúde visam uma preparação para ataques posteriores, com o reconhecimento de rede e obtenção de acessos persistentes. Este relatório discute ameaças emergentes, e este outro relatório apresenta algumas medidas de segurança para proteção.
Embora ainda raros, ataques com IA em infraestruturas críticas já estão emergindo e devem crescer, como previsto por entidades como NCSC, CISA e Europol.
Vigilância em massa e opressão social
A IA está sendo utilizada por regimes autoritários para vigilância em massa (legal ou ilegal), correção e opressão (controle social). Vale destacar que āātecnologias de IA não são intrinsecamente autoritárias — o risco surge do contexto de uso e da ausência de salvaguardas. Alguns sistemas (por exemplo, reconhecimento facial) são desenvolvidos para fins legítimos, mas são empregados de forma ilegal para violar direitos humanos fundamentais.
O fato é que em regimes autoritários, a IA tende a ser instrumentalizada para concentração de poder e neutralização de opositores, e o poder repressivo da IA não deve ser subestimado – todos podemos nos tornar vítimas dele nas mãos de algum ditador com baixo apreço pela democracia.

Imagem gerada com apoio de IA.
Alguns casos de uso maliciosos já relatados:
-
IA usada para vigilância em massa: O uso de sistemas de reconhecimento facial combinado com análise comportamental e big data permite o monitoramento constante de indivíduos e grupos (por exemplo, dissidentes, jornalistas, ativistas ou minorias), muitas vezes sem consentimento e sem base legal legítima. Na China, o sistema de vigilância em Xinjiang usa IA para monitorar e punir minorias étnicas, como os uigures, com base em seu comportamento, crenças religiosas e deslocamentos.
-
Classificação e ranqueamento de cidadãos: Algoritmos de IA podem atribuir pontuações de "confiabilidade" ou "conformidade" com normas sociais e políticas, influenciando diretamente o acesso a serviços básicos (por exemplo, acesso ao crédito, transporte ou educação). O uso de algoritmos de IA para social scoring pode ter consequências punitivas ou discriminatórias.
-
Censura automatizada de conteúdo digital: A IA é utilizada em países não democráticos para detectar e apagar postagens críticas ao governo, bloquear sites e monitorar atividades em redes sociais. Chatbots e moderadores automáticos detectam palavras-chave ou imagens politicamente sensíveis. O Irã, a China ea Rússia já utilizam IA para limitar liberdade de expressão online (por exemplo, remoção automática de termos ou imagens relacionados a protestos).
Criação de armas biológicas ou químicas
A biossegurança é uma grande preocupação no contexto do uso inadequado da IA, tanto pelo seu potencial impacto quanto pela dificuldade de defesa. Sistemas de IA já demonstraram capacidade de apoiar a criação de novos virus e outros agentes biológicos.
Existem LLMs publicamente disponíveis com conhecimento avançado de virologia que elevam o risco biológico em várias ordens de magnitude, seja por ação desalinhada da própria IA (Misalignment) ou pelo seu uso mau intencionado por humanos (Misuse).
ā
Não é por acaso que a capacidade de um modelo de IA em fornecer instruções para a fabricação de armas CBRN (químicas, biológicas, radiológicas ou nucleares) que podem causar destruição em massa é uma das capacidades perigosas utilizadas pelos desenvolvedores destes modelos de fronteira para avaliar seu nivel de risco,

Imagem gerada com apoio de IA.
Guerra informacional e interferência geopolítica
O conceito de “guerra informacional” se refere à manipulação estratégica de informações (desinformação, deepfakes, conteúdo enganoso) com o objetivo de influenciar emoções, crenças e comportamentos de públicos específicos, visando favorecer interesses políticos, minar a confiança da população, desestabilizar democracias ou favorecer outras agendas militares ou extremistas.
O uso da IA amplifica esse tipo de guerra de três maneiras diferentes:
-
Escalabilidade: ferramentas de IA generativa criam conteúdo falso com rapidez e volume.
-
Personalização: algoritmos podem adaptar mensagens para audiências específicas com precisão.
-
Automação: bots gerenciados por IA disseminam automaticamente conteúdo em redes sociais.

Imagem gerada com apoio de IA.
A guerra informacional com IA é particularmente preocupante por sua eficácia e custo reduzido, tornando possível conduzir campanhas em longa escala com pouca mão de obra humana. Para citar um exemplo, em 2022 surgiu nas redes um vídeo falso (deepfake) do presidente ucraniano Zelensky “convocando suas tropas à rendição”. O vídeo obviamente foi disseminado como uma ferramenta psicológica no contexto da guerra, talvez por hackers estatais russos.
Manipulação de mercados globais
A manipulação de mercados é mais um exemplo de uso malicioso (Misuse) da IA. Resumidamente, envolve a utilização de ferramentas de IA para distorcer o funcionamento justo dos mercados financeiros.ā

Imagem gerada com apoio de IA.
Isso pode ocorrer de diversas formas:
-
Disseminação de informação falsa (fake news financeiras), por meio de deepfakes ou conteúdo gerado automaticamente para influenciar o humor do mercado e induzir decisões precipitadas.
-
Automação de estratégias de negociação predatórias, como collusion (colusão entre algoritmos), spoofing sofisticado e coordenação entre bots, usando a IA para explorar desequilíbrios no mercado.
-
Erosão da transparência e estabilidade do mercado, o que pode trazer impactos na liquidez e na formação de preços, aumentar a volatilidade e reduzir a confiança dos investidores.
ā
A preocupação com este tipo de uso inadequado da IA é grande. Na China, por exemplo, o regulador de valores acionários anunciou medidas para combater a disseminação de notícias falsas no mercado, exacerbadas por avanços em IA (como geradores de “falso otimismo financeiro”), alertando para risco de manipulação de investidores.
ā
A preocupação da China se justifica, pois o uso de vídeos falsos (deepfakes) criados por IA para manipular o mercado e promover esquemas de investimentos fraudulentos está em alta. Um exemplo discutido no Financial Times envolve um vídeo falso de executivos promovendo oportunidades de investimento, o que ocasionou ganhos ilegais para alguns, e a perda de centenas de milhares de dólares para outros.
ā
Vejamos agora os exemplos selecionados de uso malicioso da IA gerando impactos em corporações.
Fraudes financeiras automatizadas
Há muitos casos de uso da IA para apoiar golpes comerciais ou financeiros que podem afetar o governo, as corporações e pessoas físicas. āEm uma pesquisa sobre crimes financeiros com uso de IA, 33% das empresas relataram perdas abaixo de US$āÆ5āÆmilhões, enquanto 12% relataram perdas de US$āÆ25āÆmilhões ou mais em 2023. A Deloitte prevê que fraudes ligadas à IA nos EUA podem atingir US$āÆ40āÆbilhões até 2027. Essa projeção destaca o impacto crescente desses golpes impulsionados por IA.ā

Imagem gerada com apoio de IA.
Vejamos alguns exemplos.
• Geração de áudios falsos: Há registros de IA clonando vozes com poucos segundos de áudio público (YouTube, reuniões, etc.) para enganar bancos e realizar fraudes - um caso em Hong Kong com uso de voz falsificada de executivo sênior atingiu US$āÆ25 milhões.
• Cobranças falsas de impostos: Até junho de 2025, o ATO (Australian Tax Office) relatou um aumento de 300% nos golpes envolvendo deepfakes de agentes tributários (uso de phishing e vozes deepfake para imitar agentes oficiais e induzir vítimas a pagar boletos falsos ou compartilhar dados bancários.
• Falsificação de documentos e identidades: Geração automatizada hiper-realista de documentos falsos com IA generativa (RGs, CPFs, CNHs, diplomas universitários, certidões etc.), usados em fraudes diversas, visando burlar verificação de identidade em bancos, concursos, benefícios públicos etc.
• Scams automatizados por telefone ou texto: Chatbots maliciosos treinados para conversas personalizadas em golpes de romance e suporte técnico falso para manipular emocionalmente, obter senhas, dados bancários, transferências etc.
Violação de privacidade e vigilância de funcionários (RH)
No nível corporativo, há relatos de empresas adotando sistemas de IA para monitorar mensagens, produtividade e até mesmo microexpressões de seus colaboradores em vídeo, resultando em um ambiente de trabalho opressivo e em possíveis ações judiciais trabalhistas por violação de privacidade.
ā
Por exemplo, a plataforma HireVue (que chegou a ser utilizada por muitas empresas) empregava IA para analisar microexpressões e padrões de fala nos candidatos com o objetivo de “prever seu sucesso profissional”. Essa abordagem enfrentou severas críticas por viés e falta de transparência. Em 2021, após uma investigação, a ferramenta foi abandonada, mas diversos candidatos já tinham sido rejeitados não pelos seus méritos, mas por não se enquadrarem nos padrões emocionais definidos pelo algoritmo.

Imagem gerada com apoio de IA.
Segundo uma pesquisa da Universidade de Michigan, mais de 50% das grandes empresas nos EUA já utilizam “Emotion AI” para inferir estados emocionais internos dos trabalhadores por meio de expressões faciais, tom de voz, uso de dispositivos e textos — especialmente em call centers, bancos e setores de atendimento. Estas práticas geram ambientes opressivos, prejuízos psicológicos e potenciais litígios trabalhistas, e prejudicam a performance dos colaboradores.
ā
Vale ressaltar que colaboradores têm direito à privacidade no ambiente corporativo, mesmo quando utilizam recursos e equipamentos fornecidos pela empresa. O empregador pode monitorar sistemas, e-mails corporativos e uso da rede para garantir segurança, compliance e produtividade, mas o monitoramento deve ser proporcional e transparente, sem caráter abusivo. Monitoramentos invasivos como a análise de emoções por IA, o rastreamento de expressões faciais ou mesmo a vigilância constante de mensagens privadas são bastante problemáticos, pois extrapolam a necessidade de gestão de produtividade, criam um ambiente opressivo (como comentamos acima) e expõem os trabalhadores a possíveis julgamentos automatizados sem transparência e nem possibilidade de contestação.
Me parece razoável supor que "expressão facial" é um dado biométrico, e neste sentido, a LGPD no Brasil (Lei Geral de Proteção de Dados - Lei 13.709/2018), a GDPR na União Europeia e outras legislações de proteção de dados em vários países estabelecem que o tratamento de dados pessoais (incluindo dados biométricos) deve obedecer a princípios de finalidade, necessidade, proporcionalidade e de transparência.
Uso abusivo da IA em processos seletivos (RH)
O uso da IA em recrutamento promete aumentar a eficiência (triagem de milhares de currículos em segundos, redução de tempo para contratar) e a redução de viés humano (na teoria, elimina a subjetividade e preferências pessoais discriminatórias).
No entanto, quando mal implementada ou mal regulada, a solução pode resultar em decisões discriminatórias automatizadas (ou seja, o viés humano é amplificado pelo algorítmo).

Imagem gerada com apoio de IA.
āIsso acontece principalmente por conta do uso de dados históricos enviesados (que refletem desigualdades passadas) no treinamento do modelo. Por exemplo, se no passado a empresa contratou mais homens do que mulheres para cargos técnicos, o modelo pode “aprender” que homens têm maior chance de sucesso. Neste caso, a IA vai automatizar uma injustiça já existente. Em geral, a discriminação por algorítmo é acidental, mas há casos em que é proposital, com a configuração intencional de filtros excludentes (por exemplo, limitar candidatos por idade, CEP ou outros atributos sem justificativa objetiva, favorecendo grupos específicos). Vamos ver um exemplo mais adiante.
A falta de transparência (efeito “caixa-preta”) é um outro problema, pois dificulta a contestação ou auditoria. Muitos modelos de IA são opacos: não explicam claramente por que um candidato foi reprovado. Isso gera a impossibilidade de contestação (o candidato não sabe se foi recusado por méritos ou por um viés). Isso é ilegal no Brasil. A LGPD proíbe a ausência de transparência em decisões exclusivamente automatizadas que impactem a vida de candidatos ou colaboradores.
ā
O uso abusivo da IA em processos seletivos não é problema hipotético ou uma curiosidade acadêmica - há muitos relatos de exemplos reais:
-
Um sistema interno da Amazon desvalorizava currículos que mencionavam “women’s” (como “women’s college”), penalizando candidatas.
-
Em agosto de 2023, a EEOC (Equal Employment Opportunity Commission), uma agência federal dos Estados Unidos, concluiu um acordo no primeiro processo sobre discriminação no emprego contra uma empresa de tutoria virtual que havia programado seu software de recrutamento para rejeitar automaticamente candidatos mais velhos. A empresa foi obrigada a pagar US$ 325.000 e, caso retomasse os serviços de contratação nos Estados Unidos, teria de convocar novamente todos os candidatos do período de abril a maio de 2020 que foram rejeitados com base na idade, para que pudessem se candidatar novamente.
-
Em 2023, Derek Mobley entrou com ação contra a plataforma Workday por suposta discriminação com base em raça, idade e deficiência. A EEOC apoiou o processo.
ā
Estes exemplos alertam sobre os riscos que podem decorrer deste tipo de uso inadequado da IA, seja a discriminação acidental (problemas nos dados utilizados para treinar o algoritmo) ou proposital, como no caso da empresa acima mencionada que programou o seu software para discriminar ostensivamente os candidatos mais velhos:
-
A substituição indevida de decisão humana, com falta de supervisão.
-
O reforço de desigualdades estruturais, penalizando grupos já marginalizados.
-
O risco de desconfiança e percepção negativa dos processos seletivos, reduzindo a legitimação das empresas.
-
Riscos legais e regulatórios, como mostra o caso da EEOC e ações judiciais em curso.
Diante deste cenário, entidades como a EEOC (EUA) e pesquisadores estão destacando a necessidade de auditorias e transparência nos sistemas de IA usados em contratação.
Ataques cibernéticos em corporações
O uso abusivo da IA por agentes humanos em ataques cibernéticos contra corporações pode afetar as três dimensões CID (confidencialidade, integridade e disponibilidade), causando graves prejuízos e danos reputacionais.
ā
No caso da confidencialidade, alguns ataques típicos são o spear-phishing com deepfakes, o roubo de credenciais e a exploração de chatbots corporativos. Por exemplo, uso de vídeos falsos (deepfakes) de CEOs em fraudes de transferência, causando perdas acima de US$ 200 milhões nos primeiros 4 meses de 2025.

Imagem gerada com apoio de IA.
Na dimensão da integridade, exemplos de ataques típicos são Data Poisoning em modelos antifraude corporativos e a manipulação de registros e logs para ocultar atividades maliciosas. Por exemplo, pesquisadores da Universidade do Texas descobriram vulnerabilidades de Data Poisoning em sistemas de IA, incluindo o MicrosoftāÆ365 Copilot. Ao inserir dados maliciosos em documentos referenciados, o modelo continuou a retornar informações falsas mesmo após a remoção das fontes contaminadas. O ataque foi ironicamente chamado de "ConfusedPilot".
ā
Na disponibilidade, um exemplo relevante seriam os ataques de DDoS otimizados por IA contra sistemas corporativos. Porém, não consegui localizar casos documentados publicamente de ataques DDoS comprovadamente conduzidos com IA (até agosto de 2025), embora tenha encontrado muitas pesquisas acadêmicas e alertas de diferentes organizações no sentido de que o uso da IA nestes tipos de ataques é cada vez mais plausível. Há também a possibilidade de ataques de DDoS ou exaustão de recursos contra as APIs de serviços de IA utilizadas no ambiente corporativo, como discutido nesta página.
Ou seja, o uso malicioso da IA em ataques cibernéticos contra empresas não se limita a fraudes e vazamentos de dados. Ele também pode comprometer a integridade de sistemas corporativos e ameaçar a disponibilidade de serviços críticos (DDoS potencializados por IA). Isso transforma a IA em uma ferramenta estratégica para cibercriminosos, aumentando a escala, eficiência e impacto financeiro dos ataques - da mesma forma em que a IA é uma ferramenta estratégica para os profissionais de segurança encarregados de proteger tais sistemas.
Referências
Snehal Antani
Aug 15, 2025
Último acesso em 23/08/2025
Guru Sethupathy
Aug 6, 2025
Último acesso em 23/08/2025
WFAA
May 18, 2025
Último acesso em 23/08/2025
Curmudgeon Corner
Mar 22, 2025
Último acesso em 23/08/2025
MIKE CORDER, AP
Mar 18, 2025
Último acesso em 23/08/2025
Reuters
Mar 15, 2025
Último acesso em 23/08/2025
Capitology Blog
Jan 3, 2025
Último acesso em 23/08/2025
Gemma Galdon Clavell, Rubén González-Sendino
Dez 13, 2024
Último acesso em 23/08/2025
Mun-Suk Kim
Dez 11, 2024
Último acesso em 23/08/2025
Antonio Zappulla (Reuters)
Nov 19, 2024
Último acesso em 23/08/2025
Ayush RoyChowdhury et al
Oct 23, 2024
Último acesso em 23/08/2025
Kyle Crichton et al
Oct, 2024
Último acesso em 23/08/2025
James Dean, Cornell University
Jul 2, 2024
Último acesso em 23/08/2025
Nazanin Andalibi, University of Michigan
Mar 6, 2024
Último acesso em 23/08/2025
Shannon Murphy
Feb 7, 2024
Último acesso em 23/08/2025
Business & Human Rights Resource Centre
Jun 14, 2022
Último acesso em 23/08/2025
Matthew Holroyd & Fola Olorunselu (Euronews)
Mar 16, 2022
Último acesso em 23/08/2025