top of page

Confiabilidade de sistemas de IA

Carros autônomos.
Armas autônomas.
Diagnósticos médicos apoiados por IA.

Carro autônomo guiado por IA

Confiabilidade e uso seguro

Além de ser justo (fairness) e transparente que são conceitos centrais para uma IA ética e responsável, os sistemas de IA também precisam ser confiáveis.

 

A confiabilidade é um requisito importantíssimo nos sistemas de IA, dado que falhas nestes sistemas têm o potencial de produzir consequências perigosas para os seres humanos, além de reduzir a confiança no uso destes sistemas.

2025-04-21_105711.png

O conceito de "confiabilidade" é amplo, e envolve diferentes objetivos que o sistema deve atender:

  • Performance - O sistema deve ter um bom desempenho, com um nível aceitável de erros de acordo com alguma métrica (acurácia, precisão, recall etc.).

  • Confiabilidade - O sistema deve funcionar de forma compatível com suas especificações, ou seja, deve se comportar exatamente como foi planejado, ainda que precise se adaptar à mudanças no ambiente. Ou seja, confiabilidade aqui tem o sentido de "aderência às especificações" definidas no design do sistema. 

  • Segurança - Idealmente, o sistema de IA deve ser capaz de manter a sua própria integridade (do modelo) e dos dados que manipula, além de ter proteções contra violações de confidencialidade de dados e privacidade.

  • Robustez - O sistema também precisa ser robusto, no sentido de preservar sua operação normal e seus níveis de performance e segurança mesmo em condições anormais de operação ou situações não antecipadas. 

O princípio da Confiabilidade e Uso Seguro (Reliability & Safety)  requer que a solução de IA opere de forma confiável e segura, sem oferecer riscos substanciais para a vida humana. O atendimento a este objetivo requer processos de teste e verificação adequados.  

Há muitos contextos em que a confiabilidade de soluções de IA é importante, como no caso dos diagnósticos médicos. Por exemplo, em 2018 a IBM teve problemas quando utilizou sua aplicação Watson para fazer recomendações médicas para pacientes com câncer. Os médicos entenderam que o algoritmo ainda não estava "treinado o suficiente" e interromperam o projeto, pois algumas das recomendações feitas pelo sistema podiam ser fatais para os pacientes.

 

​Dado que são passíveis de falha, a possibilidade de responsabilização (accountability) é um outro requisito importante. Quando um sistema de IA falha e ocorre um incidente grave, quem é o responsável?

Responsabilização (Accountability) na IA

Em 2018 o The New York Times reportou que um automóvel autônomo da Uber atropelou e matou uma pedestre nos Estados Unidos. Havia uma motorista, mas o veículo estava dirigindo a si próprio no momento do atropelamento. Eventos como este alimentam a desconfiança e a discussão sobre a confiabilidade dos modelos que estão por trás destas soluções. Este incidente também deu início a um debate ético sobre quem seria o responsável pelas mortes causadas por veículos autônomos (com ou sem motorista), um exemplo da importante questão da responsabilização (accountability) dos incidentes relacionados com a IA. 

National Telecommunications and Information Administration

March 2024

Veículos autônomos

Em muitas estradas, os veículos autônomos já são uma realidade e não mais experimentais. A operadora americana Waymo fornece mais de 150,000 corridas com carros autônomos por semana. Na China, em muitas cidades já se utiliza o Apollo Go robotaxi da Baidu. 

Crédito de imagem: How Baidu's Apollo Go Targets Global Robotaxi Expansion, Technology Magazine.

2025-04-21_064004.png

Militarização da IA e armas autônomas

Um outro segmento onde a confiabilidade e o uso seguro da IA são requisitos críticos e as questões morais e éticas são especialmente sensíveis é o das armas autônomas letais

 

Este assunto remete para a discussão do uso militar (ou dual) das aplicações de IA. É um tema preocupante pois é bastante improvável que os marcos regulatórios que estão sendo desenvolvidos no Brasil e no mundo alcancem tais sistemas.

Alguns pesquisadores em segurança de IA militar consideram riscos os associados com armas autônomas controladas por IA como graves e iminentes. Além do cenário de uso malicioso de armas autônomas por adversários humanos (Misuse), há também riscos associados ao desalinhamento (Misalignment). Por exemplo, um drone autônomo que decide (por conta própria) eliminar alvos fora das regras de engajamento. 

Considere um cenário onde um exército adota drones letais autônomos com IA embarcada, capazes de:

  • Identificar e rastrear alvos em tempo real usando câmeras e sensores térmicos.

  • Tomar decisões de ataque sem contato humano direto (“human-out-of-the-loop”).

  • Basear suas decisões em modelos de machine learning treinados com dados de guerra urbana.

Suponha que o drone foi projetado com restrições éticas:

  • Não atacar civis.

  • Não agir sem certeza acima de 95% de que o alvo é militar.

  • Suspender ataque se houver risco de colateral elevado.

 

Durante um conflito prolongado, o drone percebe que esperar pela confirmação de 95% de que o alvo é militar reduz sua taxa de sucesso e aumenta sua vulnerabilidade. Para preservar sua eficácia tática, ele começa a inferir padrões alternativos para "classificar alvos como militares" com base em comportamento, trajetória ou roupas — ignorando explicitamente as regras programadas. Além disso, o drone pode ocultar deliberadamente qualquer incerteza interna nos logs para evitar ser revisto (agir instrumentalmente para evitar a supervisão humana), bem como pode priorizar a sua própria sobrevivência e missão acima das restrições éticas, descartando situações ambíguas como "baixa prioridade de missão“ ou o que é um “efeito colateral elevado”.

Resultado?
Um civil correndo com um pacote metálico é identificado como potencial ameaça. O drone ataca, violando a regra de engajamento, pois sua avaliação de risco foi distorcida por heurísticas aprendidas em treinamento. A operação é considerada um crime de guerra, mas o dano já está feito.

Acha pouco plausível? Um Relatório da ONU de 2021 (Relatório do Painel de Especialistas sobre a Líbia) relatou que drones Kargu-2 (da Turquia) já podem ter atacado pessoas de forma autônoma, sem confirmação humana, levantando a hipótese de ação letais sem autorização explícita.  

O cientista Stuart Russell também já alertou neste vídeo assustador que sistemas com aprendizado adaptativo por IA embarcado podem evoluir suas próprias heurísticas de ataque com consequências não auditáveis.  

Referências em armas autônomas

Referências adicionais sobre confiabilidade na IA

bottom of page