top of page

Confiabilidade de sistemas de IA

Carros autônomos.
Armas autônomas.
Diagnósticos médicos apoiados por IA.

Carro autônomo guiado por IA

Confiabilidade e uso seguro

Além de ser justo (fairness) e transparente que são conceitos centrais para uma IA ética e responsável, os sistemas de IA também precisam ser confiáveis.

 

A confiabilidade é um requisito importantíssimo nos sistemas de IA, dado que falhas nestes sistemas têm o potencial de produzir consequências perigosas para os seres humanos, além de reduzir a confiança no uso destes sistemas.

2025-04-21_105711.png

O conceito de "confiabilidade" é amplo, e envolve diferentes objetivos que o sistema deve atender:

  • Performance - O sistema deve ter um bom desempenho, com um nível aceitável de erros de acordo com alguma métrica (acurácia, precisão, recall etc.).

  • Confiabilidade - O sistema deve funcionar de forma compatível com suas especificações, ou seja, deve se comportar exatamente como foi planejado, ainda que precise se adaptar à mudanças no ambiente. Ou seja, confiabilidade aqui tem o sentido de "aderência às especificações" definidas no design do sistema. 

  • Segurança - Idealmente, o sistema de IA deve ser capaz de manter a sua própria integridade (do modelo) e dos dados que manipula, além de ter proteções contra violações de confidencialidade de dados e privacidade.

  • Robustez - O sistema também precisa ser robusto, no sentido de preservar sua operação normal e seus níveis de performance e segurança mesmo em condições anormais de operação ou situações não antecipadas. 

O princípio da Confiabilidade e Uso Seguro (Reliability & Safety)  requer que a solução de IA opere de forma confiável e segura, sem oferecer riscos substanciais para a vida humana. O atendimento a este objetivo requer processos de teste e verificação adequados.  

Há muitos contextos em que a confiabilidade de soluções de IA é importante, como no caso dos diagnósticos médicos. Por exemplo, em 2018 a IBM teve problemas quando utilizou sua aplicação Watson para fazer recomendações médicas para pacientes com câncer. Os médicos entenderam que o algoritmo ainda não estava "treinado o suficiente" e interromperam o projeto, pois algumas das recomendações feitas pelo sistema podiam ser fatais para os pacientes.

 

​Dado que são passíveis de falha, a possibilidade de responsabilização (accountability) é um outro requisito importante. Quando um sistema de IA falha e ocorre um incidente grave, quem é o responsável?

Responsabilização (Accountability) na IA

Em 2018 o The New York Times reportou que um automóvel autônomo da Uber atropelou e matou uma pedestre nos Estados Unidos. Havia uma motorista, mas o veículo estava dirigindo a si próprio no momento do atropelamento. Eventos como este alimentam a desconfiança e a discussão sobre a confiabilidade dos modelos que estão por trás destas soluções. Este incidente também deu início a um debate ético sobre quem seria o responsável pelas mortes causadas por veículos autônomos (com ou sem motorista), um exemplo da importante questão da responsabilização (accountability) dos incidentes relacionados com a IA. 

National Telecommunications and Information Administration

March 2024

Veículos autônomos

Em muitas estradas, os veículos autônomos já são uma realidade e não mais experimentais. A operadora americana Waymo fornece mais de 150,000 corridas com carros autônomos por semana. Na China, em muitas cidades já se utiliza o Apollo Go robotaxi da Baidu. 

Crédito de imagem: How Baidu's Apollo Go Targets Global Robotaxi Expansion, Technology Magazine.

2025-04-21_064004.png

Militarização da IA e armas autônomas

Um outro segmento onde a confiabilidade e o uso seguro da IA são requisitos críticos e as questões morais e éticas são especialmente sensíveis é o das armas autônomas letais

 

Este assunto remete para a discussão do uso militar (ou dual) das aplicações de IA. É um tema preocupante pois é bastante improvável que os marcos regulatórios que estão sendo desenvolvidos no Brasil e no mundo alcancem tais sistemas.

Referências em armas autônomas

Referências adicionais sobre confiabilidade na IA

Veja também

Gestão de Riscos da IA
Governança
Trabalho e IA
Transparência
bottom of page