Filosofia e Inteligência Artificial
Os desafios para uma IA ética e responsável

As aplicações baseadas em inteligência artificial (doravante IA) têm imenso potencial de impacto nas vidas humanas – para o bem e para o mal. Há inegáveis benefícios, mas também muitos riscos como as campanhas de desinformação e discursos de ódio impulsionadas por IA que ameaçam as democracias em todo o mundo. A inovação tecnológica evolui rapidamente e não vai desacelerar, e por conta disso, como alerta Brad Smith, “é o trabalho para gerenciá-la que precisa ganhar velocidade”. Dado que já existem inúmeras aplicações deste tipo em uso é necessário acelerar as discussões sobre a governança das soluções de AI, bem como a necessidade de princípios éticos e marcos regulatórios adequados.
Este esforço de governança e regulamentação já é bastante difícil, e está ocorrendo em escala global. Entretanto, embora necessário, provavelmente não será suficiente. O ideal seria tentar "embutir" de alguma forma certos valores morais humanos já na concepção e treinamento dos sistemas de IA mais poderosos, em oposição a apenas tentar otimizar o desempenho destes sistemas no alcance de objetivos específicos.
Algoritmos éticos
Alguns especialistas como Aaron Roth e Michael Kearns defendem que em vez de apenas regulamentar os sistemas de IA depois que já estão prontos, deve-se buscar a construção de algoritmos éticos - de modo que as aplicações de IA já sejam treinadas por algoritmos que tenham aguns valores morais humanos "embutidos" como restrições matemáticas.
Por exemplo, o conceito "moral" de que a privacidade deve ser preservada já pode ser embutida em algoritmos. Graças ao trabalho de Cynthia Dwork e outros pesquisadores, a noção de "privacidade" foi ao menos parcialmente encapsulada na definição matemática de privacidade diferencial e assim ganhou uma métrica objetiva.
Infelizmente, para outros valores morais a busca de uma definição matemática ou outra forma objetiva de representar princípios éticos nos algoritmos que treinam sistemas de IA é bem mais difícil.

Sem lanche grátis...
Como exemplos da dificuldade da criação de "algoritmos éticos" vejamos os casos da imparcialidade e da transparência. Veremos que ainda que não seja tecnicamente impossível incluir restrições nos sistemas de IA para que fiquem mais "alinhados" com estes dois valores, haverá escolhas difíceis a fazer, incluindo trade-offs inevitáveis entre "imparcialidade" e "precisão", ou entre "transparência" e "precisão".
A figura mostra um experimento em Machine Learning onde é necessário optar entre o modelo mais "justo" ou imparcial (com menor disparidade nas predições entre diferentes grupos sociais) e o sistema mais preciso (com maior acurácia) .

Imparcialidade (não discriminação)
Uma enorme preocupação no contexto da "AI ética e responsável" é o problema da discriminação. Há inúmeros relatos de algoritmos que revelaram 'padrão discriminatório' contra subgrupos sociais. Porém, não é trivial passar para algoritmos a noção de fairness (imparcialidade), ou do que significa um sistema de IA ser "justo" (do ponto de vista estatístico) com diferentes subgrupos.
Para começar, não há um conjunto único e bem definido de conceitos morais como "justiça" sobre os quais todos concordem. Por exemplo, existem 21 definições diferentes de imparcialidade (fairness) e já foi provado que não é possível satisfazer simultaneamente a todas elas. Ou seja, ao se tentar diminuir a 'injustiça' em uma solução de IA entre diferentes subgrupos sociais privilegiando uma certa noção de fairness (por exemplo, 'paridade estatística'), pode-se aumentar a injustiça se esta for medida por outra métrica (por exemplo, 'taxa de falsos positivos e negativos').
Além disso, a redução da discriminação algorítmica em muitos casos vai requerer um trade-off com a eficiência. Como mostrado na figura anterior, ao embutir restrições para maximizar a imparcialidade (fairness) usando alguma definição que pareça adequada ao contexto no treinamento de um modelo, a acurácia do modelo (ou outra medida de performance) poderá diminuir - suas predições não serão tão precisas, e isso pode ter impactos negativos que a sociedade precisa compreender. Não há lanche grátis.
Transparência
Há também dificuldades em lidar com o problema da transparência, ou o propósito de evitar que as soluções de IA funcionem como caixas pretas (black boxes) cujas decisões não são compreensíveis pelas partes afetadas. Embora existam processos e ferramentas que conferem maior interpretabilidade e explanabilidade aos algoritmos de IA, o problema não é trivial. Vale observar que "maior transparência" não se trata apenas de "revelar o algoritmo" utilizado.
Em função da irredutibilidade da computação mesmo que sejam divulgados todos os detalhes sobre o código fonte de sistema de IA pode ser extremamente difícil predizer o que este código ou algoritmo vai fazer. Além disso, assim como no caso da busca pela não discrimininação pode ocorrer um trade-off entre "performance" e "imparcialidade", na busca pela maior transparência também ocorre um trade-off entre "ter um sistema de IA mais transparente" e "ter um sistema de IA mais preciso".
Ou seja, ao se tentar produzir um sistema otimizado em termos de performance, é pouco provável que se consiga ao mesmo tempo uma narrativa mais amigável aos humanos sobre como o modelo funciona e como suas decisões são tomadas (como é o caso das aplicações de IA treinadas por redes neurais complexas com muitas camadas, utilizadas em deep learning). Sem lanche grátis aqui também.
O problema do alinhamento de valores

Todos desejamos uma IA mais ética e responsável, aderente aos valores morais como justiça, igualdade, inclusividade, segurança, privacidade, transparência, responsabilização e outros, alguns deles já considerados direitos fundamentais do homem. Os princípios para uma IA ética tentam colocar em palavras os valores que se deseja assegurar.
Vimos que uma abordagem interessante é tentar incluir ao menos alguns destes princípios ou valores morais nos próprios algoritmos que suportam os sistemas de IA (ou seja, investir no design de algoritmos éticos). Já existe consenso de que esta tarefa se torna cada vez mais importante na medida em que vários sistemas poderosos de IA já estão em uso, alguns operando com grande autonomia para tomar decisões que antes eram relegadas aos humanos.
Porém, há uma dificuldade importante - como "embutir" valores morais humanos em algoritmos?
O nome usualmente utilizado para denotar esta tarefa é "alinhamento de valores" (Value Alignment). Esta tarefa não é simples, e requer uma abordagem multidisciplinar envolvendo legisladores, políticos, especialistas em IA, cientistas de dados, estatísticos, desenvolvedores de software, psicólogos, antropologistas, filósofos e a sociedade em geral.
O problema do "alinhamento de valores" é discutido nesta página.