Márcio Galvão - Research
O temor da Singularidade
A "singularidade" é um ponto hipotético no futuro onde os avanços na inteligência artificial alcançam e ultrapassam a inteligência humana. A partir deste instante, os sistemas de IA se tornam capazes de melhorar suas próprias capacidades de forma autônoma e exponencial. A singularidade é considerada potencialmente disruptiva, pois as capacidades e decisões de uma IA superinteligente podem estar além da compreensão e controle humano. O conceito de singularidade foi popularizado por futuristas e cientistas, como Vernor Vinge e Ray Kurzweil. Kurzweil, em particular, previu que a singularidade poderia ocorrer por volta de meados do século 21 (2045).
"Holy Cow" moment
Em 1997, o computador Deep Blue da IBM venceu o Grande Mestre de xadrez Garry Kasparov. O Deep Blue não era uma “IA”, era um supercomputador da IBM, e executava instruções previamente definidas por programadores. O genial Kasparov fez a acusação de que “haviam programadores humanos jogando”, mas a IBM explicou que as atualizações no programa eram feitas somente no intervalo entre os jogos, e não durante as partidas (onde o computador jogava sozinho).
Dez anos depois disso (2016) a Google DeepMind lançou o AlphaGo, este sim já uma IA, capaz de “aprender” (Machine Learning), que assombrou o mundo ao precisar de apenas 3 dias para vencer o sul coreano campeão mundial de GO, Lee Sedol, depois de aprender as regras (e nada mais!).
Em sua palestra TED Talk, o professor Stuart Russell (um dos pioneiros da inteligência artificial) diz que Sedol teve o que os executivos do Vale do Silício chamam de "Holy Cow moment" ao perceber que a inteligência artificial está progredindo muito mais rápido do que pensávamos.
Go
O fato de uma IA vencer os campeões humanos em Go é relevante, dado que o Go é um jogo notoriamente difícil de aprender e com uma variedade incrível de movimentos.
-
O tabuleiro tem 19 x 19 quadros e permite 10 elevado a 172 movimentos (o número de átomos no Universo observável é 10 elevado a 80).
-
A rede neural do AphaGo começou a ser treinada no jogo do Go sem qualquer informação adicional além das regras básicas. A rede jogou consigo mesma milhões de vezes e, usando Deep Learning, foi aprendendo com seus próprios erros em cada iteração.
-
Em apenas 70 horas de treino (jogando consigo próprio), o AlphaGo alcançou um nível sobre-humano de performance, fazendo jogadas "nunca antes vistas".
-
O AlphaGo também joga outros jogos além do Go, como xadrez e shogi.
Depois de vencer o sul coreano Lee Sedol em 2016 por 4x1 em uma melhor de 5, uma nova versão do AlphaGo derrotou o campeão chinês Ke Jie, na época com 19 anos (jogador profissional desde os 11 anos), e que havia declarado que "jamais seria vencido por um computador no jogo de Go", estabelecendo a supremacia da IA (redes neurais) sobre os humanos nesta tarefa (crédito da Imagem - Photograph: Wu Hong/EPA - reproduzida do The Guardian).
PORÉM, é interessante ressaltar que um jogador amador (Kellin Pelrine, um pesquisador) conseguiu vencer o JBXKata005, considerado o melhor programa jogador de GO da atualidade (que é bem melhor que o AlphaGo) - mesmo dando uma vantagem de 9 pedras para o programa - utilizando uma estratégia que o programa não percebeu, mas que um ser humano teria percebido. Veja mais sobre este caso interessante. O ponto deste experimento conduzido pela equipe do Prof. Stuart Russell foi demonstrar que apesar de nos deixarem surpresos com o que consequem fazer, mesmo os mais avançados sistemas de IA como os grandes modelos de linguagem como os que suportam o ChatGPT não possuem uma compreensão real da linguagem ou do mundo (ainda), ou a capacidade de "pensar" com diferentes níveis de abstração, como nós podemos.
Veja a seção "A IA já superou o Teste de Turing" mais adiante...
Em quais tarefas a IA já supera os seres humanos?
Embora os sistemas de IA ainda não tenham a "capacidade de pensar com diferentes níveis de abstração" como os humanos, estes sistemas estão certamente evoluindo a uma grande velocidade. O estudo AI Index Report 2024 da Universidade de Stanford comprova que a IA já superou o desempenho humano em diferentes tarefas, como a classificação de imagens, raciocínio visual e compreensão do inglês. No entanto, ela (ainda) fica atrás em tarefas mais complexas, como matemática de nível competitivo, raciocínio visual baseado em senso comum e planejamento (Imagem reproduzida do relatório),
Apenas como referência, listamos abaixo algumas tarefas onde a inteligência artificial (IA) já igualou ou superou a capacidade humana, com base em fontes acadêmicas e benchmarks reconhecidos.
1. Classificação de Imagens
O benchmark ImageNet é um dos mais famosos neste campo. Já em 2015 o sistema de IA ResNet, desenvolvido pela equipe de Microsoft Research, alcançou uma taxa de erro de 3,57% na classificação de imagens, superando a taxa de erro humana estimada em 5,1% .
Referência: He, K., Zhang, X., Ren, S., & Sun, J. (2016). Deep Residual Learning for Image Recognition.
2. Reconhecimento de Fala
No reconhecimento de fala, o Word Error Rate (WER) é a métrica padrão. Em 2017, o sistema de reconhecimento de fala da Microsoft atingiu um WER de 5,1%, comparável ao desempenho humano em conversas telefônicas, que varia entre 5-6% .
Referência: Xiong, W., Droppo, J., Huang, X., Seide, F., Seltzer, M. L., Stolcke, A., ... & Zweig, G. (2017). The Microsoft 2017 Conversational Speech Recognition System.
3. Diagnóstico Médico (Radiologia)
Sistemas de IA têm demonstrado desempenho superior a radiologistas humanos em várias tarefas de diagnóstico por imagem. Um exemplo notável é a detecção de pneumonia em radiografias de tórax, onde modelos de IA, como os desenvolvidos por CheXNet, superaram a média dos radiologistas.
Referência: Rajpurkar, P., Irvin, J., Zhu, K., Yang, B., Mehta, H., Duan, T., ... & Ng, A. Y. (2017). CheXNet: Radiologist-Level Pneumonia Detection on Chest X-Rays with Deep Learning.
4. Jogos Estratégicos (Xadrez, Go)
Como já mencionado, o sucesso da IA em jogos como xadrez e Go é bem documentado, e um exemplo clássico é o da vitória do AlphaGo sobre o campeão mundial de Go Lee Sedol, e no ano seguinte (2017) sobre o campeâo chinês Ke Jie.
Referência: Silver, D., Huang, A., Maddison, C. J., Guez, A., Sifre, L., Van Den Driessche, G., ... & Hassabis, D. (2016). Mastering the game of Go with deep neural networks and tree search.
5. Tradução Automática
Em 2016, o Google Neural Machine Translation (GNMT) mostrou-se capaz de realizar traduções com uma qualidade que se aproximava da tradução humana para vários pares de idiomas. Estudos subsequentes demonstraram melhorias contínuas.
Referência: Wu, Y., Schuster, M., Chen, Z., Le, Q. V., Norouzi, M., Macherey, W., ... & Dean, J. (2016). Google's Neural Machine Translation System: Bridging the Gap between Human and Machine Translation.
6. Compreensão de Leitura
O Stanford Question Answering Dataset (SQuAD) é um dos benchmarks mais utilizados para avaliar a compreensão de leitura por sistemas de IA. Em 2018, o modelo BERT (Bidirectional Encoder Representations from Transformers) desenvolvido pelo Google superou o desempenho humano no SQuAD 1.1, com uma pontuação de exatidão (F1 score) de 93,2%, enquanto a pontuação humana era de aproximadamente 91,2% .
Referência: Devlin, J., Chang, M. W., Lee, K., & Toutanova, K. (2019). BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding.
7. Competições de Matemática
O MATH Dataset é um conjunto de dados que consiste em problemas de matemática de nível colegial e olímpico. Em 2021, o modelo GPT-3 da OpenAI, embora ainda não tenha superado os humanos em todas as competições matemáticas, demonstrou capacidades impressionantes. Modelos mais recentes, como os baseados na arquitetura GPT-4, têm mostrado melhorias significativas em resolver problemas complexos de matemática, aproximando-se do desempenho humano. Entretanto, é importante ressalvar que apesar dos avanços em tarefas de compreensão de leitura e matemática, o desempenho dos sistemas de IA ainda pode variar significativamente dependendo da complexidade e do contexto dos problemas. A IA pode encontrar dificuldades em problemas que exigem uma compreensão profunda de conceitos abstratos ou que envolvem múltiplas etapas de raciocínio, algo que humanos conseguem realizar de maneira mais intuitiva.
Referência: Hendrycks, D., Burns, C., Basart, S., Zou, A., Mazeika, M., Song, D., & Steinhardt, J. (2021). Measuring Mathematical Problem Solving With the MATH Dataset.
A imagem abaixo não é de uma pessoa real. Foi gerada por uma GAN (Generative Adversarial Network) com base na análise de diversos retratos Neste modelo, duas redes neurais competem entre si em um jogo de soma zero Se esta imagem fosse utilizada para criação de um perfil em uma mídia social você seria capaz de detectar que não se trata de uma pessoa real?
"Desligar a IA" é uma opção em caso de perigo?
Será que o medo do que poderá ocorrer quando a IA se tornar superinteligente ou "consciente" seria menor se a gente pudesse sempre “desligar a tomada” (desativar o sistema de IA) se ele nos ameaçar? Na cena clássica de "2001, Uma Odisseia no Espaço" o astronauta Dave conseguiu superar Hal.
O problema, como explica Stuart Russell, é que não temos garantias de que isso sempre será possível.
E para os que pensam que isso é bobagem, "coisa de cinema", exageros da mídia sem fundamento científico apenas pelo uso de imagens do "Terminador do Futuro" e do "2001 Uma Odisséia no Espaço", saibam que há ativistas do grupo PauseAI (cuja proposta pode ser visualizada neste website) e outras organizações que estão levando este assunto muito a sério, desde o Future of Live Institute até o bilionário Elon Musk.
As big techs como a OpenAI se preocupam com a "singularidade"?
Bem... a princípio sim, porém....
INCIALMENTE, tudo indicava que a OpenAI estava levando este assunto bastante a sério, e em 5 de Julho de 2023 chegou a formar um time de especialistas altamente qualificados liderados por Ilya Sutskever e Jan Leike, prometendo a alocação de 20% dos recursos de computação da empresa para pesquisas sobre "como poderemos lidar com uma IA superinteligente", e chegou inclusive a prometer uma solução para o problema "em apenas 4 anos".
Infelizmente, menos de um ano depois Jan Leike pediu demissão da OpenAI, decepcionado com a limitação de recursos para conduzir suas pesquisas. Os "20% dos recursos de computação da empresa" que foram prometidos simplesmente não foram disponibilizados. Sobre isso, Jan Leike veio a público em maio de 2024 e publicou uma série de posts no X expressando sua preocupação:
"Eu acredito que muito mais do nosso esforço deveria ser direcionado para nos prepararmos para as próximas gerações de modelos, focando em segurança, monitoramento, preparação, segurança, robustez contra adversidades, (super)alinhamento, confidencialidade, impacto social e tópicos relacionados. Esses problemas são bastante difíceis de resolver corretamente, e estou preocupado que não estamos seguindo um caminho para chegar lá."
Logo após a saída de Jan Leike, Ilya Sutskever também deixou a OpenAI. Um novo cientista chefe já foi alocado para o projeto, mas como há muita política e muito dinheiro envolvidos em tudo isso não é muito claro em que ponto se situa o esforço sincero da OpenAI para se "autoregular" (e ajudar na regulamentação de outras big techs) no que tange aos controles éticos para a criação de modelos de IA superinteligentes. Vamos ter que esperar para ver o que vem por aí.
Quando a singularidade tecnológica vai acontecer?
No seu famoso livro de 2005 chamado "a singularidade está próxima" (The Singularity Is Near) o renomado engenheiro e cientista da computação da Google Ray Kurzweil fez algumas previsões sobre os avanços da IA:
O cientista previu que:
-
Até 2029 a IA alcançaria a inteligência humana, e passaria no Teste de Turing.
-
Até 2045, será possível conectar nossos cérebros diretamente na nuvem, e os humanos estariam "integrados neuralmente com a IA", o que aumentará nossas capacidades cognitivas de formas que nem sequer podemos imaginar (Kurzweil chamou isso de "singularidade").
Vale destacar que pela forma como Kurzweil entende o termo "singularidade" ele não teme este evento, pelo contrário, ele entende a singularidade mais como uma oportunidade do que como uma ameaça para a raça humana.

Em 2024, Ray Kurzweil lançou um novo livro, chamado "a singularidade está mais próxima" (The Singularity Is Nearer), considerando os avanços da Inteligência Artificial nos últimos anos.
Neste novo livro, as previsões anteriores foram basicamente mantidas. Nesta entrevista, o cientista explica que "a definição de Teste de Turing" não é muito precisa, de modo que alguns cientistas podem entender que a IA já passou no Teste de Turing hoje, com os grandes modelos de linguagem como o GPT-4, ao passo que outros podem entender que isso ainda não aconteceu (ver a próxima seção).
Kurzweil prevê que "até 2029" haverá consenso sobre este tema.
A IA já superou o Teste de Turing com o GPT-4?
O Teste de Turing, proposto por Alan Turing em seu famoso artigo de 1950 (Turing, A. M. (1950). Computing Machinery and Intelligence. Mind, 59(236), 433-460) sugere que uma máquina pode ser considerada inteligente se um interrogador humano não conseguir distinguir entre a máquina e um humano em uma conversa. Tal como previsto por Kurzweil, não há ainda consenso sobre se a IA já ultrapassou ou não (hoje, em 2024) o Teste de Turing.
Para muitos pesquisadores, ao menos até o momento [maio 2024] o modelo de linguagem GPT-4 da OpenAI ainda não superou o Teste de Turing em um sentido absoluto, por várias razões:
-
Limitações em Compreensão Contextual: O GPT-4 pode gerar texto coerente e relevante na maioria dos contextos, mas ainda pode falhar em compreender nuances complexas ou manter coerência em interações longas.
-
Ausência de Intencionalidade: O GPT-4 não possui consciência, intenção ou compreensão genuína. Ele gera respostas baseadas em padrões nos dados em que foi treinado, sem entendimento real.
-
Erros e Inconsistências: Em alguns casos, o GPT-4 pode produzir respostas que são factualmente incorretas ou não fazem sentido, algo que um ser humano geralmente não faria.
-
Detecção de Padrões: Humanos familiarizados com interações com IA podem detectar padrões na linguagem e estrutura das respostas que indicam que estão conversando com uma máquina.
No entendimento de muitos cientistas, embora o GPT-4 seja um modelo de linguagem extremamente avançado e capaz de gerar texto que pode enganar temporariamente um ser humano, especialmente em interações curtas, superar o Teste de Turing requer um nível de compreensão e consciência que as tecnologias atuais ainda não alcançaram. No entanto, o progresso contínuo na área de IA está trazendo os modelos cada vez mais próximos desse objetivo.
POR OUTRO LADO, há pesquisadores como Camaron R. Jones que alegam em um artigo de maio de 2024 que seres humanos já não são capazes de distinguir entre o GPT-4 e um outro ser humano em um Teste de Turing, o que na prática significa que a IA já teria ultrapassado o teste.
Esta é a controvérsia que Ray Kurzweil (ver seção anterior) espera estar resolvida até 2029.
Singularidade - Referências selecionadas
Ashton Jackson
20 Sept, 2023
CHRIS STOKEL-WALKER
JUN 13, 2023