top of page

O temor da Singularidade

2023-06-14_123113.png

A "singularidade" é um ponto hipotético no futuro onde os avanços na inteligência artificial alcançam e ultrapassam a inteligência humana, levando a mudanças imprevisíveis na civilização.. A partir deste instante, os sistemas de IA se tornam capazes de melhorar suas próprias capacidades de forma autônoma e exponencial. A singularidade é considerada potencialmente disruptiva, pois as capacidades e decisões de uma IA superinteligente podem estar além da compreensão e controle humano. O conceito de singularidade foi popularizado por futuristas e cientistas, como Vernor Vinge e Ray Kurzweil. Kurzweil, em particular, previu que a singularidade poderia ocorrer por volta de meados do século 21 (2045). 

"Holy Cow" moment

Em 1997, o computador Deep Blue da IBM venceu o Grande Mestre de xadrez Garry Kasparov. O Deep Blue não era uma “IA”, era um supercomputador da IBM, e executava instruções previamente definidas por programadores. O genial Kasparov fez a acusação de que “haviam programadores humanos jogando”, mas a IBM explicou que as atualizações no programa eram feitas somente no intervalo entre os jogos, e não durante as partidas (onde o computador jogava sozinho).

Dez anos depois disso (2016) a Google DeepMind lançou o AlphaGo, este sim já uma IA, capaz de “aprender” (Machine Learning), que assombrou o mundo ao precisar de apenas 3 dias para vencer o sul coreano campeão mundial de GO, Lee Sedol, depois de aprender as regras (e nada mais!). 

 

Em sua palestra TED Talk, o professor Stuart Russell (um dos pioneiros da inteligência artificial) diz que Sedol teve o que os executivos do Vale do Silício chamam de "Holy Cow moment" ao perceber que a inteligência artificial está progredindo muito mais rápido do que pensávamos

Go

O fato de uma IA vencer os campeões humanos em Go é relevante, dado que o Go é um jogo notoriamente difícil de aprender e com uma variedade incrível de movimentos.  O tabuleiro tem 19 x 19 quadros e permite 10 elevado a 172  movimentos (o número de átomos no Universo observável é 10 elevado a 80).  A rede neural do AphaGo começou a ser treinada no jogo do Go sem qualquer informação adicional além das regras básicas. A rede jogou consigo mesma milhões de vezes e, usando Deep Learning, foi aprendendo com seus próprios erros em cada iteração. Em apenas 70 horas de treino (jogando consigo próprio), o AlphaGo alcançou um nível sobre-humano de performance, fazendo jogadas "nunca antes vistas".  O AlphaGo também joga outros jogos além do Go, como xadrez e shogi.  

Depois de vencer o sul coreano Lee Sedol em 2016 por 4x1 em uma melhor de 5, uma nova versão do AlphaGo derrotou o campeão chinês Ke Jie, na época com 19 anos (jogador profissional desde os 11 anos), e que havia declarado que "jamais seria vencido por um computador no jogo de Go", estabelecendo a supremacia da IA (redes neurais) sobre os humanos nesta tarefa (crédito da Imagem - Photograph: Wu Hong/EPA - reproduzida do The Guardian).

go ke jie.png

PORÉM, é interessante ressaltar que um jogador amador (Kellin Pelrine, um pesquisador) conseguiu vencer o JBXKata005, considerado o melhor programa jogador de GO da atualidade (que é bem melhor que o AlphaGo) - mesmo dando uma vantagem de 9 pedras para o programa - utilizando uma estratégia que o programa não percebeu, mas que um ser humano teria percebidoVeja mais sobre este caso interessante. O ponto deste experimento conduzido pela equipe do Prof. Stuart Russell foi demonstrar que apesar de nos deixarem surpresos com o que consequem fazer, mesmo os mais avançados sistemas de IA como os grandes modelos de linguagem como os que suportam o ChatGPT não possuem uma compreensão real da linguagem ou do mundo (ainda), ou a capacidade de "pensar" com diferentes níveis de abstração, como nós podemos

Veja a seção "A IA já superou o Teste de Turing" mais adiante...

Em quais tarefas a IA já supera os seres humanos?

A inteligência artificial (IA) vem passando por um crescimento acelerado e atingindo um nível de maturidade sem precedentes. O AI Index 2025 da Universidade de Stanford – um relatório anual que analisa dados globais de IA – destaca que sistemas de IA modernos já superam o desempenho humano em diversas tarefas específicas, muitas vezes com folga. Vejamos alguns exemplos.

  • No SWE-bench – um conjunto de desafios de programação – a proporção de problemas resolvidos por IA saltou de apenas 4,4% em 2023 para 71,7% em 2024, ultrapassando amplamente programadores humanos medianos.

  • Em testes padronizados, o modelo GPT-4 da OpenAI obteve resultados equivalentes aos dos 10% melhores candidatos humanos no exame da Ordem dos Advogados dos EUA .

  • De forma semelhante, em competições de matemática de nível olímpico, modelos recentes pela primeira vez ultrapassaram a pontuação de referência humana. Um modelo baseado no GPT-4 (o GPT-4 Turbo) alcançou 84% de acertos no MATH, um teste com mais de 10 mil problemas matemáticos de competição, aproximando-se do nível de um tri-campeão olímpico de matemática (90%)​. Já o AlphaGeometry2 da Google resolveu 88% dos problemas de geometria da Olimpíada Internacional de Matemática (IMO) dos últimos 25 anos, superando a média dos medalhistas de ouro humanos. 

  • O AI Index confirma que em 2023 um modelo da Google (Gemini Ultra) excedeu o baseline humano no benchmark MMLU (Massive Multitask Language Understanding), que contém um conjunto amplo de provas em diversas áreas como humanidades, ciências e matemática​.

  • Outro campo em que a IA demonstrou supremacia é o dos jogos. Em 2016, o AlphaGo (DeepMind/Google) derrotou o campeão mundial de Go, um feito antes considerado distante. Algoritmos de aprendizado por reforço posteriormente conquistaram jogos eletrônicos complexos: em 2019, a agente AlphaStar (DeepMind/Google) atingiu nível Grandmaster em StarCraft II, performando melhor que 99,8% dos jogadores humanos profissionais online. Ainda em 2019, 0 OpenAI Five tornou-se o primeiro sistema a vencer os campeões mundiais no esporte eletrônico Dota 2, demonstrando desempenho sobre-humano em um jogo de estratégia em tempo real de altíssima complexidade. 

  • Em reconhecimento de imagens, algoritmos de visão computacional ultrapassaram a acurácia humana no famoso conjunto de dados (dataset) ImageNet já em 2012. Neste ano, uma rede neural convolucional (CNN - Convolutional Neural Network) chamada AlexNet desenvolvida por Alex Krizhevsky, Ilya Sutskever e Geoffrey Hinton ganhou o desafio ImageNet, um marco muito importante no avanço do Deep Learning.

  • Alguns sistemas de reconhecimento de fala já atingiram taxas de erro comparáveis às de transcrições humanas profissionais.  Lançado em 2022, o OpenAI Whisper é um modelo de reconhecimento de fala treinado em 680 mil horas de dados multilíngues e multimodais. Em testes padrão (como o LibriSpeech), alcança uma taxa de erro de palavra (WER) de 5-10%, dependendo do idioma e da qualidade do áudio. Em ambientes controlados, o Whisper rivaliza com humanos (que têm WER de ~4-8% em transcrições profissionais). Ou seja, embora esses sistemas ainda não sejam perfeitos, seu desempenho já é suficiente para substituir humanos em muitas aplicações (ex: legendagem automática, transcrição médica ou atendimento por voz).

  • Sistemas de tradução de idiomas por IA já são amplamente utilizados em substituição à tradutores humanos, em diferentes contextos (ex. tradução automática de legendas de vídeos), e em diversos idiomas. 

  • A IA já demonstra desempenho comparável ou superior a especialistas humanos em tarefas específicas de diagnóstico por imagem, embora sua adoção clínica ainda exija validação rigorosa e integração cuidadosa. Alguns exemplos notáveis neste domínio são o Google Health (DeepMind), o Projeto Mia (Kheiron Medical), o IDx-DR (primeiro sistema de IA aprovado pelo FDA (2018) para detectar retinopatia diabética, com sensibilidade de 87% e especificidade de 90%, comparável a oftalmologistas), o Viz.ai (primeira IA aprovada pela FDA em 2018 para detectar AVCs em tomografias), o Paige.AI para detecção de câncer de próstata (esta IA detectou adenocarcinoma com 99,3% de sensibilidade, superando patologistas juniores) e muitas outras ferramentas de apoio de diagnóstico que utilizam IA.

  • Virologia - Pesquisadores da SecureBio e do CAIS criaram o Teste de Capacidades em Virologia (VCT), um benchmark com 322 perguntas multimodais que avalia o conhecimento prático de IA em virologia laboratorial. As questões, validadas por doutores na área, foram projetadas para exigir conhecimento tácito, e são “à prova do Google”, ou seja, não são acessíveis por buscas online. Os resultados indicam que a IA já superou especialistas humanos nesse domínio. Embora a IA possa acelerar avanços na prevenção de doenças, também apresenta risco de uso indevido para criação de patógenos perigosos.

Esses exemplos evidenciam que, em domínios restritos, a IA já rivaliza ou supera especialistas humanos de elite​, sobretudo em cenários onde há objetivos bem definidos e muitos dados de treino disponíveis.

A imagem abaixo não é de uma pessoa real. Foi gerada por uma GAN (Generative Adversarial Network) com base na análise de diversos retratos Neste modelo, duas redes neurais competem entre si em um jogo de soma zero Se esta imagem fosse utilizada para criação de um perfil em uma mídia social você seria capaz de detectar que não se trata de uma pessoa real?

2023-06-11_071025.png

"Desligar a IA" é uma opção em caso de perigo?

Será que o medo do que poderá ocorrer quando a IA se tornar superinteligente ou "consciente" seria menor se a gente pudesse sempre “desligar a tomada” (desativar o sistema de IA) se ele nos ameaçar? Na cena clássica de "2001, Uma Odisseia no Espaço" o astronauta Dave conseguiu superar Hal. 

O problema, como explica Stuart Russell, é que não temos garantias de que isso sempre será possível.

hall 9000 1.png

E para os que pensam que isso é bobagem, "coisa de cinema", exageros da mídia sem fundamento científico apenas pelo uso de imagens do "Terminador do Futuro" e do "2001 Uma Odisséia no Espaço", saibam que há ativistas do grupo PauseAI (cuja proposta pode ser visualizada neste website) e outras organizações que estão levando este assunto muito a sério, desde o Future of Live Institute até o bilionário Elon Musk.

As big techs como a OpenAI se preocupam com a "singularidade"?

Bem... a princípio sim, mas com diferentes abordagens, graus de preocupação e níveis de transparência.

OpenAI 

INCIALMENTE, tudo indicava que a OpenAI estava levando este assunto bastante a sério, Vale mencionar que a OpenAI foi fundada explicitamente com a missão de evitar cenários catastróficos ligados à IA superinteligente. Em 5 de Julho de 2023 chegou a formar um time de especialistas altamente qualificados (a equipe de "Superalignment")  liderados por Ilya Sutskever e Jan Leike, prometendo a alocação de 20% dos recursos de computação da empresa para pesquisas sobre "como poderemos lidar com uma IA superinteligente", e chegou inclusive a prometer uma solução para o problema antes de 2030. 

Infelizmente, menos de um ano depois Jan Leike pediu demissão da OpenAI, decepcionado com a limitação de recursos para conduzir suas pesquisas. Os "20% dos recursos de computação da empresa" que foram prometidos simplesmente não foram disponibilizados. Sobre isso, Jan Leike veio a público em maio de 2024 e publicou uma série de posts no X expressando sua preocupação:

"Eu acredito que muito mais do nosso esforço deveria ser direcionado para nos prepararmos para as próximas gerações de modelos, focando em segurança, monitoramento, preparação, segurança, robustez contra adversidades, (super)alinhamento, confidencialidade, impacto social e tópicos relacionados. Esses problemas são bastante difíceis de resolver corretamente, e estou preocupado que não estamos seguindo um caminho para chegar lá."

Jan leike.png

Logo após a saída de Jan Leike, Ilya Sutskever também deixou a OpenAI.  Um novo cientista chefe já foi alocado para o projeto, mas como há muita política e muito dinheiro envolvidos em tudo isso não é muito claro em que ponto se situa o esforço sincero da OpenAI para se "autoregular" (e ajudar na regulamentação de outras big techs) no que tange aos controles éticos para a criação de modelos de IA superinteligentes.

 

Embora a OpenAI continue declarando seu compromisso com a segurança da IA, as ações recentes indicam uma mudança de foco. A dissolução da equipe de Superalignment e a priorização de lançamentos de produtos sugerem que a empresa está mais voltada para o desenvolvimento rápido de tecnologias do que para a mitigação de riscos existenciais.​ Sam Altman reconheceu publicamente a necessidade de mais trabalho em segurança, mas não detalhou planos concretos para abordar essas preocupações.

 

Vamos ter que esperar para ver o que vem por aí.

A propósito.... o que os ex-líderes estão fazendo agora?

Após deixar a OpenAI, Ilya Sutskever fundou a Safe Superintelligence Inc. (SSI), uma startup dedicada exclusivamente ao desenvolvimento seguro de superinteligência artificial. A empresa já levantou US$ 1 bilhão em investimentos e tem escritórios em Palo Alto e Tel Aviv. ​ Jan Leike, por sua vez, juntou-se à Anthropic, uma empresa concorrente fundada por ex-membros da OpenAI, que também foca na segurança e alinhamento de IAs avançadas, e sobre a qual falaremos logo a seguir.

Anthropic 

A Anthropic foi fundada por ex-membros da OpenAI que estavam preocupados justamente com os rumos do desenvolvimento muito acelerado da IA.

  • Publicamente preocupada com riscos existenciais da IA avançada.

  • Trabalha em técnicas de interpretabilidade e alinhamento, tentando tornar os modelos de IA mais previsíveis e seguros.

  • Sua missão inclui evitar cenários perigosos associados à singularidade.

Google DeepMind 

A Google DeepMind é pioneira no desenvolvimento de IA geral (AGI) e no uso de IA para descoberta científica. Em seus relatórios, DeepMind admite a possibilidade de riscos catastróficos, embora adote um tom mais técnico do que alarmista.

Está envolvida em pesquisas sobre “IA segura por design”, inclusive colaboração com governos e instituições.

Microsoft 

A Microsoft é uma investidora estratégica da OpenAI e parceira no desenvolvimento de modelos como o GPT-4. Pelo que entendo, a Microsoft reconhece os riscos da IA, mas tende a focar mais em responsabilidade corporativa e regulamentação do que em “singularidade” em si. Ao menos está envolvida em discussões globais sobre governança de IA.

Meta 

Das Big Techs que desenvolvem IA aqui citadas, a Meta é a que possui a abordagem mais aberta, com forte investimento em IA open-source (como LLaMA). É menos venos vocal em relação à singularidade, mas ainda participa de discussões sobre segurança e alinhamento. Há críticas que apontam que seu foco em velocidade e abertura pode ser um risco se a IA evoluir rápido demais.

Quando a singularidade tecnológica vai acontecer?

No seu famoso livro de 2005 chamado "a singularidade está próxima" (The Singularity Is Near) o renomado engenheiro e cientista da computação da Google Ray Kurzweil fez algumas previsões sobre os avanços da IA:

 

O cientista previu que:

  • Até 2029 a IA alcançaria a inteligência humana, e passaria no Teste de Turing.

  • Até 2045, será possível conectar nossos cérebros diretamente na nuvem, e os humanos estariam "integrados neuralmente com a IA", o que aumentará nossas capacidades cognitivas de formas que nem sequer podemos imaginar (Kurzweil chamou isso de "singularidade"). 

Vale destacar que pela forma como Kurzweil entende o termo "singularidade" ele não teme este evento, pelo contrário, ele entende a singularidade mais como uma oportunidade do que como uma ameaça para a raça humana.

Em 2024, Ray Kurzweil lançou um novo livro, chamado "a singularidade está mais próxima" (The Singularity Is Nearer), considerando os avanços da Inteligência Artificial nos últimos anos.

 

Neste novo livro, as previsões anteriores foram basicamente mantidas. Nesta entrevista, o cientista explica que "a definição de Teste de Turing" não é muito precisa, de modo que alguns cientistas podem entender que a IA já passou no Teste de Turing hoje, com os grandes modelos de linguagem como o GPT-4, ao passo que outros podem entender que isso ainda não aconteceu (ver a próxima seção).

 

Kurzweil prevê que "até 2029" haverá consenso sobre este tema.

No Blog de Dario Amodei, CEO da Anthropic, há uma declaração interessante:

"Making AI that is smarter than almost all humans at almost all things will require millions of chips, tens of billions of dollars (at least), and is most likely to happen in 2026-2027." (Criar uma IA que seja mais inteligente do que quase todos os humanos em quase todas as tarefas exigirá milhões de chips, dezenas de bilhões de dólares (no mínimo) e provavelmente acontecerá entre 2026 e 2027).

Ou seja, o CEO da Anthropic parece acreditar que a singularidade tecnológica (aqui no sentido da IA alcançar a inteligência humana) deve ocorrer antes de 2030, com sistemas de inteligência artificial (IA) superando quase todos os humanos em quase todas as tarefas, o que vai desencadear mudanças rápidas e imprevisíveis na sociedade.  

A IA já superou o Teste de Turing com o GPT-4?

O Teste de Turing, proposto por Alan Turing em seu famoso artigo de 1950 (Turing, A. M. (1950). Computing Machinery and Intelligence. Mind, 59(236), 433-460), avalia se uma máquina pode exibir comportamento inteligente indistinguível do de um ser humano. Em sua versão clássica, envolve uma conversa em linguagem natural entre um humano e uma IA, e se o avaliador não conseguir distinguir entre os dois, a máquina "passou" no teste. 

 

Tal como previsto por Kurzweil, não há ainda consenso sobre se a IA já ultrapassou ou não (hoje, em 2024) o Teste de Turing.

Casos de sucesso controversos:​

  • Chatbots como o GPT-4 e o GPT-4o conseguem manter conversas tão sofisticadas que, em interações curtas, muitos usuários acreditam estar conversando com um humano.

  • Em 2014, o chatbot “Eugene Goostman”, que simulava um garoto ucraniano de 13 anos, foi considerado como tendo passado o teste por enganar 33% dos juízes em um evento da Royal Society.

Para muitos pesquisadores, ao menos até o momento [maio 2024] o modelo de linguagem GPT-4 da OpenAI ainda não superou o Teste de Turing em um sentido absoluto, por várias razões:

Em primeiro lugar, passar no Teste de Turing não implica compreensão, consciência ou raciocínio humano.

A IA pode:

  • Reproduzir padrões de linguagem com alta sofisticação.

  • Enganar interlocutores com respostas plausíveis.

 

Mas ainda carece de entendimento real, intencionalidade ou senso comum genuíno.

  • Limitações em Compreensão Contextual: O GPT-4 pode gerar texto coerente e relevante na maioria dos contextos, mas ainda pode falhar em compreender nuances complexas ou manter coerência em interações longas.

  • Ausência de Intencionalidade: O GPT-4 não possui intenção ou compreensão genuína. Ele gera respostas baseadas em padrões nos dados em que foi treinado, sem entendimento real. A IA moderna opera com padrões estatísticos, não com consciência.

  • Erros e Inconsistências: Em alguns casos, o GPT-4 pode produzir respostas que são factualmente incorretas ou não fazem sentido, algo que um ser humano geralmente não faria.

  • Detecção de Padrões: Humanos familiarizados com interações com IA podem detectar padrões na linguagem e estrutura das respostas que indicam que estão conversando com uma máquina.

 

Além disso, alguns críticos citam limitações do próprio Teste de Turing

Muitos pesquisadores argumentam que o teste é ultrapassado. Alternativas, como o Winograd Schema (teste de compreensão contextual) ou o Lovelace Test 2.0 (criatividade autêntica), são propostas como métricas mais significativas.

Assim,

  • Se considerarmos critérios técnicos restritos: há casos pontuais, mas controversos, em que a IA superou o Teste de Turing.

  • Se considerarmos a essência do teste (consciência ou inteligência humana): a IA ainda está muito distante.

No entendimento de muitos cientistas, embora o GPT-4 seja um modelo de linguagem extremamente avançado e capaz de gerar texto que pode enganar temporariamente um ser humano, especialmente em interações curtas, a IA ainda carece de compreensão e consciência. No entanto, o progresso contínuo na área de IA está trazendo os modelos cada vez mais próximos desse objetivo. Esta é a controvérsia que Ray Kurzweil (ver seção anterior) espera estar resolvida até 2029.

Singularidade (Conclusão)

A maioria das Big Techs envovidas com o desenvolvimento da IA trata a singularidade como uma possibilidade, como um risco teórico, mas suas prioridades são mistas:

  • A OpenAI e a Anthropic parecem mais engajadas em preparar-se para cenários de superinteligência.

  • A Google e Meta equilibram inovação com pesquisas pontuais em segurança.

  • Elon Musk e outros líderes usam a retórica da singularidade para pressionar por regulamentação, mas sem ações práticas consistentes.

Estas empresas de fato investem milhões de dólares em alinhamento de IA, interpretabilidade, governança e cooperação internacional. A maioria concorda que, mesmo que a singularidade seja improvável, sistemas de IA avançados já representam perigos concretos (desinformação, armas autônomas, viés), que demandam atenção imediata.  Porém, há muitas críticas de especialistas que argumentam que a corrida por lucro entre estas grandes empresas pode comprometer o desenvolvimento seguro da IA, e que o debate público precisa ser mais amplo e transparente.

Singularidade - Referências selecionadas

bottom of page