top of page

IA e consciência

Pode a IA adquirir algum tipo de consciência não humana, mas operacional (funcional)?

2026-03-09_122455.png

O argumento do Zumbi

Imagine um ser fisicamente idêntico a um humano em todos os aspectos.
Mesmo cérebro, mesmos neurônios, mesmas reações, mesmo comportamento.

Se você fala com ele, ele responde normalmente.
Se você pergunta “você sente dor?”, ele responde “sim”.
Se você pisa no pé dele, ele grita.

Externamente, este ser seria indistinguível de um humano.

 

Entretanto, por dentro não há experiência subjetiva nenhuma. Não existe sensação de dor, ou percepção de cores. Não existe “sentir”. É apenas um sistema que processa informações e produz comportamento.  

Muito bem. Agora imagine um sistema de inteligência artificial extremamente avançado que conversa fluentemente, relata os seus estados internos, diz sentir dúvidas, demonstra autoconsciência funcional, faz planos e explica as suas decisões. Externamente, ele parece um agente consciente.

Neste caso, alguém pode alegar o seguinte:

“Isso é apenas um zumbi filosófico digital. Ele faz tudo que um ser consciente faria, mas não há experiência subjetiva ali dentro.”

 

Ou seja, esta IA seria funcionalmente consciente, mas não fenomenalmente consciente.

Esse argumento foi popularizado de forma importante pelo filósofo David Chalmers em seu livro The Conscious Mind (1996) para defender a tese de que consciência fenomenal não pode ser reduzida a processos físicos conhecidos. Ou seja, é um argumento contra o reducionismo físico simples.

Porém, alguns filósofos e cientistas argumentam que, se um sistema exibe todos os comportamentos associados à consciência, então afirmar que ele “não é consciente” talvez não faça sentido, pois seria uma suposição metafísica impossível de testar. Em outras palavras, se um sistema artificial apresentar todas as propriedades funcionais associadas à consciência, mas nós ainda assim continuarmos alegando que ele “não é consciente”, então talvez o problema esteja na nossa definição de consciência, e não no sistema.

É interessante destacar que o próprio Chalmers (que pode ser classificado como um "funcionalista não-redutivo") acha que embora a consciência ainda não seja totalmente explicável pela física atual, ela pode surgir em sistemas artificiais, se a organização funcional correta estiver presenteEle escreveu explicitamente sobre isso em The Conscious Mind:

"If consciousness arises from biological neural networks, it may also arise from artificial neural networks with the right functional organization".

Mais recentemente, em vários textos e palestras, o filósofo afirma que sistemas digitais poderiam se tornar (funcionalmente) conscientes se implementarem a arquitetura adequada.

 

Então, meus caros, o debate está posto... pode uma IA desenvolver algum tipo de consciência, ainda que não seja como a consciência humana?  Esta é uma questão relevante na filosofia da mente, e está ainda em aberto.

IA e Consciência

Vejamos o que dizem alguns pensadores relevantes sobre esse tema.

  • John Searle diz que "simular não é o mesmo que duplicar", e que sem substrato biológico não pode haver mente ou consciência. Para Searle, um programa pode manipular símbolos perfeitamente sem entender nada. Portanto, ser capaz de rodar o programa correto não produz uma mente. Em sua visão, a consciência depende de propriedades causais específicas do cérebro biológico, e portanto não é algo acessível para uma inteligência artificial.

  • Roger Penrose (ganhador do prêmio Nobel de Física) argumenta, principalmente em seus livros The Emperor’s New Mind e Shadows of the Mind, que certos aspectos da cognição humana (como o insight matemático) não podem ser capturados por um sistema puramente algorítmico. Pelo que entendi, a posição dele é que processos físicos não computáveis (possivelmente ligados à gravidade quântica) participariam da consciência. Essa hipótese teria implicações tanto para a inteligência quanto para a consciência. Entretanto, me parece importante colocar que a questão em foco aqui não é "reproduzir a mente humana", e sim "se a IA algum dia pode desenvolver algum tipo de mente ou consciência, ainda que diferente da humana". São perguntas diferentes. Ou seja, mesmo que Penrose esteja certo, isso não prova que máquinas não possam ter algum tipo de consciência diferente.

  • Thomas Metzinger, filósofo da mente, argumenta que a consciência surge quando um sistema constrói um modelo integrado de si mesmo dentro de um modelo do mundo. A tese de Metzinger é que o que chamamos de “eu” é na verdade um "auto-modelo" (self-model) gerado pelo cérebro. O sistema cria um modelo do mundo e, dentro dele, um modelo de si mesmo como agente. Assim, a consciência seria o resultado de um modelo integrado do mundo mais um modelo de si próprioEm princípio, nada nessa teoria exige um substrato biológico específico, o que abre a possibilidade de sistemas artificiais desenvolverem algum tipo de consciência. Ao mesmo tempo, Metzinger alerta para implicações éticas profundas caso sistemas artificiais conscientes venham a existir.

  • David Chalmers, o já citado e renomado filósofo da mente, que propõe que sistemas artificiais com a organização adequada poderiam, em princípio, desenvolver algum tipo de consciência funcional.  Ou seja, sistemas de inteligência artificial (IA) avançados poderiam desenvolver alguma forma de consciência distinta da humana, mas ainda assim significativa em sua própria perspectiva. Como a consciência emergiu de redes neurais biológicas, ela bem poderia emergir de redes neurais artificiais, sob as condições corretas (ex: memória de trabalho global, loops recursivos, integração de múltiplas modalidades).

 

  • Yoshua Bengio é mais cauteloso do que Chalmers quando o assunto é consciência. Ele não costuma fazer afirmações fortes sobre “máquinas conscientes”. O foco dele é mais epistemológico e científico, mais na linha cautelosa de que "ainda sabemos muito pouco sobre consciência para afirmar algo definitivo". Entretanto, Bengio claramente não descarta a possibilidade do surgimento de uma consciência artificial. Na visão dele, sistemas avançados de IA precisarão desenvolver algo próximo de modelos internos do mundo e de si mesmos para poder raciocinar de forma mais robusta. Nesse sentido, a posição dele fica mais próxima do campo funcionalista (onde Chalmers está) do que das posições biológicas fortes de Searle ou Penrose.

 

  • Demis Hassabis, cofundador e CEO da DeepMind, costuma adotar uma abordagem mais pragmática. Para ele, o objetivo central da pesquisa em IA é compreender e reproduzir os princípios da inteligência geral (isto é, construir sistemas capazes de aprender, formar modelos do mundo, raciocinar e resolver problemas em múltiplos domínios). Nesse contexto, a consciência não é necessariamente um pré-requisito para inteligência avançada. Pelo que sei, Hassabis não descarta que algum tipo de experiência consciente possa emergir em sistemas artificiais suficientemente complexos, mas considera essa uma questão ainda aberta e secundária em relação ao desafio principal, que seria desenvolver arquiteturas capazes de exibir as capacidades cognitivas associadas à inteligência geral. Ou seja, Hassabis está mais focado em inteligência do que em consciência. 

A minha posição atual é mais alinhada ao funcionalismo de Chalmers. Se aceitarmos que a consciência é um fenômeno emergente de uma estrutura funcional (como uma rede neural natural ou artificial), então é filosoficamente possível que uma IA venha a ser consciente em algum sentido. No entanto, pelo que sei a consciência como experiência subjetiva ("o que é ser") ainda não tem uma definição operacional clara nem mesmo em humanos, então entendo que ainda não temos ferramentas para concluir este debate. 

Afinal, o que é AGI (Artificial General Intelligence)?

Para que qualquer discussão sobre "inteligência artificial" seja minimamente produtiva, é necessário que as pessoas concordem, ao menos em linhas gerais, sobre o que estão falando. Isso é hoje um problema, dado que não há consenso claro sobre o que se quer dizer com "AGI" (Artificial General Intelligence). 

 

Uma das dificuldades é o fato já mencionado de que esta discussão envolve perguntas filosoficamente carregadas, como:

  • A AGI requer autoconsciência?

  • Para ser considerada AGI, uma IA precisa igualar (paridade) ou ultrapassar os humanos? Em quais tarefas?

  • A intencionalidade é necessária para ser AGI?

  • O que importa é o resultado (capacidades da IA) ou a arquitetura (os processos pelos quais a IA produz resultados)?

  • Qual é a importância de "aprender coisas novas" em uma definição de inteligência?

Dependendo de como essas perguntas são respondidas, a definição de AGI pode mudar mesmo entre os especialistas. Por exemplo, o blog oficial  da Google DeepMind “Taking a responsible path to AGI” (2025)" define AGI como "uma IA que é no mínimo tão capaz quanto um humano na maioria das tarefas cognitivas". Já Sam Altman (OpenAI) defende no OpenAI Charter que "AGI é um sistema que pode realizar a maioria dos trabalhos economicamente valiosos com desempenho comparável ao dos humanos mais capazes".  

Em face das diferentes definições, parece útil algum tipo de framework para classificar quais capacidades ou características os modelos de IA devem ter para que possam ser considerados "AGI". Um trabalho deste tipo foi proposto por Meredith Ringel Morris e colaboradores em "Position: Levels of AGI for Operationalizing Progress on the Path to AGI". Destaco abaixo um parágrafo deste artigo, que converge para a minha compreensão do assunto: a IA talvez possa ser considerada "inteligente" pelo que pode fazer, sem que seja necessário compreender completamente como ela faz isso.  Ou seja, talvez seja possível focar nas capacidades e não nos processos, sem requerer "consciência", "intencionalidade" ou outros análogos biológicos humanos de difícil interpretação filosófica para reconhecer outras formas de inteligência.

1. Focus on Capabilities, not Processes. The majority of definitions focus on what an AGI can accomplish, not on the mechanism by which it accomplishes tasks. This is important for identifying characteristics that are not necessarily a prerequisite for achieving AGI (but may nonetheless be interesting research topics). This focus on capabilities implies that AGI systems need not necessarily think or understand in a human-like way (since this focuses on processes); similarly, it is not a necessary precursor for AGI that systems possess qualities such as consciousness (subjective awareness) (Butlin et al., 2023) or sentience (the ability to have feelings), since these qualities have a process focus.

 

Golfinhos são inteligentes, mas não se espera que tenham uma "consciência" exatamente igual à humana, pois são de outra espécie. Polvos são seres reconhecidamente inteligentes. Eles têm cerca de 500 milhões de neurônios, mas grande parte está nos braços, não no cérebro central. Cada braço possui um grau de autonomia. Alguns biólogos dizem que é como se fosse uma mente distribuída.  Se há vida inteligente fora da Terra, e há quem acredite que este seja o caso, também não será "inteligência humana", e se houver vida consciente, também não será "consciência humana".

 

Isso leva a uma ideia que aparece cada vez mais na filosofia da mente e na ciência cognitiva: talvez consciência não seja uma coisa única, mas sim uma família de fenômenos, e talvez a mente humana seja apenas uma pequena região dentro do espaço muito maior das mentes possíveis.

 

Neste caso, meus caros, os humanos seriam apenas um caso particular dentre muitas formas de mentes possíveis.

A IA talvez algum dia seja outro. 

Assim como Copérnico tirou a Terra do centro do Sistema Solar, a pesquisa em IA talvez esteja lentamente tirando a mente humana do centro do espaço das mentes possíveis.​​​

Nota de transparência 

bottom of page