Se você ensina um papagaio a dizer 'Estou com fome', o papagaio realmente sente a barriga a roncar, ou está apenas a repetir os sons que ouviu antes?

Esta pergunta simples está no centro de um dos enigmas mais famosos da filosofia. Em 1980, um filósofo chamado John Searle criou um experimento mental chamado Sala Chinesa para explorar a diferença entre uma máquina que parece inteligente e uma pessoa que realmente tem consciência.

Imagine que você está sentado numa sala pequena e silenciosa. Não há janelas, apenas uma porta de madeira pesada com duas fendas estreitas: uma para o correio entrar e outra para o correio sair.

Você está sozinho nesta sala e não fala nem lê uma única palavra de chinês. Para você, os caracteres chineses parecem padrões de tinta bonitos e complicados, mas não têm mais significado do que os veios numa bancada de mármore.

Imagine isso
Uma ilustração de uma sala cheia de pequenas gavetas de madeira e um livro grande.

Imagine que a sala está cheia de milhares de gavetas. Cada gaveta contém um único caractere chinês num cartão. Você tem que correr de gaveta em gaveta, pegando nos cartões e arrumando-os na ordem que o livro de regras lhe diz. Dá muito trabalho, mas você ainda não sabe o que está a 'escrever'!

Dentro da sala com você, há um livro enorme e empoeirado. Este livro está cheio de instruções escritas em português, que você entende perfeitamente.

As instruções são muito específicas: "Se você vir um pedaço de papel com o símbolo em forma de casa, encontre o papel com o símbolo em forma de linha ondulada e empurre-o pela fenda de saída."

O Mensageiro Secreto

Lá fora, uma pessoa que realmente fala chinês escreve uma pergunta num pedaço de papel. Ela desliza esse papel pela fenda de entrada.

Você pega no papel, olha para os símbolos e folheia o seu livro de regras gigante. Encontra os padrões correspondentes e segue as instruções exatamente como estão escritas.

John Searle

O computador tem uma sintaxe, mas nenhuma semântica.

John Searle

Searle disse isto para explicar que os computadores são ótimos a seguir a 'gramática' ou as regras de uma linguagem, mas perdem completamente o 'significado' do que estão a fazer.

Você escolhe uma resposta de uma pilha de papéis e desliza-a de volta pela porta. Lá fora, a pessoa lê a sua resposta e sorri.

Para ela, você parece um interlocutor brilhante que entende chinês perfeitamente. Mas dentro da sala, você está apenas a combinar formas sem ter ideia do que está a ser dito.

Símbolos Versus Significado

John Searle usou esta história para falar sobre Inteligência Artificial, ou IA. Ele queria mostrar que os computadores são exatamente como a pessoa naquela sala.

Um computador usa um conjunto de regras chamado algoritmo para processar informações. Ele recebe a sintaxe, que é a disposição dos símbolos ou do código, mas não tem a semântica, que é o significado real por trás desses símbolos.

Finn

Finn says:

"Espera, então se eu seguir uma receita para fazer um bolo, mas não souber o que é 'farinha' ou 'açúcar', sou como a pessoa na sala? O bolo ainda fica bom, mas estou só a seguir instruções!"

Pense em quando você joga um videogame. O computador sabe que, se você pressionar o botão 'saltar', o personagem na tela deve subir.

Mas o computador sabe como é 'saltar'? Ele sabe por que o personagem precisa alcançar a plataforma, ou apenas segue a regra 'Se-Então' que você programou nele?

Tente isso

Peça a um pai ou amigo para ser o seu 'Computador'. Dê-lhes um pedaço de papel com um código: A=Desenhe um círculo, B=Desenhe um quadrado, C=Desenhe uma linha. Depois, dê-lhes um 'programa' como: 'A, C, B.' Eles devem segui-lo sem saber o que estão a desenhar. Eles 'entenderam' que estavam a desenhar um boneco palito?

O Fantasma na Máquina

Antes de John Searle inventar a sua sala, outro pensador famoso chamado Alan Turing tinha uma ideia diferente. Ele criou algo chamado Teste de Turing em 1950.

Turing acreditava que se uma máquina pudesse ter uma conversa tão bem que você não conseguisse dizer se era um humano ou um computador, então deveríamos dizer que a máquina está a "pensar".

Alan Turing

Um computador mereceria ser chamado de inteligente se pudesse enganar um humano fazendo-o acreditar que é humano.

Alan Turing

Turing foi um pioneiro da ciência da computação que acreditava que, se não conseguimos distinguir uma máquina de um humano durante uma conversa, a máquina está efetivamente a pensar.

Searle discordava do teste de Turing. Ele achava que 'fingir ser' não era o mesmo que 'ser'.

Ele argumentou que, mesmo que um computador pudesse imitar perfeitamente um cérebro humano, continuaria a ser apenas um conjunto de interruptores e fios. Não teria uma vida interior, nem um sentido de experiência subjetiva, que é a sensação de ser "eu".

O Grande Debate: A Resposta do Sistema

Quando Searle publicou a sua ideia, outros filósofos responderam rapidamente. Um dos contra-argumentos mais famosos é chamado Resposta do Sistema.

Estes pensadores concordaram que a pessoa na sala não entende chinês. No entanto, argumentaram que o sistema inteiro — a pessoa, a sala, o livro de regras e os papéis — juntos entendem chinês.

Dois lados
Searle Acreditava

Entender é algo que apenas mentes vivas e conscientes podem fazer. As máquinas estão apenas a fingir.

A Resposta do Sistema

Entender é apenas uma forma complexa de processar informação. Se um sistema for complexo o suficiente, ele entende.

Imagine o seu próprio cérebro por um momento. Uma única célula cerebral, ou neurónio, não sabe quem você é.

Não se lembra do seu aniversário nem sabe a sua cor favorita. Apenas envia pequenos sinais elétricos. Mas quando biliões dessas células trabalham juntas, "você" acontece.

Mira

Mira says:

"Eu acho que a 'Resposta do Sistema' faz sentido. A minha mão não sabe escrever uma história, mas o meu corpo todo sabe. Talvez a sala seja mais inteligente do que a pessoa lá dentro."

Através das Eras

A questão de saber se as máquinas podem pensar existe há muito mais tempo do que os computadores modernos. Mesmo há centenas de anos, as pessoas se perguntavam se os brinquedos mecânicos poderiam ter almas.

A Busca por Máquinas Pensantes

1843
Ada Lovelace escreve o primeiro programa de computador e argumenta que as máquinas só podem fazer o que lhes é ordenado.
1950
Alan Turing propõe o Teste de Turing: se você não conseguir distinguir um computador de um humano, ele está a 'pensar.'
1980
John Searle cria a Sala Chinesa para mostrar que fingir não é o mesmo que entender.
1997
O Deep Blue, um computador, vence o campeão mundial de xadrez. Ele segue as regras perfeitamente, mas não 'sabe' que está a jogar um jogo.
Hoje
A IA moderna fala connosco todos os dias, tornando a questão de Searle mais importante do que nunca.

No século XIX, uma matemática chamada Ada Lovelace trabalhou nos primeiros projetos de um computador de propósito geral. Ela era uma visionária que percebeu que as máquinas podiam fazer mais do que apenas matemática.

Ada Lovelace

A Máquina Analítica não tem qualquer pretensão de originar algo. Ela pode fazer tudo o que soubermos ordenar que ela faça.

Ada Lovelace

Escrevendo em 1843, Lovelace foi a primeira a apontar que as máquinas não têm vontade própria; elas são limitadas pelas instruções que lhes damos.

A ideia de Lovelace era muito semelhante à de Searle. Ela acreditava que as máquinas só podiam fazer o que nós lhes dizemos para fazer. Elas poderiam compor música ou resolver quebra-cabeças, mas não teriam os seus próprios pensamentos ou sentimentos originais.

Chatbots e o Futuro

Hoje, usamos IA todos os dias. Você pode falar com um assistente inteligente na sua cozinha ou usar um chatbot para ajudar nos seus trabalhos de casa.

Estes programas modernos são muito mais complicados do que o livro de regras na sala de Searle. Eles usam redes neurais para aprender com milhões de exemplos, fazendo com que pareçam mais humanos do que nunca.

Você sabia?
Uma ilustração de uma pessoa a trabalhar como 'computador' humano.

A palavra 'Computador' costumava ser um cargo para pessoas! Antes de termos máquinas eletrónicas, os 'computadores' eram pessoas (muitas vezes mulheres) que se sentavam em salas e faziam longos cálculos matemáticos à mão, seguindo regras estritas, tal como o homem na Sala Chinesa.

Quando um chatbot conta uma piada, ele está a rir por dentro? Ou está apenas a calcular quais palavras geralmente se seguem para fazer um humano rir?

Searle diria que, não importa o quão rápido o computador fique, ele ainda é apenas o homem na sala. Ele ainda está apenas a combinar símbolos e a seguir uma lista de instruções muito longa e muito rápida.

Finn

Finn says:

"Se um robô diz que é meu amigo, isso importa se ele não o 'sente'? Se ele age como um amigo, isso não é o suficiente? Isto está a ficar muito esquisito."

O Mistério de Você

Este experimento mental faz-nos olhar para nós mesmos também. Se somos apenas um "sistema" de células a seguir regras biológicas, por que é que se sente tão diferente ser nós do que ser uma calculadora?

Os filósofos chamam a isto o Problema Difícil da Consciência. Sabemos como o cérebro funciona fisicamente, mas não sabemos por que temos sentimentos, sonhos e um sentido de maravilhamento.

Você sabia?

O experimento mental de Searle é um desafio para a 'IA Forte'. IA Forte é a ideia de que um computador poderá um dia ter uma mente exatamente como a nossa. IA 'Fraca' é o que temos agora: computadores que são ótimos em tarefas específicas, como jogar xadrez ou sugerir filmes.

Talvez um dia construamos uma máquina que realmente entenda. Ou talvez haja algo especial sobre os seres vivos que o código nunca consiga copiar.

Algo para Pensar

Se um robô pudesse sentir dor, mas fosse apenas porque o seu código dizia 'se for tocado com força, diga ai', isso é o mesmo que você sentir o dedo do pé batido?

Esta é uma grande questão sem uma resposta 'correta'. Os filósofos ainda debatem isto hoje! O que você acha que torna um sentimento 'real'?

Perguntas sobre Filosofia

A Sala Chinesa significa que a IA é má?
De modo nenhum! Searle não estava a dizer que a IA é inútil. Ele estava apenas a dizer que não devemos confundir uma máquina muito inteligente com uma pessoa consciente que tem sentimentos e compreensão real.
Existe uma maneira de provar que algo é consciente?
Este é, na verdade, um dos maiores mistérios da ciência. Não conseguimos 'ver' a consciência com um microscópio. Só sabemos que somos conscientes nós próprios e presumimos que outras pessoas o são porque são parecidas connosco.
Os computadores vão alguma vez 'entender' de verdade?
Alguns cientistas acham que, se construirmos um computador que funcione exatamente como um cérebro humano, ele poderá tornar-se consciente. Outros, como Searle, acreditam que o código é simplesmente diferente da biologia e nunca irá realmente 'entender' nada.

A Sala com a Porta Aberta

A Sala Chinesa não nos dá uma resposta final, mas dá-nos uma maneira melhor de fazer a pergunta. À medida que a tecnologia fica mais rápida e inteligente, temos de continuar a perguntarmo-nos o que é que nos torna humanos. É a nossa capacidade de seguir regras, ou a faísca de significado que encontramos dentro delas? Continue à procura do significado por trás dos símbolos na sua própria vida!