Como a “metafísica experimental” desafia os limites da ciência

Publicado originalmente na Quanta Magazine, uma publicação editorial independente apoiada pela Simons Foundation. Leia o conteúdo original em ‘Metaphysical Experiments’ probe our hidden assumptions about reality. Tradução para o português de Renato Prelorentzou para o Estadão.


A metafísica é o ramo da filosofia que lida com os fundamentos e a estrutura da realidade: a natureza do espaço, do tempo, da causalidade e da existência. Em geral, é considerada não testável, uma vez que as suposições metafísicas são a base de todos os nossos esforços para fazer experimentos e interpretar resultados. Essas suposições geralmente passam despercebidas.

Na maioria das vezes, isso não chega a ser um problema. As intuições que temos sobre a maneira como o mundo funciona raramente entram em conflito com nossa experiência cotidiana. Em velocidades muito mais lentas do que a da luz ou em escalas muito maiores do que a quântica, podemos, por exemplo, presumir que os objetos têm características definidas e independentes de nossas medições, que todos nós compartilhamos um espaço e um tempo universais, que um fato para um de nós é um fato para todos nós. Enquanto nossa filosofia funciona, ela espreita em segundo plano, sem ser detectada, levando-nos a acreditar erroneamente que a ciência é algo separável da metafísica.

Mas nos confins inexplorados da experiência – altas velocidades e escalas minúsculas – essas intuições deixam de nos servir, impossibilitando que se faça ciência sem confrontarmos nossas suposições filosóficas. De repente, nos encontramos em um lugar onde não se pode mais distinguir ciência e filosofia com alguma clareza. Um lugar, de acordo com o físico brasileiro Eric Cavalcanti, chamado de “metafísica experimental”.

Cavalcanti está carregando a tocha de uma tradição que se estende por uma longa linhagem de pensadores rebeldes que resistiram às linhas divisórias usuais entre a física e a filosofia. Na metafísica experimental, as ferramentas da ciência podem ser usadas para testar nossas visões filosóficas do mundo – que, por sua vez, podem ser usadas para entender melhor a ciência. Cavalcanti, brasileiro de 46 anos que é professor da Griffith University em Brisbane, Austrália, e seus colegas publicaram o resultado mais forte já alcançado na metafísica experimental, um teorema que impõe restrições rigorosas e surpreendentes à natureza da realidade. Eles agora estão projetando experimentos inteligentes, embora controversos, para testar nossas suposições não apenas sobre a física, mas também sobre a mente.

Embora possamos esperar que a injeção da filosofia na ciência resulte em algo menos científico, Cavalcanti diz que a verdade é o oposto. “Em certo sentido, o conhecimento que obtemos por meio da metafísica experimental é mais seguro e mais científico”, disse ele, porque examina não apenas nossas hipóteses científicas, mas também as premissas que geralmente ficam ocultas.

A linha divisória entre ciência e filosofia nunca foi clara. Muitas vezes, é traçada ao longo da “testabilidade”. Diz-se que qualquer ciência que mereça esse nome é vulnerável a testes que possam refutá-la. Já a filosofia busca verdades imaculadas que pairam em algum lugar além do alcance sujo dos experimentos. Enquanto essa distinção estiver em jogo, os físicos acreditarão que podem continuar com a bagunça da “ciência real” e deixar os filósofos nas poltronas deles.

Acontece que a distinção de “testabilidade” não se sustenta. Os filósofos há muito tempo sabem que é impossível provar uma hipótese. Não importa quantos cisnes brancos você veja, o próximo pode ser preto. É por isso que Karl Popper disse que uma afirmação só é científica se for falseável: se não conseguirmos prová-la, poderemos pelo menos tentar refutá-la. Mas, em 1906, o físico francês Pierre Duhem demonstrou que é impossível refutar uma hipótese única. Segundo ele, cada parte da ciência está presa a uma malha emaranhada de suposições. Essas suposições são acerca de tudo, desde as leis físicas subjacentes até o funcionamento de dispositivos de medição específicos. Se o resultado de seu experimento parecer refutar sua hipótese, sempre será possível explicar os dados ajustando uma de suas suposições e deixando a hipótese intacta.

Tomemos, por exemplo, a geometria do espaço-tempo. O filósofo Immanuel Kant declarou no século 18 que as propriedades do espaço e do tempo não são questões empíricas. Ele acreditava não apenas que a geometria do espaço era necessariamente euclidiana – o que significa que os ângulos internos de um triângulo somam 180 graus –, mas que esse fato deveria ser “a base de qualquer metafísica futura”. De acordo com Kant, esse fato não era testável empiricamente, pois fornecia a própria estrutura dentro da qual entendemos como nossos testes funcionam. E, ainda assim, em 1919, quando astrônomos mediram o caminho da luz de estrelas distantes que contornavam a influência gravitacional do sol, eles descobriram que a geometria do espaço, no fim das contas, não era euclidiana: era distorcida pela gravidade, como Albert Einstein tinha previsto pouco antes.

Mas será isso mesmo? O polímata francês Henri Poincaré propôs um intrigante experimento mental. Imagine que o universo é um disco gigante que está em conformidade com a geometria euclidiana, mas cujas leis físicas incluem o seguinte: o disco é mais quente no meio e mais frio na borda, com a temperatura caindo em proporção ao quadrado da distância do centro. Além disso, esse universo apresenta um índice de refração – uma medida de como os raios de luz se curvam – que é inversamente proporcional à temperatura. Nesse universo, as réguas e os bastões jamais seriam retos (objetos sólidos se expandiriam e encolheriam com o gradiente de temperatura), enquanto o índice de refração faria com que os raios de luz parecessem viajar em curvas, em vez de linhas. Como resultado, qualquer tentativa de medir a geometria do espaço – por exemplo, somando os ângulos de um triângulo – levaria a crer que o espaço não era euclidiano.

Qualquer teste de geometria exige que você pressuponha certas leis da física. E qualquer teste das leis da física exige que você pressuponha a geometria. Sem dúvida, as leis físicas do mundo do disco parecem ad hoc. Mas os axiomas de Euclides também. “Poincaré, na minha opinião, está certo”, disse Einstein em uma palestra no ano de 1921. Ele acrescentou: “Somente a soma da geometria e das leis físicas está sujeita à verificação experimental”. Como disse o lógico americano Willard V. O. Quine, “a unidade de significado empírico” – o que é de fato testável – “é toda a ciência”. A mais simples das observações (que o céu é azul, por exemplo, ou que há uma partícula ali) nos força a questionar tudo o que sabemos sobre o funcionamento do universo.

Mas, na verdade, é pior do que isso. A unidade de significado empírico é uma combinação de ciência e filosofia. O pensador que viu isso mais claramente foi Ferdinand Gonseth, matemático suíço do século 20. Para Gonseth, a ciência e a metafísica estão sempre conversando entre si, com a metafísica fornecendo os fundamentos sobre os quais a ciência opera, a ciência fornecendo evidências que forçam a metafísica a revisar esses fundamentos, e as duas juntas se adaptando e mudando feito um organismo vivo. Como ele disse em um simpósio em homenagem a Einstein, “a ciência e a filosofia formam um todo único”.

Com as duas atadas em nó górdio, podemos sentir a tentação de desistir, uma vez que não conseguimos colocar as afirmações científicas à prova sem arrastar as afirmações metafísicas junto com elas. Mas essa história tem um outro lado: tudo isso significa que a metafísica é testável. É por isso que Cavalcanti, que trabalha nos limites do conhecimento quântico, não se refere a si mesmo como físico ou filósofo, mas sim como “metafísico experimental”.

Conversei com Cavalcanti por chamada de vídeo. Ele tinha um ar pensativo, seu comportamento sério e zeloso contrastando com um cachorrinho de quinze semanas que se contorcia no seu colo. Ele me contou que, como estudante de graduação no Brasil no final da década de 1990, trabalhou com biofísica experimental – “umas coisas bem melecadas”, como ele descreveu, “tirar corações de coelhos e colocá-los debaixo de magnetômetros supercondutores”. Embora ele tenha passado para um território mais limpinho (“trabalhando com aceleradores de partículas, estudando colisões atômicas”), sua pesquisa ainda estava longe das questões metafísicas que já ocupavam sua mente. “Me disseram que as questões mais interessantes dos fundamentos da mecânica quântica tinham sido resolvidas por Bohr em seus debates com Einstein”, disse. Então, ele só media mais uma seção transversal, produzia mais um artigo e fazia tudo de novo no dia seguinte.

Ele acabou trabalhando na Comissão Nacional de Energia Nuclear do Brasil e foi lá que leu os livros dos físicos Roger Penrose e David Deutsch, cada um oferecendo uma história metafísica radicalmente diferente para explicar os fatos da mecânica quântica. Deveríamos abandonar a suposição filosófica de que existe apenas um universo, como sugeriu Deutsch? Ou, como preferiu Penrose, talvez a teoria quântica deixe de ser aplicada em grandes escalas, quando a gravidade entra em ação. “Ali estavam dois físicos brilhantes não apenas discutindo diretamente questões sobre fundamentos, mas discordando profundamente um do outro”, disse Cavalcanti. Penrose, acrescentou ele, “foi além da física e entrou no que é tradicionalmente metafísico, fazendo perguntas sobre a consciência”.

Inspirado, Cavalcanti decidiu fazer um doutorado em fundamentos quânticos e conseguiu uma vaga na Universidade de Queensland, na Austrália. Sua tese começava assim: “Para entender a origem dos conflitos dos fundamentos quânticos, é essencial saber onde e como nossas intuições e modelos clássicos começam a falhar na descrição de um mundo quântico. Este é o tema da metafísica experimental”. Um professor fechou a tese e declarou: “Isto não é física”.

Mas Cavalcanti estava preparado para argumentar que a linha entre a física e a filosofia já havia se apagado, irreparavelmente. Na década de 1960, o físico norte-irlandês John Stewart Bell também havia se deparado com uma cultura da física que não tinha paciência para a filosofia. Os dias em que Einstein e Bohr discutiam sobre a natureza da realidade – e nisso se envolviam profundamente com a filosofia – estavam no passado distante. A praticidade do pós-guerra reinava, e os físicos estavam ansiosos para seguir com os negócios da física, como se o nó górdio tivesse sido cortado, como se fosse possível ignorar a metafísica e ainda assim conseguir fazer ciência. Mas Bell, fazendo um trabalho herético no seu tempo livre, descobriu uma nova possibilidade: embora seja verdade que não é possível testar uma hipótese única isoladamente, é possível pegar várias suposições metafísicas e ver se elas se sustentam ou caem juntas.

Para Bell, essas suposições normalmente são entendidas como localidade (a crença de que as coisas não podem influenciar umas às outras instantaneamente através do espaço) e realismo (que existe uma maneira de as coisas simplesmente serem, independentemente da medição). Seu teorema, publicado em 1964, provou o que é conhecido como desigualdade de Bell: para qualquer teoria que opere sob as premissas de localidade e realismo, há um limite máximo de correlação entre determinados eventos. A mecânica quântica, porém, previa correlações que ultrapassavam esse limite superior.

Da forma como foi escrito, o teorema de Bell não era testável, mas em 1969 o físico e filósofo Abner Shimony percebeu que poderia reescrevê-lo sob uma forma mais adequada para os laboratórios. Juntamente com John Clauser, Michael Horne e Richard Holt, Shimony transformou a desigualdade de Bell na desigualdade CHSH (nomeada com as iniciais de seus autores) e, em 1972, em um porão da Universidade de Berkeley, na Califórnia, Clauser e seu colaborador Stuart Freedman a testaram medindo as correlações entre pares de fótons.

Os resultados demonstraram que o mundo confirmava as previsões da mecânica quântica, apresentando correlações que permaneciam muito mais fortes do que a desigualdade de Bell permitia. Isso significa que a localidade e o realismo não podem ser ambas características da realidade – embora os experimentos não tenham conseguido dizer qual dos dois deveríamos abandonar. “Na minha opinião, o mais fascinante dos teoremas do tipo de Bell é que eles oferecem uma rara oportunidade para um empreendimento que pode ser chamado apropriadamente de ‘metafísica experimental’”, escreveu Shimony em 1980, na declaração que, segundo muitos, cunhou o termo.

O termo, contudo, remonta a um personagem bem improvável. Michele Besso, melhor amigo de Einstein e sua caixa de ressonância, foi a única pessoa a quem Einstein deu crédito por tê-lo ajudado a criar a teoria da relatividade. Mas Besso ajudou menos com a física do que com a filosofia. Einstein sempre foi um realista: acreditava em uma realidade independente de nossas observações. Mas Besso lhe apresentou os escritos filosóficos de Ernst Mach, que argumentava que uma teoria deveria se referir apenas a quantidades mensuráveis. Mach, por meio de Besso, encorajou Einstein a desistir de suas noções metafísicas de espaço, tempo e movimento absolutos. O resultado foi a teoria especial da relatividade.

Quando de sua publicação, em 1905, os físicos não sabiam ao certo se a teoria era física ou filosófica. Todas as equações já haviam sido escritas por outros; apenas a metafísica por trás delas era nova. Mas essa metafísica foi suficiente para levar a uma nova ciência, pois a relatividade especial abriu caminho para a relatividade geral, uma nova teoria da gravidade, com previsões novas e testáveis e tudo. Mais tarde, Besso fez amizade com Gonseth. Na Suíça, os dois faziam longas caminhadas nas quais Gonseth argumentava que a física jamais poderia se assentar em bases sólidas, pois os experimentos sempre podem derrubar as suposições mais básicas sobre as quais ela foi construída. Em uma carta que Gonseth publicou na edição de 1948 da revista Dialectica, Besso sugeriu que Gonseth se referia ao seu trabalho como “metafísica experimental”.

A metafísica experimental ganhou uma espécie de sede oficial na década de 1970 com a fundação da Associação Ferdinand Gonseth, em Bienne, na Suíça. “A ciência e a filosofia formam um corpo só”, declarou a ata de fundação, “e tudo o que acontece na ciência, seja em seus métodos ou em seus resultados, pode ressoar na filosofia até mesmo em seus princípios mais fundamentais”. Foi uma declaração radical, igualmente chocante tanto para a ciência quanto para a filosofia. A associação publicava um boletim caseiro chamado Cartas Epistemológicas, uma espécie de “zine” de física, com páginas datilografadas e mimeografadas, salpicadas de equações desenhadas à mão, que era enviado pelo correio para cerca de cem físicos e filósofos que formavam uma nova contracultura – os poucos rebeldes que queriam discutir a metafísica experimental. Shimony era o editor.

O teorema de Bell sempre esteve no centro dessas discussões, pois, se as pesquisas em física deixavam a metafísica passar despercebida, no trabalho de Bell as duas eram verdadeira e explicitamente inseparáveis. O teorema não se referia a nenhuma teoria específica da física. Era o que os físicos chamam de teorema no-go, ou teorema de impossibilidade, uma prova geral que demonstra que qualquer teoria que opere sob as suposições metafísicas de localidade e realismo não pode descrever o mundo em que vivemos. Você quer um mundo que seja apenas de uma determinada maneira, mesmo quando não está sendo medido? Mas você quer também localidade? Impossível. Ou, como disse Shimony nas Cartas Epistemológicas, fazendo um trocadilho com o nome de Bell, quem deseja ter essa visão de mundo “deve se lembrar do sermão de Donne: ‘E, portanto, não procures saber por quem os sinos [bells] dobram; eles dobram por ti’”.

“Bell era tanto físico quanto filósofo da física”, disse Wayne Myrvold, filósofo da física da Western University, no Canadá. “E em alguns de seus melhores artigos, ele basicamente combinava as duas coisas”. Isso incomodava os editores das revistas tradicionais de física e outros guardiões da ciência. “Esse tipo de trabalho definitivamente não era visto como respeitável”, disse Cavalcanti.

Por isso, quando o físico francês Alain Aspect procurou Bell sugerindo um novo experimento que pudesse testar a desigualdade de Bell e, ao mesmo tempo, excluir qualquer influência residual que se propagasse entre os dispositivos de medição usados para detectar as polarizações dos fótons, Bell lhe perguntou se ele tinha um cargo permanente no corpo docente. “A preocupação era que a realização desse experimento fosse a morte para a carreira de um jovem físico”, disse Myrvold.

Corta para 2022, e lá está Aspect, juntamente com Clauser e Anton Zeilinger, indo receber o Prêmio Nobel em Estocolmo. Essas correlações que violam a desigualdade de Bell, no fim das contas, levaram a tecnologias revolucionárias, como criptografia quântica, computação quântica e teletransporte quântico. “Apesar do retorno tecnológico”, disse Myrvold, “o trabalho foi motivado por questões filosóficas”. De acordo com a declaração do Prêmio Nobel, os três físicos ganharam pelo “pioneirismo na ciência da informação quântica”. Para Cavalcanti, eles ganharam pela metafísica experimental.

Na esteira dos experimentos que violavam as desigualdades de tipo Bell, várias visões da realidade continuaram em discussão. Você poderia ficar com o realismo e abrir mão da localidade, aceitando que o que acontece em um canto do universo afeta instantaneamente o que acontece em outro e que, portanto, a relatividade precisa ser modificada. Ou você poderia ficar com a localidade e abrir mão do realismo, aceitando que as coisas no universo não têm características definidas antes de serem medidas – em outras palavras, que a natureza, em algum sentido profundo, inventa as coisas na hora. Mas, mesmo que você abrisse mão de uma realidade pré-medição, ainda poderia se agarrar a uma realidade pós-medição. Ou seja, você poderia pegar todos esses resultados de medição e juntá-los em uma única realidade compartilhada. Normalmente, é isso que queremos dizer com “realidade”. É a própria noção de um mundo objetivo.

Um experimento mental apresentado em 1961 lança dúvidas sobre essa possibilidade. Eugene Wigner, físico ganhador do Prêmio Nobel, propôs um cenário no qual um observador, chamado de “amigo de Wigner”, entra em um laboratório onde há um sistema quântico – digamos, um elétron em sobreposição quântica de dois estados chamados “spin para cima” e “spin para baixo”. O amigo mede o spin do elétron e descobre que ele está para cima. Mas Wigner, do lado de fora, pode usar a mecânica quântica para descrever todo o estado do laboratório, onde, desde sua perspectiva, não se fez nenhuma medição. O estado do amigo e o estado do elétron são meramente correlacionados – emaranhados – enquanto o elétron permanece em uma sobreposição de estados. Em princípio, Wigner pode até fazer uma medição que mostrará os efeitos físicos da sobreposição. Da perspectiva do amigo, o elétron tem algum estado pós-medição, mas isso não parece fazer parte da realidade de Wigner.

Em 2018, essa dúvida incômoda sobre uma realidade compartilhada virou um dilema profundo. Časlav Brukner, físico da Universidade de Viena, percebeu que poderia combinar o amigo de Wigner com um experimento de tipo Bell para provar um novo teorema de impossibilidade. A ideia era ter dois amigos e dois Wigners: cada um dos amigos mede metade de um sistema emaranhado e, em seguida, cada um dos Wigners faz uma das duas medições possíveis no laboratório de seu amigo. Os resultados das medições dos Wigners serão correlacionados, assim como as polarizações dos fótons nos experimentos originais de tipo Bell, com certas suposições metafísicas impondo limites superiores à força dessas correlações.

No fim das contas, a prova de Brukner se baseava em uma suposição extra que enfraquecia a força do teorema resultante, mas inspirou Cavalcanti e seus colegas a criarem sua própria versão. Em 2020, na revista Nature Physics, eles publicaram “A Strong No-Go Theorem on the Wigner’s Friend Paradox” [algo como “Um teorema de impossibilidade forte sobre o paradoxo do amigo de Wigner”, em tradução direta], que provava duas coisas. Primeiro, que a metafísica experimental, antes relegada a zines caseiros, agora é digna de revistas científicas de prestígio. Segundo, que a realidade é ainda mais estranha do que o teorema de Bell sugeria.

Seu teorema de impossibilidade mostrou que, se as previsões da mecânica quântica estiverem corretas, as três suposições a seguir não podem ser todas verdadeiras: localidade (nada de ação esquisita à distância), liberdade de escolha (nada de conspiração cósmica que leve você a configurar seus detectores de modo que os resultados pareçam violar a desigualdade de Bell, embora não violem) e o caráter absoluto dos eventos observados (um elétron com spin para cima para o amigo de Wigner é um elétron com spin para cima para todo mundo). Se você quiser interações locais e um cosmo livre de conspirações, terá de desistir da noção de que um resultado de medição para um observador é um resultado de medição para todos. O mais interessante, disse Cavalcanti, é que seu teorema de impossibilidade “restringe o espaço de possíveis teorias metafísicas de forma mais rigorosa do que o teorema de Bell”.

“É um avanço considerável”, disse Brukner. “É o teorema no-go mais preciso e mais forte”. Ou seja, é a peça mais poderosa da metafísica experimental até agora. “A força desses teoremas de impossibilidade se encontra exatamente no fato de que eles não testam uma teoria específica, mas sim uma visão de mundo. Quando os testamos e demonstramos violações de certas desigualdades, não rejeitamos uma teoria, mas toda uma classe de teorias. É uma coisa muito poderosa. E nos permite entender o que é possível”.

Brukner lamenta que as implicações da metafísica experimental ainda não tenham sido totalmente incorporadas ao restante da física em geral – sobretudo em detrimento da pesquisa sobre a natureza quântica da gravidade. “É realmente lamentável, porque acabamos com imagens erradas de, por exemplo, como é o vácuo ou o que acontece dentro do buraco negro, onde eles são descritos sem qualquer referência aos modos de observação”, disse ele. “Não acho que faremos progressos significativos nesses campos até que realmente trabalhemos muito na teoria da medição”.

Não está claro se a metafísica experimental poderá nos levar à teoria correta da gravidade quântica, mas ela poderia, pelo menos, reduzir o campo de jogo. “Tem uma história, não sei se é verdadeira, mas é boa”, escreveu Cavalcanti em um artigo de 2021, “segundo a qual Michelangelo, quando lhe perguntaram como ele esculpira Davi, disse: ‘Eu só removi tudo o que não era Davi’. Gosto de pensar na paisagem metafísica como o bloco de mármore bruto – com diferentes pontos do bloco correspondendo a diferentes teorias físicas – e na metafísica experimental como um cinzel para esculpir o mármore, eliminando os cantos que não descrevem o mundo de nossa experiência. Pode ser que não consigamos reduzir o bloco a um único ponto, que corresponda à única e verdadeira ‘teoria de tudo’. Mas podemos ter a esperança de que, depois de removermos todos os pedaços que a experiência nos permite, o resto formará um belo todo”.

Enquanto falava com Cavalcanti, tentei entender qual interpretação da mecânica quântica ele adotava, sentindo quais suposições metafísicas ele esperava manter e quais estava disposto a jogar fora. Ele concordava com a interpretação bohmiana da mecânica quântica, que troca localidade por realismo? Ele era um “bayesianista quântico”, sem necessidade do caráter absoluto dos eventos observados? Ele acreditava nas conspirações cósmicas dos superdeterministas, que atribuem todas as medições correlacionadas no universo atual a um plano-mestre estabelecido no início dos tempos? E quanto a medições gerando realidades paralelas, como na hipótese dos muitos mundos? Cavalcanti ficou firme na cara de pôquer de verdadeiro filósofo – e não respondeu. (O cachorrinho, enquanto isso, estava travando um cabo de guerra contra o tapete). Mas eu peguei uma deixa. Qualquer que seja sua interpretação preferida, Cavalcanti quer que ela toque no mistério da mente: o que é consciência ou o que é um observador consciente? “Ainda acho que este é o mistério mais profundo”, disse ele. “Não acho que nenhuma das interpretações disponíveis chegue de fato à história certa”.

Em seu artigo de 2020 na Nature Physics, Cavalcanti e colegas relataram os resultados do que chamaram de “versão de prova de princípio” de seu experimento Bell-Amigo-de-Wigner, que demonstrou uma clara violação de desigualdades derivadas das suposições conjuntas de localidade, liberdade de escolha e caráter absoluto dos eventos observados. Mas o experimento é inerentemente complicado, porque algo – ou alguém – tem de fazer o papel de observador. Na versão de prova de princípio, os “amigos” de Wigner eram interpretados por caminhos de fótons, enquanto os detectores de fótons faziam o papel dos Wigners. Mas é difícil dizer se algo tão simples quanto um caminho de fótons pode fazer as vezes de observador.

“Se você acha que qualquer sistema físico pode ser considerado um observador, então o experimento já foi feito”, disse Cavalcanti. “Mas a maioria dos físicos vai pensar, não, eu não caio nessa. Então, quais são os próximos passos? Até onde podemos ir?” Uma molécula é um observador? Uma ameba? Wigner poderia ser amigo de um figo? Ou de uma árvore?

Se o amigo tem que ser humano, é difícil exagerar como seria difícil medir um deles em uma sobreposição, que é exatamente o que os Wigners do experimento precisam fazer. Já é difícil manter um único átomo em sobreposição. Sustentar os estados sobrepostos de um átomo significa isolá-lo de praticamente todas as interações – até mesmo interações com o ar – o que significa armazená-lo a apenas um fio de cabelo acima do zero absoluto. O ser humano adulto médio, além de precisar de ar, é feito de cerca de 30 trilhões de células, cada uma com cerca de 100 trilhões de átomos. A tecnologia, as habilidades motoras finas e a ética questionável de que um Wigner precisaria para fazer sua medição seriam demais para a imaginação de qualquer físico – ou qualquer conselho institucional de revisão por pares. “Nem sempre se diz que esse experimento [hipotético] é um ato violento”, disse Myrvold. “Ele basicamente envolve destruir a pessoa e depois reanimá-la”. Boa sorte para conseguir o financiamento.

Brukner, por exemplo, se pergunta se a medição não é apenas difícil, mas impossível. “Suspeito que, se colocarmos tudo no papel, veremos que os recursos necessários para Wigner fazer essa medição vão muito além do que está disponível no universo”, disse ele. “Talvez em alguma teoria mais fundamental, essas limitações venham a fazer parte da teoria, e essa questão vai ficar sem sentido”. Isso seria uma reviravolta e tanto para a metafísica experimental. Talvez nossos insights mais profundos sobre a natureza da realidade venham quando percebermos o que não é testável.

Mas Cavalcanti não perde a esperança. Talvez nunca consigamos executar o experimento com um ser humano, diz ele, mas por que não um algoritmo de inteligência artificial? Em seu trabalho mais recente, junto com o físico Howard Wiseman e a matemática Eleanor Rieffel, ele argumenta que o amigo poderia ser um algoritmo de IA em execução em um imenso computador quântico, realizando um experimento simulado em um laboratório simulado. “Em algum momento”, argumenta Cavalcanti, “teremos uma inteligência artificial que será essencialmente indistinguível dos humanos no que diz respeito às habilidades cognitivas” e seremos capazes de testar sua desigualdade de uma vez por todas.

Mas essa suposição tem suas controvérsias. Alguns filósofos da mente acreditam na possibilidade de uma IA forte, mas certamente não todos. Pensadores do que é conhecido como cognição corporificada, por exemplo, argumentam contra a noção de uma mente sem corpo. Já a abordagem enativa à cognição só admite mentes em criaturas vivas.

Tudo isso deixa a física em uma posição estranha. Só poderemos saber se a natureza viola a desigualdade de Cavalcanti – ou seja, só poderemos saber se a objetividade em si está no bloco de mármore bruto da metafísica – quando definirmos o que pode ser um observador. E descobrir isso envolve física, ciência cognitiva e filosofia. O espaço radical da metafísica experimental se expande para entrelaçar todas as três. Parafraseando Gonseth, talvez eles formem um todo único.

Efeito Dunning–Kruger: a confiança da incompetência

Reflexão de Aires Almeida.

Numa passagem do seu ensaio “O triunfo da estupidez”, de 1933, o filósofo britânico Bertrand Russell afirmou algo que tem sido bastante citado: “A causa principal da dificuldade que enfrentamos é que, no mundo moderno, os estúpidos estão cheios de certezas, ao passo que os inteligentes estão cheios de dúvidas”.

Esta é uma afirmação de carácter empírico, certamente baseada no que o filósofo vinha observando à sua volta. Poderia, no entanto, não passar de uma impressão enganadora. Mas, graças às experiências entretanto levadas a cabo pelos psicólogos sociais americanos David Dunning e Justin Kruger, sabemos agora que Russell não estava errado. Além de um filósofo de primeira linha, parece que Russell foi também um observador perspicaz. 

A intuição de Russell é a de que aqueles que se mostram mais convictos na defesa de certas ideias (ou seja, os que gritam mais alto e de forma mais convicta) tendem a sobrevalorizar a sua competência na matéria em causa. É precisamente o facto de ignorarem os limites da sua ignorância que os leva a sobrevalorizar o pouco que sabem, julgando ser muito. Ou seja, precisariam de ser suficientemente competentes para reconhecerem a sua incompetência. Pelo contrário, aqueles que conhecem muito bem um dado assunto já são suficientemente competentes para admitirem os seus limites, o que os leva a ser mais cautelosos nas suas afirmações.

Isso é precisamente o que mostra o chamado efeito Dunning-Kruger, um viés cognitivo que leva as pessoas com competências medianas a confiar demasiado no seu desempenho, autoavaliando-o de modo favorável, ao passo que as pessoas com competências acima da média tendem a avaliar mais severamente o seu desempenho, como se pode ver no gráfico elaborado a partir das experiências realizadas por aqueles dois psicólogos.

Isto permite explicar a confiança de algumas pessoas ao insistirem convictamente em meia-dúzia de ideias, acreditando que isso basta para vencerem qualquer debate. E explica, por outro lado, o facto de muitas pessoas que conhecem com profundidade um dado assunto se sentirem frequentemente frustradas — ou mesmo derrotadas — ao debater com quem tem um conhecimento mediano do mesmo.

Veja também: Um quarto dos britânicos acredita que pode se classificar para as Olimpíadas de 2028 e Se você treinasse, teria vaga em Los Angeles 2028? 27% dos britânicos acham que sim!

Atletas nus e lutas até a morte: o que de fato acontecia nas Olimpíadas antigas

O primeiro vencedor registrado nas Olimpíadas foi Coroebus de Élis. Cozinheiro de profissão, Coroebus venceu o evento chamado “stadion”, uma corrida a pé de pouco menos de 200 metros, realizada em linha reta. Coroebus foi vitorioso no ano 776 a.C., mas esse provavelmente não foi o ano dos primeiros jogos olímpicos. Alguns escritores antigos, como o historiador Aristodemus de Élis (que viveu no século 2 d.C. ou antes), acreditavam que ocorreram até 27 competições olímpicas antes de 776 a.C., mas os resultados nunca foram registrados porque as pessoas antes daquela época não se preocupavam com isso.

Os jogos eram realizados a cada quatro anos em Olímpia, começavam em meados de agosto e faziam parte de um festival religioso dedicado a Zeus. Os vencedores ganhavam uma coroa de oliveiras silvestres. Ao contrário de hoje, não havia prêmios para o segundo ou terceiro colocado. O atleta Íccus de Tarento, que viveu no século 5 a.C. e obteve a vitória no pentatlo nas Olimpíadas de 476 a.C., disse que para ele “os prêmios significavam glória, prestígio e admiração durante a vida e um nome honrado após a morte”. Nos primórdios das Olimpíadas, havia apenas um evento (o “stadion”) e um vencedor. Com o passar dos séculos, outros eventos foram acrescentados, como corridas de carruagem, luta livre, corrida de longa distância e boxe. O imperador romano Nero (37-68 d.C.) até “introduziu uma competição musical em Olímpia”, segundo o biógrafo Suetônio (séculos 1 e 2 d.C.).

A primeira mulher a conquistar uma vitória olímpica foi Cinisca, filha do rei Arquídamo II de Esparta. Ela recebeu o prêmio porque os cavalos que treinou venceram a corrida de bigas no ano de 396 a.C., como escreveu Pausânias (século 2 d.C.): “Cinisca tinha uma ambição excessiva de ter sucesso nos jogos olímpicos e foi a primeira mulher a criar cavalos e a primeira a conquistar uma vitória olímpica. Depois de Cinisca, outras mulheres conquistaram vitórias olímpicas, mas nenhuma delas se destacou mais por suas vitórias do que ela.”

Mas competir nos jogos podia ser perigoso. Sêneca (50 a.C. a 40 d.C.) descreve como um pai perdeu os dois filhos no “pancrácio”, um tipo de esporte de combate que era uma mistura violenta de boxe e luta livre: “Um homem treinou seus dois filhos como pancracistas e os apresentou para competir nos jogos olímpicos. Eles foram colocados em pares para lutar um contra o outro. Os jovens foram mortos juntos e tiveram honras divinas decretadas para eles.”

As pessoas viajavam de longe para ver os atletas competindo nos famosos jogos. O retórico Menandro (séculos 3 e 4 d.C.) disse sobre os jogos olímpicos: “a viagem até lá é muito difícil, mas mesmo assim as pessoas se arriscam”. Em 44 a.C., o estadista romano Cícero (106-43 a.C.) escreveu uma carta para seu amigo Ático sobre o planejamento de uma viagem à Grécia para ver os jogos: “Gostaria de saber a data dos jogos olímpicos […] é claro que, como você diz, o plano da minha viagem dependerá do acaso.” Cícero nunca chegou a ir às Olimpíadas: foi interrompido por outros negócios. Se ele tivesse ido, a viagem teria envolvido uma travessia marítima da Itália para a Grécia e, em seguida, um passeio de carruagem até Olímpia. Uma vez em Olímpia, os viajantes se hospedavam em casas de hospedagem com outros viajantes. Lá, eles se misturavam com estranhos e faziam novos amigos.

Há uma história famosa sobre o que aconteceu quando o filósofo Platão (428-348 a.C.) se hospedou em Olímpia para assistir aos jogos. Platão cinviveu lá com outras pessoas que não sabiam que ele era o célebre filósofo e causou uma boa impressão nelas, como o escritor romano Cláudio Eliano (séculos 2 e 3 d.C.) lembrou: “Os estranhos ficaram encantados com o encontro casual […] ele se comportou com modéstia e simplicidade e provou ser capaz de conquistar a confiança de qualquer pessoa em sua companhia.” Mais tarde, Platão convidou seus novos amigos para irem a Atenas e eles ficaram surpresos ao descobrir que ele era de fato o famoso filósofo que foi aluno de Sócrates.

Não se sabe ao certo quantas pessoas realmente visitavam os jogos antigos a cada vez que eram realizados, embora alguns estudiosos modernos acreditem que o número poderia ter chegado a 50 mil em alguns anos. O escritor grego Caritão (século 1 d.C.), em seu romance Calírroe escreveu como os atletas – que muitas vezes também fizeram uma longa jornada para chegar aos jogos – chegavam a Olímpia “com uma escolta de seus apoiadores”.

Os atletas competiam nus e, em geral, não era permitido que as mulheres assistissem. Mas havia algumas exceções. Por exemplo, uma mulher chamada Pherenice, que viveu no século 4 a.C., tinha permissão para assistir às Olimpíadas como espectadora. Como Cláudio Eliano explica: “Pherenice levou seu filho ao festival olímpico para competir. Os oficiais que presidiam o evento se recusaram a admiti-la como espectadora, mas ela falou em público e justificou seu pedido ressaltando que seu pai e três irmãos eram vencedores olímpicos e que ela estava trazendo um filho que era um competidor. Ela conquistou a assembleia e participou do festival olímpico.”

Como a competição era realizada no meio do verão, geralmente era extremamente quente. De acordo com Cláudio Eliano, algumas pessoas pensavam que assistir às Olimpíadas sob “o calor escaldante do sol” era uma “penalidade muito mais severa” do que ter de fazer trabalhos manuais, como moer grãos. O local em Olímpia também tinha problemas com o abastecimento de água doce. De acordo com o escritor Luciano de Samósata (século 2 d.C.), os visitantes dos jogos às vezes morriam de sede. Esse problema foi resolvido quando Herodes Ático construiu um aqueduto para o local em meados do século 2 d.C.

A atmosfera da multidão era eletrizante. O general e político ateniense Temístocles (século 6/5 a.C.) aparentemente disse que o momento mais agradável de sua vida foi “ver o público em Olímpia se virando para me olhar quando eu entrava no estádio”. Eles o elogiaram quando ele visitou os jogos em Olímpia por causa de sua recente vitória contra os persas na batalha de Salamina (480 a.C.).

Quando os jogos terminavam, os atletas vencedores voltavam para casa e recebiam as boas-vindas de um herói. De acordo com Cláudio Eliano, quando o atleta Dioxipo (século 4 a.C.) retornou a Atenas depois de ser vitorioso no pancrácio em Olímpia, “uma multidão se reuniu de todas as direções” na cidade para celebrá-lo. O historiador romano Veleio Patérculo (nascido em 20/19 a.C.) chamou os jogos olímpicos de “a mais celebrada de todas as competições esportivas”.

As pesquisas atuais sugerem que os jogos antigos provavelmente terminaram no reinado do imperador romano Teodósio II (reinou de 408 a 450 d.C.). Pode ter havido uma série de motivos para o fim, mas algumas fontes antigas especificamente dizem que foi causado por um incêndio que destruiu o templo de Zeus em Olímpia durante o reinado de Teodósio II: “Depois que o templo de Zeus Olímpico foi incendiado, o festival de Élis e a competição olímpica foram abandonados”. As Olimpíadas não foram retomadas até 1896, o ano das primeiras Olimpíadas modernas.

Fonte: The Conversation.

7 passos infalíveis para emburrecer seu aluno pelo exercício da redação

Lista elaborada pela professora de língua portuguesa e latim Amanda Stella.

  1. Proponha um tema que ele não entende. Nada de observação da realidade, leitura aprofundada ou estudo das ideias. Escolha um assunto que ele nem teria capacidade de compreender — tipo geopolítica, sistema prisional ou bioética. Ah, ele tem 13 anos? Perfeito! Vai dar um show de superficialidade com base nos dois textinhos de apoio e uma aula de 40 minutos.
  2. Exija que ele escreva como um especialista. Não importa se é só a opinião dele, o importante é parecer científico. Basta trocar o “eu acho” por “sabe-se que”, e pronto: temos uma tese! Quanto mais impessoal parecer, mais profissional será o texto. Autenticidade é um risco desnecessário.
  3. Ensine-o a usar palavras difíceis que ele não conhece. Nada valoriza mais uma redação do que um “não obstante” mal colocado. Incentive o uso de termos rebuscados, ainda que desalinhados com o contexto. Quanto mais artificial soar, mais inteligente parecerá.
  4. Elimine qualquer traço de pensamento autônomo. O que seu aluno pensa não tem valor, a menos que um sociólogo ou pedagogo já tenha escrito algo parecido em um trabalho acadêmico. Reproduza suas ideias. Cite, cite, cite.
  5. Redação boa é aquela que segue o modelo. Introdução, dois parágrafos de desenvolvimento e uma proposta de intervenção. Sempre. Não importa se a ideia é original, se o texto flui bem ou se o argumento cresce. E, porlo amor da banca!, nunca leia os grandes autores. Eles não servem de referência aqui.
  6. Resolva problemas complexos com frases prontas. Ofereça soluções genéricas para dilemas históricos. Use “mais investimento em educação” ou “campanhas de conscientização”. Se funcionou na redação nota mil do ano passado, vai funcionar na sua também.
  7. E cuidado: pense o que quiser, mas não escreva o que pensa. A redação exige compromisso com o politicamente correto. Desvie da cartilha ideológica e prepare-se para a punição! Nada de qualidade argumentativa. O que importa é a conformidade. Pronto. Agora você tem um aluno aprovado, que jamais estenderá o que está fazendo. Boa sorte!

Nostalgia, os velhos tempos e a melhor década de todas

Como você define os bons velhos tempos? Os especialistas da YouGov perguntaram a 2.000 adultos americanos qual década tinha a melhor e a pior música, filmes, economia e assim por diante, em 20 critérios. Mas nenhum padrão consistente surgiu. Então, olharam para os dados de outra forma, medindo a diferença entre o ano de nascimento de cada pessoa e sua “década ideal”. A consistência do padrão resultante mostra que os americanos sentem nostalgia não de uma época específica, mas de uma idade específica. Os bons velhos tempos em que a América era “grande” não são os anos 1950. Eles são qualquer década em que você era adolescente. As comunidades mais unidas eram as da nossa infância, de 4 a 7 anos. As famílias mais felizes, a sociedade mais moral e as reportagens mais confiáveis vieram em nossos primeiros anos de formação, dos 8 aos 11 anos. A melhor economia, assim como o melhor rádio, televisão e cinema, aconteceu no início da adolescência, de 12 a 15 anos. Atividades um pouco mais gastas, como moda, música e eventos esportivos, atingiram o pico no final da adolescência, de 16 a 19 anos. Em outras palavras, eles descobriram que você sempre vai preferir as músicas do final da adolescência.

O YouGov não perguntou apenas sobre a melhor música e a melhor economia. Os pesquisadores também perguntaram sobre a pior música e a pior economia. Mas, quase sem exceção, se você perguntar a um americano quando os tempos foram piores, a resposta mais comum será “agora mesmo”. Isso vale até quando “agora” claramente (e objetivamente) não é a resposta certa. Por exemplo, quando perguntamos qual década teve a pior economia, a resposta mais comum é hoje. A Grande Depressão – quando, durante grande parte de uma década, o desemprego superou o que vimos no pior mês de paralisações pandêmicas – vem em um segundo lugar relutante. O pesquisador de marketing Bill Page disse que, ao perguntar amplamente quando música, esportes ou crime eram piores, em vez de obter classificações para anos ou itens específicos, o YouGov obteve respostas para uma pergunta que eles não fizeram. “Quando você pergunta sobre o ‘pior’, você não está pedindo uma opinião real, você está perguntando: ‘Você é predisposto a pensar que as coisas pioram?'”, disse Page.

O YouGov realmente mediu o que os acadêmicos chamam de “declinismo”. Os declinistas acreditam que o mundo continua piorando. Muitas vezes é o resultado natural de uma retrospecção, ou a ideia de que tudo parece melhor na memória do que na época. Isso pode acontecer em parte porque lembrar as partes boas do passado pode nos ajudar em tempos difíceis. É um fenômeno bem estabelecido na psicologia, articulado por Leigh Thompson, Terence Mitchell e seus colaboradores em um conjunto de análises. Eles descobriram que, quando solicitados a avaliar uma viagem no meio das férias, muitas vezes soamos desapontados. Mas depois que chegamos em casa – quando a bagagem perdida foi encontrada e as moscas mordedoras pararam de coçar – estamos tão positivos sobre a viagem quanto estávamos na fase inicial de planejamento. Às vezes até mais.

Com informações de: The Washington Post

O autotratamento malsucedido de um caso de bloqueio criativo

The Unsuccessful Self-Treatment of a Case of Writer’s Block” é um artigo científico bem-humorado do psicólogo americano Dennis Upper sobre o chamado “bloqueio do escritor” ou bloqueio criativo. Publicado em 1974 em um periódico revisado por pares, o Journal of Applied Behavior Analysis, ele é reconhecido como o artigo acadêmico mais curto de todos os tempos, e um exemplo clássico de humor na ciência. Isso porque o artigo não contém conteúdo, exceto um título, elementos de formatação da revista e uma nota de rodapé bem-humorada.

O artigo recebeu uma crítica positiva bem-humorada de um dos revisores, que foi publicada junto com o artigo: “Estudei este manuscrito com muito cuidado com suco de limão e raios-X e não detectei uma única falha no design ou no estilo de escrita. Sugiro que seja publicado sem revisão. Claramente, é o manuscrito mais conciso que já vi – mas contém detalhes suficientes para permitir que outros investigadores repliquem o fracasso do Dr. Upper. Em comparação com os outros manuscritos que recebo de vocês contendo todos esses detalhes complicados, este foi um prazer examinar. Certamente podemos encontrar um lugar para este artigo na Revista – talvez à beira de uma página em branco.”

O artigo já foi citado mais de 100 vezes e levou a pelo menos cinco estudos de replicação publicados igualmente bem-humorados e revisados por pares, além de ter sido “agraciado” com o prêmio IgNobel. Mais do que isso, o artigo é um caso que reforça a imagem do bloqueio de um escritor como uma “página em branco”, e incentiva a concisão na escrita. Também tem sido usado como um exemplo de que o humor pode realmente ser encontrado em publicações acadêmicas.

Daniel Dennett: “Por que nossa civilização é mais frágil do que imaginávamos?”

Artigo de Tom Chatfield, escritor e filósofo da tecnologia britânico, para a BBC.

Uma das mentes mais brilhantes e proféticas do último meio século, o filósofo americano Daniel Dennett morreu no último dia 19 de abril, aos 82 anos. Ao longo da vida, se atreveu a enfrentar algumas das maiores questões sobre a mente e a consciência humana. Dennett publicou mais de uma dezena de livros e deixou contribuições importantes em campos que variam da ciência cognitiva e da filosofia da mente até a teoria da evolução.

Em dezembro de 2023, conversei com ele sobre o seu livro de memórias I’ve Been Thinking (“Andei pensando”, em tradução livre), e também sobre sua vida e seu trabalho. Ele ainda estava envolvido apaixonadamente nas questões da verdade, cognição e possibilidades da tecnologia que o fascinaram pela primeira vez quando era estudante de doutorado na Universidade de Oxford, no Reino Unido, nos anos 1960. E ainda tinha disposição para embates em defesa do pensamento rigoroso.

Nossa conversa se concentrou especificamente nos graves riscos representados pela inteligência artificial. Seu alerta não era sobre uma superinteligência que iria assumir o controle de tudo. Sua preocupação era com outra ameaça, que ele acreditava que poderia ser uma questão existencial para a civilização, enraizada nas vulnerabilidades da natureza humana: “Se transformarmos essa tecnologia maravilhosa que temos para o conhecimento em uma arma de desinformação, estaremos em profundos problemas. Porque nós não saberemos o que sabemos, não saberemos em quem confiar e não saberemos se estamos bem ou mal informados. Podemos ficar paranoicos e hipercéticos, ou simplesmente apáticos e paralisados. São dois caminhos muito perigosos. E estão à nossa volta.”

Para compreender os argumentos de Dennett sobre a IA e o que fez dele um pensador tão profundo e original, é preciso examinar um dos seus estudos acadêmicos mais incomuns. Em 1978, ele publicou Where Am I? (“Onde estou?”, em tradução livre), um conto de ficção científica que apresentava seu próprio cérebro em uma cuba. “Vários anos atrás”, começa a história, “recebi a visita de autoridades do Pentágono que me pediram para ser voluntário em uma missão secreta e altamente perigosa.” No conto, devido a um acidente durante um projeto secreto de pesquisa, uma broca com uma ogiva atômica ficou presa a 1,6 km no subsolo, embaixo da cidade de Tulsa, no Estado americano de Oklahoma. E o Pentágono precisava dele para ajudar a recuperá-la. Ou, mais precisamente, do seu corpo.

Para evitar que o aparelho emitisse radiação prejudicial aos neurônios (lembrando que a plausibilidade não é necessariamente uma característica da ficção científica filosófica), o seu cérebro seria retirado cirurgicamente e conectado ao corpo por transceptores de rádio. Ele poderia então controlá-lo remotamente, sem se expor a riscos. A questão por trás da maravilhosa fantasia de Dennett era a seguinte: considerando que o procedimento tivesse sucesso e o seu cérebro continuasse a controlar seu corpo e receber informações pelos seus órgãos sensoriais, onde estaria Daniel Dennett? Na história, ele imagina seu corpo andando pela sala onde seu cérebro flutua dentro de uma cuba reforçada. Ele se senta em seguida e fica olhando para o cérebro. A cena foi recriada na televisão em 1988, em um documentário do diretor holandês Piet Hoenderdos. Nele, Dennett interpretou a si próprio – e com gosto, diga-se. Certamente, este é um dos poucos estudos acadêmicos que mereceram esse tipo de adaptação.

“Bem, aqui estou, sentado em uma cadeira dobrável, admirando meu próprio cérebro através de um pedaço de vidro”, disse Dennett, estupefato. “Mas espere… eu não deveria estar pensando ‘aqui estou eu, suspenso em um fluido borbulhante, sendo observado pelos meus próprios olhos’?” Este último pensamento é ainda mais difícil de se defender do que o primeiro. A ideia decorrente é que é impossível saber com certeza onde “eu” estou – ou mesmo o que significa a palavra “aqui” – puramente com base na experiência pessoal. “Como eu sabia o que queria dizer por ‘aqui’ quando pensei ‘aqui’?”, prossegue ele. “Eu poderia achar que me referia a um lugar, mas, na realidade, era outro?” Não importa o que ele possa acreditar sobre sua própria localização ou estado mental. Essas convicções não oferecem nenhuma garantia específica de que sejam precisas. A visão externa dos eventos, não a interna, é a que interessa – a situação real, não como eles se parecem para a pessoa sentada na cadeira (ou flutuando na cuba, conforme o caso).

Contrariando séculos de tradições filosóficas, Dennett propôs que não temos conhecimento específico sobre o funcionamento da nossa própria mente. A sensação de que o nosso “eu” é uma entidade coerente e unificada é apenas uma ilusão, maravilhosamente evoluída. Como ele escreve em I’ve Been Thinking, “existe pouca coisa que posso saber ao certo pela introspecção isolada na minha própria mente”. Mas existe muito a ser aprendido “estudando cientificamente a mente dos demais” – desde que esse estudo pressuponha um rigoroso ceticismo, até sobre a mais plausível das intuições. A verdade não irá libertar você das restrições cognitivas, já que isso é impossível. Mas, se você for cuidadoso, ela pode ensinar a você sobre os tipos de liberdade que vale a pena desejar.

Isso nos traz de volta a uma tecnologia estranhamente capaz de inverter o cenário central de Where Am I?: a IA generativa. Sua capacidade de invocar simulacros humanos convincentes a partir de trilhões de bytes de dados possibilita revirar séculos de hipóteses sobre a verdade, a identidade e nossas experiências compartilhadas de realidade. Em apenas 30 segundos de vídeo com qualidade moderada, por exemplo, serviços de IA disponíveis gratuitamente já podem criar uma versão artificial de qualquer pessoa – ou alguém totalmente fictício – e fazer com que eles digam absolutamente qualquer coisa. Líderes como o primeiro-ministro indiano Narendra Modi já usaram ferramentas de IA para criar versões de si próprios falando fluentemente em dialetos regionais, para angariar votos. Técnicas similares estão sendo desenvolvidas também na Indonésia e no Paquistão. Em julho de 2023, vídeos deepfake de mulheres líderes da oposição em Bangladesh, supostamente mostradas em piscinas usando biquínis, foram rapidamente desmascarados, mas chegaram a receber muitos compartilhamentos.

E muito mais está por vir. O ano de 2024 é o maior ano eleitoral da história (metade da população mundial irá exercer seu direito de voto). E nunca foi tão fácil manipular as informações para influenciar as decisões das pessoas – ou subverter nossas intuições e inclinações diárias. De fato, temos todas as razões para imaginar que, com dados suficientes, logo poderá ser possível criar uma cópia convincente de uma pessoa – uma entidade que poderá passar por um político (ou por você, ou por mim) de forma aceitável, não só em uma apresentação pré-gravada, mas também nas conversas do dia a dia.

Profeticamente, Dennett imaginou este cenário décadas atrás. No conto de ficção científica e no documentário de Hoenderdos, os cientistas criam um novo Dennett: ao lado do cérebro original na cuba, sua mente é duplicada como um “gêmeo digital” e eles competem para manter o controle do seu corpo. Neste cenário, a questão se uma pessoa realmente está em algum lugar – ou se falou, ou fez alguma coisa, ou mesmo se ela existe – fica ainda mais inquietante.

Para observar o quanto a realidade já está próxima da ficção, vamos considerar o caso do bot de Luciano Floridi, uma imitação criada por IA de outro importante filósofo da tecnologia. Ele foi “projetado para responder perguntas e escrever textos imitando a forma de pensar e o estilo de escrever de Floridi”. O bot é uma ferramenta pedagógica fascinante e um estudo de caso sobre como, na era da IA, nossas ideias e identidades podem começar a ter vida própria.

Para Dennett, havia algo de problemático com a nossa obsessão pela IA com aparência humana. Para ele, embora os fac-símiles completos da mente humana possam não ser algo iminente, a forma como estamos usando IA para imitar seres humanos já nos coloca em uma trajetória perigosa. Ele chamava essas IAs de “pessoas falsificadas” – e me disse que desenvolver essas entidades em massa constitui “malícia da pior espécie”: uma forma de “vandalismo social” que deveria ser proibida por lei. Por quê? Porque, se representações digitais convincentes de seres humanos puderem ser criadas ao bel-prazer, todo o trabalho de determinar coletivamente as afirmações, experiências e ações de outras pessoas estará em risco, sem mencionar a infraestrutura social essencial de contratos, obrigações e consequências. Daí a necessidade da proibição legal, o que ele detalhou em um artigo publicado em maio de 2023 na revista The Atlantic. “Não será algo perfeito”, ele disse, “mas irá ajudar se pudermos criminalizar a produção de pessoas falsificadas. Podemos ter sérias penalidades por falsificar pessoas, da mesma forma que temos para falsificar dinheiro… podemos transformar em uma marca de vergonha, não de orgulho, quando você tornar a sua IA mais humana.”

Existe aqui uma ironia no fato de que Dennett passou décadas argumentando contra aqueles que tentavam criar alguma categoria elusiva de “humanidade” que apenas as nossas mentes poderiam ter. Materialista convicto, ele defendeu repetidamente ideias como a do seu estudo da teoria da evolução de 1995, Darwin’s Dangerous Idea (“A ideia perigosa de Darwin”, em tradução livre): “Todas as conquistas da cultura humana – linguagem, arte, religião, ética e a própria ciência – são artefatos… do mesmo processo fundamental que desenvolveu as bactérias, os mamíferos e o Homo sapiens. Não existe criação especial da linguagem, nem a arte e a religião têm inspiração literalmente divina.” Ele defendia que o surgimento da humanidade a partir de matéria que não pensa é algo maravilhoso, mas não milagroso. Até as mentes notáveis como as nossas, por fim, são o produto de um conjunto de módulos incompreensíveis, compostos de componentes mais brutos, conectados em sequências contínuas às primeiras formas de vida.

Consequentemente, não existe a princípio nada que evite que os algoritmos da inteligência artificial atinjam ou excedam suas próprias capacidades; ou que os seres humanos ampliem e remodelem suas mentes com meios artificiais. De fato, alguns dos primeiros e mais importantes trabalhos de Dennett pretendiam defender a potência e o potencial da computação contra aqueles que argumentavam que o simples cálculo nunca geraria fenômenos como a consciência, como o filósofo americano John Searle. Para Dennett, não havia nada de “simples” em relação ao cálculo ou aos processos algorítmicos. Sempre foi apenas questão de escala e complexidade. Neste sentido, as conquistas da IA moderna – das suas proezas linguísticas e domínio de jogos como xadrez até a sua capacidade de aprovação em exames legais e médicos – justificam continuamente a insistência de Dennett de que pode surgir competência de nível humano a partir de processos totalmente incompreensíveis (sem mencionar que, no nosso caso, isso já aconteceu).

Durante a nossa conversa, ele também se empenhou em destacar o abismo existente entre a arquitetura computacional atual e as complexidades analógicas humanas. A obsessão para saber se a IA irá atingir a “inteligência geral”, com toda a flexibilidade cognitiva dos seres humanos, é perigosa, que dirá se ela irá chegar a algo ainda maior. Ele observava que, muito antes que acontecesse algo desta magnitude, nós precisaríamos enfrentar o surgimento de agentes autônomos “extremamente manipuladores”, que irão representar uma ameaça muito maior do que as hipotéticas superinteligências (“esqueça isso!”). Por quê? Porque, da mesma forma que as redes sociais provaram ser um ambiente propício para a evolução de conteúdo capaz de explorar as vulnerabilidades humanas, a mesma dinâmica favorece tanto o conteúdo gerado por IA, quanto as IAs capazes de desenvolver uma atraente combinação de persuasão, sedução, choque e bajulação. Dos glamourosos e perfeitos influenciadores artificiais até a pornografia deepfake, das companhias infinitamente empáticas até as fraudes amorosas, as paixões e os desejos humanos são um campo fértil para refinar a manipulação.

Podemos (ainda) não ser cérebros em cubas. Mas aquilo que nós vemos, acreditamos, fazemos parte e realizamos é cada vez mais interligado a incontáveis sistemas de informação – muitos deles, mais propensos a oferecer persuasão e plausibilidade do que a verdade. Nada disso deve negar o poder e o potencial de tecnologias como a IA, nem as inúmeras formas em que ela pode ampliar as capacidades e o autoconhecimento da humanidade. Mas é fácil defender, como Dennett fazia, que as IAs provavelmente irão “evoluir até se reproduzirem”. “E as que se reproduzirem melhor serão os mais inteligentes manipuladores dos interlocutores humanos como nós. As entediantes, iremos deixar de lado, e as que mantiverem nossa atenção, iremos difundir. Tudo isso irá acontecer sem nenhuma intenção. Será a seleção natural do software.”

Não é necessário um plano de mestre elaborado por uma máquina ou por seres humanos para que se desenvolvam cenários maléficos. No livro Das Bactérias a Bach e Vice-Versa: A Evolução das Mentes (Edições 70, 2021), Dennett defende que “quando a infraestrutura cultural estiver projetada e instalada, (…) a possibilidade de memes parasíticos explorando essa infraestrutura é mais ou menos garantida.” Em termos evolutivos, nossas mentes não são aparelhos sintonizados para diferenciar a verdade da mentira. Nós somos criaturas parciais, apaixonadas e tribais – animais sociais ligados por laços de amor e lealdade que definem nossa humanidade e nos tornam dolorosamente vulneráveis.

Felizmente, outra característica que define o pensamento humano é a nossa capacidade de refletir precisamente sobre essas limitações, para corrigir, de forma crescente e coletiva, os pontos cegos da percepção social: “O que você quer é que o seu pensamento seja determinado pela verdade sobre tudo o que existe. Você quer ser levado pelas boas evidências existentes sobre o que é o mundo. Mas você também quer ter espaço de manobra para reconsiderar, reconsiderar e reconsiderar ainda mais: suas perspectivas, seus projetos, seus objetivos. Você quer ser um sistema de intenções de ordem superior, que reflita sobre os meios, fins e propósitos.” Este é o método científico no microcosmo, com um toque de livre pensamento humanista. A “liberdade” de agir com base em informações manipuladamente imprecisas não é liberdade. Já as ações determinadas pelas “boas evidências existentes” são emancipadoras: elas são abertas às complexidades da realidade e não traídas por mentiras.

Para ampliar o experimento Where Am I?, imagine o que aconteceria se o seu cérebro fosse colocado em uma cuba e, sem o seu conhecimento ou permissão, fosse conectado a uma versão simulada da realidade. Naquele campo virtual, você ainda poderá ter certas liberdades. Mas, no contexto do mundo externo, você seria encurralado e ludibriado – excluído de qualquer forma significativa de compreensão e ação. Pode parecer puramente uma questão de ficção especulativa, mas uma versão desse cenário se desenrola sempre que alguém acredita que uma afirmação falsa é a verdade literal – ou que uma entidade artificial é um ser humano. Das teorias da conspiração até a propaganda totalitária, das evidências fabricadas até falsos seres humanos, a rejeição da realidade é um negócio florescente. E não há nada de inevitável sobre a persistência da tolerância, do ceticismo ou do debate racional em um mundo inundado por este tipo de situação.

Para Dennett, a nossa civilização “é mais frágil do que pensávamos” – e, justamente por isso, mais preciosa. Apesar de todos os conflitos, injustiças e rancores, vivemos em uma era em que grande parte dos seres humanos podem “confiar uns nos outros, ter projetos de longo prazo, viajar livremente, formar família e viver com muito pouco medo. Isso é simplesmente maravilhoso. E devemos preservar isso. Essa estrutura, de verdade, a todo custo.” Este é o grande risco dos grandes modelos de linguagem de IA e das pessoas falsificadas: “que eles destruam a confiança que levamos milhares de anos para construir.”

Apesar de tudo isso – e da sua reputação de inflexível razoabilidade – Dennett deixou claro que não tinha interesse em transcender as limitações da natureza humana. Para ele, o amor e a lealdade não eram uma bagagem biológica que seria melhor superarmos. Pelo contrário, eles são forças motivadoras do tipo mais profundo: fontes de propósito e de bondade, desde que possam ser libertadas do ódio e do egoísmo. “Buscar o essencial é uma orientação perfeita. Mas o essencial pode ser compreendido de forma muito ampla. O essencial pode incluir seus filhos, uma ideia, tocar violão, os Chicago Bears. O essencial pode ser qualquer coisa que você queira que seja. É aquilo que é mais importante para você. É o que você procura para ter proteção. E isso é óbvio. Se alguém quiser extorquir você, eles não precisam ameaçar você. Eles precisam apenas ameaçar aquilo que você ama.”

A biologia é onde tudo começa e termina: o surpreendente padrão de evolução do nosso surgimento ao lado de todas as outras formas de vida; as infinitas complexidades que somos capazes de conceber pela cultura, linguagem e computação; e nossa existência comum como criaturas de carne e osso. “Meus dois filhos são adotados”, contou Dennett ao final da nossa conversa. “Mas eu os amo com a mesma intensidade de qualquer pai biológico. Eu me lembro de um momento na infância da nossa mais velha, quando ela era uma garotinha, talvez com dois anos de idade ou menos, em que percebi uma possível ameaça no parquinho ou algo assim e aquilo subitamente me impressionou. ‘Oh, vejam só, acho que eu mataria para proteger esta criança.’ E aquilo quase me assustou. Mas também me emocionou, porque era o reconhecimento de uma intensa e profunda ligação emocional. E este é o sentido da vida.”

O que acontece com nossas contas de rede social quando morremos

Artigo de Selin Girit e Grujica Andric para a BBC.

Há mais de dois anos, o marido de Hayley Smith, Matthew, morreu de câncer aos 33 anos. E ela ainda luta para saber o que fazer com as contas dele nas redes sociais. “Algumas pessoas não sabem que Matthew faleceu, ainda veem seu aniversário e escrevem parabéns em seu perfil. Não é particularmente agradável. Tentei transformar a conta de Matthew no Facebook em uma página de memorial, e o que é pedido é que você envie a certidão de óbito. Já fiz isso mais de 20 vezes e simplesmente não funciona – nada acontece. Não tenho mais energia para entrar em contato com o Facebook e tentar resolver o problema”, diz a britânica.

Com o avanço da tecnologia e bilhões de pessoas em todo o mundo utilizando plataformas de redes sociais, o que acontece com a presença online de alguém após sua morte tornou-se um grande problema. As contas permanecem vivas e ativas, a menos que um parente informe à plataforma de rede social em questão que a pessoa faleceu. Algumas plataformas oferecem a opção de encerrar o perfil após a notificação oficial do falecimento por um familiar, enquanto outras oferecem alternativas. Por exemplo, quando a Meta – a empresa proprietária do Facebook e do Instagram – recebe uma certidão de óbito, a conta da pessoa que faleceu pode ser apagada ou transformada em uma página de “memorial” – o que significa que a conta seria congelada no tempo e convertida em uma página de lembrança do usuário, permitindo que as pessoas postem fotos e recordações.

Uma mensagem in memoriam aparece ao lado do nome do usuário e ninguém poderá fazer login na conta se o usuário original não tiver anteriormente fornecido um “contato de legado” – um membro da família ou um amigo autorizado a gerenciar o conteúdo ou solicitar a desativação do perfil. No Facebook, as contas transformadas em memorial não são recomendadas a potenciais amigos virtuais como “pessoas que você talvez conheça”, e os usuários da lista de amigos da pessoa falecida não receberão notificação do aniversário.

O Google, proprietário do YouTube, Gmail e Google Fotos, oferece a opção de alterar as configurações de “conta inativa” para decidir o que acontecerá com as contas e dados uma vez que fiquem inativos por um determinado período de tempo. O X (antigo Twitter) não oferece a opção de manter o perfil em memória do dono e só é possível desativar a conta em caso de falecimento ou impossibilidade de uso do proprietário. “Existem várias abordagens, mas todas as empresas priorizam a privacidade do falecido”, diz Joe Tidy, correspondente de tecnologia da BBC. “Nenhum detalhe de login será compartilhado, e você só poderá acessar determinados dados, como fotos e vídeos, com solicitações específicas que às vezes precisam de ordem judicial.” As plataformas sociais mais novas, como TikTok e Snapchat, no entanto, não possuem caminhos específicos.

Devemos preparar um legado digital?

Perfis ativos de usuários falecidos podem representar um problema caso dados, fotos ou outros conteúdos caiam nas mãos erradas, alerta Sasa Zivanovic, especialista em crimes cibernéticos e ex-chefe do departamento de crimes de alta tecnologia do Ministério do Interior da Sérvia. Isso pode acontecer ao serem baixados alguns dados do perfil, mas também assumindo o controle de toda a conta. “Fotografias, dados e vídeos podem ser usados para criar contas falsas com nome falso, extorquir dinheiro de conhecidos e amigos que não sabem que a pessoa em questão faleceu”, afirma.

James Norris, presidente da Digital Legacy Association do Reino Unido, destaca que é importante que todos pensem no conteúdo que compartilham nas redes sociais e façam uma cópia de segurança (backup) sempre que possível. Ele ressalta que no Facebook, por exemplo, você pode baixar um arquivo completo de suas fotos e vídeos e repassá-lo para seus familiares. “Assim, se eu fosse diagnosticado com uma doença terminal e tivesse um filho pequeno que não estivesse no Facebook, eu poderia baixar todas as minhas fotos e vídeos, remover as mensagens – porque não gostaria que meu filho visse minhas mensagens privadas –, selecionar minhas fotos favoritas e escrever uma história sobre cada uma delas”, diz ele.

Ele acredita que planejar o que você quer que aconteça com suas contas de rede social após sua morte é crucial e aconselha as pessoas a prepararem um legado digital. “Em última análise, as redes sociais são um negócio. Essas plataformas não são as guardiãs do seu legado digital”, afirma. “O guardião do seu legado digital é você.” Mesmo assim, ele acredita que as plataformas de rede social poderiam facilitar o processo para os parentes em luto: “Ações como aumentar a conscientização sobre o que a plataforma oferece e quais ferramentas estão disponíveis são importantes porque nem todo mundo sabe que elas existem”.

“O legado digital é um grande tema”, alerta Sarah Atanley, enfermeira da Marie Curie, uma instituição britânica de caridade que presta cuidados e apoio a pessoas com doenças terminais e seus entes queridos. Ela enfatiza que as pessoas precisam pensar não apenas em suas contas nas redes sociais, mas em tudo o que possuem digitalmente e no que fazer com esse material em caso de morte:

“Fotografias e vídeos digitais podem conter muitas memórias. Mas hoje fazemos bastante gestão financeira online, em termos de serviços bancários. Depois, há contas de música geradas para criar listas de reprodução, e temos visto um aumento na utilização de jogos online, em que as pessoas dedicam muito tempo e esforço à criação dos seus avatares e à vida num ambiente online. Então, acho que vale a pena dizer que o legado digital não diz respeito apenas a redes sociais. Queremos que alguém assuma o controle de nossas contas de rede social? Queremos que alguém nos homenageie? Queremos poder passar um álbum de fotografias digitais aos nossos filhos? Ou queremos imprimi-lo como as pessoas costumavam fazer e ter um belo álbum de fotos impresso que possamos passar para alguém depois de morrermos? O legado digital é definitivamente algo que precisa ser pensado e falado.”

Para Hayley e Matthew, no entanto, esse não foi um assunto fácil de discutir. “Eu realmente não falei com Matt sobre isso quando ele estava nos últimos dias, porque ele realmente não queria falar sobre a morte”, diz ela. “Ele queria viver o máximo que pudesse, mas depois ficou gravemente doente. Ele não era ele mesmo. Então, ele não foi capaz de responder às minhas perguntas.”

Eles estavam casados ​​há pouco mais de um ano quando Matthew foi diagnosticado em julho de 2016, aos 28 anos. “Sua vida está prestes a mudar para sempre e não para melhor”, disse o médico, ao comunicar que Matthew tinha um tumor cerebral e que precisava imediatamente de uma cirurgia para salvar sua vida. Embora a cirurgia e a quimioterapia tenham corrido bem, com o tempo o tumor voltou a crescer e Matthew foi informado que teria apenas mais um ano de vida. “O nome dele estava em tudo. Em nossas contas, em absolutamente tudo que eu tinha”, diz Hayley. “Tive que transferir tudo e foi muito difícil. Levei quase 18 meses para fazer toda a administração digital que era necessária.”

Ela diz que ainda quer tornar a página de Matthew no Facebook num memorial, mas não está tratando disso no momento. “Acho muito doloroso ficar constantemente olhando para um documento que é uma certidão de óbito. É por isso que tenho evitado fazer isso, porque é um pedaço de papel horrível. Só acho que é realmente um processo excessivamente complicado e que as empresas deveriam torná-lo mais fácil para as pessoas enlutadas”, conclui.

Newton da Costa e a audácia de errar por conta própria

Artigo de Samuel Maia, mestre em filosofia pela UFMG, e Júlio César, doutorando em filosofia e lógica também pela UFMG, para o Le Monde Diplomatique.


Em 16 de abril faleceu aos 94 anos Newton da Costa, notável filósofo, lógico e matemático brasileiro. Sua contribuição mais conhecida se deu no campo da lógica, onde foi um dos criadores de um sistema lógico novo, a lógica paraconsistente.

Newton da Costa em 1973 (George Bergman/Wikimedia Commons)
Prof. Newton da Costa em 1973 (George Bergman/Wikimedia Commons)

Talvez um exemplo possa nos dar alguma noção do extraordinário conceito de paraconsistência. Suponha que estejamos diante de uma teoria científica, um algoritmo computacional ou um banco de dados que tenha informações contraditórias. Esse pode ser o caso de um sistema que registre a presença dos alunos de uma escola. No sistema pode haver registros de que alguns alunos estiveram presentes e ausentes em um mesmo dia de aula. Isso pode ser explicado por diferentes razões: alguns alunos podem ter assistido às primeiras aulas do dia, mas se ausentado da última; ou vice-versa.

O problema é que, na lógica matemática, qualquer conclusão se segue de uma contradição. Ou, em outras palavras, de uma contradição podemos apenas extrair conclusões triviais. Se quisermos agir de maneira racional e rigorosa, parece natural que antes de tudo deveríamos nos livrar dessas contradições. No nosso exemplo, seria fácil fazer isso se soubéssemos os detalhes das presenças e faltas de todos os alunos no sistema. No entanto, se quisermos acompanhar a presença dos alunos não apenas de uma, mas de várias escolas, se torna mais provável que em várias situações seja impossível saber o suficiente para determinamos se um aluno esteve presente ou faltou em um dia de sua escola. Situações como essas, onde não sabemos qual de duas informações contraditórias de um mesmo sistema são verdadeiras, são bastante comuns.

Essa é apenas uma das muitas razões para que tenhamos modelos capazes de lidar, de maneira racional, com contradições. A lógica paraconsistente desenvolvida por Da Costa e outros pesquisadores nos oferece precisamente isso – trabalhar com sistemas que possuem contradições, mas que ainda assim são valiosos demais para serem desprezados. Não por acaso, a lógica paraconsistente tem sido aplicada em campos como a computação, inteligência artificial, linguística, física e matemática. Mais do que isso, ela joga água no moinho de quem pensa que vale a pena lidar racionalmente não apenas com uma, mas com várias lógicas diferentes.

Entre centenas de artigos e livros em periódicos e editoras acadêmicas, Da Costa escreveu trabalhos não apenas sobre lógica paraconsistente, mas também sobre filosofia da ciência e filosofia da física. Muitos desses trabalhos, especialmente os de lógica, são referências inevitáveis: devem ser estudados por qualquer um e em qualquer lugar do mundo que, não importa onde esteja, queira se dedicar ao assunto. Mais que isso, ao longo de sua carreira, Da Costa formou dezenas de pesquisadores, eles próprios consolidados professores e pesquisadores de universidades no Brasil. Muitos desses professores vieram a formar o que hoje são jovens brasileiros que pesquisam na filosofia, matemática, lógica e outras ciências.

É verdade que o surgimento de um “Da Costa” também só foi possível com o ganho de corpo na estrutura e profissionalização das universidades no país. Seu sucesso parece refletir o da matemática brasileira em geral, em que centros de pesquisa como o Instituto de Matemática Pura e Aplicada e pesquisadores como Artur Ávila, ganhador da Medalha Fields, integram a elite da ciência mundial. Isso não diminui a importância de Da Costa. Afinal, se as pessoas fazem sua própria história, elas sempre o fazem sob condições que herdaram do passado. Em um país como o nosso, de dimensões continentais e com sérios problemas no ensino de matemática e outras ciências, imagine o potencial, ainda inexplorado, de outras pessoas para a matemática e as ciências. Da Costa ensina que se o pouco investimento já valeu a pena, imagine muito.

Talvez por sua área de pesquisa ser um tanto técnica, Da Costa não é tão conhecido fora da academia. Mesmo na filosofia é frequente esquecerem seu nome quando se fala dos grandes nomes da disciplina vindos do Brasil. Ao mesmo tempo, Da Costa já foi descrito como “o mais proeminente filósofo brasileiro nos círculos acadêmicos internacionais” e “talvez o mais destacado brasileiro no campo da filosofia e da lógica”. Ele já foi objeto até de um documentário, dirigido por Fernando Severo. É tão incerto quanto pouco importante se Da Costa foi ou não o mais importante entre todos os filósofos brasileiros na academia, aqui e lá fora. Certo é que, se há diferentes formas de contribuir para a ciência, a filosofia e a universidade, podemos concluir – sem contradição – que ele foi um dos maiores.

Newton da Costa compartilha o primeiro nome com aquele inglês que é um dos maiores da ciência moderna. Contudo, seu sobrenome entrega sua origem latino-americana. E esse é um de seus legados mais distintos. Da Costa fez um nome tipicamente brasileiro figurar entre as referências da lógica e filosofia no mundo todo. Para quem veio da terra brasilis e se acostumou a estudar ou mesmo reverenciar figuras de nome alemão, francês ou inglês, Da Costa nos empresta uma estima intelectual e científica que é quase redentora. Não por acaso, no final de sua vida ele disse que gostaria que seu maior legado fosse ter ensinado a trabalhar e errar por conta própria; pois não importa se quem erra vem da Europa, dos Estados Unidos ou do Brasil.

Arqueólogos encontram cidades perdidas de mais de 2,5 mil anos na Amazônia

Após milhares de anos escondidas sob a densa vegetação, arqueólogos descobriram uma surpreendente rede de estradas, canais e cidades perdidas no meio da floresta amazônica do Equador que floresceram há mais de 2,5 mil anos. A região é conhecida hoje como os sítios arqueológicos do Vale do Upano.

A descoberta muda muito do que sabemos sobre o histórico de ocupação humana na Amazônia. Já sabíamos da existência de grandes cidades estabelecidas nas terras altas da América do Sul, como Machu Picchu no Peru, uma das mais importantes cidades do Império Inca, muito antes da chegada dos europeus. Também sabíamos da existência de grandes impérios no atual México e América Central, como os dos Maias e dos Astecas. Mas acreditava-se que, na Amazônia, as pessoas só viviam de forma nômade, em pequenos grupos, provavelmente nus, vivendo em cabanas e formando, no máximo, pequenos assentamentos. Essa nova descoberta revela, porém, que em uma época contemporânea ao Império Romano na Europa, os povos originários da Amazônia já viviam em complexas sociedades urbanas, formando uma civilização que durou mais de mil anos naquela região.

Vestígios dessa antiga civilização foram notados pela primeira vez nos anos 1970 pelo arqueólogo francês Stéphen Rostain, que lidera as investigações no Centro Nacional de Pesquisa Científica da França e foi um dos pesquisadores que relataram a descoberta em janeiro de 2024 na revista Science. Mas, na época, “não se tinha certeza de como tudo isso se encaixava”, disse ele. O professor conta que, no início da carreira, foi desencorajado a seguir com a pesquisa, pois não se acreditava que algum grupo antigo tivesse vivido na Amazônia. “Mas eu sou muito teimoso, então segui de qualquer maneira. Agora devo admitir que estou muito feliz por ter feito uma descoberta tão grande”, diz ele.

Essas cidades foram construídas e ocupadas pelos povos Upano e Kilamope entre aproximadamente 500 a.C. e 600 d.C. Embora seja difícil estimar a dimensão da população, o local abrigava não menos do que 10 mil pessoas, podendo ter chegado a uma população de 100 mil habitantes em seu auge, afirmou o arqueólogo Antoine Dorison, coautor do estudo, do mesmo instituto francês. Isso é mais do que a população estimada de Londres na mesma época, que era a maior cidade da Grã-Bretanha na época do Império Romano. As pessoas que ali viveram provavelmente se concentravam na agricultura. Comiam milho e batata doce, e provavelmente bebiam “chicha“, um tipo de cerveja feita de milho. Poços e lareiras foram encontrados, bem como potes, pedras para moer plantas, além de sementes queimadas. Edificações residenciais e cerimoniais erguidas em mais de 6 mil montículos de terra eram circundadas por campos agrícolas com canais de drenagem. A área fica próxima a um vulcão, o que tornou o solo rico, mas que também pode ter levado à destruição da sociedade que um dia existiu no local.

Para Dorison, as estradas foram o ponto mais marcante da pesquisa. As maiores estradas tinham 10 metros de largura e se estendiam por 10 a 25 quilômetros. “A rede rodoviária é muito sofisticada, se estende por uma vasta distância, tudo está conectado. E há ângulos retos, o que é muito impressionante”, diz ele, explicando que é muito mais difícil construir uma estrada reta do que uma que se encaixa na paisagem. Ele acredita que algumas delas tinham um “significado muito poderoso”, talvez ligado a uma cerimônia ou crença religiosa. Os cientistas também identificaram calçadas com valas em ambos os lados que acreditam ser canais que ajudavam a gerenciar a abundância de água na região. Foram identificados também possíveis sinais de ameaças às cidades: algumas valas bloqueavam as entradas para os assentamentos e podem ser evidências da proximidade de grupos hostis.

A descoberta só foi possível graças a uma combinação de escavações e a utilização da tecnologia LIDAR (detecção e alcance de luz, ou light detection and ran ging na sigla em inglês). Utilizando sensores a laser infravermelho acoplados a um avião, essa tecnologia de sensoriamento remoto permite o escaneamento preciso de regiões densas e de difícil acesso, como a floresta amazônica. O LIDAR escaneou uma área de aproximadamente 300 quilômetros quadrados, até encontrar o sistema de estradas e plataformas da antiga cidade. “Explorei o local muitas vezes, mas o LIDAR me deu outra visão da terra. A pé, você tem árvores no caminho, e é difícil ver o que está realmente escondido lá”, conta Rostain.