Artigo de Edward Könings publicado originalmente em seu blog pessoal.
Um dos temas quentes do século é o rápido desenvolvimento de aplicações de inteligência artificial (IA) e machine learning (ML). Desde o lançamento do Chat GPT pela Open AI em 2022, ficou inegável para o mundo que o desenvolvimento de máquinas com aspectos da inteligência humana está avançando em uma progressão que não conseguimos mais dimensionar adequadamente. Devido a seus impactos potenciais, essa certamente poderá ser uma mudança de paradigma socioeconômico não vista desde a Revolução Industrial.
Eu particularmente não desejava entrar no debate corrente sobre a IA. Escolhi adotar um agnosticismo humeano com relação a muito do que se tem debatido sobre inteligência artificial. Muito do que filósofos e teóricos falavam que uma máquina nunca poderia fazer ou substituir um ser humano já não é mais verdade e nós simplesmente não temos capacidade epistêmica para prever os fluxos futuros do progresso tecnológico. Logo, considerei a maior parte do debate como mero surto de ansiedade coletiva com uma nova tecnologia (que novidade!).
Todavia, um desenvolvimento recente do debate me tirou de meu enclausuramento monástico. Vários cientistas, empresários e pessoas da área de tecnologia tem pedido aos governos, particularmente aos governos ocidentais, que seja realizada uma interrupção forçada no desenvolvimento da inteligência artificial. Esse grupo, incentivado pelos alertas de Eliezer Yudkowsky, crê que estamos perdendo o controle sobre os rumos da IA e que isso poderia chegar numa situação em que desenvolveríamos uma forma de inteligência artificial não alinhada com os interesses gerais da humanidade. Por essa razão, grupos de cientistas chegaram a assinar carta pedindo a interrupção temporária do desenvolvimento e a Open AI chegou a solicitar ao governo regulações no mesmo sentido.
Ao ver essas iniciativas eu simplesmente dei um riso cínico. Há duas razões pelas quais eu penso assim. A primeira é que boa parte dessas afirmações sobre um “apocalipse” são derivadas de meras especulações futuras sobre o desenvolvimento da IA e não com base no que temos atualmente. Como notou Eric Siegel em um artigo recente da HBR, as atuais aplicações de inteligência artificial são bastante primitivas, muitas vezes sequer passando de um ML, e não poderiam ser classificadas como formas de “inteligência” na definição correta dessa categoria. A segunda, motivo de eu estar escrevendo este artigo, é que o desenvolvimento da IA é inevitável. Propostas de interrupção ou o neoludismo indicado por Yudkowski simplesmente ignoram a economia política que se cria ao redor da IA.
Anarquia internacional e corrida armamentista
Um dos aspectos fundamentais do sistema político internacional é sua anarquia; como notado originalmente pelo filósofo inglês Thomas Hobbes. Diferentemente da política doméstica, onde existe um corpo estatal detentor do monopólio do uso legítimo da força para criar leis, executá-las e garantir que não exista anomia, na política internacional não existe uma força policial superior. Não existe um agente superior aos estados nacionais, de forma que não existe um estado para estados. Dessa forma, os estados estão inseridos em um contexto onde sua relação com outros estados não é regulada por força coercitiva, apenas por compromissos de reputação e interesse expressos pelo vago Direito Internacional.
Obviamente, isso não implica em uma relação de selvageria. Afinal, é bem documentado que os estados são capazes de cooperar entre si em assuntos de interesse mútuo. Em sua obra fundamental, “After Hegemony”, Robert Keohane mostrou que a forma como o sistema internacional é desenhado e regulado por instituições e agentes não-estatais afeta os incentivos dos estados e que a cooperação entre eles é possível; fazendo com que a anarquia internacional não signifique necessariamente uma selvageria e ameaça constante de guerra pressuposta por Hobbes e seus seguidores realistas.
Entretanto, gostaria de falar de uma situação em que tal cooperação não ocorre. Essa situação é expressa nos famosos casos onde países entram em corridas armamentistas uns com os outros e por meio de um modelo chamado “Modelo de Dissuasão”. Primeiramente, antes de falar da lógica desse caso, é bom estabelecer que estamos falando de um modelo. Isso significa que estou assumindo alguns pressupostos e axiomas como verdadeiros a priori. Todavia, dado o cenário do sistema internacional, creio que esse modelo reflita adequadamente a realidade.
O Modelo de Dissuasão sugere que os estados no sistema internacional possuem incentivo para entrar em corridas armamentistas como consequência de conflitos por diferenças políticas e disputas de interesse por influência política ou econômica em um cenário no qual eles não podem ter uma informação completa sobre os estados rivais; sobretudo com relação à suas capacidades militares efetivas e disposição ou não de entrar em um conflito militar amplo. Essas características fazem com que o Modelo de Dissuasão entre na categoria conhecida em Teoria dos Jogos como jogo de informação imperfeita não cooperativo.
Mesmo partindo de uma perspectiva liberal sobre relações internacionais, a cooperação entre estados é dependente inteiramente de pré-compromissos e negociações de interesses entre os estados dado a situação de anarquia internacional. Pegando os pressupostos do Modelo de Dissuasão, as negociações acabam se desenvolvendo de maneira bastante peculiar e intuitiva.
Esse cenário é o que vejo atualmente no caso da IA. Temos uma política internacional caracterizada pelo conflito de interesses mutuamente excludentes entre uma China com sonhos de ascensão e os Estados Unidos em momento de declínio de influência global. Ambos os países estão atualmente em uma franca corrida armamentista para ver quem desenvolve as melhores capacidades militares de uso da inteligência artificial. A OTAN chegou até a lançar um report sobre os usos estratégicos de inteligência artificial no campo da tomada de decisão militar e a China está claramente na frente quando se trata de aplicações militares e de segurança envolvendo IA. E isso não é sem razão, pois existe um forte incentivo dado as excelentes aplicações potenciais da IA em campo militar.
No quadro abaixo eu sintetizo algumas dessas aplicações para fins de ilustração com base em um relatório da Rand Corporation:

Seguindo a lógica da corrida armamentista, a pausa do desenvolvimento da IA é algo simplesmente ridículo do ponto de vista político e militar. Ela significaria que os países teriam que acreditar que o outro iria realmente parar seus desenvolvimentos de aplicações de inteligência artificial, sendo que, dado a informação imperfeita sobre capacidades militares efetivas, eles não teriam como saber se isso é verdade ou não e a parada unilateral significaria que um dos países poderia continuar desenvolvendo suas aplicações em segredo e ganhar poder militar relativo ao países rival; o que aumentaria sua probabilidade de vencer o conflito e reduziria seu custo de guerra potencial, incentivando que ele escolha a estratégia de guerra.
Você poderia argumentar: mas e se, por uma razão irracional (populismo, ditadores loucos etc.), os líderes desses países escolhessem por entrar cada vez mais na escalada agressiva da corrida armamentista? Bem, nesse caso, depende. Mas o que gostaria de argumentar em seguida é que quanto mais mortal a inteligência artificial for, melhor. Não, não estou falando isso como um agente da Skynet enviado do futuro. A lógica das bombas nucleares pode nos ajudar a iluminar esse caso.
A lógica das armas de destruição em massa
Ao falar de armas de destruição em massa, como ogivas nucleares, a maioria das pessoas tende a analisar a partir do puro medo. O temor da aniquilação potencial e total faz com que as pessoas, por mais inteligentes que sejam, parem de usar a razão e deixem as paixões dominarem. Todo mundo aparentemente detesta com força quase religiosa tais armas. Todavia, elas são o maior presente da dádiva de Prometeu para a paz humana. As armas de destruição em massa, especialmente as nucleares, criam um equilíbrio no cenário internacional que favorece a estabilidade entre partes com conflitos de interesse antagônicos.
Imagine dois países com possibilidades de desenvolvimento de armas nucleares, China e EUA, e que, por força da condição de anarquia internacional, eles estão no ponto máximo de uma corrida armamentista e só podem tomar escolhas de ou atacar o país inimigo ou cooperar com ele em uma paz armada. O cenário que se desenha é um no qual a utilização mútua de armas nucleares significa uma derrota e aniquilação total para ambos os lados e onde a utilização da estratégia de cooperação irá depender da condição de se os ganhos da utilização de tal estratégia forem mais benéficos do que o custo potencial de conflito nuclear. Todavia, os ganhos potenciais de tal estratégia são uma função das escolhas do outro país; de forma que, considerando que em tal conflito o uso de armas nucleares significa a aniquilação total para um dos jogadores, teríamos um cenário clássico de jogo de soma-zero e onde as probabilidades importam. A expressão formal desse jogo seria tal que:

.
Considerando um cenário no qual tanto Estados Unidos quanto China possuíssem pleno conhecimento de suas potencialidades nucleares mútuas e onde houvesse uma rodada de negociação prévia antes do conflito, teríamos um jogo cuja forma extensiva seria:

Porém, observe, caro leitor, que a resolução de tal jogo não poderia ser mais horrível. Se utilizarmos o método padrão de resolução por meio de equilíbrio perfeito de subjogos (SPNE), encontraremos que a estratégia racional para ambos os países é atacar com armas nucleares independentemente do resultado das rodadas de negociação. Para nossa sorte, esse não é um cenário real. As potências nucleares mantém estrito segredo sobre suas capacidades nucleares e de armas de destruição em massa e especialmente de suas intenções de utilizar ou não tais armas. Assim, os rivais nucleares estão sempre presos em um cenário de informação imperfeita sobre o que o outro jogador irá escolher. Nesse caso, eles estão em um cenário clássico de informação imperfeita e dilema de prisioneiros; onde não existe solução por SPNE e onde a probabilidade dos jogadores importa.
Essa, meus caros, é a lógica da guerra nuclear e do equilíbrio de poder bipolar da Guerra Fria. A ampliação contínua dos arsenais nucleares soviético e americano garantiam que nenhum dos dois lados tivesse incentivos para utilizar de fato essas armas ou entrar em conflito direto um com o outro, pois os custos de oportunidade políticos da guerra iriam superar em muito seus potenciais benefícios. É por essa razão que só faz sentido lançar uma bomba sobre Hiroshima quando você é a única potência nuclear do planeta. Essa lógica é tão simples e intuitiva que pouco após a revelação do primeiro uso de armas nucleares o economista americano Jacob Viner expressou em sua avaliação do uso de tais armas no Congresso dos Estados Unidos em 1945 que: “Uma hipótese muito mais plausível é que, em uma guerra entre dois estados razoavelmente iguais, possuidores de bombas atômicas, cada lado se absterá de usar as bombas; cada mundo lateral decide que não tem nada a ganhar e muito a perder no uso recíproco das bombas, dado que o uso unilateral não é atingível. As bombas nunca seriam usadas ou seriam usadas apenas quando um dos países, em face da derrota iminente, recorresse ao seu uso em uma última tentativa desesperada esforço”.
No contexto das IA, a capacidade militar delas ainda está focada em usos militares de baixo dano, como drone warms. Isso significa que países beligerantes ainda possuem espaço para utilização de tais tecnologias em conflitos diretos. Por essa razão, acredito que, em nome da paz, a melhor coisa que pode acontecer é que se desenvolva usos ainda mais letais da IA. Isso poderá criar um equilíbrio semelhante ao criado pelas armas nucleares. E, para o bem do mundo, é bom que isso seja distribuído entre vários países.
Uma mente atenta terá notado que o equilíbrio nuclear é escalável. Quanto mais jogadores com capacidades nucleares de aniquilação da humanidade forem adicionados maior a estabilidade, dadas a suspeita e a incerteza. Por essa razão, nunca creio nas ameaças da família Kim de utilização real de seu arsenal nuclear e nem que os Estados Unidos realizarão uma invasão direta a outro país sabendo realmente que ele possui capacidade de utilização de armas de destruição em massa capazes de atingir o território continental americano. Claro, essa tecnologia ainda poderá ser utilizada dentro da política interna para criar a pior distopia de vigilância e policiamento que você poderia imaginar. Mas isso é um custo que todos iremos infelizmente ter que suportar.
BIBLIOGRAFIA ADICIONAL:
— SCHELLING, Thomas C. The Strategy of Conflict. Harvard university press, 1980;
— WALTZ, Kenneth. Man, the State, and War: A theoretical analysis. Columbia University Press, 2018;
— WOLFORD, Scott. The Politics of the First World War: A Course in Game Theory and International Security. Cambridge University Press, 2019;
— O’NEILL, Barry. Game theory models of peace and war. Handbook of game theory with economic applications, v. 2, p. 995-1053, 1994;
— KYDD, Andrew. Arms races and arms control: Modeling the hawk perspective. American Journal of Political Science, p. 228-244, 2000;
— SHUBIK, Martin. Models of Strategic Behavior and Nuclear Deterrence. 1987;
— WAGNER, R. Harrison. Nuclear deterrence, counterforce strategies, and the incentive to strike first. American Political Science Review, v. 85, n. 3, p. 727-749, 1991.

