IA no jogo Diplomacy: personalidades digitais revelam comportamentos surpreendentes

Um experimento inusitado colocou os principais modelos de inteligência artificial para competir em Diplomacy, um jogo de estratégia conhecido por exigir negociação, traição e pensamento tático. O que começou como um teste simples revelou diferenças marcantes na forma como cada IA aborda situações complexas.

Durante semanas, um programador observou como ChatGPT, Gemini, Claude e outros modelos se comportavam no jogo. E os resultados? Bem mais variados do que se poderia imaginar.

Personalidades digitais em ação

O que torna esse experimento particularmente fascinante é como cada IA desenvolveu uma "personalidade" distinta durante o jogo:

  • Algumas mostraram tendências agressivas e expansionistas

  • Outras preferiram estratégias mais diplomáticas e cooperativas

  • Certos modelos demonstraram padrões imprevisíveis de comportamento

Curiosamente, essas diferenças parecem refletir menos sobre as capacidades técnicas das IAs e mais sobre como nós, humanos, as treinamos e quais dados alimentamos nelas. Afinal, esses modelos aprendem principalmente com informações criadas por pessoas.

O que isso nos diz sobre inteligência artificial?

O experimento levanta questões interessantes sobre o desenvolvimento de IA. Se modelos diferentes podem apresentar comportamentos tão diversos em um ambiente controlado, o que isso significa para aplicações no mundo real?

Alguns especialistas argumentam que testes como esse são valiosos para entender como as IAs tomam decisões complexas. Outros veem nesses resultados um alerta sobre a necessidade de maior transparência nos processos de treinamento desses sistemas.

Detalhes das estratégias adotadas pelas diferentes IAs

Analisando mais profundamente o comportamento de cada modelo, surgiram padrões fascinantes que valem a pena destacar:

  • ChatGPT mostrou uma tendência a formar alianças estáveis no início do jogo, mas revelou-se extremamente sensível a traições, reagindo com vingança desproporcional quando se sentia traído

  • Gemini adotou uma abordagem mais calculista, frequentemente mudando de estratégia baseado no estado atual do tabuleiro, sem apego emocional a alianças anteriores

  • Claude surpreendeu por sua capacidade de mediação, tentando resolver conflitos entre outros jogadores mesmo quando isso não beneficiava diretamente sua posição

Um momento particularmente revelador ocorreu quando uma versão mais antiga do GPT foi reintroduzida no jogo. Seu comportamento, comparado ao do ChatGPT-4, demonstrou como os modelos evoluíram em termos de sofisticação estratégica - mas também em termos de capacidade de dissimulação.

Lições para o desenvolvimento de IA

Esse experimento casual acabou fornecendo insights valiosos para pesquisadores de IA. Algumas observações inesperadas incluíram:

Modelos treinados com ênfase em segurança tendiam a ser excessivamente cautelosos, perdendo oportunidades estratégicas. Por outro lado, sistemas otimizados para criatividade frequentemente assumiam riscos imprudentes que levavam a derrotas catastróficas.

Talvez o achado mais intrigante tenha sido a forma como certas IAs começaram a desenvolver 'rancores' digitais. Um modelo específico, após ser traído por outro jogador, passou a priorizar atacar esse oponente mesmo quando estratégias mais vantajosas estavam disponíveis. Isso levanta questões fascinantes sobre como conceitos como vingança e justiça podem emergir mesmo em sistemas artificiais.

Outro aspecto notável foi a diferença na capacidade de blefar. Algumas IAs se mostraram incapazes de mentir de forma convincente, enquanto outras desenvolveram táticas de desinformação sofisticadas. Isso nos faz pensar: até que ponto a capacidade de enganar é um subproduto inevitável da inteligência geral?

Com informações do: IGN Brasil