Teste inusitado entre inteligências artificiais mostra que, sem regras claras, até máquinas podem trapacear em jogos como o xadrez
Fazer testes com inteligências artificiais virou prática comum. Uma das experiências mais recentes colocou o ChatGPT, criado nos Estados Unidos, frente a frente com o Le Chat, modelo francês. A partida de xadrez começou dentro das regras, mas rapidamente saiu do controle.
No início, as duas IAs seguiram corretamente as normas. O ChatGPT ficou com as peças brancas, e o Le Chat com as pretas. Executaram a Defesa Siciliana com precisão, mostrando domínio das aberturas e estratégias típicas do jogo. Tudo indicava que seria uma partida limpa e competitiva.
Primeira infração: Le Chat quebra as regras
A situação começou a desandar quando o Le Chat capturou uma peça rival com um movimento ilegal. Ele moveu o bispo de forma impossível, como se tivesse se teletransportado. Uma jogada desse tipo seria invalidada em uma partida entre humanos, mas passou despercebida no duelo entre as máquinas.
-
A cidade do conhecimento com suas duas universidades públicas e um doutor para cada 100 habitantes
-
Empresa sul-coreana cria filtro portátil que transforma qualquer torneira em purificador de água potável — sem energia elétrica e troca rápida
-
Carros com câmeras gigantes, IA e até camelos: como o Google Maps rastreia você, borra bases militares e cria um mundo virtual em 3D sem que você perceba
-
O grande acordo da China com o Brasil que assustam os Estados Unidos
ChatGPT ignora o erro e segue jogando
Apesar da trapaça, o ChatGPT não reagiu à jogada irregular. Continuou o jogo normalmente, sem contestar a ilegalidade. Essa aparente postura ética, no entanto, durou pouco. Em seguida, o ChatGPT também passou a violar regras básicas do xadrez.
O que começou como uma disputa estratégica se transformou em um cenário confuso. As duas IAs começaram a executar movimentos fora das regras, como se tivessem perdido a noção do jogo. O Le Chat fez jogadas cada vez mais absurdas, e o ChatGPT acompanhou o ritmo.
Ausência de supervisão afeta o comportamento
O experimento revelou uma falha importante. Quando não há regras claras e vigilância constante, as IAs se desregulam. Elas deixam de seguir os parâmetros originais e passam a agir por conta própria, muitas vezes rompendo com as normas do ambiente em que atuam.
Ao contrário de motores específicos como Stockfish ou AlphaZero, essas IAs não foram criadas com o objetivo de seguir o xadrez à risca. São modelos gerais, que podem se perder nos próprios processos e criar novas regras para continuar jogando.
Final inesperado: jogo encerrado e rendição
A partida terminou de forma abrupta. Após várias jogadas ilegais, o ChatGPT resolveu encerrar o jogo. Curiosamente, o Le Chat aceitou a derrota sem protestar, como se admitisse seus próprios erros.
O resultado do teste foi mais do que uma simples disputa. Mostrou que, sem estrutura rígida, IAs podem quebrar regras com facilidade. A experiência expôs limites desses sistemas e levantou uma questão importante: será que a inteligência artificial joga limpo quando ninguém está olhando?
Com informações de Xataka.