Tim Sweeney, CEO da Epic Games, fez uma declaração reveladora durante o Unreal Fest 2025 em Seul: os problemas de desempenho que assombram jogos desenvolvidos com Unreal Engine 5 não são culpa exclusiva da tecnologia, mas sim da metodologia de desenvolvimento adotada pelos estúdios. A admissão veio em entrevista ao site coreano This Is Game e promete mudar a forma como os games são otimizados.

A raiz dos problemas de desempenho

De acordo com Sweeney, o cerne da questão está na prática comum entre desenvolvedores de iniciar projetos em hardware de última geração e deixar a otimização para configurações mais acessíveis como prioridade secundária. "A otimização, uma tarefa complexa e fundamental, acaba sendo tratada como baixa prioridade quando deveria ser exatamente o oposto", explicou o executivo.

Esse hábito tem impactado diretamente a experiência dos jogadores em PCs e consoles com especificações mais modestas. E olha, não é difícil entender por que isso acontece - muitos estúdios focam tanto em alcançar os visuais mais impressionantes que esquecem que a maioria das pessoas não tem máquinas de R$ 20 mil para jogar.

Tim Sweeney da Epic Games durante evento

Estratégias da Epic para melhorar a situação

A empresa está implementando um plano com duas frentes principais para combater esse problema estrutural. A primeira parte se concentra em evoluir a própria Unreal Engine 5, com melhorias no suporte e a introdução de ferramentas de automação que visam agilizar e simplificar o trabalho dos estúdios com diversos tipos de hardware.

A segunda frente é educativa. A Epic pretende oferecer treinamentos específicos sobre otimização, conscientizando os desenvolvedores sobre a importância de integrar essas práticas desde as fases iniciais de produção. Sweeney ressaltou que, dada a complexidade atual dos jogos, uma colaboração próxima entre a desenvolvedora do motor gráfico e as produtoras que o utilizam é indispensável.

"Soluções efetivas exigem um esforço conjunto, além de ajustes apenas no nível da engine ou de medidas rápidas e superficiais"

Demonstração da Unreal Engine 5 em evento

Os frutos já visíveis e o desafio persistente

Esses esforços já estão rendendo resultados tangíveis. A Unreal Engine 5.6, lançada recentemente, incorpora avanços significativos - testes indicam melhorias de até 35% no processamento da CPU e 25% na GPU.

Mas será que isso basta? Na minha experiência recente com Silent Hill 2 Remake, mesmo com um setup robusto (Ryzen 7 9800XD + RTX 5070 Ti + 32GB RAM DDR5), os malditos stutterings persistiram mesmo após múltiplos patches. Precisei recorrer a mods de terceiros para resolver problemas gráficos, mas as travadinhas nunca desapareceram completamente.

E não sou só eu reclamando. Relatos sobre o novo Metal Gear Solid Delta: Snake Eater indicam que até proprietários de RTX 5090 enfrentam stuttering ao jogar em 4K com DLAA habilitado. Isso levanta questões importantes: será que o problema vai além da otimização para hardware variado?

Assista ao vídeo abaixo para ver o problema em ação:

Leia mais sobre o assunto:

Fonte: Wccftech

O impacto real nos jogadores e no mercado

Enquanto a Epic e os estúdios debatem metodologias, quem realmente sente na pele essas decisões são os jogadores. E não estamos falando apenas de entusiastas com hardware topo de linha - o problema afeta especialmente quem possui configurações intermediárias, que representam a grande maioria do mercado.

Eu mesmo tenho um amigo que comprou uma RX 7600 recentemente, achando que poderia jogar os lançamentos em 1080p sem maiores problemas. Mal sabia ele que Alan Wake 2 exigiria ajustes quase cirúrgicos nas configurações para rodar a 60fps estáveis. A frustração é palpável quando você gasta seu dinheiro suado em um jogo e precisa passar mais tempo tweakando configurações do que realmente jogando.

E o que dizer dos consoles? O PlayStation 5 e Xbox Series X/S já estão mostrando sinais de envelhecimento precoce diante de jogos UE5 mal otimizados. Hellblade 2, por exemplo, mal consegue manter 30fps no modo qualidade no Series X - e olhe que estamos falando de hardware dedicado, onde a otimização deveria ser mais straightforward.

As complexidades técnicas por trás da otimização

Mas por que a otimização se tornou tão complicada? Parte do problema está na própria natureza da Unreal Engine 5 e suas tecnologias flagship. Nanite e Lumen são incrivelmente poderosos, mas também absurdamente complexos de se otimizar adequadamente.

O Nanite, com sua geometria virtualizada, prometeu acabar com os tradicionais LODs (Levels of Detail). Na prática, porém, muitos desenvolvedores estão descobrindo que o sistema tem suas próprias peculiaridades de performance que precisam ser dominadas. E o Lumen? Nem se fala - o sistema de iluminação global dinâmico é famoso por seu appetite por recursos de GPU.

"Dominar Nanite e Lumen requer uma curva de aprendizado íngreme que muitos estúdios ainda estão escalando"

Conversando com um desenvolvedor que preferiu não se identificar, ele me contou algo interessante: "Muitos estúdios menores simplesmente não têm engenheiros de graphics com experiência suficiente para extrair o máximo da UE5. Eles usam as features 'out of the box' e esperam que magicamente tudo funcione perfeitamente."

O dilema dos estúdios: prazo x qualidade

Outro fator crucial que Sweeney mencionou de passagem, mas que merece mais destaque, é a pressão comercial sobre os estúdios. Prazos apertados, orçamentos limitados e a necessidade de lançar jogos dentro de janelas de marketing específicas criam um ambiente onde a otimização acaba sendo sacrificada.

Um produtor de uma grande desenvolvedora me confessou recentemente: "Sabemos que a otimização precisa vir desde o início, mas quando você tem um milestone para cumprir em dois meses, as features visíveis ganham prioridade. A otimização sempre fica para 'depois' - e esse 'depois' muitas vezes nunca chega."

E isso levanta uma questão ética importante: até que ponto os estúdios estão sendo transparentes com os consumidores sobre o estado de performance de seus jogos? Quantas vezes compramos um título na pré-venda apenas para descobrir que ele mal roda em nossas máquinas?

Lembram do lançamento de Cyberpunk 2077? O escândalo foi tão grande que a CD Projekt Red precisou oferecer reembolsos em massa. Mas e os jogos que não atingem esse nível de criticidade, apenas rodam mal? Eles escapam do scrutiny enquanto os jogadores sofrem em silêncio.

O papel das fabricantes de hardware

Curiosamente, pouco se fala sobre como NVIDIA, AMD e Intel se beneficiam indiretamente dessa situação. Afinal, se os jogos são mal otimizados e exigem hardware cada vez mais potente para rodar decentemente, quem ganha com isso? Exatamente - as fabricantes de GPUs e CPUs.

Não estou sugerindo nenhuma conspiração, mas é inegável que existe um certo conflito de interesses aqui. A NVIDIA, por exemplo, investe pesadamente em tecnologias como DLSS que, em tese, deveriam ajudar a compensar a falta de otimização nativa. Mas será que isso não cria um ciclo vicioso onde os desenvolvedores dependem cada vez mais dessas muletas tecnológicas?

E por falar em DLSS, Frame Generation e companhia, até que ponto essas tecnologias estão mascarando problemas fundamentais de otimização? Um jogo pode ter framerates altos no papel graças ao Frame Generation, mas se a latência estiver alta e os stutterings persistirem, a experiência continua ruim.

Um teste recente que conduzi com Avatar: Frontiers of Pandora mostrou algo interessante: com DLSS Quality + Frame Generation, o jogo atingia 90fps em 4K numa RTX 4080. Mas a latência de entrada era tão alta que a gameplay ficava estranhamente "escorregadia". Desativando o Frame Generation e baixando algumas configurações, 60fps nativos proporcionavam uma experiência infinitamente melhor.

Com informações do: Adrenaline