A Valve, a gigante por trás da Steam, parece estar mudando de ideia sobre uma das questões mais espinhosas da indústria de jogos atualmente: a inteligência artificial generativa. Depois de um período de rejeição e remoção de títulos que utilizavam a tecnologia, a empresa anunciou uma mudança significativa em sua política. Agora, os jogos que incorporam conteúdo gerado por IA serão permitidos na plataforma, mas sob um novo conjunto de regras de transparência que buscam equilibrar inovação com responsabilidade. É uma reviravolta e tanto, e diz muito sobre como a indústria está tentando, aos trancos e barrancos, se adaptar a essa nova realidade.
O que mudou nas regras da Steam?
No cerne da nova política estão dois pilares principais: divulgação e mecanismos de denúncia. A Valve agora exige que os desenvolvedores descrevam explicitamente, durante o processo de envio do jogo, como estão usando a IA generativa em seus projetos. Eles precisam identificar se a IA foi usada tanto durante o desenvolvimento (em assets pré-lançamento) quanto em conteúdo gerado dinamicamente durante o jogo.
Mas a mudança não é uma carta branca. A Valve manteve sua proibição contra conteúdo ilegal ou infringente de direitos autorais. E aqui está a parte interessante: a empresa está implementando um novo sistema que permite aos jogadores denunciar, diretamente dentro do cliente da Steam, qualquer conteúdo dentro de um jogo que eles acreditem ser gerado por IA e ilegal. É como colocar parte da fiscalização nas mãos da comunidade, um movimento arriscado, mas que reflete a dificuldade de moderar essa tecnologia em escala.
Por que a Valve recuou?
Bom, essa é a pergunta de um milhão de dólares, não é? No ano passado, a Valve ganhou as manchetes ao começar a rejeitar jogos que usavam ativos de IA, citando incertezas legais sobre os direitos autorais do material usado para treinar esses modelos. Era uma posição defensiva, compreensível dada a névoa legal que cerca a tecnologia.
No entanto, a pressão do mercado e o avanço rápido da adoção da IA pela indústria provavelmente forçaram a mão da empresa. Bloquear todos os jogos com IA começou a parecer uma estratégia insustentável, especialmente quando ferramentas como o ChatGPT e o Midjourney se tornaram ubíquas no fluxo de trabalho de estúdios independentes. A Valve, em sua comunicação, afirmou que a mudança veio após "aprender mais" sobre a tecnologia e seus usos, e após consultar com especialistas em direitos autorais. Parece que eles concluíram que é melhor regular do que banir.
Os desafios que permanecem
A nova abordagem é um passo à frente, mas está longe de ser uma solução perfeita. Colocar a responsabilidade de denunciar conteúdo infringente nos jogadores é, na minha opinião, um convite ao caos. Como um jogador comum vai distinguir entre um asset de IA que infringiu direitos autorais e um que não infringiu? A linha é extremamente tênue e técnica.
Além disso, o sistema depende da boa-fé dos desenvolvedores em suas declarações. E enquanto a Valve promete tomar "medidas apropriadas" se um desenvolvedor liberar conteúdo ilegal gerado por IA, o processo de verificação em si permanece uma caixa-preta. A empresa não detalhou como vai auditar as declarações ou validar as denúncias dos usuários. É um terreno novo e escorregadio para todos.
E você, o que acha? Essa flexibilização é um sinal de maturidade da indústria ou uma abertura perigosa para problemas de direitos autorais? A capacidade de denunciar conteúdo dentro do jogo é uma ferramenta de empoderamento do jogador ou uma carga injusta? A verdade é que a Valve, como a maior loja de PC do mundo, está tentando navegar em águas inexploradas. Suas decisões vão inevitavelmente moldar como outras plataformas e toda a indústria lidam com a IA generativa nos próximos anos. O jogo, como dizem, está apenas começando.
E essa mudança de postura não aconteceu no vácuo. Enquanto a Valve hesitava, outras plataformas e engines já estavam se movendo. A Epic Games, por exemplo, com sua Epic Games Store, adotou uma abordagem mais permissiva desde o início, integrando até mesmo ferramentas de IA generativa como o MetaHuman para o Unreal Engine. Unity e Godot também têm comunidades ativamente explorando plugins e integrações de IA. A pressão competitiva era real – a Steam corria o risco de se tornar uma plataforma "retrógrada" para desenvolvedores inovadores. Afinal, quem quer lançar um jogo onde parte fundamental do seu pipeline de criação é tratada como contrabando?
Mas vamos além do óbvio. O que realmente significa "descrever explicitamente" o uso de IA? A Valve divulgou alguns detalhes do novo formulário de envio, e ele é mais granular do que se poderia imaginar. Os desenvolvedores precisam categorizar o uso em duas grandes áreas:
Conteúdo Pré-Gerado: Aqui entram os assets criados com IA antes da distribuição do jogo – texturas, conceitos de arte, diálogos, músicas, modelos 3D. Para estes, a Valve exige que o desenvolvedor confirme ter os direitos necessários sobre todos os dados de treinamento usados. É uma declaração de responsabilidade legal direta.
Conteúdo Gerado em Tempo Real: Esta é a categoria mais espinhosa. Inclui sistemas onde a IA gera conteúdo dinamicamente durante o jogo – NPCs com diálogos improvisados, mundos proceduralmente gerados com descrições de IA, missões criadas sob demanda. Para estes, a nova política exige que o jogo inclua "guardrails" técnicos que impeçam a geração de conteúdo ilegal. Como isso é implementado? Aí já é com o desenvolvedor.
E é justamente nesse ponto que a coisa fica complicada. Implementar "guardrails" eficazes é um campo de batalha técnico e filosófico. Como você ensina a um modelo de linguagem o conceito de "direitos autorais" ou "conteúdo ilegal"? Os filtros atuais são notoriamente falhos – ou bloqueiam coisas inofensivas, ou deixam passar problemas graves. Um desenvolvedor indie, com recursos limitados, terá condições de construir um sistema robusto o suficiente para satisfazer a Valve? Ou veremos uma enxurrada de jogos que simplesmente "clicam na caixinha" e torcem para ninguém denunciar?
O elefante na sala: os dados de treinamento
A exigência de que os devs declarem ter "direitos" sobre os dados de treinamento toca no nervo mais exposto de toda essa discussão. A vasta maioria dos modelos generativos populares – Stable Diffusion, Midjourney, vários LLMs – foram treinados em conjuntos de dados massivos raspados da internet, sem o consentimento explícito (e muitas vezes sem a compensação) dos criadores originais. Vários processos judiciais estão em andamento justamente sobre isso.
Então, na prática, o que a Valve está pedindo? Que o desenvolvedor use apenas modelos "éticos" treinados com dados licenciados? Existem alguns, como o Adobe Firefly, que a Adobe garante ser treinado com seu banco de imagens próprio e de stock. Mas eles são a minoria e, francamente, muitas vezes menos capazes ou mais caros. A política da Steam, sem querer, pode acabar criando um mercado de dois níveis: jogos "premium" com IA "limpa" e uma vasta zona cinzenta de títulos que dependem dos modelos de código aberto e comunitários, vivendo sob a constante ameaça de uma denúncia.
E não pense que isso é um problema só para texturas e imagens. A geração de áudio e música por IA é um campo minado similar. Modelos como MusicGen ou Riffusion foram treinados em milhões de músicas. Um desenvolvedor que gera uma trilha sonora com essas ferramentas pode realmente afirmar, de boa-fé, que tem todos os direitos sobre os dados de treinamento? A ambiguidade é enorme.
O sistema de denúncia: solução ou novo problema?
Vamos falar sobre essa ferramenta de denúncia in-game. Na superfície, soa empoderadora: dar voz ao jogador. Mas na minha experiência, sistemas de moderação baseados na comunidade são notoriamente abusados. Basta olhar para o histórico de denúncias falsas em jogos competitivos, ou a cultura de "reportar" por desavenças pessoais.
Imagine o cenário: um jogador fica irritado com o balanceamento de um jogo, com a história, ou simplesmente com outro jogador online. Agora, ele tem um botão novo para apertar: "denunciar conteúdo de IA ilegal". O que impede que isso se torne uma ferramenta de assédio contra desenvolvedores, especialmente os menores e mais vulneráveis? A Valve terá uma equipe dedicada para analisar cada uma dessas denúncias, que podem chegar aos milhares? Ou será um processo automatizado que pode retirar um jogo do ar com base em um volume crítico de reports, independente de seu mérito?
E há uma ironia profunda aqui. A Valve está, de um lado, abraçando a tecnologia de IA generativa. De outro, está institucionalizando um processo que pode ser usado para atacar seus produtos. É um equilíbrio delicadíssimo. A empresa terá que ser transparente sobre como essas denúncias são processadas, quais os critérios para investigação e quais as consequências para denúncias mal-intencionadas. Do contrário, criará um clima de medo e incerteza que pode sufocar a inovação que pretende fomentar.
O que me surpreende é a velocidade com que o cenário está mudando. Há seis meses, a conversa era sobre se a IA seria permitida. Hoje, já estamos discutindo os mecanismos de sua governança dentro dos jogos. A indústria está tentando construir o avião enquanto voa – e a Steam acabou de assumir o controle dos comissários de bordo. O sucesso ou fracasso dessa política não vai afetar apenas a loja, mas vai servir de caso de estudo para toda a mídia digital. O próximo passo crucial será ver como a Valve lida com o primeiro grande caso de abuso do sistema, ou com o primeiro processo judicial relacionado a um jogo com IA aprovado em sua plataforma. Aí veremos se as regras são realmente sólidas, ou apenas um paliativo temporário.
Com informações do: IGN Brasil











