A Digital Foundry analisou o DLSS 3 e a sua capacidade de aumento de fotogramas, sempre se dirigindo a ele como um “aumento de performance”. Agora, com a AMD a lançar o FSR 3.0 capaz de fazer o mesmo, a Digital Foundry alerta que esta duplicação (seja por FSR ounDLSS) não é um real aumento de performance. Uma realidade… mas que não deriva de nenhuma alteração recente, tendo sempre sido assim, que somente foi corrigida perante a existência de um produto da concorrente ao DLSS capaz de fazer o mesmo.
DLSS 3.0 e FSR 3. O que são e o que fazem?
o DLSS e o FSR apareceram com o intuito de re-escalar resoluções nativas mais baixas para outras mais altas, ganhando no processo performance adicional.
Já as versões 3.0 de ambas as metodologias fazem mais do que isso, e acrescentam a criação de fotogramas adicionais, destinados a melhorar a fluidez das animações.
Ora tanto DLSS 3.0 como FSR 3.0 não trazem realmente performance adicional. O jogo continua a correr aos fotogramas originais e como tal a latência na resposta dos comandos corresponde a essa situação. O que estas versões 3.0 nos trazem é fotogramas adicionais!
Para alguns pode parecer difícil perceber como é que mais fotogramas não corresponde a mais performance, mas isso é simples de explicar. Se eu tiver um jogo a correr a 20 fps, e calcular um fotograma intermédio, o jogo passa-me a apresentar 40 fotogramas por segundo.
Basicamente o que vou ter mais ser mais fluidez na imagem devido à maior presença de fotogramas, mas a latencia, isto é, o tempo de resposta do sistema aos comandos, vai continuar a responder como se o jogo apenas tivesse 20 fotogramas. E isso porque na realidade esses são os fotogramas reais a que o jogo está a correr, e qualquer alteração ao input apenas terá real repercussão quando um desses fotogramas for apresentado, altura em que ele será tomado em conta no calculo dos intermediários seguintes.
Assim, um jogo a 20 fps, que triplique os fotogramas atingindo os 60, terá uma fluidez de 60 fps, mas uma resposta aos comandos de 20 fps. E isto porque como foi explicado antes, é o número real de fotogramas que o jogo está a processar internamente.
Esse é o motivo pelo qual é errado dizer-se que o DLSS 3.0 ou o FSR 3.0, na sua criação de fotogramas, aumentam a performance. Na realidade isso não acontece e o que é aumentado é pura e simplesmente, e apenas, a fluidez das animações.
E a Digital Foundry sabe isto tão bem, ou até melhor do que eu!
No entanto, até hoje, nunca se coibiu de fazer vídeos onde, quando falava do DLSS 3.0 e da sua criação de fotogramas, se referia aos ganhos como aumento de performance.
Repare-se na imagem de cima, onde se deixa claro que no seu vídeo, eles se referem que o aumento de performance chega a 5x.
Esta foi uma situação que acabou por ser um enorme marketing para a Nvidia. E muitos certamente foram enganados por estas palavras ao acreditarem que os resultados eram equivalentes a terem os fps nativos.
Um marketing que foi mantido… até a AMD lançar o FSR 3.0. Onde, curiosamente, pela primeira vez, a DF vez corrigir a situação, dizendo que os ganhos obtidos quer por FSR, quer por DLSS… não são performance.
É sempre bom ver-se a Digital Foundry a repor a verdade das coisas. Mas não deixa de ser curioso o facto que manteve o engodo durante largos meses, só o repondo quando a AMD lança uma versão concorrente ao produto da Nvidia.
A situação é caricata, e tem levado mesmo alguns a questionar a seriedade da DF, como o mostra o vídeo que se segue:
I made a funny https://t.co/jqoxQlCTtQ pic.twitter.com/yIEa6GyKOw
— TechnicallyLogic (@TechnicallyLog1) October 6, 2023
Sinceramente estou retido no Dlss 2 (que as vezes dá uma ou outra atrapalhada na imagem ainda, apesar de raro, as vezes não uso) nunca vi o Dlss 3 porque tenho uma RTX 3000 e só as RTX 4000 o possuem, não me perguntem o porquê.
Mas é decepcionante o ganho que as gerações de GPUs tem tido ultimamente.
Eu queria que o substancial dos ganhos fossem obtidos sem uso de tecnologias de super sampling ou o tirado do forno “frame generation”.
O que vi foi um bus reduzido e miséria nas memórias. Que fez algumas placas da 3@ geração ter o mesmo desempenho da 4@.
A RTX 4000 só se destacam em poder bruto só na highend 4090, essa sim faz um show de desempenho as custas de puxar quase um trifásico 440v. E já está no processo de 5 nanômetros, pensei que veríamos mais eficiência comparado com o Samsung 8 nanômetros. Aparentemente só a 4060 e 4050 demostram isso.
E as demais da linha se seguram nesses apetrechos para alcançarem 4K e 2K satisfatórios.
E quanto a AMD. Show de eficiência energética, mas não acompanha mais as Nvidias em Rasterização, e em Ray Tracing posso dizer que elas tem metade do desempenho com as placas que competem ? Estão longe demais.
E AI e Deep Learning ? Engatinhando ainda nessas tecnologias. Nvidia já vai para terceira ou quarta geração de seus Tensor Cores.
Não usas o DLSS 3.5 porquê?
E não, os ganhos entre gerações não tem sido decepcionantes. Os ganhos tem sido brutais.
A questão é que para o utilizador, ganhos são FPS… Mas na prática não são.
Um subsurface scatering que dá um aspecto realista à pele molhada ou suada, é um efeito complexo que envolve vários shaders e tem peso no processamento. O TressFx que faz os cabelos voarem ao vento é um efeito pesado no GPGPU.
Mas o que as pessoas vêem é algo ao qual não dão valor, olhando para isso como… Uma coisinha.
O grafismo tem evoluído no sentido de ser fotorealista. O RT é um passo de gigante. Mas isso tem custos de performance.
E as pessoas olham para o obtido com estes efeitos realistas e o que obtinha antes com aldrabices, e dizem. Isto não justifica! O avanço tem sido pouco.
Não, não tem! Tem sido enorme. Mas o realismo tem custos.
Depois estás enganado. As AMD esmagam as NVidia em Rasterização. O pipeline clássico e o GPGPU da AMD é bastante superior ao da NVidia.
A NVidia tem-se destacado é com tecnologias proprietárias, que apesar de excelentes, são um passo atrás gigante no programado que foi de se criar formatos standarizados usados por todos.
Achas que a AMD não sabe fazer um equivalente ao tensor core?
Claro que sabe. Mas a filosofia da AMD é diferente. Eles querem formatos e standards que todos possam usar, e cede tudo o que cria de tecnologias de software ao domínio público. Isto porque havendo standards no hardware, todos podem usar.
Não te deves recordar, mas o Reboot do tomb Raiders trouxe o tress fx nos cabelos da Lara.
A NVidia não corria, mas a AMD cedeu-lhes o código. Eles adaptaram e passaram a ter.
Depois evoluíram a coisa e criaram o hairworks. Deram isso à AMD? É o deste! A NVidia é monopolista. É um cancro no mercado! Mas infelizmente um que não se pode dispensar pois eles tem andado à frente.
Minha perspectiva geral tem sido essa mudando de uma 1060 mobile para 3070ti mobile.
Concordo com a maior complexidade envolvida dos efeitos.
Não tenho a sensação de avanço bruto (sem malabarismo ) significativo, exceto no highend.
Não concordo com o acompanhamento de Rasterização da AMD que fala visto Hardware Unboxed que compara com muitos jogos. Especialmente quanto as RTX4000, nas a RTX3000 estavam em igualdade.
Não vi ainda desenvolvimento de AI e Deep Learning neste sentido pela AMD. Não estou questionando sua capacidade, questiono sua ausência.
Sobre a ausência nada a dizer. O próximo GPU já promete ter algo.
Na questão de frame generations, a AMD parece dar suporte as Nvidias, então sobre isso não é lá grande problema pra você, mas o que você, talvez, realmente perda do DLSS 3 parece ser a questão do RT aprimorado, que aí parece não ter jeito pra qualquer coisa abaixo da série 4000.
Sobre as questões de rasterização, a menos que você esteja falando da placa top da Nvidia, que como você bem disse é um chupador de energia, as AMD costumam ser é superiores as Nvidia numa mesma faixa de preço. Portanto, a menos que você seja um entusiasta e só compre placas top, recém lançadas, ou esteja mais preocupado com RT e DLSS, porque pra rasterização a um mesmo nível de preço, as AMDs costumam ser melhores.
Se você for procurar pra comparar, por exemplo, as placas de entrada a 7600 com a 4060, aquela vai ganhar quase sempre da 4060 em jogos com rasterização, e a 7600 ainda é uma placa mais barata, então, pela lógica a AMD entrega mais fps por dinheiro investido.
A 7800xt (500 USD) também costuma fazer o mesmo com a 4070 (550 USD).
https://www.youtube.com/watch?v=60aM9wVHQbs
Penso que a questão é que muita gente ao invés de usar a faixa de preço pra comparar usa número de modelos como se fossem o equivalente de cada uma de empresas diferentes, é preciso comparar preço a preço os modelos e não a numeração de modelos em si, pois isso pode levar a uma ideia errônea da situação.
PS: Editado para adicionar informações e link.
A maioria das pessoas compram Nvidia por um simples motivo, suporte. Não significa que seja perfeito, mas é muito mais comum ter problemas do lado da AMD. Recentemente lançaram uma atualização cujo o Anti-lag + levou as pessoas a serem banidas de jogos competitivos como CS. São pequenos detalhes que fazem toda diferença.
Eu prefiro Nvidia também, que fique claro, tanto pela questão de drivers como pela questão de maior desempenho pra RT, mas a questão é que não compro GPUs por mais fps pra além de 60 como parece ser o caso de muita gente, e se fosse por isso, seria pensando em VR, mas eu sou o tipo de público minoritário no PC, a maioria prefere fps em detrimento do visual, pelo menos essa é minha percepção, e posso estar enganado.
A questão é que a maioria das pessoas não são bem informados. Basta ver quantos acreditaram que o series s rodaria tudo igual ao series X, só que em 1440p. Daí são os problemas que fazem toda diferença. O cara que foi banido por causa de um driver fará mais estrago a imagem da empresa do que qualquer fps adicional.
Me tira uma dúvida, como a AMD é um show de eficiência energética se suas GPUs consomem 20% ou mais para entregar a mesma performance?
Os ganhos não são decepcionantes, a política de preço que ferrou o mercado. Faça um comparativo da 4090 x 3090. 4080 x 3080. Muito mais performance com menor gasto energético. Agora visando o lucro exorbitante, todas as GPUs tiveram aumento de preço e os modelos de entrada foram renomeados para uma categoria acima. A 4070Ti é uma 4070, a 4070 uma 3060TI, a 4060TI uma 4060 e a 4060 uma 4050. Isso fica bem evidente quando analisamos o tamanho do silício utilizado em cada uma delas.
Só para ter uma ideia, a 4080 entrega 50% mais fps em 4k com 15% a menos de consumo. Isso é um salto absurdo. O problema é o preço.
Pelo que tenho percebido, a DF só fala o óbvio quando fica difícil de escondê-lo e/ou se for conveniente, infelizmente, é muita gente patrocinada e que depois de ganhar popularidade suficiente pra ser relevante (no sentido de visibilidade e não necessariamente por competência) apronta dessas.
Não estou aqui a julgar a DF por isso em si, porque errar todos erram, mas não é a primeira vez que aprontam dessas, mas mudar de postura só porque na vez da concorrência fazer o mesmo já não é a mesma coisa, é anedótico, pra não dizer maledicente.
Se o assunto vem à tona, ele deveria ser abordado da mesma forma que foi com o outro, pelo menos ao citarem a situação pra clarificá-la, poderiam ao menos se referir claramente que tanto o frame generation de DLSS 3 quanto o FSR 3 não são aumento de performance real, apenas de fluidez da imagem, pra não deixar dúvidas nos que entenderam diferente disso e que foi um equívoco da parte deles se passaram a mensagem errada. Pelo menos isso é o que faria quem tem uma postura correta. De qualquer forma, o estrago, ou a tentativa desse, já foi feito.
OFF
Aparentemente o hype em cima desse jogo pelo pessoal que só tem ps5 foi só pelo flamewar
https://twitter.com/MatPiscatella/status/1714707937195884640
Porque dizes isso? Quais os números?
RPG é nicho. Eu, por exemplo, adoro, mas muita gente, não. Eu ainda não peguei esse jogo, porque apesar das de conhecer, ter jogado e gostado dos 2 primeiros da franquia, e de todo hype gerado na internet, tenho um histórico relativamente recente de decepção com RPGs muito hypados com Cyberpunk e com Disco Elysium, portanto, se eu não conhecer ou tiver gostado de um trabalho anterior, dificilmente eu entrarei num jogo cegamente. E só pagarei esse jogo em momento oportuno.
Nesse caso é ainda pior. Estamos falando de um RPG de mesa. É o nicho do nicho. E historicamente sai poucos jogos assim em consoles. Logo seu público está concentrado no PC.
Mas Starfield nem dá pra ser classificado como RPG. Um game que tem o mesmo final independente das suas escolhas não pode ser chamado de RPG. Já Baldur’s Gate é RPG raiz, com diversos desfechos.
Sparrow, eu nem trouxe isso a questão, até porque eu não joguei Starfield ainda. Mas assim, quando penso em referências de RPG de games eletrônicos “pra mim”, vem a cabeça quase sempre Final Fantasy, Fallout e Baldur’s Gate/ Diablo. Os primeiros Baldur’s Gate de videogame eram semelhantes a Diablo. Esse novo parece RPG de mesa, pelo que andei lendo, e não necessariamente ao que era os Baldur’s Gate que gostei (um Action RPG clássico isométrico).
Entenda, se fosse a mesma produtora dos originais I e II eu pegaria sem exitação. Acontece que no caso de Starfield, pelo que li, ele ainda me parece um Fallout de espaço, e daria pra confiar pegar ele se fosse o caso de eu querer jogar um RPG típico da Bethesda, embora as coisas mudem um pouco com o tempo, mas pra Starfield não gostei do que vi e sinceramente essas coisas de espaço não costumam ser meu tema favorito, mesmo eu gostando de Mass Effect e Star Trek.
Pra Baldur’s Gate, daí fica mais difícil de saber o que vai encontrar, entende. Isso não quer dizer que não o jogarei, apenas que não vou entrar no Hype em uma coisa nova que nem sei se vou gostar. Gosto de RPGs e Storytelling, mas não sei se hoje, com minha idade, teria saco de jogar RPGs de mesa, e nada contra mesmo, mas a menos que eu tivesse a oportunidade de jogar antes pra ver se gosto, eu embarcaria nessa de comprar jogo em lançamento por hype, principalmente da rapaziada do PC, que normalmente tem um gosto que não bate com o meu e costuma preferir jogos infinitos… Tem nego até hoje jogando Skyrim com mod… É um pessoal que no geral passa de um jogo vício de longo tempo a outro, não é o meu perfil. Mas curiosidade existe, e espero que BG3 guarde um pouco da essência dos anteriores, que foram muito bons a sua época.
E você, jogaste BG3? Se sim, o que achaste?
Eu joguei e digo que é bom testar antes. É a réplica perfeita de um RPG de mesa, o que é para mim tedioso. Tudo é contado por um narrador e você tem que decidir cada ação, fora esperar a rolagem de dados. E o combate é um ff tatctics muito mais complexo. O jogo parece excelente, mas garanto que 99% das pessoas não vão ter paciência.
Pois é, esse é meu receio… Disco Elysium é aclamadíssimo e não tive muito saco pra continuar jogando.. tem umas vibes daqueles adventures point and clicks antigos, saca, que noutros tempos eu amava, mas pra hoje não dá, a pacoência não é a mesma… Gosto bastante de RPGs mas mão sei se tenho tanta paciência pra algo que pareca muito complicado e demorado pra pegar o ritmo… Mas uma hora eu tento pra ter minha própria opinião sobre o game.
Juca, a questão é que Baldur’s Gate é um RPG e Starfield não. Um cumpre com o que se propõe e o outro não!!! Falando nisso, joguei cerca de 3 horas de starfield ontem. Não consigo entender esse prestigio todo que tem a bethesda. Fala sério!
Não posso falar de Starfield, por não ter experiência própria, mas atrevo-me a dizer que Fallout 3 junto a Red Dead Redemption e The Last of Us, foram os melhores jogos da geração PS3.
Lógico, as coisa têm seu tempo, o que já foi pode não ser mais, e as referências mudam.
Mas Fallout 3 e sobretudo Skyrim (que eu não curto muito), deram muito prestígio a Bethesda. Então acredito que o prestígio da Bethesda vem disso de Elder’s e de Fallout 3, principalmente. Agora, poderíamos discutir se a Bethesda parou no tempo ou não…
Já essa questão de ser ou não um RPG é complexa… FFXVI ainda é um RPG? Pra mim é sim (foco no storytelling, sistemas de nível e etc.), mas tem gente que vai dizer que não.
Sobre Starfield, não saberia dizer, mas me parece muito semelhante a Fallout… Outra coisa é discutir se Baldur’s Gate é mais RPG raiz do que os demais, também, pelo que li, me parece que sim. Se for esta a questão, tem muito mais elementos de um RPG de mesa que os demais.
Já sobre gosto, não há o que discutir, e dentro de um mesmo gênero sempre teve e tem quem goste de A e não de B.
O que vou falar é meio óbvio, mas não é porque eu goste de RPG que vou gostar de todos, ou de uma série que vou gostar de todos, não é assim que funciona. Veja, eu mesmo disse que gosto de Fallout mas não de Skyrim, e tem gente que vai dizer que é a mesma coisa, mas não é, porque a lore, em um RPG, conta muito. Se prender a avaliar gameplay sem olhar o todo vai dar essas falsas simetrias, quando digo que Starfield parece um Mod de Fallout estou a considerar qie o gameplay é muito parecido, mas a lore, no caso é pra ser diferente.
Não há jogos realmente iguais, há jogos repetitivos e que não inovam, mas iguais ou clones exatos, não há.
Eu já postei esse vídeo uma vez. Salvo engano, ele saiu duas semanas depois do vídeo da DF. Nesse vídeo, ele basicamente mostra o que funciona ou não no dlss 3. A conclusão é que nao se compara aos ganhos do dlss 2. Assim, não compensa gastar tanto dinheiro na série rtx 4000 só pra dlss3. Eu achei esse vídeo muito superior ao da DF.
Ele fez TB vídeo sobre o FSR 3, muito bom o vídeo também.
https://youtu.be/GkUAGMYg5Lw?feature=shared
Pessoal do hardware unboxed é muito bom. Mas se não me engano esse vídeo da DF é marketing pago pela Nvidia. Logo não é isento.
Vejo as pessoas falarem de DLSS em comentários pela internet como se fosse a sétima maravilha do mundo. Chega ao ponto de parecer para essas pessoas que o DLSS é algo superior à resolução nativa! Isso devido ao marketing agressivo da Nvidia e do fato das pessoas serem muito suscetíveis à lavagem cerebral. E não há nada melhor do que a boa e “velha” resolução nativa. O DLSS e o FSR são apenas features que são boas, mas que tem sua aplicação para casos específicos. O poder da propaganda.
Se é uma maravilha não sei, mas o dlss é melhor que a resolução nativa quando a resolução base é acima de 1440p. Pelo simples fato de entregar uma imagem próxima a nativa, as vezes até superior. Mais estável em movimento, com mais fluidez e menos input lag. Isso não é hype, mas fato.
https://youtu.be/O5B_dqi_Syc?si=i1vPyeG3gysp3GGS
Agora a oitava maravilha do mundo é o DlDlss, uma pena que não tem tanta divulgação, pois depende de ter sobra no sistema. Mas faz milagre em jogos indies e alguns triple A como Wolong.
O 3.5 bate o nativo, especialmente nos reflexos RT.
Mário, não testei o tal “ray reconstruction”, que parece muito bom, (e nem sei se minha gpu aguenta, lol), mas parece que o DLSS 3.5 está dando rastro nas imagens com objetos em movimento (ghost).
Não me apercebi de nada. Mas só joguei o starfield no PC recentemente.
Existe alguns casos de ghosting, mas geralmente são a exceção e corrigidos por patch. Mas não vi nenhum recentemente.
Eu tinha visto a abordagem do problema em algum vídeo do DLSS 3.5 no Cyberpunk, e tinha algum problema perceptível em sombras e ghoste em alguns NPCs andando que eram observáveis… mas alguns sugeriram que poderia ser problema de denoiser no game e não do DLSS 3.5 em si..
A verdade é que os jogos estão cada vez mais pesados. Desenvolvedores acabam usando essas tecnologias como uma muleta para não otimizar bem os jogos. Vejo muitos casos disso acontecendo principalmente em jogos com a UE5. Outra coisa é que esses jogos atuais não impressionam muito, pensei que spider man 2 fosse dar um belo salto gráfico, mais pelo visto é muito parecido com o primeiro e tendo certas texturas inferiores a spider man miles morelas no PC ultra. O que acha Mario,esses consoles são tão fracos assim ou não estão sendo aproveitados e precisam de amadurecimento.?
Esse é um ótimo exemplo do M.O. da DF…
Sempre forçando “sem querer” no limite da desonestidade e fingindo que foi erro sincero
Dá pra chamar aumento de performance? olha, até dá… Forçado, no limite da honestidade… Mais ou menos dá sim.
O mais correto é “frame fake” mesmo? claro. Enquanto resolução é uma percepção, frames são a realidade do jogo e não podem ser “fakeados”
Não é muito diferente do PS5 vs SX… no SX era tudo inquestionável, no PS5 era tudo “somos céticos, pode ser fake esse Clock, tudo tem que questionar”
Aqui no BR tem uma frase quando o governo é tendencioso “aos inimigos, a lei”
Com os amigos, é bonzinho, parte do principio que tudo que dizem é verdade…. Com os inimigos é so aplicar exatamente e imparcialmente a Lei, sempre questionando e duvidando.
Com a Nvidia e Xbox era tudo verdade o que ambas os setores de marketing falavam, ambas empresas que fornecem conteúdo exclusivos para a DF e em várias ocasiões patrocina também. (dá uma alivIada na “lei” e não questiona nada)
Com AMD e Sony é o “rigor da lei’, fica “cético” com tudo que ambas falam, tem rigor técnico e semântico… afinal não se pode confiar totalmente nas empresas.
Com a Sony, tem que ver isso ai de clock, pq a 5700XT não melhora com over para 2.23Ghz
Com a AMD também, tem que ver isso ai que não é aumento de performance