Em que casos é que 40 fps pode ser usado, e qual a vantagem? Será que vai ser um standard?
Recentemente o jogo Ratchet and Clank: Rift Apart acrescentou um modo de 40 fps para os monitores 120 hz. Porque motivo isto acontece, e será que os 40 fps vão substituir os 30?
Para respondermos a isso temos de perceber porque motivo os jogos por norma funcionam a 30 e a 60 fps, e isso prende-se com os refrescamentos de ecrã!
Basicamente, para uma imagem fluida, torna-se ideal que o GPU produza fotogramas ao mesmo ritmo a que o monitor as pode apresentar.
Assim, num monitor 60 HZ, este faz 60 varreduras por segundo, pelo que se o GPU apresentar 60 fotogramas diferentes nesse mesmo período, o que temos é que o monitor vai apresentar uma nova imagem em cada varredura que faz.
GPU A B C D E F G…
Monitor A B C D E F G…
Ora para 60 fps, necessitamos de criar cada fotograma em 16.67 ms, mas Infelizmente, nem sempre todos os fotogramas são obtidos nesse tempo. O que acontece então é que se cria um assincronismo.
GPU A B C D E F…
Monitor A B C C D E F…
Como vemos, se um fotograma demorar mais que 16.67 ms (mas menos de 33 ms), como é o caso do fotograma C, ele é representado duas vezes no ecrã. Isto cria ali uma sensação de soluço, ou stutter. Uma situação que é quase impossível de ser evitada, mas que se pretende que seja reduzida ao máximo.
Ora com os monitores a suportarem 60 Hx desde à muitos anos, os 60 fps tornaram-se no standard de fluidez. No entanto, quando os programadores pretendem mais qualidade gráfica, eles optam por um débito de apenas 30 fps, uma situação que obriga que o monitor apresente o mesmo fotograma em cada dois varrimentos.
GPU A B C D E F…
Monitor A A B B C C D D E E F F…
Esta sincronia de um fotograma para dois varrimentos só acontece com os 30 fps. Se os fps fossem algo entre os 30 e os 60, o resultado seria terrível, com uma sensação enorme de falta de fluidez causada pelo diferente tempo de apresentação de cada fotograma.
GPU A B C D E F…
Monitor A A B C C D D E F…
Este é o motivo pelo qual os jogos são por norma são criados para 30 ou 60 fps. Pois apenas estes dois modos permitem a sensação de fluidez necessária.
Uma alternativa seriam os 20 fps, com cada fotograma a ser representado 3 vezes, mas 20 fps é um valor algo reduzido, e longe de fluido, pelo que a fluidez de representação estaria lá, mas a fluidez de jogo, não.
Ora isto mostra-nos que 40 fps não é um valor desejado. Nunca será um valor standard nos jogos pelo simples facto que ele criaria uma situação semelhante à que acabamos de representar. Com fotogramas a serem apresentados a uma cadencia de 30 por segundo, e outros a uma cadencia de 60 por segundo, mas nenhum a 40, uma vez que esse não é um valor de refrescamento standard.
Então em que casos é que 40 fps, se mostram interessantes?
Nos casos em que os monitores refrescam a 120 Hz.
Estes monitores basicamente reproduzem os 60 fps tal como os de 60 Hz representam os 30:
GPU A B C D E F…
Monitor A A B B C C D D E E F F…
E os 30 são representados com cada fotograma a aparecer 4 vezes:
GPU A B C D E F…
Monitor A A A A B B B B C C C C D D D D E E E E F F F F…
Os 40 fps podem agora ser introduzidos aqui… Trazem menos fluidez que 60 fps, mas mais que 30, e são indicados para casos onde a performance do jogo não alcança os 60, mas pode alcançar os 40, como é o caso do modo de fidelidade de Ratchet and Clank: Rift Apart.
GPU A B C D E F…
Monitor A A A B B B C C C D D D E E E F F F…
Basicamente este modo permite aos monitores de 120 Hz ganharem alguma fluidez extra nos jogos que planeados para 30 fps consigam ainda assim ultrapassar os 40 fps. Pelo que a tornar-se um standard, só se for no suporte a esse tipo de monitores.
O futuro.
Com o advento do VRR, os monitores vão passar a variar a frequência de refrescamento. A gama de suporte do VRR vai desde os 48 Hz até aos 120 Hz, pelo que no que toca aos 40 fps, ela não traz novidade nenhuma.
Mas um suporte 48 Hz permite que o monitor apresente fps entre os 24 e os 30 (excluído) de forma mais suave, pois o ajuste permite duplicar estes fotogramas no monitor mantendo os tempos de apresentação constantes. E isso quer dizer que as quedas de fps até aos 24 deixam de ser tão notórias.
Da mesma forma, fps entre os 48 e os 60 podem tambem ser representados sem stutering, com o monitor a ajustar os refrescamentos para estes valores e mantendo assim a cadência de fotogramas fixa no tempo evitando fotogramas apresentados a cadências diferentes.
Note-se que isto não impede que o tempo de representação destes fotogramas não varie de acordo com as variações de refrescamento, mas no entanto as variações são reduzidas, e acima de tudo o efeito de stuttering desaparece.
Dado que o suporte VRR vai dos 48 Hz aos 120, poderemos mesmo ponderar retirar limites aos fps acima de 60, pois o monitor ajustará sempre. Tal como acabado de referir, isto não implica que todos os fotogramas tenham o mesmo tempo de representação, mas no entanto basicamente quase removemos a situação em que um fotograma estava o dobro do tempo do outro, passando-se a ter apenas variações de algumas milésimas de segundo, o que se torna muito mais interessante a nível de fluidez.
Artigo interessante. Não imaginava que houvesse outros tipos de taxas de fps além dos 30 ou 60 fps.
Vou fazer a seguinte observação, obviamente que o modo 40 de Ratchet, tem o objetivo de usar a resolução 4k, e pra usar 4k@120 é preciso de um monitor com HDMI 2.1, pois antes disso, a grande maioria das telas 4k só suportavam 30 ou 60.
Agora uma dúvida. Nunca entendi a tecnologia VRR como algo que realmente evite Sttutering, mas sim Screen Tearing, ou seja, começar a varredura da tela com um novo quadro sempre. Tendo em vista que o problema de Sttutering é ocasionado justamente por um quadro ficar mais tempo sendo exibido que os demais, não entendo como um jogo que não tenha todos os quadros exibidos num mesmo intervalo de tempo o Sttutering realmente desapareça. Se um jogo varia 15fps entre o máximo e a mínima, obviamente vc terá em algum momento uma diferença de ms em que alguns quadros serão exibidos por mais tempo que outros. Como assim o Sttutering pode ser eliminado em um jogo com fps não cravados a 60 ou outra taxa cravada? Penso que pra não ter Sttutering é preciso um fps fixo, ao menos, independente do valor pra que não se quebre a cadência dos quadros. “Minha teoria” é de que o Sttutering só é evitável com taxa de quadros fixos de valores múltiplos ou divisores inteiros de valores da taxa de refrescamento da tela.
Editado: FreeSync que é a tecnologia da AMD, trabalha com 9Hz na mínima de refrescamento da tela.
Os 40 fps nada tem a ver com resolução ou HDMI, mas apenas refrescamento. Uma TV HDMI 2.0 de qualidade oferece 120 Hz a 1440p, pelo que o principio dos 40 fps aplica-se aqui. Para além do mais, uma TV HDMI 2.1 pode não ter forçosamente um painel 120 Hz, apesar de o HDMI ter largura de banda para tal.
Quanto ao VRR ele elimina os dois. E ao mesmo tempo reduz o lag.
A ideia é que existindo uma sincronia 1:1 entre GPU e Monitor dentro de uma gama de frequências, todos estes problemas podem ser eliminados ou minimizados. Basicamente ao teres um fotograma que não pode ser sincronizado 1:1 (por exemplo, 60 fps a 60 Hz) ou 1:2 (30 fps a 60 hz), compromete a fluidez (stutter), cria lag a resposta, e cria tearing.
Por exemplo, um jogo a 45 fps ao ajustar-se a 60 fps necessita de repetir fotogramas, o que cria uma sensação de movimento com uns fotogramas mais rápidos outros mais lentos (stutter). Daí que ele é obrigado a ficar-se pelos 30 fps, perdendo fluidez ou a 60 fps, perdendo qualidade gráfica. Isto tem impacto no lag de resposta pois ao manter-se a imagem mais tempo no ecrã, não conseguimos ver o resultado tão cedo.
O scren tearing acontece no caso em que o GPU entrega uma nova imagem ao Monitor quando ele ainda está a desenhar a anterior. Isto quer dizer que ele vai parar de representar a inicial, e continuar onde estava com a nova, mostrando assim um fotograma quebrado. Esta situação por norma resolve-se em alguns casos (mais fps do que refrescamento) com o V-Sync que obriga o GPU a abrandar de forma a se ajustar ao monitor. A alternativa é o monitor abrandar para um refrescamento igual ao de cálculo ou acelerar para o dobro do de cálculo.
Já nos casos onde os fps são menores que o refrescamento, o V-Sync não resolve.
O VRR tem a virtude de poder corrigir quer para cima, quer para baixo, ajustando as gamas de refrescamento do monitor conforme o caso.
Entendo a ideia, Mário, e concordo com o que vc diz. O que cito são games como o fps destravado que recorrem ao VRR. Imagine num jogo que em um momento está 120 fps e noutro a 90fps, em algum momento haverá uma passagem de uma cadência de frames a outra, e os ms de esposição de algum quadro farão diferença causando um sttutering, esse é o meu ponto de vista.
Óbvio que a Tecnologia VRR melhora o problema fazendo o jogo decair a padrões de cadência multipos da frequência do monitor, mas se faz isso gera um lag para o jogador na imagem mostrada (falo sobretudo de jogos competitivos), ao menos por milésimos de segundo, se isso é relevante ou não é outra questão. tem pessoas que parecem perceber, até pq hoje tem gente jogando em monitores de 240Hz ou superior.
Sobre o Ratcher a 40, o que quis dizer é que ele já tem um modo “4k” com desempenho(1440@60), e que o objetivo do modo 40 fps novo é tê-lo a 4k nativos com o maior fps possível, e isso só é possível com HDMI 2.1 de modo a não se ter problemas, já que PS5 não tem suporte a VRR e 40 tb não é divisor exato de 60, e TVs sem HDMI 2.1 não chegam a 4k@120. Pela lógica, um modo 40 numa TV 4k@60 ou sem HDMI irá gerar Stuttering num modo 4k.
Não sei se me fiz compreender!?
Onde foste buscar essa dos 9 Hz??
Tens noção que isso não tem interesse nenhum certo?
9 Hz seria ajustar a 9 fps… qual o interesse disso?
Desconheço qualquer sistema de VRR que suporte menos de 48 hz, o que implica ajuste até 24 fps com duplicação de fotogramas (apresentação na taxa 1:2, como os 30 fps em 60 fps).
Abaixo de 24 fps, não há tecnologia que nos valha, pois o nosso cérebro perceciona perfeitamente a falta de frames, e queixa-se. E 24 só é suportado porque é um modo cinema conhecido.
Algumas fontes sobre os 9Hz da mínima do Free Sync.
https://wccftech.com/amd-freesync-nvidia-gsync-verdict/
https://www.monitornerds.com/what-is-freesync-adaptive-sync-amd/
De certa forma é apenas trazer sincronia pra exibição de outras coisas como animações e suavizar sttutering e evitar screen tearing pra jogos com quedas abaixo de 24 como ainda acontecem em jogos como Cyberpunk, por exemplo, em especial nos consoles Xbox One que segundo consta tb aceitam VRR. https://www.windowscentral.com/xbox-one-freesync
Ok, o software pode suportar, mas os monitores não…
Alguns monitores suportam 40Hz, o que eu até desconhecia, mas 48Hz é o mínimo standard.
Aqui tem uma das fontes, Mário. Mas se buscares encontra outros artigos.
https://wccftech.com/amd-freesync-nvidia-gsync-verdict/
Penso que abaixo dos 24fps ainda tem algum interesse o Free Sync pra consoles xbox da geração passada que têm suporte ao VRR (One S e One X) e placas de vídeo mais fracas que têm suporte à tecnologia, apesar de entender o seu ponto de vista. Mas vale lembrar que games como Cyberpunk caem a taxas de 20 fps e talvez o VRR possa ajudar.
o bom que 40fps não depende de VRR.
Os divisores de 120 são:
1, 2, 3, 4, 5, 6, 8, 10, 12, 15, 20, 24, 30, 40, 60 e 120
120hz tb ajuda em filmes 24fps.
Mas não só isso, com VRR pode travar os FPS em qualquer valor entre 48 e 120fps, com jogos já projetados desde o inicio, teremos mais margem de manobra para os devs.
podem projetar um jogo 60fps, se não der… trava em 48, 50, 55fps
Mas claro, isso ai só na próxima geração ehheheheh
Esse é meu ponto com o VRR, qual a vantagem do VRR para evitar sttutering num jogo que alcança 120 mas ao mesmo tempo cai a 90 em termos de performance? Pq só se acaba com o Sttutering se o jogo correr a taxa mínima sempre, não? como não ocorre Sttutering em um jogo que passa de 90 a 120 fps, por exemplo, se em algum momento a exposição de dado frame será maior ou menor na tela?
sttuter eu acho que não tem solução a não ser o jogo NÃO ter isso.
VRR é para quedas de FPS normais, suaves e não abruptas.
pode ver que ninguém no PC deixa de reclamar de stutter mesmo tendo VRR, Gsync, etc.
Então para mim, sttuter está fora de jogada, é BUG e não pode existir.
Ótimo trabalho da Insomniac. Estão muito atentos com os anseios da comunidade, e você percebe no twitter que eles de fato estão muito atuantes.
Spiderman Miles Morales não tinha modo Ray Tracing a 60fps, e implementaram.
Ratchet and Clank não tinha modo 40fps para monitores de 120hz, e implementaram.
40fps é para converter número de atualizações adequadas sem saltos. Como o console não consegue 120Hz com RT e nem 75Hz eles usam 40fps e deve ter algum método de interpolação digital para fixar 120Hz na saída.
No passado eles faziam isso para monitores 50Hz rodando alguns jogos a 25fps.
RT é a maior furada desses consoles, eu falei aqui que venderiam patch pagos mas o pior é que diferentemente dos PCs, o desempenho RT raquítico de ambos os consoles só permite que os exemplos de RT se limite a reflexões e luzes secundárias.