As empresas anunciam e prometem mundos e fundos… mas como sempre aqui na PCManias estamos atentos, e verificamos as incongruências no que é dito, bem como aquilo que não é dito! E com isso, vamos perceber as reais performances que podemos esperar de tantos Tflops.
Sempre que há uma apresentação de um novo produto, há que se estar atento ao que é prometido. Umas vezes podemos apanhar incongruências, outras não, e nesse caso teremos de reservar para mais tarde a análise à realidade do produto, acreditando no que é dito, mas esperando por resultados reais para se poder comprovar. Um bocado como aquilo que acontece com a PS5, ou com a Xbox série X, cuja real eficiência das suas tecnologias terá de ser comprovada na prática, e só poderá ser vista quando os primeiros jogos saírem.
Assim, objectivo deste artigo é tentar percebermos a real eficiência dos nos GPUs Ampere. E para fazermos isso correctamente, temos de perceber o seu posicionamento correcto face aos actuais GPUs Touring. Só dessa forma é que poderemos realmente perceber o que estes GPUs valem.
E para isso temos de ir por partes.
No que toca a apresentações de GPUs o passado mostra-nos uma realidade: Por norma os benchmarks apresentados são escolhidos a dedo, e acabam por não ser sempre realmente representativos das performances do produto.
E isso já vimos em inúmeras apresentações anteriores, quer da Nvidia, quer da AMD.
Ora tendo isto em conta, vamos ver o anunciado pela Nvidia:
O quadro acima refere que a 3070 é basicamente tão rápida quanto a 2080 Ti, colocando-a até um pouquinho acima!
Já a 3080 está bem explicito no quadro. Até 2x mais rápida que a 2080.
Ora o que nos chamou aqui à atenção foi o “até”. Uma palavra muito comum usada por muitas empresas, e que serve para se resguardarem quando os resultados não são os prometidos, se é que alguma vez são alcançados. Basicamente, em caso de queixa, o “até” é a palavra chave para a explicação, justificando assim o valor não ser atingido.
Mas se a a Nvidia refere ganhos na 3070 acima da 2080 Ti e na 3080 o dobro face à 2080, então, naqueles seus benchmarks escolhidos a dedo, usando para publicitar o GPU, deveremos ter esses valores. Ou será que não?
Ora quando analisamos o website da Nvidia encontramos o seguinte:
3070 vs 2080 Ti
Ora perante a uma afirmação de que a RTX 3070 IO é mais rápida que a 2080 Ti, seria expectável que a Nvidia mostrasse benchmarks entre as duas, com os tais benchmarks que comprovam esses valores, tantas vezes escolhidos a dedo.
Mas curiosamente… não… o que está no website da Nvidia é um gráfico comparativo entre a 3070 e uma RTX 2070. E os valores são os seguintes (testes a 1440p, detalhe em High):
O que retirando números, nos dá:
Control (RTX On)
RTX 2070 – aprox 67 fps
RTX 3070 IO – Aprox 103 fps
Ganho – 53.7%
Minecraft (RTX On)
RTX 2070 – aprox 63 fps
RTX 3070 IO – Aprox 105 fps
Ganho – 66.66 %
Borderlands 2
RTX 2070 – aprox 51 fps
RTX 3070 IO – Aprox 82 fps
Ganho – 60,78 %
Média de ganhos da 3070 face às 2070 = 60.38%
Mas os ganhos face à 2070 não era o que queríamos ver. Será que conseguimos daqui obter uma ideia de como este GPU se compara com a 2080 Ti?
A techpowerup ajuda-nos a responder a isso:
Nesta tabela, com valores obtidos pelas médias de vários benchmarks vemos ganhos de vários GPUs face a uma RX 5600 XT. Assim, a 2070 é 16% superior, e a 2080 Ti é 73% superior. E isto permite-nos retirar que entre uma 2070 e uma 2080 Ti, a diferença de performances é de 57%.
Como o ganho médio que vimos foi de 60.38%, a Nvidia, apesar de uma comparação algo estranha, e que pode levantar dúvidas, está correcta! A RTX 3070, (o que vai depender do jogo do código usado e da forma como se usa o GPU), mostra-se, em média, um pouquinho mais rápida que a 2080 Ti. Este valor poderá depois ser maior ou menor dependente de várias situações.
O que nos interessa perceber desta comparação fica aqui já ressaltado. A 3070 é, em média, um pouco mais rápida que a 280 Ti, tal como a Nvidia afirma. Mas mesmo que tenha jogos onde a diferença é maior, o que poderemos esperar em média são valores relativamente próximos.
Mas esperem lá… porque motivo a comparação é feita a 1440p e não a 4K? E porque motivo, se a Nvidia não tem nada a esconder e os Benchmarks até batem certo, não é feita uma comparação directa com a 2080?
Os verdadeiros motivos só a Nvidia os conhecerá. Mas cremos que a Nvidia evitou a comparação directa devido a uma realidade não abordada. A diferença de largura de banda entre a 3070 e a 2080 Ti. Ora a largura de banda da 3070 é de 448 GB/s… mas a da 2080 Ti é de 661 GB/s, e curiosamente a da 2070 é também 448 GB/s, a mesma da 3070. Daí que a Nvidia sabe que eventualmente poderão surgir jogos que, explorando essa largura de banda, façam a 2080 Ti bater a 3070, e dessa forma opta por referenciar aquilo que actualmente existe, uma 3070 mais rápida, mas comparar com a 2070 pelo facto de esse GPU garantidamente não apresentar surpresas.
O outro motivo que poderá ter existido passa pela tentativa de impedir que as pessoas comparem directamente a 3070 com a 3080 que abordaremos a seguir.
Mas enfim, um par de parágrafos com umas teorias para esta escolha, que para o âmbito deste artigo não é relevante.
Vamos agora ver o GPU superior, comparando a:
3080 vs 2080
E quando falamos da 3080 o que a Nvidia nos mostra é bem diferente, e os benchmarks desta vez estão a 4K.
Tal como antes, vamos tirar os valores:
Control (RTX On)
RTX 2080 – aprox 44 fps
RTX 3080 IO – Aprox 81 fps
Ganho – 84%
Minecraft (RTX On)
RTX 2080 – aprox 41 fps
RTX 3080 IO – Aprox 78 fps
Ganho – 90.24 %
Borderlands 2
RTX 2080 – aprox 35 fps
RTX 3080 IO – Aprox 62 fps
Ganho – 77.14 %
Média de ganhos = 83.79%
Ora aqui temos uma situação que dá o que pensar. A Nvidia anuncia ganhos “até” 2x a 2080. E aqui, poderia ter escolhido os benchmarks que lhe agradavam e que mostravam esse vaor. Mas mesmo assim em nenhum dos casos a GTX 3080 mostra ser o dobro da 2080… E a média fica-se pelos 83.79%. Cá temos o “até”!
E recorde-se que, sendo o número de benchmarks mostrado tão limitado e enquadrados num contexto publicitário, a Nvidia poderia ir buscar os melhores dos melhores… e não o faz. O que nos leva a pensar se eles realmente existem.
A realidade é que os resultados não mostram os valores anunciados. E esse é o dado que nos interessa reter desta parte.
E os ganhos no Ray Tracing?
A Nvidia com as Ampere promete uma subida enorme nas performances de Ray tracing. Mas os números apresentados por ela mesma, nestes benchmarks não comprovam nada disso.
Olhando apenas para a média de ganhos dos jogos em Ray Tracing, ela é de 60,18 no caso da 3070, algo que fica basicamente a par do ganho médio de 60.38 que tínhamos visto para o global. Ou seja, o RT não sobe mais do que a média de ganhos do GPU, pelo que os ganhos do RT não são verdadeiramente mais do que um crescimento a par do aumento de performance.
Daí que passamos à conclusão final:
Afinal qual a eficiência das Ampere. O que valem os seus Teraflops?
E é aqui que a porca torce o rabo!
Vamos resumir as performances:
A 2080 Ti apresenta-nos 13.45 Tflops
A 2080 essa dá-nos 10.07 Tflops
Já a 3070 oferece 20.83 tflops
E a 3080 oferece 29.77 Tflops.
Mas o que vemos é que a 3070, tendo 54% mais teraflops que a 2080 Ti… dá resultados semelhantes em todos os campos.
E a 3080, com 195% mais Teraflops que a 2080, está nos benchmarks a mostrar um ganho de apenas 83,79%.
Esta disparidade é reveladora de duas situações…
A primeira é a confirmação que os Teraflops nesta caso são total e completo marketing. A mudança de arquitectura é tão radical que a comparação de Flops deixa de ser válida.
A segunda é que na Ampere, a eficiencia interna do GPU é menor que na Touring. Porque se as eficiências fossem iguais a 3070 terias os mesmos Tflops da 2080 Ti, e a 3080 83,79% mais Tflops que a 2080. E isso não acontece.
O que realmente temos é que 20,83 Tflops Ampere são praticamente equivalentes a 13.45 Tflops Touring. Ou seja, cada Tflop Ampere tem um rendimento interno de cerca de 55% de um Tflop Touring.
20.83/13.45 = 1,548
Podemos confirmar este valor fazendo mais um cálculo.
A RTX 3080 é 83,79% mais capaz que a RTX 2080. Ora tendo a RTX 2080 10.07 Tflops, um ganho de 83,79% equivaleria a ter uma Touring com:
1.8379*10.07 = 18.5 Tflops
Vamos confirmar: Porque se 20.83 Teraflops se equivalem a 13.45, então o equivalente esse GPU com 18,5 Tflops, ou seja o rendimento é de apenas 55%, então a Ampere equivalente teria de ter:
20.83 – 13.45
x – 18.5
X= 28.77 Tflops…
A 3080 tem 29.77 Tflops. Bate certo! (o erro é de 3%)
Isto parece apontar para uma realidade bem diferente daquela que é pintada quando nos apresentam estes números todos tão altos de 20 e 30 Tflops. Na realidade estes Teraflops todos não são assim tão impressionantes como parecem, uma vez que o rendimento interno do GPU caiu em 45% face à geração anterior. E isto de acordo com os comparativos e benchmarks oficiais da Nvidia.
E sendo assim, se um GPU de 29.77 Tflops se equivale a um Ampere de cerca de 18.5 Tflops, a AMD com o seu RDNA 2 não parece ter nada a temer uma vez que o RDNA 1 está já com uma eficiência relativamente próxima da Ampere, esperando-se que o RDNA 2 venha a aproximar-se ainda mais. Da mesma forma, os GPUs de mais de 20 Tflops pelo lado da AMD serão uma realidade.
E isso parece apontar para que a AMD possa vir a concorrer com estes GPUs numa inversão curiosa de cenário: Onde no passado era a AMD quem precisava de mais Tflops para a mesma performance, se calhar no futuro isso vai acontecer ao contrário.
Mas aguardemos para ver, pois pouco ou nada se sabe ainda sobre o RDNA 2.
“…parem de falar que o SSD melhora os gráficos…” 😬
Agora falando sério eu estou vendo os números da Nvidia e algo é estranho, se alguém souber uma explicação melhor eu apreciaria:
A 3070 tem o desempenho relativamente igual ao da 2080ti, mas lá está, a Nvidia diz 20 teraflops 3070 e 13,5 na outra 🤔
Pois é… Eu reparei exatamente isso na apresentação… Na verdade o desperdício de desempenho aumentou ainda mais nessas placas… O i/o vai consumir GPU e diminuir ainda mais a performance. E quantos na teoria rende uma 2080TI? 10 Teraflops estourando?
Se uma 3070 é igual a 2080ti em performance, quer dizer então que a placa de 20 Teraflops desce para eficiência dos 13,5 na verdade? E se esses 13,5 chegam na eficiência de 10 no mundo real, porque raios ainda se usa teraflops como a medida de poder mais sensacional do planeta? Não tem lógica!
Disse alguém aqui no PCManias🤭
Sobre a Nvidia e as RTX 3xxx, isso se chama o poder do Marketing
Eu estava vendo alguns testes e também reparei nisso, porém vi a coisa de outra forma nos testes que eu vi a 3070 era pelo menos 30% superior a 2080ti e levando em consideração que os drivers não estão optimizados para a 3070 é um aumento bom de desempenho, fora outro fator crucial é o preço uma 2080 ti é mais de 1000 dólares e uma 3070 tem preço sugerido de 500 dólares.
Quanto ao que o Sparrow falou realmente uma potência sub-aproveitada, mas eu vou esperar as placas lançarem e os drivers amadurecerem para tirar uma conclusão melhor.
As minhas desculpas por ter retido estes comentários. A ideia era evitar off topics.
Eu tomei um susto ontem kkkkk, pensava que tinha sido um bug ou o comentário tinha sido apagado por outra razão kkkk
Retirando o comentário mãe, os dependentes desaparecem.
O SSD não melhora gráficos, ele está lá para reduzir uma deficiência da arquitetura que é o desperdício de memória RAM e a necessidade de ter loadings demorados e loadings de transição, pois dados precisam ser carregados para a memória com muita antecedência. A existência dos SSDs permite que os jogos carreguem dados on demand ao invés dos próximos 30 segundos de cena antecipados. Indiretamente, ganha-se a possibilidade de apresentar texturas de maior definição e mais elementos na tela, mas quem define como esses elementos serão apresentados é a capacidade de calculo da GPU. Por isso, a demo da UE5 carregou texturas em 8K mas o console não conseguiu lidar com todos os efeitos e elementos apresentados na demo acima de 1440p 30fps. Na vdd a resolução foi dinamica, com 1440p sendo o máximo atingido. Do mesmo modo, a iluminação dinâmica e o RT dependem 100% do poder de computação e largura de banda da GPU. O ganho que o SSD pode trazer para o RT é novamente indireto, a libertação de uso execessivo de memória RAM liberta recursos para a GPU, e consequentemente permite o melhor RT, mas aqui, tanto faz ter um ssd de 2GB/s ou ter um de 15GB/s, é o poder de computação que vai determinar como as coisas terminam.
Outro erro crasso é achar que a GPU está pulando a memória RAM e indo até o SSD, e esse erro é incentivado tanto pela Sony quanto pela MS quando essa ultima diz que a GPU tem uma memória util de 100GB. Isso é algo indireto, o jogo pode contar com 100GB de ativos de alta qualidade, mas eles trabalharão na memória RAM sendo carregados por um buffer de streaming de alta velocidade que fará carregamento sem a necessidade de loadings. A deficiência em relação ao poder de computação e a menor largura de banda tornam a vantagem dos ativos inexistentes. Nao adianta carregar texturas 8K para renderiza-las em 1440p e exibir em tvs 4k ou monitores 1440p. Da mesma forma nao pode abusar de carregar elementos que sua GPU não irá processar adequadamente, e um jogo nao é 100% texturas, essa é a parte estática das coisas.
Segundo ponto, a evolução da tecnologia de renderização irá utilizar essencialmente modelos de aprendizado de máquina e tecnologia de economia de recursos como Sampler Feedback. Dessa forma, a experiência ingame de quem tem um SSD que consiga de manter estável em 2GB/s sera idêntica a dos novos SSDs de taxa de 7GB/s até determinada resolução alvo e capacidade da GPU.
A Demo da UE5 poderia ter sido feita por um ssd de 800MB/s que mantesse a velocidade constante no buffer. Aliás, a Epic ja disse que tem essa demo em execução em um notebook com uma RTX 2070.
O motivo desse assunto ter ganhado tantas páginas é exclusivamente por que é a unica coisa que a Sony poderia mirar o seu marketing para não ficar atrás das especificações. Mas por exemplo, o Series S direcionado a 1080p está melhor servidor com seus 4,8GB/s do que o PS5 e seus 9GB/s direcionados a jogos 4k.
Fernando… Tu não podes limitar a repetir o que te dizem.
Lê o que escreveste.
Os SSDs não melhoram gráficos… E depois citas uma série de melhorias gráficas que só são possíveis graças a eles.
E não… A demo do UE 5 não podia ter sido feita por esse SSD. Porque o que está em causa na demo não é a velocidade dele, que até poderia ter sido 800 MB/s, mas sim a capacidade da consola em receber esses dados prontos a usar, o que só se consegue com o I/O da PS5.
Noutro sistema, manter aquela qualidade teria implicações na performance.
1440p não foi o máximo atingido… Foi o mínimo e o mais comum.
Quanto ao Notebook o Sweeney, que mais que CEO é o dono da Epic, desmentiu isso… O que estava no portátil era um vídeo.
Daí que entre um gajo qualquer que diz perceber muito de chinês e refere uma coisa e o Sweeney dono da Epic que refere outra, desculpa lá se acredito antes no Sweeney.
Daí que não venhas despejar aqui coisas que te impingem em outros locais.
Quanto às série S, o que dizes até tem algo de verdade… A questão é que os jogos não serão programados para ela, pelo que o que o seu SSD tiver de vantagem nunca será visto.
É pena não andarmos todos ainda é com o VGA. Nem precisávamos do SSD para nada e o HDD da PS4 era uma besta.
Reli este comentário… Mesmo que tudo fosse verdade, perante tudo o que foi dito e foi noticiado, isto é verdadeiramente vergonhoso.
“Mas por exemplo, o series S direcionado a1080p está melhor servido com seus 4,8GB/s do que o PS5 e seus 9 GB/s direcionados a jogos 4k”
Quer dizer que : todos os desenvolvedores que elogiam o sistema de I/O da PS5 estão claramente enganados, correto?
Ou seja, novamente o mundo todo está errado e o senhor @Fernando Medeiros é que está certo….
Pode por favor dizer a todos que frequentam o site, quais são os jogos que o senhor programou? Quais são os dev kits que o senhor tem acesso?
Por que esses comentários têm que ser embasados em algum fundamento específico que mais ninguém teve acesso!
Esse ódio puro contra uma marca, a mim parece uma de duas coisas : 1-pura e total cegueira devido a paixão por uma marca em especial ou 2- uma necessidade extrema de atenção fazendo com que o senhor faça esses comentários apenas para receber respostas e se sentir satisfeito com o resultado das afirmações sem lógica e qualquer cabimento que o senhor apregoa, tem efeito nos demais frequentadores do site.
Eu vejo as coisas de uma forma mais abrangente, sou completamente leigo em programação de jogos, mas sou engenheiro de qualidade automotiva, se um Audi A4 sai da fábrica com um motor 1.6 que débita 110 cavalos em matéria de motor e potência bruta ele é completamente equivalente ou inferior a um Ford focus com um motor 1.0 com tecnologia ecoboost que consegue debitar até 125 cavalos.
Todo o resto irá contar depois, mas a tecnologia é completamente diferente!
Esse é um exemplo que eu conheço e domino.
Quanto às consolas, vejo o mesmo (em perspectiva, pois não possua ainda nem uma nem outra) nada impede que com a devida tecnologia o motor de 10 teraflops da PS5 se equipare ou até supere o motor de 12 teraflops da XSX.
Irá ser assim? Não faço ideia!
Por isso, do meu lado nada de afirmações!
Até mesmo o Mário, que todos os frequentadores admiram pelo seu conhecimento técnico, deixa no ar essa questão. Ele apenas nos elucida a respeito das informações que ele apura.
Então… Como raios o senhor @Fernando Medeiros possui essas certezas todas?
Nos elucide, por favor!
Ele tem razão nessa parte.
9 GB a transferir texturas 4K podem não levar grande vantagem sobre 4.8 em texturas 1080p.
Mas aqui a preocupação nem devia ser a PS5. Devia ser a X!
Porque a PS5 tem 9 GB (na realidade devem ser perto de 12 graças ao Oodle textures), mas a X tem de transferir texturas 4K com a mesmíssima velocidade.
E é esta palhaçada de fanboy que surge aqui descarada. A sede de atacar a PS5 é tanta que nem se apercebe que na realidade o que está a ser dito é muito, mas mesmo muito mais preocupante na X.
Passa batido os comentários desse cara. É sempre cheio de achismos e sem lógica alguma. Eu já nem leio os textos que escreve. É sempre irritante ver como certas pessoas tem certeza de algo se embasando em nada. Só serve pra tirar com a cara dos demais frequentadores…
Pá.. eu já nem sei o que mais dizer.
Vi um comentário muito porreiro acerca de tudo o que rodeia a PS5, que são os paradoxos.
E então temos:
A PS5 de Schrödinger
A PS5 é ao mesmo tempo muito cara de produzir e tão pior que a Xbox série X que não pode ser colocada a 399/499 senão a Sony perderia muito dinheiro
Mas ao mesmo tempo ela não pode ser colocada a 449/549 ou 499/599 porque assim seria demasiadamente cara
E este paradoxo estende-se ao CPU
O GPU da série S é simultâneamente mais rápido e mais lento que o da PS5.
mas depois temos mais paradoxos. Como o da performance:
O paradoxo da performance
A PS5 não tem performance suficiente e vai atrasar a Xbox série X
A Xbox série S está porreira e não vai atrasar a série X
E finalmente o paradoxo da velocidade do SSD
Paradoxo da velocidade
A Sony mostrar o R&C a carregar níveis em 2 segundos não prova que não há virtualmente ecrãs de carga e que o SSD da consola é mais rápido que o da XSX / XSS
Mas a Microsoft mostrar dois jogos a demorarem mais de 10 segundos a carregar uma gravação também não prova que a consola seja mais lenta que a PS5
É destas distorções que actualmente os fans vivem… não sei… criam mundos virtuais, onde inventam realidades alternativas, e acreditam nelas ao ponto de virem aqui dâ-las como verdade.
Programadores da demo do UE 5
Interestingly, it does work very well with our dynamic resolution technique as well. So, when GPU load gets high we can lower the screen resolution a bit, and then we can adapt to that. In the demo, we actually did use dynamic resolution, although it ends up rendering at about 1440p most of the time.
Usa resolução dinâmica, e quando o jogo fica carregado podemos descer a resolução um pouco. Usamos a resolução dinâmica e a demo acaba por render a 1440p na maior parte do tempo.
Ou seja 1440p resolução mínima.
Mas para o Fernando a resolução vai subir até 1440p.
Ou seja 1440p resolução máxima.
O CEO e DONO da Epic diz que eles corriam um video no portátil do jogo a correr na PS5. O Fernando diz que corria num portátil baseado num… gajo qualquer!
E é isto…
Sinceramente isto começa a saturar-me!
Mario, serve para você TB: Se queres deixar aqui no site sempre com seus delírios, ok. A partir do momento que outros usuários e você ignorar os comentários dele, perde a graça e isso acaba. É o cara que mais espalha desinformações aqui e isso tira total o foco do que faz muitos de nós estarem aqui: Buscando informações ricas e baseadas em fatos! Um abraço.
Saturar-te? Entao Mario se isto e uma comedia? A comedia dos palhacos do FUD que foram encurralados entre duas narrativas contraditorias que tem que vender..
Sim, porque aantes da XsS, a PS5 era a mais fraca e podiam dizer o que quisessem.. Apos a XsS deu erro de sistema e por isso tens essas barbaridades. Eles ainda nao acertaram com a proxima narrativa.
E enquanto isso… a PS5 esta com indice de aceitacao na ordem dos 70% face a Xbox nos principais mercados onde a Xbox poderia ter uma chance. UK e USA.
Indo por partes:
“SSD esta la para reduzir uma deficiencia da arquitetura que e desperdicio de memoria RAM e a necessidade de ter loadings demorados e loadings de transicao, pois dados precisam de ser carregados para a memoria com muita atencedencia”
Primeiro, nao e nenhuma deficiencia na arquitetura. E uma deficiencia no IO relativo ao HDD. Basicamente chegou-se a um ponto em que os HDD mecanicos estao a limitar a performance do sistema, dado que os chips tem poder mais que suficiente para apresentar mais e nao o estao a fazer.
Segundo, nao e so a memoria RAM que e desperdicada… todo o sistema e desperdicado dado que tem que render mais que o que e visivel.
Terceiro os loadings demorados sao uma consequencia, nao a causa. Eu compreendo cair nesta esparrela dado que a MS so fala em loadings (a falta de outra coisa para vender as duas consolas que construiu), mas e importante reter isto. Os laodings demorados sao a consequencia de se terem sistemas com maior complexidade poligonal e a falta de um IO que permita carregar tudo rapidamente.
“O SSD nao melhora graficos…. A existencia dos SSD permitem que os jogos carreguem dados on demand ao inves dos procimos 30 segundos de cena antecipados… ganha-se a possibilidade de apresentar texturas de melhor resolucao, maior defiincao e elementos na tela….”
Mas tu sequer les o que escreves? Entao nao melhora graficos, mas permite… melhorar os graficos com melhores texturas, maior definicao, apresentando mais elementos?
E diz-me la se permite ao sistema apresentar mais elementos porque nao permitira apresentar elementos mais complexos,ie., com mais poligonos?
Eu acho que nao estavas a pensar bem no que querias dizer quando escreveste isto… pelo menos escreveste a verdade, mas tentaste vender a patranha de que estes dados nao significam o que significam.
“Por isso a demo carregou texturas em 8K mas o gpu nao conseguiu lidar com os elementos apresentados na demo acima de 1440p e 30 fps”.
Correctissimo. O GPU pode atingir o seu limite de apresentar pixeis de detalhe e por isso pode nao chegar aos 4K nativos… Felizmente e gracas ao Checkerboard Rendering, isso e um problema facilmente ultrapassavel. E como o Battaglia so conseguiu dizer mal do CBR face ao DLSS 2.0 e com zooms de 800%… eu acho que a discussao aqui esta terminada.
” O ganho que o SSD pode trazer para o RT e novamente indireto.. a libetacao de uso excessivo da memoria liberta recursos para a GPU.. aqui tanto faz ter um SSD de 2 GB/s e de 15 GB/s”
Correctissimo. O SSD contribui para melhor RT ao permitir ter mais RAM livre para o mesmo. Agora a tua logica de que a velocidade nao contribuir para isso e que me deixa outra vez a questionar se tu les o que escreves…
Tens um SSD que te enche a RAM 7x mais rapido que outro… logo reduz a necessidade de carregar elementos para a RAM com mais antecedencia face ao outro… logo estas cada vez mais na situacao de que tens a RAM para a cena que estas a render… enquanto que o outro vai precisar de ocupar mais RAM para teres tudo pronto para render os frames no tempo preciso… logo, como e que a velocidade do SSD nao contribui para nada disso?
“outro erro crasso e achar que a GPU esta pulando a memoria RAM e indo ate ao SSD…”
Eu acho que “erro crasso” e fazer afirmacoes deste tipo sem saber do que se fala. PS3, 256+256 gb tinha transferencias a volta dos 22 GB/s tal como a Xbox. A Sony, com o oodle texture anda a volta dos 22 Gb/s. Tens certeza do que afirmas?
O GPU precisa de alto acesso a informacao que precisa de refrescar no momento… o resto (elementos longiquos ou assets de muito baixo tamanho) o que te diz a ti que nao pode ir busca-los ao SSD? Ha assets que precisam estar na RAM e ha outros que.. nao. Ignorar isto, tambem e erro crasso.
“… a evolucao de sistemas de renderizacao ira utilizar modelos de aprendizado de maquina e tecnologia de economia de recursos como Sampler Feedback. Dessa forma a experiencia ingame… sera identica… entre quem tem SSD que consiga manter estavel a 2 GB/s … dos novos SSD ate 7 GB/s.”
Mais um erro crasso… porque nao fazes ideias de que novas exigencias irao surgir, logo estas a falar com base em nada…. Nao fazes ideia do tamanho dos novos assets, nao fazes ideia do tamanho dos novos mundos, logo imaginas que tudo sera possivel de devido a magica dessas tecnologias e por isso a capacidade de ganhos e igual. Mas isso e a tua imaginacao com tendencia a desmerecer algo porque existe na PS e a Xbox nao tem.
Se os assets aumentam, essas tecnologias so exitem com um unico obejctivo – poupar memoria ou ciclos de relogio, e em ambas mais SSD contribui pois permite acelerar o processamento do GPU em tempo real.
Ou seja o que dizes e puro achismo, infundado.
“A Demo do UE5 poderia ser feita por um SSD de 800 MB/s..Alias a Epic ja disse que tem a demo em execucao num notebook…”
Poderia? Quem disse? Certamente nao foi quem fez a demo. E nao, a Epic jamais disse que tem a demo em execucao num notebook, o que disse foi que havia um notebook a reproduzir um video da demo. Algo que ate o meu notebookk, sem SSD e com um core i3 pode fazer.
“O unico motivo desse assunto ter motivado tantas paginas e exclusivamente porque e a unica coisa que Sony poderia mirar o se marketing para nao ficar atras de especificacoes”
Mais uma vez pegas em sonhos molhados de fanboys, distorces e pintas como se fosse a realidade. Mas nao e.
A Sony nao precisa disso quando tem o que ja mostrou… jogos! Jogos que tu olhas e identificas elementos que nao poderiam correr na atual geracao. Identificas RT como nunca foi visto nem no PC, identificas loadings em gameplay, infimos.
Tu escreves como se a Xbox neste momento fosse uma opcao valida… e uma ameaca.
A triste realidade e que a Xbox neste momento e a opcao que fica atras. Esta a perder em todos os polls para a nova geracao. E esta a perder porque a historieta de vender uma geracao com indies e cross-gen, que qualquer pessoa com dois dedos de testa sabia que nao ia funcionar, nao funcionou.
E porque a historieta de que nao ha geracoes, que todas as consolas sao a mesma geracao, quando qualquer pessoa com dois dedos de testa sabe que se ha novo hardware e esse hardware tem novas caracteristicas que permitem algo que antes nao seria possivel, sempre foi pura treta. Treta que eles agora, com o rabinho entre as pernas vao ter que retratar como terao que retratar Halo Infinite.
A Sony ter pegado no SSD e explicado (sim porque tudo o que eu te escrevi e que tu mesmo escreveste – claramente sem entender bem o que escreveste dado que te contradizes constantemente foi explicado pela Sony) nao tem nada de marketing como tentas passar (alias, tu primeiro explicas sem entender o porque de nao ser marketing e depois pespegas que e so marketing), mas sim o demonstrar de ganhos.
Quando se adjectiva algo como sendo “marketing” essa adjectivacao implica que a caracteristica nao passa de banha da cobra, ou seja, nao e nada ou pelo menos nao e nada que melhore… como por exemplo o VRS… ou a XsS. Quando se demonstra o SSD – e isso ambas o fizeram – isso deixa de ser marketing para ser real.
As contas fazem sentido, mas é nos testes que vemos a verdade, e eu acho que a nvidia vai arruinar a amd, no fundo a rtx 3070 equivale a cerca de 15 tf touring, ou seja é menos eficiente mas ser menos eficiente não significa ser menos capaz, e as novas placas sao na minha opinião colossais.
Eu se fosse hoje ia para Nvidia sem pensar duas vezes.
Eu não compro coisas baseadas em marcas, ou em ideologias. Sem comparativos nunca diria que escolhia fosse o que fosse. Porque o que queria era escolher a melhor.
Já agora que testes?
Se eu te mostrar um teste com ganhos de 50% esse é o ganho? E se te mostrar 2?
E se te mostrar 10?
Há milhares de jogos. Não é a escolher os melhores que podes avaliar a diferença.
Aquilo que está feito no artigo é errado. Mas é baseado nas escolhas da Marca. E nesse sentido quando a marca está a publicitar o produto baseado nesses benchs, usar os mesmos como referência não é errado.
Seja como for eu não pretendo passar a ideia de uma quebra de eficiência de 45% ou outro valor qualquer. Eu não vendo placas!
O que eu tento aqui mostrar é que há uma quebra relevante na eficiência, e que por esse motivo os Tflops apresentado não são assim tão impressionantes como parecem, sendo que com esta quebra, tudo aponta que a AMD pode perfeitamente concorrer contra eles.
Sr Mário, as suas contas fazem sentido, já o referi a questão é que a nova 3070 custa 499 euros e supera uma placa vendida hoje a 1400 euros, depois uma coisa é a teoria outra coisa é a pratica, é obvio que não vai ganhar em todos os jogos e nuns ganha por mais noutros por menos, mas eu acho impressionante o salto dado pela nvidia.
Você gosta de ser minucioso e ir ao mais pequeno pormenor, respeito isso, eu olho para as contas e para o preço e penso salto gigante.
Eu sou um console gamer e no fundo até espero que voce tenha razão que as consolas consigam acompanhar, mas tenho as minhas dúvidas até porque hoje são 35 tf daqui a dois anos podem ser 40 45 50.
A questão Rui é que os 1400 euros são um preço NVIDIA. Acreditas mesmo que com a 3070 a 500 euros os custo da 2080 Ti é 1400 euros?
Vamos ser coerentes.
Tu a partir do momento que anuncias um novo GPU ao nível da 2080 Ti por 499 euros, só uma pessoas desprovida de qualquer neurónio é que compraria um GPU NVIDIA. A desvalorização instantânea do GPU será brutal.
Mas agora pensa. Será que na NVIDIA são tão estúpidos que não pensaram nisso?
Com esta medida a NVIDIA perdeu clientes. Quem comprou um GPU NVIDIA nos últimos meses deve estar podre, e pior se foi um GPU de topo.
A NVIDIA não tem noção disso?
E não tem noção que os stocks de GPUS das várias gamas que tem no mercado vão empancar?
Esta situação, eu, só a consigo explicar de uma forma… Chama-se medo!
A NVIDIA conscientemente assumiu isto com receio do RDNA 2. Acredito mesmo que a NVIDIA possa estar com margens historicamente reduzidas.
Posso estar enganado, mas nada, mas mesmo nada, explica de forma coerente o que se passou, a forma como a NVIDIA deve ter deixado imensos clientes completamente chateados, e como assumiu prejuízos nos stocks ( que talvez tenha compensado em parte ao não descer preços e explorar valentemente quem comprou recentemente um dos seus GPUs topo de gama).
Agora questiono-te. Imagina que tinhas comprado uma RTX 2080 Ti por 1200 ou mais euros. Não era um mau negócio pois históricamente os novos GPUs sempre se enquadraram na gama de preços dos anteriores e sempre houve o respeito pelo cliente com o enquadramento das gamas seguintes. Mas aqui não houve. Se tivesses comprado, como te sentias?
Ainda pensarias em voltar a comprar-lhes algo?
Essa coisa de só se olhar para o umbigo não dá para mim, porque um dia o lixado posso ser eu… E o que se passou aqui foi algo muito estranho e que não deveria agradar ninguém. Se a NVIDIA ia lançar algo igual a estes preços deveria ter tido a decência de, com antecedência baixar os preços dos GPUs existentes.
Quanto aos 50 Tflops… Serão 5 vezes mais… A RTX 208o Ti é mais de 8 vezes a PS4… E quem dita o mercado e os jogos é a PS4. Porque é lá que os jogos vendem mais.
E se os 50 forem com redução de eficiência só são 50 em número. Porque em performance não são. E como este artigo mostra, os 30 Tflops da 3080 na realidade são 19 na Ampere.
Rui, uma coisa e preco, outra e Hardware.
Eu concordo contigo quando dizes que com drivers futuros a coisa se invertera.
Mas a verdade e que a performance a nao corresponder a diferenca de flops. Mas ainda assim a esmagar a geracao anterior de placas.
Que papo é esse? “As contas fazem sentido, mas eu não me importo”? Tipo, qual a lógica? Mario apresenta um artigo totalmente racional e lógico, que outras pessoas perceberam também e você solta um “não me importo se mentem, gostaria de ter uma”. Você acaba de afirmar que na sua opinião as novas placas são colossais e mesmo que a realidade seja outra, você não se importa. Meu deus. Haahahah
Aconselho a ler de novo o meu comentário, talvez se faça luz, talvez… tenho as minhas dúvidas.
Mário, esse desperdício de teraflops não seria por que as placas ampere ainda não estão com os drivers atualizados e com correções de bugs? E no artigo de ontem você disse que a GPU do PS5 estaria próxima a uma 2080 super, mas como você apontou sobre o problema da largura de banda da memória da 3070 ser de 448gb/s a impede de ter ganhos maiores que a 2080 ti. Então, já que o PS5 tem 448gb/s ele não estaria comparativamente mais próximo de uma 2070 super?
A questão da largura de banda que referi prende-se com uma realidade que não existe na PS5. Mais unidades de processamento e menos largura de banda.
Na PS5 as unidades de computação são reduzidas. A largura de banda por CU até é superior à da X.
Comparar consoles com PCs sempre se tira conclusões precipitadas… Eu evito, pois são mundos muito diferentes… E no que diz respeito ao ps5, ainda mais diferente por ser .console clássico, bem distante da proposta do PS4… Os 10.3 teraflops do ps5 podem ser mais eficientes do que a 2080ti e temos tb cache scrubbers na ps5, poupando até 40% da largura de banda, dentre outras otimizações. Ou seja, um console clássico tem suas vantagens frente ao PC.
Exacto.
Eu li um comentário no GAF e o vou tentar transmitir porque realmente não achei o original:
“a Nvidia parece ter voltado ao que no Brasil ficou conhecido como PMPO,”
Sempre que passavas em frente uma loja via os rádios com números incríveis de potência como 2000wPMPO ou outro número absurdo de potência… É algo tão enganador que até aqui nessa bagunça de país fizeram uma lei para proibir essa malandragem por parte dos fabricantes… Mas o fato era que em potência real tínhamos um número 10 até 20 vezes menores.
A questão é que a Nvidia não está a exagerar tanto quanto os PMPO, mas também não está a passar a realidade das coisas. Pois ela diz dobrar o número de instruções por ciclos mas a realidade não é dobrar o que é calculado… Há ganhos mas não o dobro…
Wikipedia:
* ** Fabricantes de sistemas de áudio utilizam esse termo (PMPO) com especial ênfase por razões bastante óbvias: querem indicar um aparelho de potência (contínua ou firme) mais elevada, o que tem um apelo ou significado mercadológico (ou de marketing) muito expressivo, incrementando maior colocação no mercado notadamente junto ao público consumidor leigo. Entre especialistas, tal termo é conhecido com o seu real significado e, portanto, apresenta a conveniente utilidade despida de apelos secundários.
Sob o aspecto normativo, é importante esclarecer que ainda não é uma medida padronizada e é muito utilizada para fins de marketing, com o intuito de divulgar potências exageradamente altas, pois expressam uma potência que o aparelho pode fornecer em intervalos de tempo muito curtos. Por vezes, tão curto que é impossível distinguir o som reproduzido, que mais se assemelha a um estalo. Desse modo, a potência PMPO não representa a capacidade do aparelho em funcionamento normal. Portanto, seu uso não é recomendado como aferidor de capacidade de áudio de equipamentos, preferindo-se o valor de potência médio, impropriamente dito RMS.** *
Temos que dar mérito ao preço da Nvidia porque simplesmente eles desceram o no fabricação é aí que os ganhos realmente valem os dólares!
14nm para 7nm e temos o valor que eles alcançaram… Então não é só porque a Nvidia quiz assim, a TSMC também lhes favoreceu o preço.
A Nvidia inflou os TF por causa dos consoles
Precisava mostrar o “dobro de TF” dos consoles por 500 USD.
Vamos esperar os benchs de PCs com RDNA2.
Rumor do RedTechGaming é que RDNA2 vai ter um chiplet com 128MB de cache para compensar os GDDR5 frente aí GDDR6 ou 6X, sei lá, da Nvidia.
Ela não insuflou nada… O GPU tem os TFLOPS que tem. A arquitetura é que tem uma eficiência baixa, e como tal estes Tflops são mera decoração.
Se 4 TFLOPS RDNA são 6.4 TFLOPS GCN pelos ganhos na eficiência, 29.77 Tflops Ampere são cerca de 19 TFLOPS Touring pelas perdas de eficiência.
Isto baseando nos valores ditos pela própria NVIDIA.
Lembrei que a Nvidia não separa as GPUs para servidor de GPUs para desktops+jogos, ao contrário da AMD com RDNA e CDNA, logo faz sentido fazer uma arquitetura com TF inflados
Do mesmo jeito que o SX é o melhor valor de TF por 500 USD
SX podia ter menos CUs e ser 2GHz, e entregar até 11TF, que talvez o desempenho fosse igual ou melhor para jogos, mas não ia ser tão bom para o Azure.
É cedo pra dizer que a eficiência dos tflops foi reduzida com a arquitetura nova da NVIDIA, e jogos que não foram produzidos para aproveitar essa nova arquitetura, e nem os drivers estão otimizados. Historicamente, a Nvidia tem massacrado a AMD a muito tempo, com raras exceções, como as performances voltada para computação das Maxwell. No fundo, eu torço para que seja uma virada de jogo e aconteça o milagre da RDNA 2 estar superando a eficiencia da NVidia a tal ponto que precisaram inflar os valores de tflops. Alguns estão falando em ganhos de 50% em cima da RDNA 1, e isso colocaria o PS5 e o Xbox SX em terreno acima até das 2080, e o Xbox SX em nível da 2060. Mas acho muito difícil mesmo eles regredirem, e estou mais propenso a acreditar que com o DLSS 2.1 a diferença vai atingir um nível humilhante pra AMD.
Os valores sao o que sao. Concordo com a parte dos drivers, mas a verdade e que em codigo geral o ganho e o que e.
[OFF]
Grande loja da Espanha vaza o preço do PS5 399/499.
Confio no rumor porque se trata de um sistema feito em Cobol lol old school.
https://twitter.com/AllGamesDelta_/status/1305129537471238145?s=20
O El Corte Inglês é uma loja como outra qualquer. Tem um “placeholder” com preços esperados.
As lojas não sabem o preço da consola. Ele ainda não foi divulgado!
Isso nao tem nada de confirmação, aqui em França a tambem mostraram (na F’ac) a XSX a 599 e portanto ela vai custar 499
http://www.xboxygen.com/local/cache-vignettes/L790xH228/xbox-series-x-prix-fnac-e608b.jpg
http://www.xboxygen.com/local/cache-vignettes/L790xH616/xbox-series-x-prix-fnac-2-2cf44.jpg
Mas tambem mostraram noutra loja (Boulanger) a referência da XSS
http://www.xboxygen.com/local/cache-vignettes/L790xH164/xbox-series-s-boulanger-e8c52.jpg
Tanto uma como a outra foram mostradas na semana passada antes dos leaks da XSS
A absoluta insanidade em torno dos preços do PS5 está atingindo novos patamares. A partir disso, surgiu um novo paradoxo filosófico:
O PS5 de Schrödinger:
*O PS5 é simultaneamente muito caro de fabricar e muito pior do que o Xbox Series X
não pode ter o preço de 399/499 porque perderia muito dinheiro
*Não pode ter o preço de 449/549 ou 499/599 porque não tem potencia para este valor.
Este novo paradoxo anda de mãos dadas com dois novos paradoxos criados pela propaganda da próxima geração e está sendo adicionado a dois paradoxos existentes:
O Paradoxo do PODER:
“…que afirma que o poder de um console só pode ser usado como um argumento dependendo de quão poderoso o console é comparado para um produto Sony..”
*O PS5 não tem potência suficiente e vai atrasar a Série X
*A Série S está bem e não vai atrapalhar a Série X
E por último o paradoxo da VELOCIDADE:
“…que afirma que a velocidade de um console só pode ser medida se o fabricante não puder mostrá-la…”
*Sony mostrando RC Rift Apart carregando novos níveis em 2 segundos não prova virtualmente nenhuma tela de carregamento e que o console é mais rápido que o XSX / XSS
*A Microsoft mostrando dois jogos levando 10 segundos para carregar e salvar não prova que o console não é mais lento que o PS5.
https://www.neogaf.com/threads/next-gen-ps5-xsx-ot-speculation-analysis-leaks-thread.1480978/post-260118851
Acredito que a Sony ate esteja com dor de cabeça para decidir o preço certo para a ps5, por um lado, ja temos os preços da concorre, com a XSS a ter o preço baixo e com a XSX a ter um preço “razoavel”
Por outro lado tem a “saude” da Sony nas maos pois o ramo da PlayStation e um dos ramos que sustenta e equilibra a saúde financeira da empresa (ja no lado da Microsoft o ramo Xbox e so mais um, mesmo que nao venda muitas consolas a saúde financeira da Microsoft nao tera muito impacto , ou seja se o preço for muito alto, de maneira a fazer lucro e rentabilizar a ps5 a curto prazo, o que pode levar a perder muitas vendas pois nao acredito que mesmo a versao digital tenha um preço tao baixo que o da XSS (acredito que deve haver uma diferença nos 50$ entra as 2 versões da Ps5) o que fara com que muitos jogadores que ou nao tenham meios para comprar uma consola tao cara, ou por que nao lhes interessa o 4k, etc comprem uma XSS que e muito mais barata, e tambem pelo xbox all access, que para muitos vai ser uma grande alternativa
Ou pode escolher o preço com o minimo de lucro e rentabilisar a ps5 a longo termo, o que pode ser um risco para a saude da empresa, pois tera que vender muitas consolas e muitos jogos para recuperar todo o envestimento, que e coisa impossível de saber neste momento
Agora a mim nao me admirava muito ver a ps5 um pouco mais cara que a XSX pois a sony inovou mais uma vez com a sua consola, nao se limitando a usar o standard, o que tem custos no desenvolvimento
Ps: isto e a minha maneira de pensar, talvez ate esteja errado em tudo o que disse
Nem por isso. A Sony nunca iria ultrapassar os 499$, isto seria suicidio, e ela bem o sabe devido a PS3. E a edicao all digital, teria que ser entre 50$ a 100$ mais barata. A questao e que por 50$ ninguem a preferiria logo os 399$ sempre foram a escolha obvia.
Sobre a XsS… e preciso primeiro que essa consola se torne uma dor de cabeca.
Isto veio atrasado… Já tinha sido aqui colocado.
Pessoal, só postei o rumor sobre o preço do PS5 para fazer piada com Cobol haha.
Um salve aos dinossauros.
Abraços.
399 seria perfeito para a PS5 Digital assim como o Series X poderia ter sido 449 ou até mesmo 399 senão fosse esse atraso chamado leitor de disco. mas a Series S deveria ser 249 pelos ridículos 512GB e 299 seria o ideal para 1TB de armazenamento.
Esse atraso chamado leitor de disco dá de comer a muitas pessoas.
Imagina que está pandemia, e este recolher obrigatório a que fomos obrigados, era mais grave. Uma guerra, uma catástrofe natural, algo que destruía infra-estruturas ou impedia o seu bom funcionamento. Com um gerador ou um painel solar e uma consola e uma TV podes jogar o físico. Mas boa sorte a jogar com dependências online num caso destes.
Amigo Mario, ps consoles por natureza não conseguem ser mais otimizados e render mais que pc com dobro de performance? Pois pelo que vejo os teraflops da rdna 2 são bem eficientes, visto que ps5 e xbox series x são consoles de alto desempenho.
Não… conseguiam!
Isso era uma realidade quando os PCs usavam APIs de alto nível e as consolas usavam APIs de baixo nível.
Agora com o DX 12 os PCs tem baixo nível tambem, apesar que não conseguem ir tão fundo pela diversidade do hardware: neste momento um GPU de consola não deve ter mais de 30 % de vantagem.
E sim, o RDNA era eficiente e históricamente aproximou-se mais do que nunca da Nvidia com o Touring… o RDNA 2 deverá ser melhor e igualar ou mesmo passar o Touring. Daí que esta quebra das Ampere, pode jogar a favor da AMD.
Eu nao diria isso… A verdade e que, como bem disseste, as consolas definem standard grafico… e o que tens e uma aproximacao geral dos GPUs as consolas. Mesmo na nVidia que apos a Maxwell se aproximou da GCN em compute. \
Logo foi um produto de duas coisas… API para reduzir overhead na GPU – , e GPU a copiar as consolas de modo a permitir performance semelhante.
Mas como HZD prova -quando tens um jogo feito ao metal… a transicao nao e facil…
Não é porque está optimizado para um hardware único… É a outra vantagem a do hardware único. A PS4 Pro opta pela compatibilidade pelo hardware por isso. Com hardware único podes ir mais baixo ainda.
Já o API falava em termos mais gerais, e pensei na Xbox onde o API é partilhado, com optimizações extras na consola.
Diga-se que na Xbox o hardware único não existe verdadeiramente. A One X não tem nada de comum na sua estrutura com a One.
Eu nao sei se é por ir mais baixo… ou se é por explirar completamente as características únicas (ACEs +GPGPU)… ou se por agendamento com base específica no clock do hardware.
Repara se tu tens uma fabrica, e queres automatizar a produçao podes planear a tarefas de modo a que a cadeia de produção funcione ao máximo. Coordenas o ritmo… planeias as directivas de acordo com o número de máquinas e unidades de produção… e dessa forma consegues agendar as tarefas de modo a que a tua planta de produção produza ao máximo sabendo o seu ritmo..
O PC é como se te dissessem dá me o teu plano que eu vou polo nas minhas fabricas… que tem um numero diferente de unidades de produção, operam a velocidades diferentes, e tem agendadores diferentes… chega ao fim as coisas nao funcionam de forma conveniente em nemhuma delas excepto talvez naquela que mais se aproxime ao que tens.
Eu no PC, quando o jogo saiu reparei que muitas animações contextuais foram cortadas. Como o cabelo da personagem principal que parece “colado”, enquanto é mais dinâmico na consola.
RTX 3080 vs RTX 2080 Ti
https://www.youtube.com/watch?time_continue=118&v=A7nYy7ZucxM&feature=emb_logo
Ganhos de 50% quer nos fps mínimos como máximos.
Tflops 2080 ti – 13.45
Tflops 3080 – 29.8
115% mais Tflops… 50% mais performance.
A perda de rendimento interno é clara e evidente. Neste jogo passa os 50%!