Esta é uma situação que aqui já abordamos várias vezes, sob a forma da Lei de Amdahl.
Nota inicial: Apesar de o que aqui é dito não ser novidade para os nossos leitores, nunca é demais reforçar a ideia pois há muitos que duvidam regularmente do que aqui se explica.
A lei de Amdahl é clara… a paralelização do código nunca é conseguida a 100%, pelo que o aumento do número de núcleos de processamento não traz ganhos lineares, sendo que mesmo no caso mais perfeito de paralelização o limite é alcançado com 4096 processadores, ou 64 CU.
Ora por aqui podemos ver o que está no gráfico de baixo, e que representa a lei:
Com uma paralelização perfeita, os 52 double CU da Xbox, ou 3328 processadores, mesmo com uma paralelização de 95%, estão longe de ter um ganho enorme face aos 36 CU ou 2304 processadores do GPU da PS5.
Por seu lado, o aumento da velocidade de relógio também tem os seus inconvenientes. O aumento dos consumos com o aumento da velocidade é exponencial, e isso quer dizer que em altas velocidades, aumentar mais causa um enorme aumento nos consumos. O gráfico velocidade consumo é dessa forma semelhante ao que se segue:
Independentemente da escala usada, ou do limite de MHz colocado o que veremos é sempre algo semelhante. Os aumentos iniciais de velocidade consomem pouco mais, mas a determinada altura aumentar a velocidade traz aumentos enormes no consumo.
A consequência disso passa pelo maior consumo energético, maior libertação de calor, e uma redução na relação performance por watt consumido (performance/watt).
Eis isto tudo dito, de forma simplificada por Sebastian Aaltonen:
Wider execution never yields perfect scaling. Not all processing parallelizes perfectly. However narrow execution with higher clocks (to obtain the same performance) results in worse perf/watt. Both designs choices are plausible. Different trade-offs in cost/perf/heat/noise.
— Sebastian Aaltonen (@SebAaltonen) February 19, 2021
A escolha de uma metodologia ou de outra trazem ambas consequências. E curiosamente neste campo Sony e Microsoft seguiram caminhos diferentes para as suas consolas.
A Microsoft optou por mais paralelismo, ao passo que a Sony entrou por um caminho por norma não usado em consolas, o aumento das velocidades. E este não é um caminho usado muitas vezes pois o aumento dos consumos traz como consequência aumentos de temperatura.
Dessa forma, o que possibilita à PS5 ter seguido esse caminho é a gestão de temperaturas conseguido com um sistema de refrigeração inovador, associado a um sistema de consumos fixos que permitem o dimensionamento adequado da solução de arrefecimento.
No entanto tal obrigou a PS5 a uma fonte de 350 Watts, ao passo que a Xbox apenas necessitou de uma de 300 Watts.
Eu acho que o que atrapalha mais ainda a gpu do Xbox é o fato de ter mais CUs do que o normal em cada shader array e pouca cachê para essas CUs.
Ou seja a nvidia e a amd, anda tudo maluco, é sempre aumentar os stream cores/nvidia cores.
Então se é so aumentar a frequência seus nabos… gandas ignóbeis.
Se o paralelismo não fosse o caminho, não andavamos a fazer isso bem, desde sempre .
Nvidia eu não sei, mas as GPUs da AMD já aplicam esse conceito de aumento considerável de velocidade (mhz), suas GPUs vão além do que a GPU do PS5 consegue ir.
Mas eu entendo o seu seticismo sobre Rui, antes era a questão das frequências variáveis, agora em pauta Velocidade x Paralelismo. De certo que os jogos já lançados até então nos mostram que este embate é acirrado, monstrando os consoles mais próximos do que suas especificações brutas nos mostravam né
Vc leu o artigo?
O problema de aumentar os clocks é que vc aumenta exponencialmente o consumo e tmb aumenta a produção de calor.
Oq é um grande problema pra PCs tmb, já que ambas Nvidia e AMD precisam levar em consideração os designs de terceiros pra cooling, design das pcbs, das case de computador e tmb pra não consumir mais energia do que as fontes de terceiros poderiam prover.
Entt apostar em paralelismo é uma idéia melhor, pra qualquer peça de tecnologia na verdade caso a empresa não tenha um solução pra lidar com todos os problemas dos clocks.
Mas isso ainda não muda o fato dos ganhos não serem lineares e que aumentar clocks pode apresentar melhor performance em comparação.
Na verdade as novas placas da AMD apresentam clocks similares ao do PS5, ou seja tem empresa arriscando apostar nos dois ao mesmo tempo.
Rui, com o devido respeito. Acabaste de ter um dos comentários mais ignóbeis alguma vez aqui colocados, que demonstra que nesse campo andas totalmente a ver navios, sem reconheceres tal facto!
A realidade é que a velocidade sempre foi preferível ao paralelismo. Um CPU de muitos cores pode bater um de menos cores, mas a performance de cada Core depende apenas da velocidade.
E por aqui se torna fácil constatar o óbvio. Que em processadores com o mesmo número de cores o que os tiver mais rápidos é melhor, mas igualmente o menos óbvio, que um processador com menos cores e mais rápido pode ter a mesma performance que um com mais cores e mais lento.
Aliás vês isso na fórmula de cálculo dos Tflops, a performance máxima teórica, onde tanto a velocidade como o número de cores entram, e há infinitas combinações de velocidade e cores para a mesma performance.
Mas há outros factores que não são tomados em conta nessa fórmula. Por exemplo, nos GPUs tens uma componente não programável e fixa que não é tomada em consideração na fórmula de performance. É o pipeline gráfico tradicional, onde se geram os pixels, os triângulos e a geometria. É uma parte igualmente relevante para a performance, e isso percebe-se analisando o histórico da AMD vs NVIDIA, onde a AMD sempre teve mais computação e mais Tflops, mas perdia para a NVIDIA devido à rasterização.
Daí que o valor de um GPU vem sempre dos dois, e neste caso a rasterização ganha pouco com o aumento da computação, mas tem ganhos proporcionais ao aumento da velocidade, algo que, diga-se, ocorre igualmente com a computação.
Nesse sentido a velocidade sempre foi a preferência dos fabricantes. Os computadores chegaram a passar os 4 GHz.
Infelizmente a velocidade rapidamente alcançou limites em que a térmica gerada obrigou a outros caminhos. E nessa fase apareceu o paralelismo. Uma forma de, sem aquecer tanto, conseguir performances equivalentes (apesar que mais núcleos também aquece mais).
E atualmente o que os fabricantes fazem é jogar com os dois, tentando conseguir o melhor equilíbrio térmico e de performance.
Infelizmente o paralelismo não escala da mesma forma que a velocidade. Se um aumento de 20% nos MHz se traduz em 20% mais de performance em motores devidamente preparados para a suportar, o mesmo não pode ser dito do paralelismo.
Aumentar a performance em 20% usando mais processadores é algo que funciona bem numa fase inicial com código devidamente paralelizável (o que não é todo, sendo que se estima que, em código perfeito, esse valor pode chegar aos 95%), a cada novo processador há perdas de performance, que aumentam com o acréscimo, até se alcançar um ponto onde mais processadores trazem ganhos zero. É a lei de Amdahl que já referi aqui. E esse é um problema que não existe com a velocidade, onde até a térmica permitir, o ganho é sempre proporcional à mesma.
Resumidamente, ambas as situações propoem-se fazer o mesmo, com vantagens desvantagens para cada lado, mas no global, mais velocidade é, pelos motivos expostos, preferível a mais paralelismo, e isso percebe-se no exemplo que dou já de seguida.
Tenho um processador à velocidade X.
Ele faz dois cálculos em dois segundos.
Duplico-lhe a velocidade e ele faz os dois cálculos em 1 segundo, com cada cálculo a demorar meio segundo.
Duplico-lhe os núcleos (sem o aumento de velocidade) e:
Ele faz os dois cálculos em 1 segundo se o segundo cálculo não for dependente do primeiro e puder ser calculado em paralelo no outro CPU.
Ele faz os dois cálculos em 2 segundos se isso não puder ocorrer.
Em qualquer dos casos cada cálculo demora 1 segundo, o dobro do sistema com o dobro da velocidade.
Se estivermos a falar de Ray Tracing que tem de ser calculado o mais possível no menor tempo possível, percebes que mais velocidade pode trazer claras vantagens.
Espero que tenhas percebido para não voltares a dizer coisas assim.
E pelos vistos não sabes quem é o Sebbi, o senhor referido no artigo.
A GPU é um sistema Sr. Rui. Aumenta-se ambos. A questão é que os ganhos não são lineares.
2013 GTX 770 – 8 Streaming Multiprocessors a 1080MHz boost clock
2014 GTX 970 – 13 Streaming Multiprocessors a 1178MHz boost clock
2016 GTX 1070 – 15 Streaming Multiprocessors a 1683MHz boost clock
2018 RTX 2070 – 36 Streaming Multiprocessors a 1620MHz boost clock
2020 RTX 3070 – 46 Streaming Multiprocessors a 1725MHz boost clock
Estive a ler o artigo compartilhado pelo Sr. Sebastian: https://www.anandtech.com/show/16489/xbox-series-x-soc-power-thermal-and-yield-tradeoffs
O Xbox Series X poderia continuar com seus 12 Teraflops de GPU caso usasse todas as suas 56 Unidades Computacionais mas a um clock menor 1675MHz. E ainda ganhariam 20% de economia em energia. Mas preferiram trabalhar com 4 unidades computacionais a menos e ganhar em clock, aumentando o consumo em 20%. Claro que existem mais questões, potenciais defeitos, mas mesmo assim. Escolheu-se aumentar o clock.
Este comentário que vou transcrever abaixo foi escrito no site da gamevicio no dia 31/03/2020, ou seja, poucos dias após a apresentação do Road to PS5 feita pelo Mark Cerny.
Me chamou a atenção que esse comentário já falava nesse trade-off de GPU a 1675MHz. Segue a transcrição abaixo.
Nick Baker: Increasing the frequency impacts the whole of the GPU whereas adding CUs beefs up shaders and ALU.
https://www.eurogamer.net/articles/digitalfoundry-the-complete-xbox-one-interview
Ué?
Engenheiro desenvolvedor do Xbox também?
Já sei, em 2013 clock importava, hoje não importa.
Cool, Mario lembro que em 2013 e em virtude de toda repercursão envolta das especificaçções de Xbox One e PS4 a Microsoft se viu obrigada a tentar mitigar a partir dali diferenças de performance, seja removendo a obrigatoriedade do Kinect a frente ou mesmo aumentando a velocidade da CPU e GPU, lembro que vc já até comentou isso aqui, que ela preferiu a velocidade a mais ao paralelismo de mais 2CU.
Muito interessante essas distintas formas de se obter performance que ambas empresas seguiram.
Interessante esse artigo Mario, parabéns, isso vem de encontro com o que muitos desenvolvedores já diziam sobre o ps5 ser superior ao xbox series x de vários maneiras e foi um grande erro da Sony não explicar isso. Vários desenvolvedores de jogos já diziam que teraflops não quer dizer nada se não tiver um bom equilíbrio e um sistema mais eficiente. Um destes foi a crytec que já falou sobre o ps5 em certos casos, superar o xbox series x, como já vemos acontecer e ainda haverá mais. Quando o hardwere do ps5 for aproveitado de maneira eficiente sem ficar preso ao crosgen, veremos grandes saltos de performance. Claro que isso vale para o xbox series x tbm, mas dependendo como cada sistema ultilizar as novas tecnologias veremos quem vai se sair melhor.
O artigo de amanhã tem mais coisas interessantes que vão dar para muita conversa.
se a Sony tivesse explicado, a narrativa seria “veja que empresa lixo com um console mal feito desesperada fazendo controle de danos.”
até insinuar que o clock de 2.2ghz era fake e não melhorava nada acima de 2ghz, “especialista” de internet insinou…
Não adiantava, tudo que a Sony dizia vinha o Ledberg ou o Alex bukeke falar “hurrr durrr deve ser mentira SSD só serve para loading, clock não melhora desempenho”
Uma dúvida: O que ajuda mais pro lado da Inteligência artificial/ Machine Learning? Maior clock ou maior paralelismo? Lembro do David Cage, da Quantic Dream, ter comentado sobre o Xbox series X ser mais capaz para Machine Learning, e que isso poderia fazer diferença ao usar técnica equivalente ao DLSS da Nvidia…
Tanto faz… Precisas de computação. A Xbox tem mais 18% teóricos e alterações aos int4 e int8, pelo que nesse campo deve ser superior.
Mas DLSS esquece. Não tens Tensor Cores e nem sequer andas lá perto da sua capacidade de processamento. Seja como for, em Março a AMD vai lançar o seu super resolution que as consolas devem suportar.
Series X ainda tem um recheio por cima do bolo que ainda dá pra tirar com uns 100 ou 150 Mhz nessa GPU dele por atualizações futuras de firmware. Como foi com o One e como foi com o 360.
Ele está operando frio o suficiente e com margem para isso. Sempre se lembrem desse detalhe.
E da mesma forma que escalar paralelismo é um desafio ganhar mais desempenho através de clocks mais altos também o é.
Se eu aumentar em digamos 20% o clock de um processador ou gpu, eu não vou ter 20% a mais de desempenho, é menos que isso. E o consumo também não segue uma curva linear. É quase quadrática a curva que ele faz.
O aumento de performance com o clock é Linear. MHz é o número de ciclos efectuado pelo processador num segundo, pelo que há uma relação Linear entre capacidade de processamento e velocidade uma vez que aumentar o relógio é aumentar o número desses ciclos.
Tu estás a confundir a performance de um sistema como um todo onde outros componentes podem impedir esse ganho com a performance da peça em si.
Ou pior, a guiar-te por benchmarks PC em motores onde animações e física estão fixas em velocidade e onde o maior ganho vem do paralelismo. Um limite que o compilador e programação dedicada para o hardware específico das consolas, remove.
Quanto ao aumento da velocidade da Xbox, é total e completa especulação tua. A consola tanto pode aguentar isso como pode não aguentar sequer mais um MHz que seja.
E para além do mais, apesar de não ser impossível é muito pouco provável que isso aconteça com largos milhões de consolas não testadas a mais velocidade já no mercado.
Recordo que a Xbox tem 40% mais CU pelo que o consumo com a velocidade sobe bastante mais a pique que numa PS5. E para além do mais a sua fonte é de menos 50 watts que a da PS5.
Não é.
Porque sim! né
Tens razão:
Is the relationship between clock speed and performance linear?
No and yes.
Yes, higher clock speeds will increase performance however it isn’t a linear relationship.
And thats because real life performance can even increase above the linear point due to the extra MHz allowing the system to overcome some internal bottlenecks.
Já vimos amplamente ser discutido no passado no Gamer Nexus, é o cara que mais vejo explorando overclock nos seus testes. Lá ele lá testou isso de tudo quanto é maneira possível, placa de vídeo e processador, e já desmistificou nos seus benchs, da forma que eu me referi acima. Desempenho abaixo da reta linear.
Ele hora ou outra da essa martelada nos seus vídeos como lembrete dessa relação de inconstância.
Teoria não é prática quanto a desempenho.
Ahh… Benchmarks…. Os famosos…
Que benchmarks foram esses? O Cinebench não foi!
So we have a about a 42% increase in clock speed which gives us a about a 49% increase in our cinebench score. Well that went better than expected 
Obviamente a métrica aqui, NÃO É , em benchmark sintético, é onde interessa.
Queremos saber é de desempenho em jogos, não ?
E a métrica aqui é em ganho de FPS.
Mas para fins de conhecimento nem é em todo benchmark sintético que isso é linear também, escolher um não valida os demais . E profissionalmente falando render também não o é.
Jogos???
Por amor de Deus…
Dizer que aumentaste o clock em 20% mas não ganhaste FPS num jogo, não te comprova que o GPU não melhorou as performances em 20%. Comprova que o jogo está limitado por outro componente!
Não é com jogos que podes afirmar se o ganho é linear ou não!
Aliás eu já tinha dito isso num dos comentários anteriores. Estás a confundir os ganhos de performance do sistema com os ganhos na performance do componente em causa!
Para além do mais, existe uma coisa no software que são os timmings internos. As coisas precisam de bater certas quando calculadas, e chegar no momento preciso e não antes ou depois. Para resolver esse problema muito software usa a solução mais simples, e limita a velocidade de processamento de forma a não perder esses sincronismos. Daí que pode acontecer ele poder ganhar com paralelismo, mas não com mais velocidade.
Mas isso é uma realidade do hardware PC, onde a diversidade de componentes que pode estar numa máquina é assombrosa. Numa consola o hardware é unico e programa-se para as suas especificações máximas.
Já que jogos não.
O que você quer comparar então Mário ?
Compressão e descompressão ?
Compiladores ?
Rendering ?
Ganhos reais todos não lineares . Onde você quer chegar?
No mesmo processador e em processamento só dependente dele? Não! São lineares!
A única hipótese de não serem é esbarrares com um gargalo diferente. Por exemplo, largura de banda!
Você está usando overclock como base de raciocínio.
Overclock não é boost clock tampouco continous boost clock.
A 6800XT por exemplo foi projetada para ter boost de até 2,25GHz. Repare nesse teste que este senhor alcança mais de 2.5GHz nesta placa: https://www.youtube.com/watch?v=c0eOKjiCA3c
Este overclock em 250MHz adicionais pode ser usado no seu raciocínio. Mas os 2,23GHz do PS5 não são overclock.
Overclock é colocar o GPU a funcionar acima das especificações… Como o Cerny referiu podem existir quebras na lógica interna que levam a que os ganhos deixem de ser lineares e vantajosos! Apesar de podermos falar de ganhos em overclocks, e eles também poderem ser lineares, overclocks não são o melhor exemplo. Para perceberes o ganho linear, deves fazer underclock e não overclock!
Isso daí basicamente e só um nome bonito para overclock. Com o diferencial de ter metas de consumo e temperatura mais bem desenhados. Mais digamos, previsíveis.
Tanto no PC quanto nessa APU.
Sem muitos rodeios.
Overclock acontece quando tens um processador a funcionar acima das especificações de fábrica… Dái o nome Over ou sobre, que implica por cima do normal.
Basicamente em overclock um CPU pode alcançar uma velocidade, e outro não. Não há garantias do fabricante!
A PS5 tem essa velocidade de fábrica…
Um GPU que compres com OC, na prática não tem OC nenhum pois ele foi testado e comprovado funcionar a essa velocidade.
Over… Boost tudo a mesma salada de palavras Mário.
Passo facão sem dó no nome que dão a estes bois aí .
Quando a Intel decidiu pegar o 6700K que tinha “boost” até 4.2 Ghz e decidiram fazer um renomeio dessa coisa para 7700K com “boost” até 4.5 Ghz o que ela fez meu caro ?
Incrementou clock = overclock.
Nem sonhar…
Os produtos saem de fábrica com determinadas especificações… uma velocidade base, uma velocidade de jogos e uma velocidade de boost. Isto são velocidades garantidas pelo produto. Overclock é quando tu sobes as velocidades para cima disto.
E aí uns processadores aguentam, outros não, outros são instáveis e tens de subir voltagens, etc.
E a Intel não fez overclock… Ela verificou que com o evoluir da qualidade de produção os processadores que fazia estavam a sair com qualidade para permitir mais velocidade. E renomeia os novo processadores dando a garantia do fabricante.
Isso não tem nada a ver com o vulgo overclock que é ir acima das especificações!
Como disse EU e muitos outros BR’s nos fóruns que acompanho não ficamos aí afora. Caçando como o “Arquiteto da Matrix” a “perfeição da harmonia matemática” dos nomes que geralmente damos as coisas.
Questão do seu entendimento do que seria gargalo outro dia é igual.
Se estão aí aperfeiçoando seus yields, se estão binando processadores, ou se coisa garantida ou não cá pra nós tem feito 0 diferença.
Os nomes aos bois se resumem.
E Mário Skylake pra Kabylake chamar aquilo de evolução é triste rs.
King… A PCManias é um website técnico. Aqui não dizemos que como (conjunção) é igual a como (Verbo comer), apesar de serem aparentemente exactamente iguais.
A realidade é que há um contexto que as separa. E esse contexto faz a diferença. Algo que se aplica ao que discutimos antes.
Eu compreendo meu caro.
Mas o PS5 não usa boost clocks ou overclock, ele usa continuous boost! É o oposto da proposta de overclock. Só não vê quem não entende o mínimo mesmo.
Exacto… O Contínuous Boost não é overclock. É o manter velocidades de relógio altas de forma contínua com variações para baixo sempre que não são necessárias. É o oposto.
Segundo a MS, é melhor sim LOL
Nick Baker: Increasing the frequency impacts the whole of the GPU whereas adding CUs beefs up shaders and ALU.
we found that going to 14 CUs wasn’t as effective as the 6.6 per cent clock upgrade that we did
Andrew Goossen: not only do we increase our ALU performance, we also increase our vertex rate, we increase our pixel rate and ironically increase our ESRAM bandwidth.
But we also increase the performance in areas surrounding bottlenecks like the drawcalls flowing through the pipeline, the performance of reading GPRs out of the GPR pool, etc. GPUs are giantly complex. There’s gazillions of areas in the pipeline that can be your bottleneck in addition to just ALU and fetch performance.
https://www.eurogamer.net/articles/digitalfoundry-the-complete-xbox-one-interview
lol
e então? a MS estava mentindo em 2013 ou está mentindo em 2021?
deixa eu advinhar, mentindo as duas vezes…
pq em 2013 não adiantou aumentar os 6,6% de clock.
em 2021 os “12TF” rendem menos que 8TF rdna1 pegando fogo.
Sobre a primeira parte do seu comentário, tens alguma confirmação oficial sobre? Ou é apenas uma coisa que vc tirou do seu imaginário? Pergunto sem maldade, pois o seu comentário compara projetos de consoles muito diferentes. Outra informação não tão correta é dizer que o XSX funciona a frio, isso é mentira, o console tem resultados térmicos similares ao One X segundo a própria Microsoft, e digamos que isso passa longe de funcionar a frio né.
Ambos os consoles (PS5 e SX ) estão trabalhando em temperaturas próximas e são ambos frios.
Não crie caso.
Estás sugerindo que a GPU do Xbox Series X terá um boost de clock em 100 ou 150MHz porque está operando frio?
De onde tirou isso?
O clock da CPU e GPU no Xbox Series X é fixo. O que varia é a carga de trabalho (workload). Por isso que com o mesmo clock, medes um jogo com maior consumo de potência do que outro.
Basta assistir ao Hot Chips, apresentado pelos próprios engenheiros do console: https://www.youtube.com/watch?v=OqUBX2HAqx4
Estou sugerindo que nada impede de elevarem isso pouco que seja, no futuro, com um update de firmware como foi no One. Subiram de 800 para ~860 Mhz se não me falha memória. Continuou fixo.
Antes da consola ser lançada… Com todos os modelos a serem vendidos testados nessa velocidade. Tal só foi possível pelo sobre dimensionamento da caixa e cooler de enormes dimensões.
A X é vapor chamber… dimensionado para aquelas performances. Com milhões de consolas no mercado já vendidas que nunca foram testadas a mais velocidade…
São situações bem diferentes…
Geralmente superdimensionam fontes e sistemas de resfriamento.
Oh pá… agora vou andar a noite toda a corrigir-te?
Isso não acontece com as consolas! São sistemas onde todos os cêntimos contam! Tudo é feito à justinha e com margens super reduzidas e devidamente pensadas para cenários de pior caso! Possíveis alterações como aconteceu com a One são casos fortuitos pois isso alteraria todo o equilíbrio, e daí que o caso da One só aconteceu porque foi em pré produção!
Tu julgas que o preço baixo aparece do ar ou que? Aquilo não é juntar peças de PC e contar com descontos do fabricante pela quantidade!
Não é uma possibilidade eliminada pra mim isso daí.
E tem um outro cenário que também podem fazer isso. Quando temos revisões do console no passar dos anos.
O One Slim. Teve esta mesma GPU do One Original com um processo de nova litografia, e o que fizeram ? Deram aquela salpicada de overlock ali nela. Saltou dos 860 Mhz para 914 Mhz.
Mas isso em projeto, não on the fly.
Não recebeu 914 MHz via atualização de firmware com o videogame na casa dos consumidores.
Ele está comparando o aumento que ouve no Xbox One ANTES do seu lançamento para mitigar algum % da vantagem do PS4 como o Xbox Series X o qual já está no mercado.
Um produto ainda por lançar com margem pra alteração = um console lançado
Quer dizer que o delírio agora é que a MS vai fazer “overclock” depois do lançamento do Xbox Sx?
“A MS vai liberar a GPU Oculta no futuro”
“A MS vai liberar o Clock oculto no futuro”
É sempre o mesmo delírio do mesmo pessoal.
Delírio eu não sei, mas parece ser um tipo de esperança ou algo assim.
Esperança mesmo. Ficam uma geração toda tomando pau atrás pau em comparativos e aí quando não sobrar mais nada para denegrir o ps5 como Hardware, a narrativa vai ser que gamepass é a melhor coisa do universo. Como foi na geração PS4/Xbox one. É impressionante como gostam de passar vergonha.
O poder oculto da nuvem que fará até o Xbox series S ter um poder equivalente há 30 Xbox Series X, imagine o series X então Rsrsrsrs
“Ps5 fraco, vai levar um pau em todos os jogos. É a diferença de um PS4”
O que estamos vendo?
“Overclockaram, vai pegar fogo”
E?
“Séries S já bate no ps5, imagina o SX”
Olha, é muita gente burra e/ou ignorante repetindo coisas sem lógica alguma.
Haja saco.
Claro que S bate.
Outriders
PS5: 4K 60fps
PS4 Pro: 4K 30fps
PS4 (Base): 1080P 30fps
Xbox Series S 1080P 30fps
Xbox Series X: 4K 60fps
Xbox One X: 4K 30fps
Xbox One: 1080P 30fps
Como vês a S está a bater… No fundo!
Series S a 1080p 30fps? Tem certeza? Juro ter visto uma análise em que ele correr em resolução dinâmica mas a 60fps
Dado o que disseste fui ver… E saiu uma tweet há 3 dias que refere que os dados anteriores tinham sido um lapso e que o jogo corria a 4K 60 fps na S.
Fica feita a correção, mas os dados que referi eram oficias, apesar de errados.
Our broadcast yesterday mistakenly listed an incorrect Xbox Series S output resolution and fps for Outriders.
The correct and intended output is:
Xbox Series S at 4k and 60fps.
É, mas na demo que fizeram estava a correr com mínimos de 864p no Xbox Series S. 4k é só o output mesmo com reconstrução temporal.
Aliás, sei que é uma demo, mas essa análise é bem intrigante. Repare que o PS5 está em 60fps sólidos, e os dois Xbox com frame-rate e frame-time muito inconstantes.
https://www.youtube.com/watch?v=IukT233YwlE
Ui… Não tinha visto isto… As diferenças nas consistência entre a PS5 e a SX são impressionantes.
Exatamente, brother!!!! É ridículo essas defesas descabidas desses caras
Sparrow… Se calhar vais ficar surpreendido pelo que vou dizer, sendo eu um dos maiores críticos do Gamepass.
Mas o Gamepass é a melhor coisa do universo. O valor que tens pelo que pagas é imbatível. Não há nada que chegue perto, nem o PSNow com o seu menor custo e 500 jogos a mais que o Gamepass.
E se eu fechar a minha visão aqui, a coisa é assim.
O que pode depois acontecer é o usar-se o cérebro. E questionar… Ora bem, saem milhares de jogos por ano, todos lutam por vendas, e os melhores são vendidos a 70 euros e dizem que precisava de ser mais. E eis que me surge o Gamepass que, concorre com as vendas por apenas 10 euros mês, com uma oferta que, basicamente, não requer que se gaste mais nada, e que limita a despesa anual por utilizador a 120 euros.
E fazes as contas e dizes… Algo não bate certo. Isto não dá, não é sustentável. E vais ver e lês programadores e CEOs de várias empresas a dizer o mesmo, e mesmo a Microsoft a não negar que o Gamepass não está a dar lucro, e percebes que isto está a ser financiado, que precisaria de largas dezenas de milhões de assinantes para dar lucro, e que mesmo nesse caso o lucro seria para a Microsoft, mas não para as partes, sendo que se os pequenos produtores podem ter muito a ganhar, os grandes fabricantes dos jogos mais caros AAA dificilmente o tem.
E nessa altura questionas-te: Pá, eu posso mamar o que o Gamepass dá e não querer saber das consequências, ou alternativamente, dado que este hobby é a minha paixão, perante estas questões não apostar nisto até que a sua economia, que ninguém percebe excepto, aparentemente, a Microsoft, seja explicada e se possa perceber o que efectivamente de bom isto vai trazer no futuro.
Porque eu quero pagar menos… Eu quero poder entrar num esquema desses. O que não quero é no futuro quando quiser jogar, o que tenho é Manic Miner em vez de The last of us.
Perfeito, Mario.
Mario não sei se vc viu uma comparação que o gamer nexus fez com o PC, onde o mesmo demonstra que uma gtx 1060 ganha o ps5 em fps e qualidade gráfica em certo jogo, no decorrer de sua análise usa outras placas de vídeo. Em resumo ele deixa claro para ter pé no chão e que o ps5 é xbox series x não entregarão alto desenpenho afinal custam 500 dólares. Achei interessante e preocupante essa análise dele, será que essas performances apresentadas pelo ps5 em comparação a PCs mais antigos mostram sei verdadeiro potencial? Ou será que o ps5 ainda tem margem pra crescer e mostrar melhora desenpenho futuramente? O que vc acha disso Mario?
É uma análise estúpida de se fazer no início da geração. Eu tenho certeza absoluta que com todas as otimizações, os consoles ultrapassarão placas como a 2080ti e 3070 em desempenho. Um console vai evoluindo ao longo da geração, placas de vídeo não!
Vítor… Esqueçam o PC, ignorem esses sites.
Eu não vi, não sei o que foi comparado, mas arrisco dizer que a comparação terá sido idiota e sem ter qualquer noção da realidade das consolas.
O motivo porque digo isto é simples.
Praticamente, mesmo os exclusivos PS5 atuais, não são jogos PS5 pensados para a PS5. São jogos PS4, com restrições PS4, quando muito com extras. Exemplos maiores temos o Devil May Cry e o Control. Mas mesmo o AC Valhalla, e outros sofrem do mesmo, em maior ou menor escala. E quando muito os exclusivos da Sony puxam um bocadinho mais pela consola, mas eu diria que mesmo esses estão longe de mostrar o que vale a PS5.
A questão é que não ando muito longe da verdade se disser que o que andas a ver na PS5, e o mesmo é verdade para a Xbox, são jogos GCN da anterior geração, a 10.28 Tflops.
Não estás a ver a PS5, mas uma PS4 acelerada, e com Ray Tracing.
E só isso mata toda e qualquer comparação.
Depois como segundo ponto, não posso deixar de achar curiosas estas comparações com a PS5. Porque o facto é que o Devil May Cry tem melhor desempenho na PS5 que na Xbox, pelo que se a PS5 se compara (ou pelo menos é o que dizes) a uma 1060, a que se equivale a X? Uma 1050?
Mas curiosamente nestes testes ninguém usa a X. Porque quando é para comparar com algo fraco, a PS5 é sempre a escolhida, e a X fica na sombra a ver se passa pelos pingos da chuva.
Parece que há um delírio, onde ninguém percebe o mínimo. Devs já falaram e já elogiaram muito o ps5, nós já vimos o ps5 superar PCs em presets em AC Valhalla, já vimos o Dev da insomniac falando que Miles Morales nem arranhou a superfície do console considerando o que ele pode dar. Fora isso, é só olhar o passado e entender o mínimo. Toda geração esses caras fazendo essas comparações pra lá de absurdas e do meio para o fim esses mesmos já esqueceram das placas que eles falavam ser superiores aos consoles e foram engolidas para falar das placas que foram lançadas depois e são as top do mercado com preços absurdos. Tudo isso para confirmar suas narrativas de que Pc é o melhor dos mundos.
Outra coisa interessante a ser falada: Alguém aqui já viu esses caras super entusiastas de PCs fazendo conteúdos com god of war, the last of us, Miles Morales, Demon’s Souls remake tentando procurar algo com grafismo superior no PC para comparativo? Óbvio que não, pois não tem algo paralelo na plataforma mais poderosa e suprema da galáxia! Esses jogam simplesmente acabam com qualquer narrativa que PC sempre vai ser superior, afinal de contas o que vale são os jogos.
os caras ficam em colapso só de um SSD no PS5 ser melhor que o do PC deles.
Foi uma das coisas mais ridículas o Linus dando xilique em Live e depois ficando todo recalcado gastando 10 mil dólares em upgrade para usar um SSD em RAID0 @ 22gb/s com AMD 24 cores, 10 núcleos so para empatar com o que o Cerny falou do IO do PS5 equivalente a 9 cores ryzen e poder dizer que “o SSD do meu PC é melhor”
prova como os caras são burros, quando existir jogo que precisa disso no PC, já vai ser usando algum hardware dedicado… descompactador dedicado na CPU ou GPU e o cara vai ter jogado grana fora so para arrotar que o “SSD dele é melhor”
Depois disso não tem como não rir desses caras, o negocio deles é bater punheta para numero e não jogar jogos impressionantes…
veja so que coisa ridicula gastar 10k em upgrade para “na teoria” ser melhor que o PS5…
Interessante vc citar Spiderman Miles Morales, para q Digital Foundry o segundo jogo tecnicamente mais avançado de 2020, a frente de Flight Simulator e Doom Eternal.
Lembrando que a digital foundry avaliou Cyberpunk no Pc de topo para falar que ele é melhor e levou muito em consideração Ray tracing na análise. Pq em tesselation Cyberpunk não é melhor que Miles Morales (nem que Demon’s Souls), mas nem aqui e nem na China!
Exatamente o que vc fala que penso. Esse canal de análise comparou fps e resolução entre o ps5 e a gtx 1060 em devil my cry 5, onde a mesma tem mas estabilidade que o ps5 no modo de 120 fps e está descartado o ray tracing, pois a 1060 não consegue e resolução menor tbm. O objetivo pelo que percebi e mostra com um pc de 500 dólares vc consegue uma qualidade gráfica melhor ou equivalente e fps mais altos que o ps5. Só que ele esquece que é um jogo, nao pensado no hardwere do ps5 desde seu princípio e está mal otimizado, falta mais polimento. Além dele tbm fazer testes de dirt 5 e boderlands 3 onde ultiliza uma gtx 1070 ti e 1080 se saem melhores que o ps5 no modo 120 fps e qualidade gráfica. Resumindo ele esquece de mencionar o melhoramento que o ps5 terá e os jogos crosgen atrapalham essa visão, fazendo parecer que esses consoles são hardwares bem medianos.
O testes dele se baseia no máximo de fps que o PC consegue com o valor do console, com isso ele mede freme time ou seja os milissegundos, quadro por quadro vendo a perda de fps e oscilação que o ps5 apresenta e comparando com placas da linha gtx 1060, 1070 ti e 1080. Além disso ele mostra gráficos que mostram o máximo e mínimo de fps dessas placas vs ps5 e o PC sai na frente na questão do 1% low e qualidade gráfica e maiores e mais estáveis fps. Mas como vc fala, ele esquece de levar em conta diversos fatores e consoles não são PCs, tem suas customizações e ainda não estão sendo bem utilizados.
Uma pergunta, pois como disse não vi, mas é algo que me surge logo!
A PS5 corre o DIRT 5 a 1440p re-escalados, 120 fps.
Eis aqui uma curiosidade:
Testes obtidos com uma Nvidia MSI GeForce GTX 1060, um Intel i7-5820K e 16GB. E a 1080P!
Onde estão os 120 fps???
Como é que esse senhor os consegue? Alguém está a mentir!
Eis resumido em tabela (e desculpa pois vai ficar desformatada)
Average FPS for Nvidia GeForce GTX 1060 in Dirt 5 @ 1080p
Dirt 5 Ultra Low Low Medium High Ultra High
Average FPS 65.7 60.7 51.3 41.1 25.7
Min FPS 53.7 49.5 39.3 32.8 22
Max FPS 75.7 69.3 59.9 48.7 28.8
1% Low FPS 53.5 50.3 39.4 32.5 21.1
0.1% Low FPS 10.9 48.5 11.5 9.4 9.5
Average FPS for Nvidia GeForce GTX 1060 in Dirt 5 @ 1440p
Dirt 5 Ultra Low Low Medium High Ultra High
Average FPS 45.3 42.9 37 31.9 21.3
Min FPS 36.8 34.4 29.9 25.9 17.8
Max FPS 51 48.2 43 36.7 24.8
1% Low FPS 37.7 35 29.4 25.6 17.4
0.1% Low FPS 16.7 24 22.6 20.6 16.7
Nao sei te explicar Mario,mas o cara não é muito claro, se puder e tiver tempo da uma olhada no canal dele gamers nexus, o vídeo que me refiro já faz algumas semanas está no canal dele ps5 vs pc 120 fps. Não sei em que resolução ele compara, pois, nao explica todas resoluções com exatidão. Como já falei concordo com suas opiniões e sou leigo no assunto, só tentei expressar o que entendi do vídeo desse rapaz.
https://youtu.be/HCvE4JGJujk , esse é o link do vídeo desse rapaz.
Mas o teste que ele faz com a 1060 tbm é em devil may cry 5 onde mostra o inconsistência do freme time do ps5, ele mostra coisa um pouco estranhas , se tiver tempo de ver mandei o link https://youtu.be/HCvE4JGJujk
Pelo que vejo Mario me corrija se eu estiver errado, o ps5 usa o modo ps4 pro que para jogos anteriores, mais como se o mesmo tivesse 10.3 teraflops e uso da cpu com o mesmo clok de 2.13 ghz do ps4 pro melhorado por ser de uma arquitetura nova. Esta correto isso ou o ps5 apenas usa seu poder como se fosse isso em CGN ? Se puder me explicar agradeço.
Enquanto correr jogos criados em motores desenvolvidos para a PS4, basicamente o que tens é uma PS4 com melhores velocidades de CPU e GPU. Nenhuma rotina ou capacidade extra da PS5 é usada. O que eles estão a fazr é pegar nessa base, e acrescentar Ray Tracing, mas nada mais!
Sei que tem outros comentários meus para serem aprovados em outras matérias, mas sendo direto: Mário, você acha que o PS5 realmente pode ser mais poderoso que o Xbox Series X ou mesmo no futuro ter melhores resultados? Eu acho que não, pois certamente a Microsoft também já estava preparada para essas decisões da Sony. OBS: eu sei que você fala sobre a vantagem dos teraflops e força bruta do Xbox Series X, mas seria legal uma resposta sua sobre o geral mesmo.
A PS5 nunca será mais poderosa que a Série X… 12.1 Tflops são e sempre serão mais que 10.28 Tflops.
Mas se me perguntas se a PS5 pode ultrapassar a performance da X… já o fez!
Não é uma questão de debitar mais, mas se ser mais coerente nas performances, e ter menos gargalos.
Aumentar o clock da GPU tem um efeito direto em toda a GPU, ajuda os caches, e hardware de função fixa. Isso é algo que a Microsoft falou para a digital foundry em 2013 para dizer por que eles preferiram aumentar o clock do libertar os 2 UCs desativados da GPU. Também explica por que eles preferiram ir com 52 UCs e 1825MHz do que os 56UCs com clock mais baixo para atingir o mesmo desempenho de cálculo. Mas agora os mesmos caras que criaram o Xbox One e o Xbox One X preferiram aumentar a quantidade de núcleos do que manter a mesma quantidade do Xbox One X com aumento de clocks. Terão desaprendido? Terá sido coincidência que a NVidia foi pro mesmo caminho? Mark Cerny é um gênio?
Certamente os engenheiros do Xbox sabem muito bem o que estão fazendo, assim como a NVidia. Provavelmente fizeram com a consciência de que a comparação inicial levantaria dúvidas a respeito das capacidades e preferiram absorver pequenas derrrotas iniciais para obter vitórias para frente. Na comparação do PC, a RDNA 2 não vai acompanhar as capacidades de computação da Ampere ao longo dos anos, assim como o PS5 não vai acompanhar o Xbox Series X, assim como o Xbox One base não acompanhou mais o PS4 no fim da geração.
Isso é o que este senhor coreano, bem ou mal, refere… Dado que o que tens não são meshs nativos, mas a funcionar sobre primitives alterados, precisas de computação para isto tudo funcionar bem.