Finalmente o esperado raio X do APU da Playstation 3 apareceu, e uma coisa é imediatamente clara, a cache L3 do CPU, que se julgava ser derivada do Zen 3 é afinal Zen 2.
Foram vários os rumores que referiram que a PS5 teria uma cache L3 partilhada entre os 8 núcleos do CPU, tornando-o um CPU de 8 núcleos efetivo e não um x 4 Núcleos como acontecia na geração passada, e acontece com as Xbox série.
Mas o raio X que apareceu recentemente tira isso a limpo. Na realidade a PS5 usa dois CCX de 4 núcleos cada, cada um com a sua cache L3, tal e qual como as Xbox série usam.
Eis o Raio X:
Para o olho destreinado a imagem pode não dizer muito, pelo que a imagem que se segue separa as partes do APU de forma a serem mais perceptíveis:
Nesta marcação simples, vemos a Azul a memória GDDR e os seus controladores (no centro), a Amarelo o GPU, a vermelho os núcleos dos 2 CPUs, e a Verde as caches L3. E como se pode ver não há uma única cache L3, mas sim duas, uma para cada um dos CCX de quatro núcleos.
Esta é uma estrutura em tudo semelhante à da Xbox que pode ser no topo da imagem que se segue:
Basicamente os Chips são bastante similares na estrutura, mudando apenas a disposição das coisas, com a Sony a colocar os CPUs do lado, a Microsoft no topo.
E isto quer dizer que as explicações para as melhores performances da PS5 a 120 fps, atribuídas como hipótese à alteração da cache, não se comprovam, ficando assim por ser explicado o que leva a que a PS5 consiga melhores resultados naqueles jogos testados.
Há aliás quem afirme que o Raio X permite ver que a Sony alterou as unidades de vírgula flutuante do CPU, para algo que ocupa menos área, mas a situação não está comprovada. Mas mesmo que haja essa diferença, falta saber o que a Sony possa ter implementado, se tal as falta e o que possa ter sido feito que possa, se necessário, substituir ou compensar. E isto refere-se pois a PS1, por exemplo, dispensou totalmente as unidades FPU no CPU, inserindo-as no seu Motor de Geometria (Geometry Engine).
Quanto ao GPU, ele usa uma estrutura muito semelhante ao usado pela 5700 XT, com 40 CU. Para percebermos isso, vamos remover os CPUs do Raio X da PS5, e rodar a imagem 180º:
E comparar com o Raio X da 5700 XT:
Como vemos, a disposição é em tudo semelhante.
No entanto, a estrutura real será mais semelhante com a que se segue, do Navi 21 (desta vez com 80 CU), uma vez que os CU usados são RDNA 2, e com a qual também partilha semelhanças.
O motivo pelo qual não se comparou diretamente a PS5 com este Chip é que a semelhança com a 5700 XT acaba por ser maior dado que no Navi 21 existe a toda a volta do chip a presença do Infinity Cache, que claramente não está presente em nenhum dos GPUs das consolas de nova geração, e o número de CU’s é 80 e não 40, pelo que a disposição acaba por ser algo diferente.
Vemos ainda que o Raio X da PS5 ainda deixa algumas dúvidas no ar sobre o que está no silicio. Na comparação com a 5700 XT vemos que todo o lado esquerda da imagem é semelhante, mas a realidade é que a PS5 não possui tudo o que lá está.
Analisando a 5700 XT com a Xbox reparem que o Fabric Coherence Fabric e os I/O da Xbox parecem ocupar uma área bem menor do chip, que a 5700. E isso soa a normal pois há situações na versão desktop do GPU que não são necessárias numa consola.
Mas a PS5… essa mantêm o espaço da 5700 XT.
O que estará aqui é algo que ainda falta saber.
De se notar que este Raio X não nos desvenda, e nem nunca desvendaria os segredos da PS5. Mas no entanto permite perceber algo mais. Uma das coisas é que os CPUs são idênticos aos da Xbox, até eventualmente mais limitados caso se confirme algum tipo de corte que possa revelar-se fundamental (o que não será fácil de se confirmar sem uma afirmação de alguém ligado à Sony).
De resto ambos os GPUs são muito semelhantes, com ambas as consolas a aparentarem usar Raster Backends do RDNA 1 (ou algo adaptado – situação que já tinha sido revelada da análise do Raio X e informação da Microsoft sobre a série X), apesar de tudo o resto ser baseado no RDNA 2 (apesar que não existem grandes alterações radicais entre as versões, com exceção do Ray Tracing e dos Raster Backends que podem processar mais pixels de cada vez). Mas para mais informação. mais concreta, teremos de aguardar por mais análises ao Raio X e ver o que entretanto vai surgindo de informação.
Uma coisa é certa… apesar de o que está dentro do silício não poder ser visto com um Raio X, situações como a existência da cache L3 do Zen 3 ficam desde já desmistificadas.
Deixo-vos com uma imagem do que aparentemente já foi decifrado no SOC, e como podem ver, ainda há uma parte bem grande na zona inferior da foto que está por decifrar:
Nota: Algumas imagens podem ser vistas em alta definição 4096×4096. Verifiquem se a imagem possui link sobre a mesma, e carreguem no mesmo caso a desejem ver!
Acréscimo:
Não há garantias que algo tenha sido cortado nas FPUs do CPU.
O seguinte tweet refere isso mesmo:
+- error margins at this low res, the FMAC and FADD portions are funnily enough not that different in size.
AMD has a lot of unused silicon throughout the FPU to cut down on heat density. pic.twitter.com/x2z08ZfBMD— Nemez (@GPUsAreMagic) February 14, 2021
Acréscimo 2:
O corte referido, a existir, afetaria as instruções AVX que passariam a ser 128 bits e não 256 Bits. Mas citando Mark Cerny no The Road to PS5:
PlayStation 5 is especially challenging because the CPU supports 256 bit native instructions that consume a lot of power. These are great here and there but presumably only minimally used or are they? If we plan for major 256 bit instruction usage we need to set the CPU clock substantially lower or noticeably increase the size of the power supply and fan. So after much discussion we decided to go with a very different direction on PlayStation 5
Then we went with a variable frequency strategy with PlayStation 5. Which is to say we continuously run the GPU and CPU in boost mode. We supply a generous amount of electrical power, and then increase the frequency of GPU and CPU until they reach the capabilities of the system’s cooling solution.
Pelo aqui referido, poderemos efetivamente estar apenas perante uma redução do silicio redundante destinado a evitar sobre-aquecimento. Curiosamente as palavras de Mark Cerny dão a entender que foi exatamente por este ponto que toda a gestão de energia e térmica da PS5 foi pensada.
OFF ++
DIESHOT PS5
https://wccftech.com/first-ps5-die-shot-posted-online-heres-the-consoles-soc/?utm_source=dlvr.it&utm_medium=twitter
https://www.neogaf.com/threads/next-gen-ps5-xsx-ot-speculation-analysis-leaks-thread.1480978/page-4200#post-262357496
não sei qual seu objetivo com esses links, mas nao vejo nada de mais, nem especificado está. Não dá para ter certeza de nada, as especulações continuam até que se prove o contrário. Não tem sentido essas fotos sem algo mais detalhado, talvez fanboy tenho olho biônico. O que acha Mario,?
Entre no link e veja a discussão. O fato é que tiraram o tão esperado raio x do chip do ps5. Se você não sabe interpretar, é outra história.
No mais, parece que está 100% confirmado que o ps5 não tem infinity cache na CPU e está melhor nesse quesito devido a a sua i/o, coprocessadores que retiram a carga de CPU e remoção de gargalos do sistema como um todo. Só não está melhor do que se tivesse infinity cache.
Chama aquilo de discussão, me desculpa , mais vc é bem hipócrita.
Hipócrita porque? Tá maluco? Se comportando aqui como um fanboy descontrolado! Tá gritando aí descontroladamente porque o ps5 não tem cache L3 unificado? Se controla, cara! O Mário não é seu pai para você ficar chamando ele em comentário seu. Pedindo socorro igual uma criança. Cresce!
Eu gritando, amigo vc que parece descontrolado. Me fala onde contei mentira? Esse fórum de discussão falam até de rdna 1, tá de sacanagem comigo!
Quem chamou eu de hipócrita foi você! Tá perdido, cara? Vai tomar seu remédio e me deixa em paz.
Mimhas desculpa pela grosseria, nao foi correto lhe chamar de hipócrita, julguei vc como um fanatico, e vejo que me precipitei.
Desculpado, amigo. Só uma dica: Nunca chame alguém de hipócrita, isso é total sem sentido e usado no flamewar. Se chamar algum homem de hipócrita frente a frente e sem grandes motivos, tenho certeza que pode virar caso polícia. Mas está desculpado, sem ressentimentos.
Calma Vitor, não se chama os outros de hipócrita assim ao vento. É grosseiro. No mundo do flamewar uns chamam os outros de hipócritas porque é uma bolha infantil. Mas no mundo adulto, chamar os outros de hipócrita é uma acusação séria.
Sobre a discussão no fórum, eu não tiro a tua razão porque tem muito noise. Muito comentário nada a ver. Ok, talvez eu deveria ter postado uma só a imagem ao invés do link com o comentário da imagem. Esquece a discussão do neogaf.
Mas o primeiro link que postei é uma noticia do wccftech, e a imagem parece realmente verídica. O Leviathan e outros especialistas já estão falando que de facto infelizmente não tem L3 unificado. https://twitter.com/LeviathanGamer2/status/1361050654848991238?s=20 . Eu também prefiro esperar mais confirmações, mas não podemos fugir do assunto só porque a notícia tem pontos negativos. Tem positivos também, parece que a arquitetura de i/o é tão sofisticada que o PS5 tem vantagens de CPU porque a sobrecarga sobre ela é quase 0.
É esse o meu ponto. Espero que compreenda.
Abraço.
Valeu amigo, relaxa que não estou desco teolado e nem estressado, muito menos sou fanboy. Só me referi que não entendi muito bem, nao vi muito sentido. Mas obrigado pela seriedade.
Inclusive, essa questão do i/o do PS5 ter zero carga sobre a CPU é o que o NXGamer pontuou sobre o PS5 não ter stuttering em Control.
Bastante interessante. Eu também quero saber mais, e ando lendo mais no beyond3d (tem menos flame).
https://forum.beyond3d.com/threads/current-generation-hardware-speculation-with-a-technical-spin-post-launch-2021-xbsx-ps5.62271/page-5
L3 unificado não tem de certeza… é perfeitamente visivel no Raio X. Tudo o resto que se fala eu confesso que não sei ver, mas tudo o resto que se fala vem acompanhado do texto “preciso de mais resolução para ter a certeza”, pelo que não podemos tomar, para já, como verdade.
Isso que vc está falando que estava querendo dizer em meus comentários, mais sempre tem alguém querendo deturpar as minhas palavras. Confesso que ter chamado o amigo sparrow de hipócrita foi grosseiro de minha parte por isso peço desculpas. Mas entenda meu objetivo, ao descrever que não ficou claro para mim a não existência do infinit cache, só me explicar que entendo.
O Infinity cache é assim denominado por envolver todo o chip. Ele, tal como foi concebido, não está presente. Há no entanto uma boa área do silício da PS5. Por se saber o que faz, pelo que pode haver algo de cache adicional. O que não é, é o Infinity cache da AMD.
Quanto a desculpas, terás de as pedir a ele. E esperar que ele as aceite, pois isso é uma violação grosseira das regras da página pelo que caso não se entendam e haja queixas terei de agir.
Meu objectivo é trazer a discussão para o pcmanias. Como sabes, estamos em um site de tecnologia em que se discutem essas coisas.
Caso esse die shot fosse um rumor randômico qualquer, naturalmente não postaria os links. Mas como já foi postado até por uma fonte de maior aceitação como o wccftech, é cabível discutirmos. Aliás, é o que está sendo discutido há horas em todos os principais fóruns gringos que conheço.
No mais não estou entendendo seu comentário. Me parece que leu coisas que não gostou e quer censurar a discussão.
Eu li bem pouca coisa do link que vc trouxe, o que vi foram pessoas a tentar depreciar o esquema da APU de alguma forma, sendo comparando com RNDA”1″ ou focando seus argumentos na falta do Infinity Cache
O primeiro link que postei foi da notícia no wccftech.
O segundo link que postei foi de um comentário específico do neogaf com uma imagem. Agora caso a pessoa queira acompanhar a discussão no fórum (que não é a intenção do link, já que caso contrário eu teria postado o link da thread e não do comentário com a imagem), vai encontrar gente com todo tipo de opinião.
Tem um pessoal falando sério lá TB. RDNA2 do SX também é muito parecido com RDNA1. Leviathan TB já respondeu alguns twittes falando que tá 100% confirmado que não tem infinity cache. A dúvida maior é o lado direito enorme que não se sabe o que é. Se é só i/o ou se tem mais coisas.
Caramba.. nos comentários os fanboy’s estão se debatendo que é RDNA 1.5, porquê não tem o infinity cache, mas o SX (creio eu também não tem, perdoem se estiver enganado) eles consideram full 2.0
lol é.. eu queria só postar a imagem do gaf, e acabou que o flame lá ganhou foco aqui. Deveria ter postado só o link do wccftech e a imagem do gaf (que era a intenção, mas postei o link da mensagem com a imagem).
Vivendo e aprendendo lol.
Infelizmente… Mas não desanima não, porquê comentaristas bons como vc e outros colegas daqui que fazem diferença positiva
Ambos não tem infinity cache. Isso já estava claro na apresentação oficial da Microsoft e agora parece ter ficado claro com o raio x do chip do ps5. Os Chips poderiam ser iguais que fanboys do mundo do pirulito estaria falando que é rdna 1 só o do ps5.
Caros, só para esclarecer, a intenção era trazer a discussão do Die Shot para o PCmanias, e não a discussão desta thread do neogaf lol. Quando o Vitor me respondeu, eu achei que ele estava se referindo ao die shot, e não à thread do neogaf. Por isso que respondi sem entender o ponto dele.
O link do neogaf é claro, estou postando uma mensagem em específico com uma imagem. Descartem os outros comentários por favor. Eu deveria ter postado só a imagem, e não o comentário.
Sobre essa discussão de RDNA 1, é a mesma discussão de quando o die shot do Xbox Series X foi mostrado, e acusaram o Xbox de ser RDNA 1. No fundo as arquiteturas RDNA 1 e 2 não tem mudanças radicais em nível de hardware.
Mário me tire por favor uma dúvida: já que está provado que o ps5 não possui cache l3 unificado, ou infinit cache, isso nos leva seu cpu tbm ser no papel inferior ao xbox series x ? Não entendi a imagem muito bem, o que acha sobre isso?
Inferior ele é em números
3.6>3.5
Mas os consoles tem suas customizações, I/O e Som geralmente roubam alguns percentuais da CPU, no XSX sabemos que o I/O ainda depende de uma 10cima parte de um núcleo pra descompressão ao passo que no PS5 isso não existe. Quanto ao Som o PS5 também não depende da CPU pra isso pois, existe uma CU dedicada ao som, mas que também pode ser usada para processamentos genérico.
Enfim, uma diferença de 100mhz que a depender das dependências do sistema no CPU pode ser aniquilada. Os jogos estão aí em sua grande maioria mostrando uma ligeira vantagem do PS5 em performance, talvez a sua pergunta já tenha sido respondida por isso.
Obrigado amigo, respondeu bastante. Já entendi que os consoles são bem próximos em performance. Claro que o xbox series x possui mais poder bruto, como ele será extraído só o futuro dirá.
Se é que será extraído! Naturalmente que com motores da geração passada poderás ver isso, pois eles não estão optimizados para o novo hardware e mais facilmente tiram partido de mais paralelismo do que de mais velocidade. Nos de nova geração, uma vez optimizados para ambas as consolas… é algo que iremos ver!
O poder bruto NUNCA é alcançado. o hardware fica-se por uma percentagem desse valor devido a gargalos internos no processamento. Daí que com uma diferença de 18%, tudo se vai resumir a quem tem menos gargalos, e como o Cerny referiu, “A rising tide lifts all boats”, ou uma maré a encher levanta todos os barcos, o que quer dizer que ao teres mais Mhz como tudo melhora as performances, e não apenas a computação, e como tal as probabilidades de teres gargalos diminuem.
A PS5 tem alterações no FPU que nesta fase são ainda desconhecidas. Pode ser um corte que afecta os comandos AVX, ou pode ser apenas uma redisposição diferente dos componentes internos. Alternativamente até pode nem ser um, nem o outro, pois essa zona, por questões térmicas, tem muito silício redundante para não aquecer tanto. Com a gestão inteligente da térmica da PS5, poderá ser que algum do silício redundante tenha sido removido, até porque o Cerny falou em suporte a AVX 256, e creio que usou o termo nativo, o que a ser assim, implica que não há corte.
Seja como for, só pelos MHz a diferença é irrisória.
Verifica o acréscimo 2 colocado no artigo… Super interessante sobre esta questão!
Mario, me explica e o clok mais alto no series x com SMT desativado o que isso interfere? E o que é afinal smt?
SMT simula/aplica núcleos virtuais ao processo, é o mesmo/igual HT da Intel.
Segundo o Mario, 3.6c/SMT>>3.8s/SMT
Hum Entendi, obrigado.
Claro que sim …O SMT não surgiu para encher chouriços. Os ganhos com o se uso vão entre os 30 e os 40%.
Estás a ver os GPUs? Quando analisaram o seu funcionamento perceberam que eles tinham imensos tempos mortos no processamento. E daí que surgiu o GPGPU. De forma simplista ele processa nesses intervalos coisas diferentes aproveitando partes do GPU que de outra forma estariam paradas.
Igualmente de forma simplista, o SMT faz o mesmo. Usa os espaços do processamento do CPU para iniciar outra thread, simulando o dobro dos núcleos. Os ganhos não são iguais ao dobro do hardware, mas mesmo assim são 30 a 40%.
Tem uma entrevista com o Diretor Técnico de Dirt 5, onde ele disse que ao ativar o modo SMT, o jogo facilmente alcançou 100fps.
Eu legendei na época e postei no twitter.
Segundo Leviathan, o que deixa a CPU do PS5 superior ao do SX são os coprocessadores i/o do console da.sony. Esses libertam muito de processamento de CPU nos jogos e deixam ela com certa folga em relação a do SX.
Eles liberam por conta da maior capacidade do I/O do PS5? Assim o CPU libera mais rápido o ciclo partindo pro próximo?
Os coprocessadores i/o que fazem o trabalho. Ser apenas mais veloz não libertaria a CPU de trabalho, só seria mais rápida que no SX.
Obrigado pela informação, parece bem interessante.
A Xbox afirma só gastar 1/10 de um núcleo com o I/O. Claro que zero é melhor que 1/10 de um Core, mas será que isso faz a diferença?
Bom, tanto Leviathan como NX gamer já atrelaram a maior estabilidade do ps5 à sua i/o e o Leviathan referiu que quem faz a diferença são os coprocessadores presentes no ps5! Será que a Microsoft não está equivocada mais uma vez ao afirmar que é só 1 décimo de um núcleo? Aí já não sei e entramos na zona do “acho”.
Sinceramente entre a Microsoft e os restantes eu acredito na Microsoft. Apesar de saber que eles abusam de marketing que o 1/10 pode ser um valor mínimo e não o standard.
É meio estranho.
O Control é meio que núcleo único, a versão PC pelo menos, e pq daria stutter no Xbox se sei lá… Sobra 4 núcleos somente para IO?
E aquele teste que tiraram o SSD do Xbox, plugaram no PC e deu 1.4GB/s?
O SSD e IO do Xbox pode estar todo inflados igual a banda raw do SSD.
Ou sei lá, esse teste aí no PC foi mal feito.
Na realidade ainda não vimos nada a puxar pelos SSDs e os tempos de leitura são enganadores pois não mostram tudo.
Lembrar-me que a certa altura vi um vídeo do The Médium onde o cenário mudava radicalmente de repente, onde isso era atribuído à capacidade do SSD.
Mas a realidade é que o The Médium, no PC, com um HDD de 72p0 rpms faz exactamente o mesmo…
Daí que não hajam ainda jogos que puxem pelo SSD. Não para carregar níveis mais rápido, mas com o jogo a ser dependente da sua capacidade de leitura para funcionar.
Mário,
Vi no twitter uma discussão sobre isso, de ser 1/10 em um core. Foi respondido que isso era para apenas um dos co-processadores.
https://twitter.com/LeviathanGamer2/status/1361070185365594114?s=20
Pela resposta, me passou a impressão de que a Microsoft não mentiu, mas não contou a história toda.
Mário, a chave pode estar não só nos coprocessadores, mas em tudo que envolve hardware na i/o do ps5 para remoção de gargalos e no Xbox aparentemente é software. Se usa software, vai usar CPU e aí pode ser “o pulo do gato” do ps5.
Compartilhado pelo nobre amigo Carlos Eduardo mais abaixo link do Reddit: https://www.reddit.com/r/PS5/comments/g87er9/the_io_complex_and_the_systematic_elimination_of/
Estás a ensinar o Pai Nosso ao vigário, hehehe.
Isso é o que eu refiro como ganhos de eficiência. Nenhum GPU alçança a performance máxima teórica, mas dependendo do rendimento aproxima-se mais ou menos. A PS5 deverá ter maior rendimento e é isso que lhe permite superar os 18% de diferença.
Não fora isso e eles tinham de existir… Sempre.
Seja como for, os atuais benchmark e são enganadores e os FPS máximos pouco ou nada importam. Hei-de escrever sobre isso.
Sim, Mario. Peço até desculpas. Não foi a intenção. Mesmo porque tem artigos seus abordando esse assunto. Mas muita coisa me fugiu com o tempo e sempre bom refrescar a memória. Haha
Seria excelente um artigo novo abordando tudo isso.
Estava a brincar Sparrow. 😛
Só um adendo, onde refere-se que “quando empurrados para o máximo absoluto…podem gerar 22gb’s…” Isso séria um gargalo então? Já que temos 16gb de ram?
Não… Não esqueça de cache scrubbers depurando esse gargalo. E se programa na velocidade que se quer. Não há gargalo em algo programável.
Nada que não se estivesse á espera, são consolas e o limite de orçamento é uma das grandes prioridads.
ZEN3 e até se falou em possível RDNA3…pois…pois…Não sei é como é que alguém acreditou nestas coisas.
Para mim nem a ps5 , nem a xsx são puros RDNA2, são RDNA1 com algumas features do RDNA2, daí o based in RDNA2.
É bem provável que a base do GPU da ps5 seja derivada da RX5700XT. Fabricar socs altamente proprietários e modificados é muito caro, o que para manter os targets de 499 euros em 2020/2021 é condição impossível.
As diferenças que vemos em alguns jogos tem a mesma explicação de muitas vezes no passado, optimização, tanto que por enquando nehuma das consolas consegue acompanahar uma 5700XT na maioria dos jogos.
off.topic – A minha ps5 apresenta coil whine, mas apenas me incomoda á noite com o som baixo. Acham que devo enviar para garantia ou não vale a pena?
Não… Nunca se falou de Zen 3 ou de RDNA 3.
O que se falou foi de um Zen 2 com uma cache unificada. Isso não o faz um Zen 3, mas um Zen 2 com uma cache estilo a usada no Zen 3.
Da mesma forma nunca se falou em RDNA3, mas num processador de geometria mais avançado que inspirou o usado no RDNA3. E isso não foi contrariado e nem poderá sê-lo pelo raio X uma vez que este não mostra o que o GE pode ou não pode fazer.
Não foi contrariado nem certificado. Continua uma dúvida.
off-topic: tenho mesmo coilwhine que é bem notável vindo da zona da PSU. Como vivo bem com ele vou deixar estar.
Ando a jogar days gone, que diferença que os 60fps fazem, muda totalmente a gameplay.
O Cache L3 não é uma dúvida… esse claramente não existe. O GE é mais complicado de se dizer.
Era ao GE que me referia.
Quanto á cache desde o início que se ouvia que as consolas não tinahm cache unificada nem infinity cache.
As consolas têm um pvp máximo de 499 euros, normalmente nestas coisas retiram-se features, não se acrescentam. è normal ser assim para respeitar os targets de custos.
Para se ter uma discusão saudável não nos podemos deixar entrar ilusões, e pensar que as consolas trariam fullfeatures de GPUs e CPUs lançados sensilvelmente num periodo aproximado ao do lançamento das consolas seria sem dúvida entrar em ilusões.
Ouvia onde? Quem dizia que não tinham cache unificado?
As patentes da Sony apontavam nesse sentido, e haviam muitas fontes credíveis que referiam isso como possível. Juntando os dois era de se crer que haveria uma boa probabilidade de ele existir.
Daí que quem é que dizia que não existia? Quem era a fonte fiável que afirmava isso?
Mudar a disposição de um cachê não é colocar ou retirar uma feature. E o custo não seria significativo. Um corte numa feature tem um custo e tudo semelhante a uma mudança dessas pois ambos alteram o silício. Na produção o custo só tem a ver com a área de silício usada e neste caso isso não teria impacto.
É simples Mário, a única informação oficial partiu da MS ao dizer que a SX não tinha.
O resto foi só suposições baseadas em coisas não oficiais.
Para mim enquando não sai informção oficial quer dizer que não têm, pois se tivessem isso seria logo usado como propaganda.
Na produção de produtos no limiar de preço tudo conta, desde portas opticas a portas usb.
Ambas as consoals são AMD caped, tanto a nível de GPU como CPU.
Essa visão é demasiadamente simplista. E já visão deturpada pela realidade do mundo PC.
As consolas não são e nem nunca foram GPUs PC capados. São peças costumizadas cujo desenvolvimento demora anos e custa largos milhões de dólares. Assumir que elas te forçosamente de ser comparáveis ao PC e que são GPUs capados é errado!
Um PC é uma máquina genérica. Tanto processa o word como jogos. Mas as necessidades de processamento para os dois casos são diferentes. E uma consola não tem de suportar situações que pouco ou nada são usadas em jogos, melhorado as partes que estes usam.
Olhando para uma PS4 por essa perspectiva veríamos num GPU de caca, ultrapassado logo no dia do lançamento ao se basear em GPUs antigos e já nessa altura obsoletos.
Mas como o tempo provou, isso é errado. A PS4não só se aguentou 8 anos, como evoluiu graficamente sem parar ao longo da geração, sendo mesmo o seu GPU quem possui dos melhores gráficos atualmente em jogos do mercado.
Nesse aspecto, peço que parem com essa perspectiva de merceeiro de esquina na análise do hardware das consolas. Porque a coisa não é assim que funciona aqui.
Não vou perder a chance de citar este comentário muito engraçado. É claro que se trata de uma ironia.
https://twitter.com/_KeanuReaves/status/1361277060484915201?s=20
Então como se explica no passado recente, onde features usadas nós consoles foram aparecer só posteriormente no Hardware AMD?
Onde é que isso aconteceu? Na geração passada ambas as consolas sairam com cpu e gpus mediocres em comparação com o que havia no mercado na altura do lançamento, sem features relevantes.
O que vimos foi 1.84TF e 8GB GDDR6 vs 1.3TF e 8 GB DDR3.
E no entanto, 8 anos depois, Tlou 2 existe para um desses GPUs, que combatem, com restrições, mas com elevada qualidade, com GPUs 10x mais potentes. Por sua vez os GPUs de 1.84 Tflops do PC tornaram-se obsoletos não conseguindo correr nada de jeito.
Se isto não leva a que se perceba que essas análises simplistas estão erradas, então não vale a pena explicar, pois se as evidências não chegam, as palavras certamente não vão lá.
Estou falando de features aproveitadas posteriormente em placas AMD. o Mário já explicou isso diversas vezes e você não quer sequer entender que o que é bom para um PC não necessariamente é bom para um console e vice versa. O único fato é que a AMD já utilizou features que surgiram nos consoles posteriormente.
Você sempre está comentando o erro de comparar consoles com PCs e isso é um erro muito grotesco.
Já aconteceu no passado! Como assim “não sabe como alguém acreditou”? Mais uma vez está a referir algo como absurdo e já aconteceu algumas vezes no passado. Você tem certeza absoluta que não aparecerão alterações feitas nos console em rdna 3 e zen 4? Eu não e ninguém tem essa resposta… Os consoles já fizeram alterações que apareceram na AMD só mais afrente.
Mario, Leviathan referiu a vantagem de CPU do Ps5 aos coprocessadores i/o, que libertam muito da cpu e por isso de ser considerada a melhor cpu entre os consoles. Tu concorda?
No mais, hoje não vejo mais como o “molho secreto”, referido pela CEO da AMD Lisa Su, possa ser outra coisa além da Geometry Engine. Ao meu ver está certo que é GE. Agora basta sabermos com 100% de certeza se é Hardware ou Software (como Mesh Shaders).
A não ser que naquela parte do silício onde não conseguiram referir nada, tenha algo muito especial.
O “molho secreto” está ao mesmo nível do “farol da nova geração”.
Bom, só sei que o ps5 já mostrou algo que deixou muita gente da área deslumbrado. Com Cherno, cineastas, devs, etc… E isso na demo da Unreal engine 5. Você pode me explicar com detalhes como que conseguiram colocar bilhões de polígonos no ecrã em tempo real? Veja o Cherno assistindo a apresentação da Demo e quando ele se refere “Uoww, isso é fantástico! Não sei como conseguiram esse feito, mas as coisas (hardware) devem estar mto próximas para isso se tornar possível.” Seria o Cherno, criador de engine um marketeiro ou ele tem propriedade no que fala?
Será que alterações no ps5 como ausência de check in, cache scrubbers, motores de coerência, i/o sem paralelo no mercado, geometry engine, coprocessadores i/o, etc são apenas marketing? Por que alguns devs falam que o PS5 é o console mais bem projetado da história? Falaram isso do ps4? É só você escutar quem tá lá e trabalha com a coisa. Suposições podemos fazer todos, mas com um nível de embasamento mínimo. Você geralmente joga muito as coisas ao vento e não acrescenta muita coisa. É um cara inteligente e deveria se esforçar um pouco mais. Só acho.
Uma última pergunta: Como você explica o PS5 estar levando vantagem marginal na maioria dos jogos apresentados, em que, pelo que sabemos estão a usar força bruta dos novos sistemas, usando muito pouco das features next gen? Não era para o SX estar levando vantagem em tudo nesses jogos, que exigem só força bruta? É um milagre?
O que as pessoas não parecem compreender é que entre as duas consolas há uma diferença equivalente ao processamento gráfico de uma PS4. E se a Xbox fosse realmente tão poderosa, a PS5 nem sequer estaria a competir, quanto mais a ganhar vantagem.
A questão é que atualmente o grande custo do GPU acaba por ser no pós processamento. E os custos são exponenciais!
O que isso quer dizer é que a diferença em Tflops não diz a verdade real, e a diferença em percentagem é mais realista.
E quando passamos à percentagem, a diferença é de apenas 18%. Nada semelhante ao que vimos em outras gerações. Aliás uma diferença que pouca diferença faz.
A outra questão é que 18% é algo que pode rapidamente ser suprimido. Bastam pequenos ganhos aqui e ali e rapidamente vemos 18% a serem suprimidos.
Acima de tudo os Tflops são performance teórica e não real, e há duas situações a se tomar em conta.
A primeira é que o máximo alcançado é uma percentagem desse valor. Se fosse 90% a PS5 alcançaria os 9,252, e a X os 10.935. A diferença cai para os 1.68 Tflops. E só aqui já se teriam sumido 2%.
Mas a coisa é mais complexa… Se eu remover os CU a um GPU tenho 0 Tflops… Mas o GPU não é inútil! Ele continua a processar triângulos, texturas e pixels. Porque isso está no pipeline do GPU e não do GPGPU. O que perderia eram os Shaders.
Ora um GPU é a soma das partes, e na parte do pipeline gráfico a PS5 é 20.8% mais rápida. Daí que combinando as duas coisas há mais equilíbrio do que se pensa.
Resumidamente, só o simples facto de estarmos aqui a discutir a realidade que a PS5 se bate com a série X mostra que as coisas não são tão lineares como as pessoas pensam. E o facto de a bater em alguns casos ainda mostra isso mais.
E ainda tem cara que é formado em TI tendo mais de 200 mil inscritos, dizendo que o poder do séries x vai ser mostrado quando fizerem uso das 52 unidades de computação ou seja usar paralelismo nos jogos. E ainda fala que esses jogos não servem pra medir performance e que pra ser nextgen tem que usar vrs, meshe sheiders e etc.., quando isso acontecer o xbox series x esmaga o ps5. O que acha disso Mario??
O que vês agora realmente só mede o poder de parte do GPU. Somente com o uso das características de nova geração os GPUs vão mostrar a sua força.
E a diferença entre as consolas vai ser alterada. No entanto os Mesh Shaders não serão uma vantagem uma vez que tal não existe nativamente no hardware AMD, e os Mesh são meramente software sobre os primitive shaders. Isso quer dizer que chamemos-lhe Mesh Shaders ou batatas fritas, o que a Xbox faz a PS5 pode fazer igual.
O VRS já tem uma componente hardware. Mas a PS5 não só pode ter algo semelhante, como certamente também terá VRS, pelo menos Tier 1, uma vez que ele faz parte do standard RDNA2.
Seja como for, a Sony tem o foveated rendering uma tecnologia que, apesar de diferente, tem o mesmo objetivo de poupança de recursos do VRS. Daí que no que toca ao VRS não sei dizer! Posso no entanto dizer que, para ganhos notórios o VRS destrói a qualidade de imagem, o que tem muito pouco de interessante.
E depois falta saber o que o PS5 também tem na manga (GE?), pois ao contrário da Microsoft, a Sony não divulgou nada sobre a sua consola. E não há porque acreditar que apenas um dos lados tem trunfos, apesar que não sabemos se menores ou maiores.
O certo é que pelo raio X vemos que há mais área dedicada a extras na PS5 do que na Xbox, e não se sabe o que lá está.
Quando vc fala que o poder dos consoles será alterada,se refere ao xbox séries x superar o ps5? Ou estou equivocado?. Entendi o que vc quis dizer quanto às tecnologias de nova geração, pelo visto as 52 cus do xbox podem se mostra bem com os próximos jogos.
Não, ele só está falando que o SX deveria superar o ps5 nos primeiros jogos. Só se mede forçaa bruta até agora. Ou se quiser comparar Miles Morales com um AA como the medium, o fracasso será certo do lado SX. Mas não são comparáveis. Negócio é aguardar e ver. Se eu tivesse 1 milhão de dólares pra ganhar 2 ou 10 do lado do SX, apostaria ganhar 2.
Não… Refiro-me a que ambas as consolas vão debitar mais do que o fazem agora, e que o software será dedicado a explorar o seu hardware quando actualmente o que temos é código que tem como base o GCN.
Qual das consolas se sairá melhor é uma incógnita, mas numa opinião pessoal, eu diria que as coisas não se vão alterar muito. Mas
A mim isso soa como desculpas
Veja, quando o PS4 e Xbox One foram lançados, ali se viu o Hardware fazer a diferença para o mais forte (PS4), o mesmo se pode dizer em 2017 quando lançam o One X, de cara já se dava pra ver que ele era mais poderoso e obtinha melhores resultados. O que quero dizer é que as diferenças entre os novos consoles é tão pequena que os resultados agora são iguais ou com ligeira vantagem pro console supostamente mais fraco, o XSX não fez o que PS4 (2013) e One X (2017) fizeram, porque ali as diferenças beiravam os 50%, hj elas em números brutos não chegam a 20% e se coloca as personalizações de cada máquina este % é ainda menor. Quanto a essa conversa de VRS e tals, Dirt5 usa-o no XSX e mesmo assim este fica a dever da versão do PS5 mesmo após inumeros Patchs de correção, só ver a análise no Canal do NXGamer.
Enfim, eu acompanho o cidadão o qual vc se refere, já vi algumas opiniões sobre alguns jogos do PlayStation o qual ele fala sem propriedade alguma (Daysgone não ser mundo aberto) e pra melhorar é funcionário do Canal Xbox BR.
Esse mesmo ele tem uma arrogância, se acha o maior sábio, não aceita outras idéias e quem discorda dele é sempre fanático.
Ele confundiu RAM com SSD meses atrás. Nunca mais assisti esse cidadão depois dessa.
Nossa sério? Grande intelectual ele.
EU vi, não foi ninguém que me contou, ele garantindo antes dos consoles saírem que TODOS os jogos rodariam melhor no Xbox.
Isso parece até líder de Seita, ele nunca erra… Ele substitui uma profecia por outra…
“Em 2022 acaba o mundo” chega 2022 e ele “ahhhh vcs tem muita fé, e por causa disso o fim do mundo foi adiado para 2032”
Em 2020 “todos os jogos vão rodar melhor no Xbox”
Em 2021 “em 2021 + algum tempo, toods os jogos vão rodar melhor no Xbox”
Ele falou que nunca mais falaria sobre análise de DF e outros canais técnicos. Surtou na live! Falou que só Isa conversar sobre conteúdo dele. Isso nas primeira análises onde o ps5 deu um pau no SX antes dos patches!
Esse é um problema quando a pessoa quer se auto transformar em fonte suprema.
Se ele, eu, ou qualquer outro falar algo que é inteiramente contrário ao que devs e fontes especializadas dizem, é natural que surjam questionamentos e debates.
Então se uma pessoa prefere partir para a ignorância ao invés de defender o ponto de vista, está mais do que provada a insegurança e incerteza no que diz.
O pessoal vai aprendendo aos poucos, pois querem se informar cada vez mais, e nem todos estão caindo em qualquer conversa superficial.
Nessa área de “tecnologia em games”, é necessário estar bastante antenado e estudar muito. Definitivamente não é uma área para preguiçosos.
Claro que existem pessoas como o Cherno que desenvolve motores de jogos há anos, e conhece as particularidades desta área. Mas ele é um outlier. Não é tão comum alguém com a expertise dele montar canal no youtube.
Mas nós já somos entusiastas. A formação em computação ajuda a entender alguns conceitos. Mas não podemos discursar sobre hardware de consolas apenas com o livro de “Organização de Computadores” do Tanenbaum debaixo do braço. A tecnologia é mutante, avança rápido e é necessário estar sempre antenado.
Sobre o canal que estão citando, parece que ele mesmo já percebeu isso e está buscando outro público, interessado em aprender fundamentos de computação/programação. Desejo sucesso a ele, mas infelizmente não perco mais meu tempo ouvindo sofismas de ex-desenvolvedor corporativo. O dia-a-dia deste mercado eu conheço de trás pra frente, pois fiquei lá por uma década. O que desejo conhecer são as particularidades da indústria de desenvolvimento de jogos, que infelizmente ele e a grande maioria dos brasileiros (inclusive eu) desconhecem.
Então o que podemos fazer é juntarmos aos nossos pares e correr atrás por nossa conta de entender melhor, lendo artigos no pcmanias, entrevistas com desenvolvedores, e etc.
Só eu que não enxerguei essa semelhança toda com o SOC do Xbox?
Comparando as imagens cada L3 do Xbox tem dois cores do seu lado esquerdo e dois cores do seu lado direito. Ou seja, cada L3 é acessada diretamente por 4 cores, e posteriormente pela GPU, mas de maneira separada.
No arranjo do PS5 fica muito visível que cada L3 tem de um lado 2 cores e do outro lado 4 cores.
E fica como se esses “4 cores centrais” fizessem uma ponte entre os dois L3 e os outros cores dos cantos, dando uma forte impressão de que os 8 cores tem acesso direto aos dois L3 e os mesmos ficam interligados a GPU como se fosse um elemento só.
Eu gostaria que alguém aqui pudesse me explicar que aqueles “4 cores centrais” não estão interconectados, e que foram colocados lado a lado apenas por “questão de estética” no arranjo.
Pode dar essa ideia… Mas não é assim que funciona. Cada CPU só tem um cache L3 pelo que se os dois da direita acendessem ao que está à esquerda, os quatro seguintes acenderiam à cache igualmente à esquerda e os restantes dois ou não tinham cache, ou teriam de aceder igualmente à mesma L3, agora à direita.
E teríamos assim 6 núcleos a aceder a uma cache e 2 a outra, o que criaria uma aberração de performances e uma distribuição de cachês desigual, com 4GB para 2 núcleos e 4 para 6 núcleos.
Basicamente o que dizes é mera suposição apoiada na disposição dos núcleos, mas tal n@o faz qualquer sentido.
Eu pensei na mesma hipótese, que causaria “uma aberração de performance”. Mas é fato que a escolha de hardware do Cerny até aqui está se mostrando mais eficiente, mesmo tendo uma GPU com menos CU’s que a do Series X.
Entra a questão do clock variável?
Sim é um fator, mas ele por si só não explica essa diferença no percentual de performance.
Mas sem fazer este tipo de suposição que eu fiz, mesmo que “tosca e sem sentido”, não há como se chegar num denominador comum.
Pela disposição dos núcleos pode se tirar muitas suposições e conclusões sim, mesmo que ridículas.
Já apareceram muitos hardwares aqui com o passar dos anos, uns funcionavam de maneira tão óbvia que ninguém imaginou como até o arquiteto do mesmo explicar sua simplicidade.
Outros eram “aberrações” totalmente fora dos padrões de sua época, mas hoje ditam o mercado.
Mário, não quero ter razão e nem tenho medo de passar por ridículo quando faço uma suposição.
Mas vai por mim, aquela disposição dos núcleos é algo totalmente diferente do que a do SOC do Xbox. Eu fico com uma pulga atrás da orelha enorme, pensando que aquela disposição não foi feita atoa.
No mais, obrigado pela atenção de sempre. E parabéns pela ótima matéria, eu estava ansioso por este raio x.
Valeu obrigado 👍🏼
Se os benchmarks em causa fossem 100% CPU teria de concordar contigo que algo tem de haver. Mas não são, e há muitas explicações que podem ser associadas às cachês do GPU que é 20% mais rápida, tem 20% mais de largura de banda, e tem aínda os cache scrubbers que não só permitem ir alterando as cachês durante o processamento (normalmente só a podes alterar depois do processamento pois não tens como saber o que já foi processado, algo que os motores de coerência e os cache scrubbers resolvem), como evitam os stalls do GPU em caso de cache misses.
Tens toda razão Mário.
Eu deixei de considerar outras explicações plausíveis, e me deixei levar por uma abordagem simplista demais.
Mas…
Será que há esperança da Sony nos dar os detalhes oficiais desta APU?
Eu fico ansioso demais por estes detalhes de hardware, por este motivo me tornei leitor assíduo das suas matérias.
Eu gostava de ter as especificações do APU, mas não sei se alguma vez as teremos. O problema é que a Sony percebeu aquilo que por vezes vemos aqui nos comentários: Que as pessoas se acham todas doutoradas na matéria a nível de hardware, e poucos fazem o esforço de compreender o que realmente ali existe, recorrendo sempre a comparações com o hardware PC, quando nem sempre isso deve ser feito. Tal foi notório com o Contínuous Boost, onde poucos websites, e felizmente incluo-me neles, tiveram a noção que tal nada tinha a ver com os Boost clocks do PC, e que tal era uma coisa boa e não uma coisa má. E quando tens uma consola que não tem qualquer necessidade de estar presa a conceitos PC mas tudo o que se fala dela é no sentido da comparação, deturpando-se as coisas para baixo e vendo o hardware de forma errada e como material PC capado, a Sony preferiu uma política de deixar os jogos falar em vez de especificações.
E eu acho que eles tem toda a razão…
Apesar de ser entusiasta de hardware como todos aqui e acompanhar todos os comentários, no final são os jogos que importam, os dois consoles são ótimas maquinas independente de ter o L3 unificado ou não… Estou ancioso pelos jogos next gen reais, em particular pelos jogos dos studios da Sony…
Eu acho que a Sony teve uma decisão acertada, com ressalvas.
Eu lembro bem que na época do PS3 as especificações de hardware do console diziam uma coisa, porém na hora que os desenvolvedores liberaram os jogos multiplataforma, apareceu uma realidade totalmente diferente.
Ainda assim, eu acho que essa política “dos jogos falarem por si”, não serve de alento…
Hoje por exemplo, você vai comprar algo que se tornou trivial como um telemóvel, e antes do lançamento do mesmo já tem todas as especificações em mãos. E isso virou praticamente uma regra para toda compra de um novo gadget.
Sim Carlos… mas para isso é preciso que as pessoas entendam do que falam e não se limitem a despejar verborreia e termos técnicos a dar a entender que percebem.
Um bom exemplo deu-se à largos anos… Durante muito tempo os CPUs eram fáceis de se perceber qual o melhor.
As designações implicavam gerações com largos anos de distância, pelo que um 386 era melhor que um 286, e um 486 melhor que um 386. E dentro de uma geração o mais rápido era o que tinha mais MHz.
Mas desde essa altura as coisas mudaram. Agora os CPUs coexistem em gamas, i5, i7, i9… E os Mhz valem zero!
A piorar a coisa há sobreposição nas gamas, e tu não podes dizer abertamente que um i7 tem melhores performances que um i5… Vai depender dos modelos!
Explicar estas variantes a quem está preso a conceitos é um problema! As pessoas nos telemóveis nem percebem realmente a tecnologia que lá está… sabem apenas que é o mais recente… e como tal é melhor! E baseiam-se na comparação entre os modelos antigos e modernos, sem compreender o que lá está!
É um processo complicado.
Entendo tanto você como o Carlos Eduardo. Eu gostaria mesmo que Sony falasse da sua APU e desse detalhes, mas também entendo quando a Sony não o faz.. estamos num site de tecnologia e o Hiago abaixo classifica a gpu e cpu dos consoles como “Pc capada”. Ora, será que ele gostaria de ter um console com uma placa de vídeo enorme dentro? Isso não tem lógica alguma e a Sony percebeu que quanto mais falar, mais dá corda para esse tipo de discussão extremamente sem sentido.
Não sei porque as pessoas achavam que esse pedaço da APU seria diferente.
Tirando um pouco de desempenho a mais aí devido a clock pouco mais alto dos dois Xbox(que possuem inclusive o mesmo processador).
Deve ser a exata mesma coisa. Até para fins de custo. É mais viável dessa forma.
O custo do silício tem prioritariamente a ver com a sua dimensão não com o que ele pode ou não fazer.
Nesse sentido o APU da PS5 já é mais barato, e a cache L3 ser uma ou dupla não alreraria isso
Mário, criar uma cache única para 1 CCX de 8 cores Zen 2 .
Encareceria esse projeto ainda mais. Mudanças na cache são caras.
Preço está prioritariamente relacionado pelo tamanho, mas não unicamente por ele.
É mais barato deixar como está.
Não são… Verdadeiramente caro é aumentar o tamanho da cache, não manter o mesmo total, mas partilhado por todos os núcleos em vez de apenas por quatro..
Quanto aos restantes custos eles são comparativamente menores. Basicamente o custo deixou de ser por transistor, mas por área usada.
Depois, alterar tem custos, mas eles são iguais para tirar ou para pôr.
Você está errado quanto a isso Mário. Permita-me explicar o porque.
Você já viu como um Zen 2 comunica um CCX de 4 núcleos com o outro CCX de 4 núcleos ? Passa pelo i/o die. No ZEN 3 todos núcleos conversam entre sí. Haveria todo um redesign das conexões do substrato, isso demandaria outro projeto, demandaria testes, demandaria especialização ainda maior da linha produtiva.
A PS5 não teria um Zen 3… Teria uma cache única partilhada, ao estilo do Zen 3, mas não necessariamente igual. As patentes da Sony que publiquei mostram isso. Aliás essa cache não teria de ser forçosamente a L3, poderia até ser uma L4. Os rumores é que falavam sempre em L3.
Esse raio-x do die-shot foi revelado após essa primeira leva de jogos lançados, onde vimos um grande equilíbrio entre as duas consolas. Então apesar de estar desapontado com o rumor desfeito do cache L3 unificado (penso que o Red Gaming Tech vai ter que se explicar, ou pelo menos assumir que suas fontes não são tão confiáveis), já temos consciência de que o PS5 é competitivo o bastante para entregar resultados bem comparáveis ao Xbox Series X.
Em GPU, o Xbox Series X tem 5MB de cache L2 contra aparentes 4MB do PS5. Faz sentido, já que são 16CUs a mais para alimentar com dados. CPU me parece igual, 8MB L3, com 4MB em cada CCX. No mais, olhando o die-shot por alto, a arquitetura é similar, 64 ROPs, 2 shader engines e 4 shader arrays para cada lado, com o Xbox Series X possuindo mais unidades computacionais, 28 por shader engine contra 20 do PS5.
Ainda tem muito o que ser revelado de detalhes, no caso algumas features de GPU. Talvez o Xbox Series X possua silício para VRS ou SFS e o PS5 não. Mas não me surpreenderia em nada se ambos os consoles possuírem GPUs quase idênticas, com o Xbox SeriesX tendo mais CUs e 1MB a mais de cache L2, e o PS5 possuindo cache scrubbers na GPU e um clock maior.
Essa discussão que tem acontecido sobre RDNA 2 vs RDNA 1 é sem sentido, porque a micro-arquitetura RDNA 2 tem várias similaridades com RDNA 1, ganhando em eficiência energética, Ray Accelerators. Inclusive a AMD considera RDNA1 e RDNA2 da mesma família GFX10. A 5700XT RDNA 1 alcança 1.6GHz de clock base e 1.9GHz de boost clock. O Xbox Series X teve seu ganho RDNA 2 de clock base fixo indo para 1.8GHz, e o PS5 teve seu ganho RDNA 2 de continuous boost indo para 2.23GHz. E claro, a 5700XT não possui Ray Accelerators, logo qualquer jogo com Ray Tracing mais exigente destruiria a performance desta placa.
Mesmo com o Mark Cerny detalhando toda a arquitetura de i/o há quase 1 ano, parece que a empolgação sobre o assunto voltou à tona com o die-shot, seja co-processadores, motores de coerência, SRAM dedicada. Esse link fornece uma explicação bem detalhada da arquitetura de i/o do PS5: https://www.reddit.com/r/PS5/comments/g87er9/the_io_complex_and_the_systematic_elimination_of/
No mais, todos temos consciência que talvez com exceção de Demons Souls, ambas as consolas até agora rodaram apenas código legado de motores da geração passada. Os jogos lançados não servem de parâmetro absoluto para medir a performance das consolas, já que as features apresentadas (Mesh shaders/Geometry Engine, VRS, ML, SFS, etc.) e novos paradigmas (por ex, desenvolver jogos voltados p/ streaming rápida de i/o) poderão trazer alguma diferença, seja para um lado ou para o outro. Mas penso que os jogos já mostrados fornecem uma boa visão de poder bruto, que com exceção de Hitman 3, surpreendentemente mostrou resultados bastante similares.
Na minha opinião pessoal, o Xbox Series X tem mais poder bruto, mas o PS5 fornece equilíbrio por 2 factores:
1) Rápida transição e otimização dos assets entre as memórias, desde o SSD até os caches.
2) Trabalha com APIs dedicadas, logo existe uma parcela de software optimizado para o PS5 que deve ajudar.
Vai ser bem interessante ver os jogos a serem lançados.
Eu ainda fico preocupado com o PS5 possuir apenas 36 CUs, aparentemente os jogos true next-gen exigiram um streaming mais rápido sim e eu sei todo aquele papo sobre que é mais fácil encher 36CUs do que 52, porém observando me parece que as GPUs no mercado estão com cada vez mais CUs (sim com os clocks mais altos também) porém a tendência é para mais CUs e o PS5 e X Sereis S são os pontos fora da curva. Minhas preocupações é que no futuro uma GPU como a do XSX consiga ser melhor utilizada e esteja mais preparada que a GPU do PS5.
Isso depende muito Hiago. A RTX 3070 tem 46 SMs (o equivalente às UCs da AMD). A RTX 2070 tem 36 SMs, no papel a mesma quantidade do PS5. É o conjunto que determina os resultados.
Mas te respondendo de forma mais directa, eu vejo sim um potencial cenário de vantagem.
Vão usar algumas UCs para Machine Learning. Por exemplo, 10UCs operando em int4 entrega 18 TOPs dedicados para se aplicar super resolução. Não se compara ao poder bruto dos Tensor Cores, mas penso que possibilitará algum ganho sim. O Xbox Series X talvez poderá se dar ao luxo de perder 10 UCs para Machine Learning, restando 42 UCs para renderização. E o PS5? Se dará ao luxo de perder 7 ou 8 UCs restando 28 ou 29 para renderização? Me parece que o mais provável é o PS5 aprimorar mais seu checkerboarding, que embora seja excelente, talvez perderá um pouco em nitidez para técnicas ML de super resolução (com aqueles zooooommm 400% lol). Mas também poderão usar ML, acredito que o RPM existe no PS5.
Esse é o problema, se na GPU o PS5 perde (pelo menos a nível de paralelismo e capacidade para ML) e a CPU até então são basicamente as mesmas, eu agora quero ver até onde 0,166ghz vs I/O vão fazer a diferença nos jogos next-gen, será que o problema de desempenho do XSX é culpa só do I/O pior que o PS5 ou a narrativa do SDK atrasado faz sentido? Eu particularmente não vou comentar nada até ver os jogos de nova geração rodando nessas maquinas, agora prefiro ver com meus próprios olhos daqui para frente do que ficar nesse campo de especulações que não levam a nada.
Sobre a questão de desempenho, não diria que é somente i/o. Cache Scrubbers não é um componente de i/o. É um componente interno da GPU que maximiza o cache hit, como foi apresentado pelo Mark Cerny. Não é só uma questão da GPU ter várias unidades computacionais livres. A unidade computacional não pode fazer nada sem ter os dados lidos. Se um sistema está entregando os dados necessários de forma consistente no cache mais rápido, terá benefícios de performance.
O paper original de cache scrubbers aponta para ganhos de até 59% (https://www.cs.utexas.edu/~mckinley/papers/bandwidth-pact-2014.pdf). Claro que não vou ser louco e falar que uma GPU é 59% mais rápida que a outra por isso lol. Mas é um factor que entra na soma.
Mas até então pelo o que foi passado uma utilização customizada dos caches scrubbers não é algo que os desenvolvedores estão aproveitando, se no final isso não for “evangelizado” não sei se ainda poderia contar como uma grande vantagem.
Cache scrubbers se tem acesso através de software, que muito provavelmente é disponibilizado com o kit de desenvolvimento. Não é uma peça de Hardware de difícil programação. O que exige de verdade vários níveis de aprendizado e aplicação é geometry engine, que com certeza não estão nem usando nesses primeiros games. Como o própria Cerny disse: Como desenvolvedor, você pode ignorá-la, colocando a gpu do ps5 como não mais capaz que a do ps4, mas se quiser trabalhar nela, terá muitas vantagens.
Cache Scrubbers é uma otimização. Os ganhos são automáticos.
Concordo que podem não estar sendo 100% aproveitados, mas os ganhos já existem somente por estarem lá. É o mesmo que jogos retro, ganha-se FPS apenas por rodar no hardware mais forte, sem nenhum tipo de optimização.
sim, eu até corrigi ali em cima, as vezes digito e reviso 10 vezes o que eu escrevi (tenho um certo grau de dislexia, o twitter por exemplo para mim é um pesadelo por não poder editar kkkk..). Eu estou ciente de otimização automática, mas até que ponto podem diminuir a diferença sem otimizações mais profundas!?
E sobre a Geometry Engine, prefiro esperar mesmo para ver se os desenvolvedores vão conseguir tirar proveito das customizações do PS5. Tendo em vista que tudo leva a crer que ele será o console com maior base instalada nessa geração, espero que seja utilizado como base para o desenvolvimento assim aproveitem mais as suas features.
Sobre a Geometry Engine, eu tenho expectativas.
Mas mesmo que tudo o que foi dito sobre a GE seja falso, os primitive shaders introduzidos no RDNA 1 já fornecem uma grande diferença de performance em relação aos vertex shaders, que pelo visto ainda é o formato padrão na gestão dos shaders.
Na tech-demo da UE5, o pessoal da EPIC forneceu uma entrevista à Digital Foundry falando sobre isso. O culling dos bilhões de triângulos que vimos a nanite fazer foi feito com Primitive Shaders, em uma performance bem superior aos tradicionais Vertex Shaders.
Está neste artigo.
https://www.eurogamer.pt/articles/digitalfoundry-2020-unreal-engine-5-playstation-5-tech-demo-analise
Pra te ser bem honesto, não creio que Cache Scrubbers são gerenciados em alto nível, via API. Eu já programei vários caches, mas colocando dados na RAM para evitar das informações mais buscadas serem lidas no HD pelo banco de dados. É uma situação diferente, é um cache da RAM para o HD, e não do barramento interno da APU para o externo, onde está a RAM, que é a atuação dos Scrubbers da GPU.
Do que li no paper, cache scrubbers faz a reescrita/atualização automática dos dados nos caches na GPU sem precisar da GPU receber um “cache miss” como resposta. Então quando a GPU precisar de uma nova linha de dados nos caches, o Scrubbers já os preencheu.
Sobre os ganhos, não sei te mensurar. Entretanto, é notório que a eficiência do barramento interno da APU é essencial. Como exemplo, os novos M2 da Apple colocaram a RAM no barramento interno, e a performance está espantando todo o mundo.
Faz as contas… Se colocares 10 CU (19,2%) para machine learning tens 2.33 Tflops para ML e ficas com 9.81 Tflops para jogos.
Vamos fazer o mesmo na PS5. Vamos meter 7 CU para ML e 29 para jogos. São 1,971 Tflops para ML e 8.166 para jogos.
Qual a diferença?
18% em ambos…
Dê por onde der a realidade da diferença teórica mantêm-se sempre igual.
O grande problema é que os GPUs aquecem… E não se podendo subir velocidades, coloca-se mais processadores. Isso é mais preocupante nas consolas onde tens de ficar longe dos potenciais máximos para garantir melhor aproveitamento dos chips e preços inferiores.
Por isso a Microsoft se fica na ordem dos 1.8 GHz quando o RDNA 2 pode ir acima.
No entanto a velocidade tem vantagens. Porque mais MHZ traduz-se em mais pixels criados, mais texels debitados, processamento mais rápido, etc. Enfim, tudo acelera e não só a computação. E um GPU vale pelo seu todo e não só pela computação.
Depois a realidade física é que mais Processadores são mais difíceis de alimentar e há perdas cada vez maiores, com 4096 processadores a ser um limite máximo. É a lei de Amdahl e é uma realidade.
E sobre essa dsicussão ai do reddit que você postou, isso sim é um assunto interessante. Vamos dicutir sobre informações que temos e são comprovadam, muito mais construtivo. Agora me deu no saco todo aquele papo de cache unificado para no fim não ser nada. :/
Divide 4 por 36 e 5 por 52, e verás que, apesar de menor em número, a cache da PS,5 serve melhor os CUs.
E sim, eu tenho insistido que o código que temos visto é legado e como tal não optimizado a nenhuma das consolas, sendo que no entanto ele beneficia mais a série X uma vez que os ganhos do paralelismo são mais imediatos que os da velocidade.
Recordo que a Sony não te de se preocupar com compatibilidade PC, o que faz com que o hardware possa ser explorado ao máximo. Já a Xbox fica limitado por um mercado onde o PC médio e mais abundante é bastante fraco.
Eu também vi o Matt Hargett dizer sobre os motores atuais beneficiarem imadiatamente de paralelismo e não da velocidade (https://twitter.com/syke/status/1358537113029910534?s=20). Honestamente, fiquei sem entender. Talvez me falte conhecimentos mais aprofundados de GPGPU.
Basicamente os jogos espelham o processamento pelos processadores que tem. Nem é um, nem dois, é os que ouver. Isso surge porque no PC podes ter desde um a 64 cores. E nesse sentido quem programa multi core automatiza a distribuição, boa ou má, pelo que há.
Já as maiores velocidades mexem com timmings de processamento, pois o processamento é mais rápido, e isso pode ser problemático, sendo que por isso os jogos não preparados para isso limitam as performances para evitar esses problemas.
Há motores que usam tudo, motores que usam só um dos casos, mas o mais comum é mesmo o tirar partido de mais cores, até porque no universo PC os clocks não variam muito, e o que varia brutalmente são os CU.
Entendi Mário, faz sentido. Até porque as GPUs tem esse propósito de maior paralelismo, então penso que um program shader deve ser escalado automaticamente entre os stream processors. Transponto a idéia para outro mundo, seria algo como eu executar uma consulta no hadoop que escala a entrega da resposta dinamicamente entre vários servidores escravos.
Ou seja, um jogo com as 40 CUs do Xbox One X ao ser portado para a nova geração, um mesmo program shader pode reescalar para as 52 CUs, entregando a resposta mais rapidamente. Faz sentido.
Tenho bastante experiência com programação multithread em CPU. Mas em GPU não. Só entusiasta mesmo.
Obrigado.
A própria forma de retro da Microsoft ajuda a isso. As máquinas virtuais correm o hardware antigo dentro no novo, tirando partido do novo.
Mário,
Esse raciocínio de paralelismo de GPUs se aplica parecido com CPUs?
Vou te dar um exemplo.
Escrevo um program shader em HLSL. A execução deste programa se distribui entre os 3328 shaders do Xbox Series X a 1825Mhz. Vamos considerar que a execução se encerrou em 1 segundo.
Agora vamos considerar o mesmo program shader sendo executado no mesmo clock, mas com 2304 shaders, ou 44,44% menos shaders. Considerando também os mesmos caches, sem optimizações específicas. Isso signiica que terminará a execução em 1,44 segundos?
Penso que não. Em execuções paralelas, não se pode considerar que todos os cores terminam suas tarefas simultaneamente. Então se um core demora mais do que outro para terminar, isso já afeta o tempo de resposta, pois o pipeline irá prosseguir ( thread.join() ) após a conclusão de todos os cores. Então quanto menos cores, a tendência é ser menor o delay para todos terminarem suas tarefas. Mas claro que mais cores terão vantagem, já que são mais “trabalhadores” em simultâneo. É só uma questão de que a vantagem não é linear ao aumento de cores.
Está no raciocínio da lei de Amdahl correcto?
Já com a questão de aumentar o clock, penso que podemos contar com uma melhora mais próxima do linear.
Ou seja, se 2304 shaders a 1825Mhz terminam a tarefa em 1 segundo, 2304 shaders a 2230Mhz terminarão a tarefa próximo de 1,22 segundos, ou 22% mais rápido.
Só para referir que li a pergunta, mas estou neste momento fora de casa a consultar pelo telemóvel e não estou dentro do contexto. Depois voltarei a pegar nisto e responderei.
Vamos lá a ver…
A resposta não será directa. Não serei a pessoa mais habilitada para te a dar, mas creio saber responder.
E isso porque tal vai depender de pelo menos quatro coisas:
-As dependencias.
-As ocupação do GPU.
-A capacidade de paralelismo do código.
-As características do motor.
Quando tens dependências uma thread de cálculo tem de esperar por outros resultados para poder começar. Logo mais CUs não são necessariamente uma ajuda Linear na velocidade se estes ficaram parados à espera de resultados.
Logo, uma vez que essa existem regularmente os ganhos/perdas nunca serão lineares.
A ocupação de GPU é outro factor. Se estás a calcular a mesma coisa terei de assumir que o GPU de menos CUs está a 100%, mas o outro, com mais, não. Porque se o de mais está a 100%, o outro demorará mais do que o valor que indicas.
Depois tudo depende da capacidade de paralelismo do código. Ele pode até nem se adaptar bem a mais CUs, ou pode conseguir fazê-lo perfeitamente.
Mas mesmo neste segundo caso mais CUs implicam perdas de eficiência, motivo pelo qual mais uma vez o teu resultado Linear não se aplica. Num caso de como o que referes podes ver na linha de Amdahl que o ganho está numa fase bastante descendente pelo que nunca seria proporcional à diferença.
Às características do motor porque estes podem não permitir ganhos em velocidade, mas apenas em quantidade. A Física, a IA, e muitas outras componentes tem os seus timmings internos que são associados aos FPS. Muitas vezes o Vsync existe por causa deles.
Daí que aumentar a velocidade de processamento do GPU pode ser um problema para a gestão do motor, e muitos jogos permitem ganhos pequenos ligados à maior velocidade de relógio por causa disso. Já o maior paralelismo tem uma vantagem do seu lado pois basicamente pode ser usado de forma fácil e directa não para processar mais rápido, mas para processar mais. Mais resolução ou mais efeitos por exemplo.
Alterar os fps requer ajustes, e tens um bom exemplo com o God of war. Ele permitia ganhos de FPS ao correr na PS5 numa velocidade que nunca tinha sido pensada para existir (o jogo pura e simplesmente foi pensado a pensar que a velocidade de relógio da Pro seria o máximo que veria). E o jogo evitava os 60 fps, mas tinha problemas de sincronismo a vários níveis, pelo que teve de ser bloqueado, e só voltaram a desbloquear recentemente com um Patch que resolvia isso.
Como te disse a resposta não é directa, luz seja não tens um sim ou não… Porque a coisa é mais complicada do que isso.
Obrigado Mário.
Olha, alguém me explica o que exatamente aconteceu? Isso foi culpa de interpretações erroneas por parte dos entusiastas, principalmente falando de consoles da Sony? O que acontece com essas figuras que a principio tinham credibilidade e boas informaçoes internas sobre o PS5 possuir cache unificado? O que é então, Matt Hargett é um mentiroso ou mal interpretado? O pessoal do RGT também são mentirosos ou suas fontes que estavam erradas??? Eu não consigo realmente entender como esses boatos surgiram afinal. Porém ao meu ver era mais que óbvio, se a Sony tinha alguma vantagem ela logo deveria dizer, fica claro que esse console é basicamente uma 5700XT com RT por hardware e um Zen2 capado em comparação ao equivalente a desktop. Tudo bem, dou o mérito para o que Cerny fez na questão do complexo I/O e a facilidade em programar para esse sistema, fico até feliz porque hoje em dia me divirto mais com jogos indies do que triplo A, e um hardware que seja fácil de programar é uma fazenda para ótimos jogos de baixo orçamento. Porém tenho que dizer, o que mais me deixou frustrado não é nem o fato do PS5 ser um console com vários cortes para caber dentro de um orçamento limitado para entregar um custo-benefício (nada supreendende para um console), mas o fato de especularem tanto em cima de algo que não existia e pior, quem dava corda para isso eram essas fontes “credíveis”, isso tudo agora me fez ficar bem desconfiado com qualquer especulação, mesmo que pareça confiável.
Sempre fui entusiasta de games, mas essa é a primeira geração que me aprofundei mais nos detalhes técnicos, porém é a última que dou bolo para informações que não sejam oficiais. O pior que esses dias fiz uma busca sobre discussões da época do lançamento do PS3 e da para ver que isso não é de hoje, já naquela época também existiam vários boatos mirabolantes de como o console da Sony era extremamente superior ao Xbox360, coisa que nunca se provou.
Matt Hargett nunca referiu cache unificado na Ps5. Não seja injusto. Dias atrás questionei ele sobre possuir ou não e ele disse que não podia falar sobre o assunto.
E como você explica a superioridade do console sony na maioria dos comparativos, onde o poder bruto deveria prevalecer?
Como se explica devs falando que o ps5 é o videogame mais bem projetado da história? marketing enganoso?
Um console não é só Gpu e Cpu. O console da sony possui otimizações suficientes para se animar e essas nem vou citar mais, pois o Mario fez muitos artigos sobre o assunto. Quem não entendeu, foi porque não quis! Tudo escrito sempre com muita clareza.
Em nenhum momento falei que que a Sony fez um marketing enganoso, inclusive pontuo sobre ela já ter dito tudo que precisavamos saber sobre o PS5, só que o problema mesmo fica por conta dessas pessoas que até então foram passadas como sendo confiáveis mas que no fim estavam erradas. A minha pergunta na verdade é sobre o fato de ficarem inventando coisas que não existem, algo que no final só serve para alimentar o flamer war e disseminar desinformação.
Eu inclusive poderia dizer que a Sony foi desonesta sim, pois no Road to PS5 o qu ali dava a entender perante todo o Marketing que a Microsoft fazia com seu console, era que o PS5 seria um desastre quando comparado ao concorrente.
Quando lançou, vimos que o console não só era muito melhor do que o esperado, como o concorrente não era tudo o que gritavam aos ventos.
Dessa forma a Sony foi sim mentirosa, mas mentiu contra o próprio console
Começando pelo fim, eu se meter um Buggaty Veyron no trânsito ao fim da tarde nunca vou conseguir provar que ele é mais rápido que um burro. Porque o Veyron fica preso no trânsito e o burro não.
Ora a PS3 era claramente superior à X360. Tinha os princípios de um supercomputador, e capacidades e velocidades para tal. Aliás a força aérea norte americana usou 1760 consolas PS3 e construiu um super computador, e apesar de serem americanos, de a Xbox ser a consola mais popular no exército, e de ser produzida nos EUA, não usaram Xbox 360.
Porque será?
Eu sei que é mais fácil acreditar apenas no que os olhos vêem. Mas isso não diz tudo, e a PS3 pecou por ser demasiadamente avançada para o seu tempo, e numa altura onde tirar-se partido de 2 núcleos era um problema, um sistema com 9 era um pesadelo.
Quanto ao que se passou… É normal. Os programadores não tem raios X nos olhos e nem tiraram ainda partido do hardware.
O que aconteceu é que vendo os resultados da PS5 tentou-se explicar as coisas de alguma forma. E provavelmente caiu-se no erro que todos caem, o de comparar com o PC. E o que explicaria isso no PC? Uma cache L3 melhorada… É tão simples como isso!
Quanto ao GE, nada se alterou. Continua-se sem saber nada sobre ele.
Sobre sua analogia, penso que esse foi o erro da Sony com o PS3. Um Buggaty é bonito de ver e ouvir, mas para o dia a dia é um péssimo meio de transporte. Se a Sony tivesse optado por um ônibus/autocarro que levaria mais de 20 pessoas ao mesmo tempo (traduza como fácil programação e suporte aos desenvolvedores) teríamos um veículo muito mais eficiente que um Buggaty.
Sobre as explicações, o que não entendi foi tentarem buscar essas tais em coisas que eram puramente especulações, sendo que estava o tempo todo na nossa frente desde a apresentação de Cerny. As vantagens que o PS5 vem obtendo são relacionadas ao complexo I/O que faz tudo sem gastar recursos dos componentes destinados exclusivamente para processamento dos jogos, basicamente eliminação de gargalos.
Não percebi… A PS5 é a consola Sony mais fácil de programar de sempre.
Quanto ao Cerny, ele falou em questões inovadoras da consola, não em detalhes do hardware. Naturalmente ele nunca iria falar sobre uma cache L3, um pormenor do funcionamento interno do hardware.
Falou isso sim sobre o GE, e esse continua em aberto sobre as suas potencialidades.
Eu sei que o PS5 é fácil de programar, esse primeiro parágrafo estava me referindo ao PS3 😀
Alguns comentários
Sobre dados oficiais e falas oficiais.
Alguém da Xbox falou em 2020 antes do lançamento que a CPU do XSX seria de classe Servidor, não lembro quem foi, mas quando saiu a análise da Hotchips e descobriram que ali tinha uma CPU de classe Mobile essa conversa veio a tona.
A Microsoft também declarou que seu sistema teria uma grande quantidade de cache, 70 e poucos MB, denovo na Hotchips não encontraram tais quantidades de MB, ficou bem aquém aliás.
A Microsoft fez um Hype absurdo sobre as “Features Nextgen” tais como VRS, Mesh Shaders, ML, Raytracing, bem, já temos 2 meses de geração é vimos que isso aí foi muito marketing.
Pra concluir, ambas as empresas fizeram Marketing de 8K 120fps, os 120fps foram conseguidos, mas e os 8K? O Xbox ainda por cima veio dizer que 4K 60fps eram o Padrão dali em diante, resultado é que tiveram de dar um 180 depois que a Maioria dos jogos rodava em resolução dinâmica e alguns em 30fps.
O que quero dizer é, nem em declarações e dados oficiais da pra confiar hj em dia.
Edit: faltou falar de PS3 x X360, bom em exclusivos o PS3 mostrou do que era capaz quando bem ultilizado, então, aqui discordo de vc
Concordo.
Aliás, VRS foi usado em Dirt 5. Houve alguma diferença considerável para o PS5?
Ontem mesmo o time da 4A games desdenhando de Mesh Shaders em entrevista ao Wccftech.
Não somos bobos, sabemos que VRS pode até melhorar no tier-2, Mesh Shaders pode ser muito útil para outras engines.
O meu ponto é o delírio que as pessoas criam em relação a features. E a Microsoft é quem proporciona todo esse hype, com gente falando do que não sabe.
OFF do dia
Vale MUITO a pena ler essa entrevista: https://wccftech.com/4a-games-tech-qa-rtx-3000-is-in-a-different-league-for-rt-but-amds-approach-is-more-flexible/amp/?__twitter_impression=true
Pontos que gostaria de destacar:
1) Ray Tracing da NVIDIA 3000 é superior em performance, mas o da AMD é mais flexível, favorecendo optimizações futuras nas consolas.
2) O motor deles ainda não tem problema com a RAM do Xbox Series S, entretanto a GPU de 4 TFLOPs é um problema. A forma como eles trabalham para manter alta resolução e frame-rate parece difícil de escalar para GPUs inferiores.
3) Ressaltaram a tranquilidade em se lidar com clocks variáveis de CPU e GPU. Aliás, foram além dizendo que usam há décadas.
4) Parece que i/o para eles por enquanto é só loading rápido, sem grandes transformações em streaming de assets.
5) Não estão empolgados com Mesh Shaders, já que a engine deles depende muito pouco de rasterização.
Deixando claro que, essas afirmações são para um estúdio com um estilo de jogo e uma engine específica. O que eles dizem não é verdade universal. Outros estúdios com outras engines e outros jogos podem possuir demandas um pouco diferentes.
Utilizar mesh shaders é algo que provavelmente será pouco explorado fora de estúdios da Microsoft, e talvez utilizado por outros que estejam planejando fazer apenas jogos apenas no Xbox e PC. O recurso depende de hardware e não está disponível para usuários da RDNA1, GCN e GPUs antes da Turing na linha NVIDIA, ou seja, a maior parcela dos users atuais de PC está eliminada da equação. Da mesma forma o PS5 também não suporta o recurso. Logo, ou devs multiplataforma continuam fazendo jogos em motores dependentes do pipeline tradicional, ou utilizam renderizadores baseados em compute shaders, como o motor da 4A, ou o ID Tech 7 por exemplo pois assim podem suportar a todos, inclusive consoles mais antigos com o crossgen.
A PS5 suporta Mesh Shaders… Os Mesh Shaders são idênticos aos Primitive Shaders a nível de hardware pelo que executar os mesmos requer apenas software.
O RDNA 1 suporta Primitive Shaders e como tal Mesh Shaders.
Não são o mesmo, o mesh shaders exige suporte de hardware que a RDNA 1 não tem. O primitive shaders foi introduzido pela AMD ainda na arquitetura VEGA apesar de relatos de que não funcionava bem lá. Apenas as GPUs certificadas como FL_12_2 suportam mesh shaders:
AMD
RX 60xx
NVIDIA
RTX 20xx
RTX 30xx
Isso não significa que Primitive Shaders e Mesh Shaders não tenham o mesmo objetivo, mas essencialmente não são o mesmo e o suporte do mesh shaders necessita de um pipeline totalmente diferente, e que segundo o próprio desenvolvedor de Star Citizen, suportar esse recurso em um jogo que também deve suportar GPUs mais antigas, exige que a engine tenha dois renderizadores diferentes, o que ninguém vai fazer.
https://robertsspaceindustries.com/spectrum/community/SC/forum/50259/thread/mesh-primitive-shaders-and-star-citizen
O próprio fato do motor de geometria da RDNA ser capaz de mapear automaticamente código legado para Next Gen Primitive Shaders mostra como eles não são o mesmo.
E essa é a parte mais interessante da nova geração, existem possivelmente 4 formas de tratar geometria, o pipeline tradicional com suas ineficiências, o Primitive Shaders e seus ganhos mas que só é suportado pelos novos consoles e GPUs RDNA, compute shaders que nesse momento é universal mas os ganhos são menores por ser software, mesh shaders que tem suporte apenas no Xbox Series e GPUs RDNA 2 e RTX, e o suposto pipeline do Geometry Engine exclusivo do PS5, se ele existir. Minha aposta é que todos os estúdios multiplataforma apoiarão geometria renderizada por compute shaders.
pela tua resposta á percebi que não estou com os dados todos, pois o facto de o RDNA 1 não suportar mesh shaders é novidade para mim!
Seja como for, mesmo que sendo primitive shaders com pipelines algo diferentes entre as versões, a realidade é que os GPUs AMD só trabalham internamente com Primitive shaders,
Mas sendo assim percebo agora melhor a necessidade de um GE diferente na PS5. Seria uma forma da Sony criar a sua versão proprietária dos Mesh Shaders e algo que a ser competitivo seria de interesse para a AMD, o que justifica o que se diz que ele, no mínimo, influenciou o RDNA 3.
Segundo estou a ler, não há grandes diferenças entre o RDNA 1 e o RDNA2 a nível dos primitive Shaders. A diferença é que o RDNA 2 transforma todos os Shaders relacionados com o front end em Shaders primitivos, ao passo que no RDNA 1 ainda se dá muita prioridade aos Vertex Shaders.
Está alteração é uma das responsáveis pelos ganhos adicionais de performance do RDNA2 que melhora o Culling tendocomo resultado uma melhoria em 80% da saída de polígonos.
Analisando os dados o que me quer parecer é que os Mesh Shaders não são impossíveis no RDNA 1, apenas que as performances seriam muito inferiores. Para uma correção a isso seria necessário alterações ao Geometry Engine do RDNA 1.
E curiosamente o Geometry Engine é algo que a PS5 alterou, até porque dizem que está alteração não é perfeita ao não optimizar a performance ao máximo.
Na GDC também foi referido que os Mesh Shaders poderiam ser possíveis no Navio 10 mas que por questões de performance não valeria a pena.
A questão é que há já alguns programadores a dizerem que mais depressa vão usar os primitive shaders nas consolas, do que os Mesh Shaders. O motivo é que as consolas de nova geração todas suportam os Primitive shaders, e mesmo no mercado PC há suporte para ele. Já os Mesh Shaders estão limitados a hardware muito específico e apenas no PC.
Concordo que Mesh Shaders tem um pipeline totalmente diferente, mas o que te garante que esse pipeline tenha modificações em hardware sobre os Primitive Shaders, e não uma nova camada de Software mais acessível aos desenvolvedores e que traduz para Primitive Shaders da melhor forma possível?
Mesh Shaders não existem em GPUs RDNA 1 também porque DX12U não está lá. A AMD precisaria criar seu próprio Mesh via software, o que provavelmente não compensaria.
Tem uma discussão de hoje muito interessante no twitter exatamente sobre isso. Tentaram provar para o LeviathanGamer2 que a diferença está no Amplification Shader, mas ele não concordou não. Se quiser conferir: https://twitter.com/LeviathanGamer2/status/1361756911297843202?s=20
Preciso pontuar uma coisa, como esse blog é incrivel Mario, não só o blog mas como as pessoas que acompanham, artigos de alto nivel, e os comentarios de alto nivel tambem, gostaria de agradecer porque tenho aprendido bastante por aqui, obrigado a todos !
Só tenho pena que o Bruno esteja afastado… era um elemento de elevado valor… VOLTA BRUNO!
Quanto aos restantes que cá estão… deixem-se estar 😉
Concordo o Bruno faz bastante falta…
Mário, boa tarde!
Me tire uma dúvida. Por que os engenheiros e arquitetos dos consoles não colocam uma memória RAM só para lidar com o software do sistema tipo, uns 2 GB de RAM normal e deixa os outros 16 GB de RAM de alta velocidade e largura de banda para os games? Essa pequena mudança causa muito aumento no custo do console?
Isso seriam 18 GB… Mais 2 GB e teria o custo de 2 GB opcionais.
Não duvido que essa hipótese tivesse sido equacionada, mas a solução mais barata acabou mesmo por ser a escolhida.
Cache unificado, ou mesmo um cluster para a CPU estão descartados como explicação para a inicial vantagem de desempenho do PS5.
Eu acho que a explicação é menos empolgante do que as pessoas esperavam e não passam por nada relacionado a recursos desconhecidos. Motores legados, utilizando pipeline de desenvolvimento tradicional tendem a aproveitar bem a vantagem do alto clock do PS5 antes de que estejam limitados por computação.
O desempenho superior sobre o Xbox em alguns momentos pode ser o SDK da MS certificado para o lançamento de jogos, atrasado devido a espera pela AMD para incorporar os recursos de hardware do DX12U, (VRS, SFS, Mesh Shaders), e recursos faltando com previsão de integração futura, como anunciado em notas de lançamento do mesmo SDK, como o suporte ao geometry engine da RDNA que é um componente muito importante para acelerar a seleção de triângulos e consequentemente pode impactar toda a taxa de quadros.
O fato do Direct Storage também não ser auto-implementado e requerer interação do desenvolvedor com a API também pode causar impacto, nesse caso na CPU, com tarefas de decodificação e movimentação de dados que deveriam estar sendo realizados pelo controlador de I/O. Muitos devs disseram adorar a forma direta como o dev kit do PS5 funciona, provavelmente devido a muitos recursos auto-gerenciados. Desenvolvedores com prazos curtos no período de lançamento não irão procurar a melhor forma de fazer no console X se a forma tradicional também funciona de forma satisfatória.
No período antes do lançamento dos consoles e durante os últimos tempos antes do Raio X do SOC tiveram muito boatos controversos sobre recursos adicionados que não foram revelados, mas um boato que ecoou igual em todos os locais foi de que os desenvolvedores achavam o devkit do PS5 muito fácil e conseguiam performance rápido. Vejo algumas vibrações do Xbox 360 no início dessa geração, sendo o PS5 o hardware mais fácil e o Xbox Series X necessitando de mais trabalho, com a ressalva de não que é exótico como o PS3 e que não tem desempenho sofrível nos ports.
Se viste a análise da DF, a maior parte dos motores tiram mais partido de mais paralelismo do que de mais velocidade. O problema é que a IA, física e outras situações estão ligadas aos fps. E acelerar o processamento dos mesmos pode criar de sincronização. Processar mais em paralelo permite processar mais, mas sem ser necessáriamente mais rápido.
mas o SDK não era imaturo??? Fiquei confuso. #SQN
Já vi entrevistas dos times de Dirt 5 e Hitman 3 elogiando a GDK e dizendo que tiveram acessos antecipados. Inclusive a entrevista do Dirt 5 foi em Junho/2020. Link: https://news.xbox.com/en-us/2020/06/10/inside-xbox-series-x-optimized-dirt-5/
Eu concordaria com você se fosse uma questão de jogos já estarem usufruindo a todo o vapor de todas as features RDNA 2 desde o começo, como SFS e Mesh Shaders. Mas não é o caso. Estamos falando de código legado com Ray Tracing, e em alguns casos com VRS (Dirt 5, Gears 5, Gears Tatics). Então considerando o acesso antecipado e todo o suporte que alegaram ter recebido, não vejo como a GDK ter atrapalhado em algo.
Depois desse seu comentário, tenho certeza que ou vc fecha os olhos para realidade ou vai se decepcionar muito ao longo desta geração! Vem aqui botar papo sem fundamento e que fanboys replicam, como gdk imaturo e outros delírios. Pensa antes de escrever, por favor.
E como assim atarsos da AMD em software? A Xbox tem seu próprio software e que a AMD usa. Será que não percebe o mínimo das coisas?
Microsoft bem breve anuncia o Xbox SZ e vc vai bater palmas pq agora superando ps5 base? Eu hein..m