Analisando os slides da Hot Chips, há muitas novidades, e algum Marketing à mistura!
Nota: Como já parece sina minha, sempre que há um evento relevante de uma das marcas de consolas, que obriga a leitura, análise, reflexão e um artigo que não seja um copy paste, estou demasiadamente ocupado para lhe dar a cobertura devida. Mas enfim, terei de aceitar isso como uma consequência de ser sozinho a gerir a PCManias, e isto ser algo feito nos tempos livres uma vez que a página é um hobby e não uma profissão ou sequer algo que me dê dinheiro. Nesse sentido, tendo a certeza que outras situações serão abordadas posteriormente, mas para já pretendo dar uma vista de olhos mais geral e global da apresentação da Xbox série X na Hot chips, abordando apenas os temas que me parecem mais relevantes por serem novidade.
—
A tecnologia da Xbox série X foi apresentada e explanada na Hot Chips, sendo que muito do que foi apresentado não foi novidade, ou se o foi não fugiu ao esperado não trazendo nada de novo, pelo que não abordarei essas situações. No entanto houve algumas revelações que considerei bastante interessantes e que, pelo menos em parte, irei abordar neste artigo.
Vamos então começar pelo slide de apresentação:
Este primeiro Slide não é muito mais do que um apanhado das características gerais que já conhecemos na consola, mas que nos revela algumas novidades na sua coluna da direita, a azul.
O primeiro dado é que a descodificação Audio é feito por meio de um Codec Audio Opus, o que se por um lado mostra que a Microsoft optou por usar Codecs de última geração, por outro é uma pena saber-se que este é um Codec com perda. Muito certamente esta Codec será usado para chat dado que ele é optimizado para fala e comunicação interactiva
Opus, desenvolvido pela Xiph.Org Foundation e padronizado pela Internet Engineering Task Force, é um novo formato de compressão com perda de dados para áudio, livre de royalties, destinado para fala e áudio geral em um formato único, mantendo baixa latência suficiente para comunicação interativa de tempo real.
Temos tambem dados adicionais sobre o audio, mas que abordaremos com mais detalhe à frente.
Logo de seguida temos os dados típicos do HDMI 2.1, com suporte a resoluções 8k e 120 HZ, e os restantes suportes.
Finalmente temos dados sobre o sistema de segurança usado, o HSP/Pluton RoT.
Curiosamente do lado esquerdo, onde temos dados já conhecidos, não posso deixar de notar o uso daquilo que vulgarmente se denomina de… Marketing.
O marketing, na realidade não é mais do que publicidade, mas por norma está associado a situações onde apenas se conta meia verdade, ou seja, quando se ressalta o lado positivo de algo, mas ignorando o lado negativo ou menos bom.
E onde vemos isso?
Bem, a Microsoft denomina o seu CPU como sendo um ZEN 2 Server Class a 3.8 Ghz. Ora o simples facto de se usar a denominação Server Class já é por si uma forma de Marketing, pois não é algo que esperassemos encontrar numa consola. E o nome Server dá claramente a entender que este CPU vai acima do CPU normal, possuindo capacidades adicionais.
E aqui o Marketing é claro quando analisamos o que é um Zen 2 Server Class, e o que vemos é que estes CPUs efectivamente possuem melhorias face aos CPUs de secretária. Basicamente as duas mais relevantes são que o número de canais PCIe suportados passa de 24 para 128, e a memória cache L3 passa de 16 MB usada por norma nos desktops para 32 MB.
Ora a questão é que se o uso de 128 canais PCIe pode ser muito bom para racks de servidores, algo a que a Microsoft dará uso na Xcloud, mas na consola isso não traz qualquer vantagem uma vez que os 24 canais de um Zen normal são mais que suficientes. Para além do mais, a Xbox série X na realidade possui apenas 8 MB de cache L3, o que até fica abaixo dos Zen de secretária, colocando o CPU na categoria Mobile.
Daí que nesse sentido esta afirmação “server classe” só pode ser encarada de uma forma… Marketing! Não porque seja mentira uma vez que efectivamente há aqui uma característica da classe de servidores, que terá apenas interesse nas racks da Microsoft, mas porque esconde a realidade que não só não cumpre com os requisitos da classe servidores, como na parte da cache L3 até se enquadra na categoria Mobile.
Mas ainda nesta simples frase temos mais Marketing. E ela passa pela referência ao CPU como correndo a 3.8 Ghz.
E isto não é mentira: O CPU da XBox série X é efectivamente 3.8 GHz, mas isto sem o uso de SMT, mais conhecido vulgarmente pelo termo usado pela Intel, o Hyperthreading. Ora o SMT é uma tecnologia que permite virtualizar dois núcleos de CPU em cada CPU real, permitindo assim melhorar a eficiência de processamento do CPU ao meter em linha, para processamento, o dobro dos dados.
Os resultados não são o dobro… mas são mesmo assim muito interessantes, permitindo ganhos de performance entre os 20 e os 30%. Ora por esse motivo o SMT é indispensável numa programação optimizada e moderna, sendo que todos os futuros novos jogos, desde que criados para a nova geração, irão explorar o SMT. E a Microsoft sabe disso, tanto que a Xbox série X suporta o SMT.
No entanto, com ele activo, o CPU corre a 3.6 Ghz!
Por aqui facilmente vemos que os ganhos do SMT (20 a 30%) são maiores que os ganhos trazidos por 200 Mhz extra de velocidade (pouco mais de 6%), e assim sendo porque motivo a Microsoft não refere os 3.6 Ghz com SMT, mesmo que sendo apenas como dado adicional?
O motivo só entendemos como um: Marketing! Falar em Zen 2 e associar esta imagem a 3.8 Ghz é muito mais interessante, uma vez que para o utilizador menos informado este número uma vez fixado soa a muito mais alto que os 3.5 Ghz (com SMT) que a consola da concorrência refere possuir.
A questão é que o uso deste modo de 3.8 Ghz sem SMT será algo que, muito certamente, só será usado em jogos multi geracionais que corram na consola, e nesta fase inicial, será algo rapidamente abandonado, pelo que a sua referência exclusiva é claramente uma manobra de marketing.
Ou seja, tal como no bom Marketing, as afirmações de cima não são completamente mentira, o facto é que também não são verdadeiramente verdade!
Há porém pelo meio uma afirmação muito interessante, mas que abordarei num outro artigo comparativo com a PS5, e relacionado com o AVX 256 que a Microsoft afirma alcançar 972 Gflops no CPU. Neste momento digo apenas que não estou habilitado a comparar este número com a PS5, mas que existe a hipótese de a Xbox série X ser bastante mais capaz do que a consola da Sony neste tipo específico de cálculos.
Mas continuando, o Marketing estende-se à afirmação de que a consola tem um bus de 320 bits com uma largura de banda de 560 GB/s. E segundo a própria Microsoft, isso não é bem assim uma vez que esta largura de banda, mesmo sendo real, não está acessível a toda a memória da consola, mas apenas a 10 GB, sendo que os restantes 6 GB são acedidos a 336 GB/s. Basicamente há uma fragmentação de memória que com uso misto (as duas ao mesmo tempo) poderá ter severas consequências nas performances da consola. Mas essa é uma situação algo complexa e que poderá ter uma solução, em que para perceberem o que se passa e aprofundarem o motivo das dúvidas legítimas, se recomenda que leiam o artigo presente neste link.
Iremos agora avançar para os slides seguintes, mas não sem concluirmos algo. É que depois do que analisamos no primeiro slide não é possível avançar-se sem ser de pé atrás, pois dados novos que sejam apresentados terão de ser encarados com cepticismo, uma vez que como o primeiro slide deixou claro, a Microsoft não conta a história toda.
O que o segundo slide mostra é uma dimensão do APU inferior ao da Xbox One X, bem como a confirmação que os CCX do CPU são efectivamente separados, cada um deles com 4 núcleos de CPU e com a sua cache. Isto quer dizer que, a comunicação entre os dois CCX funciona na base dos 4+4 núcleos e não dos 8 núcleos efectivos, dado que as caches não são partilhadas, existindo latências na comunicação entre os CCX, e que se pensava poder não existir nestas novas consolas, ao ser adoptado o esquema do Zen 3 com cache partilhada pelos dois CCX.
Vamos ver o slide seguinte:
Este slide confirma novamente o referido anteriormente. Que cada CCX possui 4 núcleos, cada um com 512 KB de cache L2 e 4 MB de cache L3 partilhado entre cada conjunto de 4, o que da um total de 8 MB de cache. Longe dos 32 MB que os Zen 2 Server Class deveriam apresentar.
Vemos ainda que a memória comunica por 20 canais, sendo que o website Anandtech refere “10 GDDR6 controllers”, o que estará mal entendido. Na realidade, dado que temos 10 módulos de memória, o que será normal termos são 5 controladores 64 bits, cada um deles fazendo o trabalho de dois controladores de 32 bits (ou seja o equivalente a 10 controladores GDDR6), que ao serem bidireccionais, se traduzem nos 20 canais acima referidos.
10 controladores efectivos implicaria controladores de 32 bits em detrimento de controladores de 64 bits, o que não deveria sair mais barato e garantidamente não traria qualquer vantagem.
Ficamos ainda a saber deste slide que o sistema de I/O consegue lidar com um máximo de 8 canais de PCIe Gen 4, 2 usados pelo SSD interno, 2 por um SSD de expansão, e os restantes 4 usados internamente pelo sistema (ver slide abaixo),o que comprova aquilo que foi dito atrás na questão dos CPUs Server Class: Que para uso interno a consola não tem qualquer vantagem no suporte de mais de 24 canais PCIe.
Este slide acima é curioso pois fala das especificações do sistema de som, bem como do sistema de compressão de dados.
O sistema de som refere que possui uma capacidade de Virgula flutuante de precisão simples (Single-Precision Floating-Point, ou SPFP) superior aos 8 CPUs da Xbox One X. E aqui olhando para trás e para o Marketing claramente usado no primeiro slide não posso deixar de fazer a comparação com a frase usada por Mark Cerny quando referiu que o Tempest, o processador de som da PS5 tinha mais capacidade de processamento que os 8 CPUs da PS4. Há aqui uma clara colagem!
Ora mesmo para quem não sabe números em Tflops para o CPU da PS4 (100 Gflops), e os Tflops da Xbox One X (136 Gflops), o que a maior parte das pessoas, sabe que a Xbox One X era mais poderosa que a PS4. Daí que, pelo que aconteceu atrás, não posso deixar de pensar que há aqui um Marketing cuidado em se fazer uma comparação que todos consigam perceber e que promova a consola, com o intuito de se passar a imagem que o processador audio da Xbox é mais poderoso que o Tempest, tal como a One X era mais poderosa que qualquer PS4.
Mas a realidade é que estes sistemas são baseados em arquitecturas radicalmente diferentes, pelo que na realidade a comparação dos Tflops entre eles vale absolutamente zero.
Relevante é por isso perceber outros dados como a existência de 3 motores audio, o CFPU2, o MOVAD, e o LOGAN.
- O CFPU2 é um DSP SIMD (tal como o Tempest), um destinado a convolação audio, Fast Fourier Transformation e Reverb (que é por si uma convolução).
- O MOVAD que é o descodificador Opus audio por hardware capaz de lidar com descodificação de 300 canais ao mesmo tempo (provavelmente para audio chat).
- E o Logan que se baseia em 4 DSP faz o mesmo que o de cima, mas em modo XMA, o formato de audio característico das XBox desde a Xbox 360 e baseado no Xbox Native Audio codec.
Como nota referimos que a questão dos processadores audio é para nós a parte mais intrigante das consolas. Até ao momento, pelos dados que temos, aqui na PCManias não conseguimos ainda avaliar qual dos dois sistemas de som será o mais poderoso, mas uma coisa é certa, ambos são mais do que suficientes, e ambos são altamente interessantes.
Como outra nota de curiosidade temos os valores do descompressor de dados da consola. E a curiosidade surge uma vez que os valores ali indicados são superiores aos presentes nas especificações oficiais da consola, onde ainda hoje os valores lá referidos são 4.8 GB/s de compressão média, e 6 GB/s de descompressão máxima, Mas aqui, nesta apresentação os números passam a >5 GB/s de descompressão média e >6 GB/s de descompressão máxima. É deveras intrigante como estes valores aparecem aqui sem que haja uma correcção na página oficial. Mais Marketing??? Fica a questão!
Vamos ver ainda a questão do Ray Tracing onde a Microsoft anuncia o seguinte:
380 G/seg Raios com opico e 95 G/seg Raios-triangulo.
Apesar dos valores poderem soar a altos, especialmente para quem está a par dos valores da Nvidia, basicamente estes valores batem certo com o esperado. Cada CU RDNA 2 terá 4 TMUs, o que quer dizer que a 1825 Mhz, a Xbox teria 52*4*1825, ou 396,600 Giga Raios por segundo.
E sabendo-se que para interceptar o raio com um triangulo são necessárias 4 operações matemáticas, o valor de Giga Raios-triangulo cai para 1/4 ou 94 900 Giga Raios-triangulo por segundo.
Não há nada de inesperado ou novo aqui, a não ser o facto de este número poder ser confuso para alguns, uma vez que a Nvidia indica na sua RTX 2080 uma capacidade e 10 G Raios, o que dá a sensação que a Xbox série X é quase 40 vezes superior.
Mas na realidade, apesar de o nome Giga Raios ser igual, estamos a falar de coisas bem diferentes, com a Xbox a apresentar um valor máximo teórico de emissão de raios com a totalidade toda dos TMUs dedicados a eles. Já a Nvidia apresentaa um valor de Raios usados efectivamente usados em uma cena real, com todos os componentes do GPU a uso, e realizadas em cenários com 1.1 milhão de polígono no ecrã devidamente texturados. Ora no caso do RDNA 2 os 379 600 Grays/s deste GPU, implicam que as TMUs estejam todas as a trabalhar com Raios. Mas a interpretação que há da patente é que os TMUs por cada ciclo ou lançam 4 raios ou lidam com texturas. E a aceitarmos isso como correcto, tal quer dizer que o Ray Tracing apenas pode ocorrer nas TMUs não ocupadas pelo tratamento de texturas. Daí que a comparação entre estes os valores aqui dados e os da Nvidia já aplicados numa situação real de mundo real é algo que não pode ser feito pois desconhece-se os números da AMD para uma situação equivalente.
Basicamente, por esta discrepância, não podemos comparar ou sequer saber as reais capacidades de Ray Tracing do RDNA 2, que até deverão variar de jogo para jogo. Podemos no entanto adiantar que a versatilidade do uso do Ray Tracing do RDNA 2 em sistemas de renderização híbridos sempre nos soou a algo bastante superior ao possível nos sistema da Nvidia, que será o que permite o seu uso em resoluções de 4K, algo que é um problema nos GPUs da concorrente.
Termino com uma nota sobre a indicação do uso de uma pequena área de silicone para uma aceleração de 3 a 10 vezes… Algo que falta perceber em que contexto é falado, uma vez que os Giga Rays apresentados estão dentro do esperado, e sendo esse o seu débito máximo a aceleração já está aqui aplicada. Daí que fica a dúvida sobre o real sentido desta indicação.
Mas aguardemos por desenvolvimentos e as análises e comentários que virão a aparecer sobre esta apresentação.
Termino só com um dado que está ainda por esclarecer, mas que poderá ser muito, mas mesmo muito interessante, e que a Microsoft anunciou, estando relacionado com o processamento de luz linear que vemos indicado no primeiro slide.
Falo de um novo modo de HDR 32 bits com suporte a 9-bits mantissa, 5-bits split exponent, ou 9: 9: 9: E5. Este modo, é referido como oferecendo melhor qualidade que o formato 11:11:10 operando ao dobro da velocidade do HDR 64 bits e usando metade da largura de banda. Sinceramente os dados sobre esta situação são escassos, mas caso o mesmo possa ser implementado no HDMI 2.0b, a redução no uso de largura de banda poderá permitir que as actuais TVs possam vir a ter 4K 60 fps com HDR. E isso seria uma situação excelente, e uma arma muito interessante contra a PS5.
Eis a patente desta tecnologia registada pela Microsoft neste link.
Parabéns pelo artigo, Mário! Já andam a dizer que o Series S tbm estaria condicionado aos 4k, msm que por Upscaling.
Eu sou entusiasta, porém não compreendo muito bem certos assuntos. O que seria AVX 256 e por que o Ps5 estaria atrás, quais as especificações dele referente a isso? Eu sei que abordará em outro artigo, mas estou curioso kkkk…
AVX significa Advanced Vector Instructions e são realizadas no CPU. É um conjunto de instruções de processamento intenso que se destinam a aumentar a performance de processamento vectorial paralelo. É suportado desde a geração passada.
Quanto ao motivo pelo qual a PS5 poderia ter desvantagens abordarei noutro artigo.
Boa Mário! Acho que a MS, apesar de todas as falhas de marketing que já comentamos por aqui, está fazendo bem em apresentar seu hardware.
Mas eu senti falta de eles fornecerem mais detalhes do funcionamento da velocity architecture.
O Velocity Engine foi a maior lacuna, e pior ainda, o que foi apresentado não demonstra os tais ganhos de velocidade no SSD que eles referem?
Nesse aspecto está apresentação deixou mais dúvidas do que tirou.
Será um console poderoso, e bem caro também pelo jeito
Pergunta de Leigo
Já no primeiro Slide na coluna da esquerda, última linha.
“•GDDR6 14Gbps, 320b, > 560GB/S”
O que seria isso? A Memória principal do sistema? Caso sim, não eram 16GB?
A solução da Microsoft para o subsistema de memória entregou uma curiosa interface de 320 bits, com dez módulos GDDR6 de 14 gbps na placa-mãe – seis de 2 GB e quatro de 1 GB. Como tudo isso se divide para o desenvolvedor é fascinante.
“O desempenho da memória é assimétrico – não é algo que poderíamos ter feito com o PC”, explica Andrew Goossen “10 gigabytes de memória física [executa a] 560 GB / s. Chamamos isso de memória ótima de GPU. Seis gigabytes [executa a] 336 GB / s. Chamamos isso de memória padrão. GPU ideal e padrão oferecem desempenho idêntico para áudio da CPU e IO de arquivo. O único componente de hardware que vê uma diferença na GPU. ”
Em termos de como a memória é alocada, os jogos obtêm um total de 13,5 GB no total, que engloba todos os 10 GB de memória ótima da GPU e 3,5 GB de memória padrão. Isso deixa 2,5 GB de memória GDDR6 do pool mais lento para o sistema operacional e o shell front-end. Da perspectiva da Microsoft, ainda é um sistema de memória unificado, mesmo que o desempenho possa variar. “Em conversas com desenvolvedores, é normalmente fácil para os jogos mais do que preencher sua cota de memória padrão com CPU, dados de áudio, dados de pilha e dados executáveis, dados de script e desenvolvedores gostam de uma troca quando lhes dá mais potencial largura de banda “, diz Goossen.
Isto diz 0 (zero)… Está solução não é recomendada pela JEDEC por ser assimétrica e causar quebras na largura de banda em acesso simultâneo. Se a Microsoft conseguiu compensar isso, não só não se sabe como, como as palavras de cima não explicam nada.
Memórias 14 gigabits por segundo (Gb). Tem a ver com a largura de banda de cada módulo, nada com a capacidade de todos os módulos que é 16 Giga Bytes (GB).
B maiúsculo = Bytes
b minúsculo = bits
Mário!
Dá uma olhada nesse vídeo e vê se esse o que fala esse rapaz está correto!
https://www.youtube.com/watch?v=UtMbX3g8H40
Já conheço esse video. O que o rapaz diz é tudo verdade… só que ele não aborda o acesso em simultâneo, que é onde o problema existe,
Porque se abordasse, ele não sabia dar uma solução para o problema, uma vez que a situação não está preconizada nas normas da JEDEC como recomendada para uso. Aliás a JEDEC não recomenda este tipo de memórias pelos problemas que eu refiro nos meus artigos.
Agora se a Microsoft resolveu o problema por estarmos perante uma consola, não sei. Mas não me parece!
Tu para teres dual channel, tripple channel, quad channel, seja já o que for, ou seja para poderes dividir os dados pelas diversas memórias, como fazes com o RAID nos discos, de forma a que quando pedes os dados cada memória só te tenha de fornecer uma parte, aumentando a velocidade de leitura, algo que nos sistemas modernos é indispensável, todas as memórias tem de ser exactamente iguais. Ora como misturas memórias de 1 GB com memórias de 2 GB, ou acedes ao primeiro 1 GB, ou ao segundo 1 GB. Aceder aos 2 GB na sua totalidade é impossível. E isto é um problema.
PS: Desculpa se houver algum erro, ortográfico ou outro. Acabei de vir de uma viagem de bicicleta onde os charlatões dos meus amigos me prometeram que seriam 100 KM… Aldrabões… Foi quase o dobro e estou todo roto!
14Gbps se refere à velocidade que cada chip de memória opera, não a capacidade de armazenamento.
SeriesX tem 10 chips de memória, cada um operando a 14Gbps.
Cada chip então opera na velocidade de 56GB/s (14Gb/s x 32 bits / 8)
Como são 10 chips, 56GB/s x 10 = 560GB/s.
E como destes 10 chips, 6 possuem 2GB e 4 possuem 1GB, logo 12 + 4 = 16GB RAM.
Resumindo, como sempre, a Microsoft não te dá certezas… Tem que ficar analisando a apresentação dos caras para entender… O marketing é excelente em enganar, com meias verdades, como sempre.
Enganar quem não entende nada!
Sinceramente só se for isso. Porque eu vejo o Marketing da Microsoft como promoção, não como tentativa de burla. Burla seria se anunciassem algo e tivesse zero disso.
Mas na realidade, mesmo que o CPU não seja exactamente como se pinta, tudo o que é anunciado acaba por ter fundamento de verdade.
O marketing não é mentir… O marketing é omitir, exagerar… E é legal e normal… desde que não minta!
Mario vc deve lembrar quando a sony falou que o PS2 rodaria com gráficos de toy story…
Quando o PS3 teria jogos a 120 fps…
Quando Killzone e Motorstorm foram mostrados como sendo gameplay real. etc etc..
Há… 1080p fará vc um jogador melhor…
Eu lembro-me de tudo. E por me lembrar de tudo refiro:
1 – Há uma contusão: A Sony referiu efectivamente que a Sua consola possuía hardware “allowing it to create characters similar in appearance to those in the Walt Disney film “Toy Story””.
https://money.cnn.com/1999/03/01/life/playstation/
Mas não foi a única, e a Xbox foi mais longe referindo os criadores estavam “achieving a level of visual detail you really get in ‘Toy Story.”
https://www.cnet.com/news/microsoft-got-game-xbox-unveiled/
Portanto não vamos falar da Sony! Esquecendo que a Microsoft disse o mesmo e até foi mais longe.
2 – A Sony nunca disse que a PS3 teria jogos a 120 fps. O que a Sony disse é que o hardware da PS3 permitia resoluções até 1080p, e refrescamentos até 120 Hz, pelo que essas resoluções e fps eram possíveis. E jogos 1080p tiveste, mas a 120 fps não. Aliás não havia na altura TVs com esse refescamento não existiam sequer.
https://forum.beyond3d.com/threads/list-of-rendering-resolutions.41152/#post-1114422
3 – MotorStorm foi uma aldrabices pegada, vinda de uma altura onde reconhecidamente a Sony estava no seu pico de arrogância. Mas apesar das promessas burlonas deste jogo, o mesmo não pode ser dito de Killzone, onde a Guerrilha fez das tripas coração, mas entregou.
https://youtu.be/xj989hFKNF8
4 – 1080p farão de si um jogador melhor foi referido no contexto que ele permitia maior definição ao longe e mais precisão na mira. Esta frase, por abordar uma realidade, nunca seria sequer comentada, sendo considerada banal, não fosse o facto de a One não conseguir alcançar os 1080p.
Os dois consoles já são mais que suficientes pra rodar jogos bem bonitões e com loadings rápidos , então tá valendo.
Exato. E só de dar um fim (reduzir significativamente) aqueles loadings irritantes já estará me dando um salto enorme na qualidade de vida.
Olá Mário, a microsoft enfatizou muito no series x que queria velocidade constantes tanto que o ssd consegue mais do que 4.8gb/s só que a microsoft diz esse valor porque é um valor que os desenvolvedores sempre terão e que não será variável. Você acha que é possível que ela está dizendo que é 5gb/s agora devido a melhorias de software realizados recentemente?
Sinceramente não sei porque ela fala nesses valores, porque na página oficial os valores não se alteraram.
Agora pode ser que tecnicamente consigas picos de mais de 5 e mais de 6, mas se na página oficial não os referes é porque não os podes garantir sempre.
Deu uma inflada no numero, pq o SSD começou a ter destaque.
Muito bom. Eu estava aguardando a análise do Mário sobre a apresentação Hot Chips. Como sempre um ótimo artigo. Só é uma pena que a apresentação da Microsoft não revelou muito de novo, a maioria das informações já tinha sido divulgada. Essa nova geração realmente promete ser especial. Um grande salto em relação a geração anterior. Uma pena que a Microsoft praticamente ainda não defendeu o seu novo Xbox.
Esperava do hot chips as informações a respeito do funcionamento da velocity architecture e sai de mãos abanando. O principal sistema eles não quiseram detalhar… porque será? Possivelmente a solução da microsoft não chega nem perto do nível de arquitetura I/O do PS5
Por quê vocês pensam que é o sistema mais importante por causa do marketing do Playstation, não que ele é de verdade. A MS foi perfeita em descrever o por que do SSD, ele está lá por que é inviável aumentar a memoria RAM pelos custos de um console. A função do SSD é apenas levar dados para a memória RAM de fkrma mais rápida. A CPU e a GPU consomem a memória, nao o SSD. A Sony, como tem o hardware mais fraco, fez todo mundo acreditar que o SSD ta fazendo alguma coisa a mais, por que isso é o único numero que eles tem a mais que o Xbox para promover.
Fernando, o que o Sample feedback faz é apenas uma melhoria do que a ID software criou com o RAGE,na altura por software. Tudo o que ele faz pode ser feito de outras formas, e o mérito aqui é isso ter melhorado, optimizado, automatizado e tornado melhor e mais rápido essa tecnologia.
Nesse aspecto,o SFS é fantástico e uma excelente tecnologia.
Agora a Microsoft teria de explicar uma coisa, que não fez. Como é que seleccionas parte de uma textura que está comprimida?
Se a descomprimes para o disco antes tens uma carga na escrita que segundo a Microsoft já não é pouca. Segundo eles mudança entre jogos escreve 9 GB no disco, o que é algo que se deve evitar nos SSDs, e se vais andar a descomprimir texturas sempre que arrancas um jogo, a coisa ainda fica pior.
Se não a descomprimes, como é que tiras apenas a parte que queres sem a ler toda primeiro?
Essa situação era suposto ser explicada aqui e não foi. Aliás as referências ao ganho no SSD nem apareceram, ficando-se pelos ganhos na RAM, algo que já o sistema inicial da ID fazia. Porquê?