Explicação sobre o Velocity Engine dá finalmente a perceber como o SSD da Xbox pode superar os seus limites de velocidade

Os dados sobre o Xbox Velocity Architecture sempre foram escassos, mas agora o canal XboxBR refere uma esquemática que, não sabendo se é realmente correcta, revela algo que mostra como este SSD funciona e como o Sampler Feedback Streaming pode operar, maximizando performances.

Quando falamos do SSD da PS5, falamos dos cache scrubbers, motores de coerência, canais DMA, e toda uma série de situações hardware que libertam o CPU a 100% e que nos levam a perceber que houve ali melhorias substanciais face ao que existe num sistema de I/O standard, e que permitem o uso de todo o disco como sendo memória virtual.

Já quando se fala do Xbox Velocity Engine, fala-se em 100 GB de memória virtual, um novo software chamado Direct Storage que melhora bastante a questão do uso do CPU, mas que mesmo assim ainda usa 1/10 de um núcleo, e o Sampler Feedback Streaming, uma tecnologia no GPU que permite definir que parte efectiva das texturas são precisas, evitando transferências desnecessárias, e maximinado assim as transferências do SSD e o uso da memória, num factor que a Microsoft anuncia ser de 2 a 3 vezes.

Ora aqui na PCManias nunca minimizamos este sistema, mas o certo é que o mesmo nunca teve a atenção que demos ao SSD da Sony, e o principal motivo era o não sabermos, e nem sequer saltar à vista por total falta de dados, pormenores sobre como todo ele funcionava.

Por exemplo, no sampler feedback streaming sempre nos questionamos como é que era possível extrair-se parte de uma textura se a textura estava comprimida. Numa analogia esta situação seria o mesmo que se ter uma máquina de contar moedas, com dinheiro armazenado em notas. Ora da mesma maneira que para contarmos moedas tínhamos de destrocar o dinheiro, aqui era necessário ler-se a textura toda, descomprimi-la e só então, extrair a parte necessária. E isto matava toda a questão do ganho na quantidade de dados transferidos referido pela Microsoft na parte do SSD pois este tinha de transferir a textura na mesma.



Mas recentemente o canal youtube XboxBR colocou uma esquemática que procura explicar como funciona este sistema. Foi a primeira esquemática que vimos sobre este assunto, e diga-se que a informação sobre a Xbox está longe de ser tão abundante como a da PS5, algo que qualquer website de tecnologia vos dirá.

O que ali foi mostrado e explicado estava confuso. O diagrama usado misturava blocos de software com blocos de hardware, colocava o Sampler feedback como algo fora do GPU, colocava o CPU a aceder ao Direct Storage que é um software que está na RAM, num bloco que estava fora da RAM… enfim… confuso!

Mas de qualquer maneira penso que conseguiram passar a imagem. E caso o que entendi esteja correcto, o Velocity Engine da Xbox não é exactamente algo de se desprezar. É algo bastante eficaz e uma excelente melhoria face ao que existe no PC.

Ora este artigo serve para que possa tentar passar aquilo que compreendi da explicação, mas usando agora um diagrama meu, que entendo como sendo mais correcto. Aqui vai ele:

Legenda:



A verde – Disco SSD dividido em duas partes – 900 GB armazenamento, 100 GB de memória virtual.
A verde escuro – Bloco compressor/descompressor
A amarelo – CPU
A Cinza escuro – 10/de 1 núcleo dedicado ao Direct Storage
A azul –  Ram dedicada ao OS
A roxo – Memória RAM disponível
A azul esverdeado – GPU
A bordeaux – Samspler Feedback Streaming e ID Buffers
A laranja – Comunicação entre Bloco compressor/descompressor e RAM
A azul escuro – Comunicação do CPU com o Direct Streaming
A preto – Comunicação do CPU com a RAM e o OS
A rosa – Comunicação da memória vistual com o SFS para fornecimento das texturas descomprimidas.
Nota: Estes canais de comunicação não representam canais dedicados reais, mas apenas a existência de comunicação.

À nossa esquerda, a verde, temos o SSD NVME de 1 TB. Este SSD terá, aparentemente, 100 GB reservados, deixando assim livres 900 GB para os jogos. Esses 100 GB são parte do Velocity Engine, e serão sujeitos a leituras e escritas com dados dos jogos presentes no disco.

Essa situação é aliás a que nos deixa mais dúvidas sobre como funcionará a alocação desse espaço. Será que cada jogo tem acesso aos 100 GB e descomprime a cada vez que se executa dados para lá? Será que só tem acesso a parte, dependendo do número de jogos abertos, mas descomprime a cada vez que o jogo se executa dados para lá? Ou será que funciona de outra forma?

Ora o que nos faz acreditar que não estaremos perante nenhum dos casos de cima é o desgaste que escritas constantes a cada sessão de jogo poderiam criar no SSD. Mark Cerny analisou se 825 GB seriam suficientes analisando o desgaste do SSD com instalações diversas. E agora a Microsoft deixa apenas mais 75 GB que o disco da PS5, mas não se preocupa com o desgaste dando um uso de escrita regular aos 100 GB reservados, algo que não é exactamente saudável num SSD?

Antes de abordarmos essa resposta vamos explicar porque motivo esses 100 GB são sujeitos a escrita, explicando um pouco o diagrama de cima!



Bem, segundo a explicação, o Velocity Architecture lê os dados comprimidos dos 900 GB onde os jogos estão armazenados e comprimidos pelo Zlib e BCPack. Esses dados são pedidos pelo CPU, que tem 1/10 de um núcleo dedicado ao Direct Storage, ao OS, que inclui o novo API Direct Storage,s endo o pedido transmitido ao SSD para a entrega do necessário que é então tratado pelo bloco de compressão/descompressão por hardware, sendo remetido directamente à RAM, ou à memória virtual de 100 GB presentes no SSD.

Esta recepção de dados descomprimidos obriga a que o SSD escreva os dados. E essa é uma situação que é negativa no aspecto que sujeita essa parte do disco a um elevado desgaste. Como já referimos, Mark Cerny preocupava-se com as instalações, mas aqui a Microsoft não se preocupa com escritas a cada arranque de um jogo? É no mínimo estranho, não?

Olhando para trás, vimos este canal (ou pelo menos era o mesmo senhor), a explicar como funciona a memória da Xbox. Mas curiosamente, na sua explicação, este passou ao lado da situação que aqui abordamos e que poderá causar gargalos na largura de banda da consola. Será que foi lapso, conveniência, ou outro motivo? Não sabemos, mas o certo é que se quem tem acesso à informação não aborda as partes menos convenientes, o mesmo pode estar a acontecer aqui também. E esta poderá ser uma informação que não é conveniente dizer-se!

Mas não acreditando que a Microsoft tenha sequer pensado em sujeitar o disco a tal desgaste, acreditamos que os 100 GB de memória virtual terão uma alocação por jogo limitada e com escritas apenas a ocorrerem uma vez.

Vamos explicar:



Basicamente, por cada 9 GB de armazenamento que um jogo ocupe, este verá atribuído 1.1 GB de espaço nesses 100 GB onde poderá descomprimir dados para serem usados como memória virtual. Estes dados são seleccionados, e escrevem-se apenas uma vez, ou pelo menos um número limitado de vezes, ficando os dados ali, mesmo que a sessão de jogo termine, só sendo apagados se o jogo que lhes deu origem a esses dados for apagado do disco.
Basicamente, o que nos quer parecer é que, dependendo do tamanho do jogo no disco, são atribuidos uns GB extra nessa memória virtual onde se descomprimem algumas texturas, para cada jogo. Mas não nos parece coerente que este espaço tenha um uso à descrição, pois tal obrigaria a escritas e re-escritas constantes vindas dos vários jogos que não nos parece que aconteçam. Ou seja, quer-nos parecer que os 100 GB são um espaço a dividir por todos os jogos, não algo que cada um deles possa usar livremente!

Seja como for, esta memória virtual conteria texturas descomprimidas. E isso explica como pode então funcionar o Sampler Feedback Streaming.

As texturas estando no disco devidamente descomprimidas, já se compreende como é que o SFS pode pedir a parte correspondente sem a necessidade de se transferir a textura toda comprimida, descomprimir, e seleccionar a parte. Elas já estão descomprimidas, só não estão é na RAM, estão no SSD, na chamada memória virtual. E desta forma, esta memória virtual transfere os dados apenas relevantes da textura que o SFS identificou, para a RAM do GPU.

Esta situação liberta o SSD de transferências mais pesadas, podendo efectivamente aumentar a sua capacidade de transferência, e liberta a RAM que não tem de recepcionar a textura toda seleccionando apenas a parte relevante e descartando o resto.

No entanto, sendo esta uma transferência do SSD que pode assim ser optimizada, nas taxas de 2 e 3 vezes, conforme a Microsoft refere, e de acordo com a dimensão da parte da textura necessária, este ganho limitar-se-à às texturas ali colocadas, e sendo o espaço, muito certamente 1,1 GB por cada 9 GB usados, um jogo com 100 GB de ocupação de disco só terá 12,2 GB de disco atribuído para as texturas da totalidade do jogo, o que faz com que este ganho de performance, mesmo que existente, seja altamente limitado. A alternativa a isso não acontecer é realmente o uso deste espaço ser dinâmico e usado de acordo com as necessidades do jogo. Tal permitiria que esses ganhos fossem reais e constantes, mas como já referimos, cria aqui uma situação de durabilidade do SSD que faria escritas constantes durante o uso da consola.



Sinceramente, quando vemos uma empresa a preocupar-se com a durabilidade da sua consola pelo eventual número de instalações. Ver a outra a apresentar um espaço útil que será semelhante, e a promover o desgaste do disco, é um aparente claro e total contra senso. Sabendo que há jogadores que jogam horas sem fim, o que poderemos esperar da fiabilidade do SSD num período de 8 anos, quando este está constantemente a escrever?

Não é credível. E não o é por outro motivo, porque o SSD ao ter de escrever não debitaria a mesma coisa a ler. Porque estaria ocupado com as duas coisas. E assim sendo as vantagens trazidas pelo SFS perdiam-se pelo facto que o SSD teria de descer a sua velocidade útil de leitura.

Mas mudando de assunto, esta configuração levanta-nos uma outra questão. E esta poderá ser favorável à consola. É que teoricamente, e aqui não sabemos se isso acontece, uma vez que não há referência a motores de coerência na consola, os dados ao serem descomprimidos e colocados no disco, podem eventualmente ser já alterados de forma a evitar, pelo menos parte, do processo de check-in. Tal como acontece na PS5.

Recorde-se que o processo de check-in engloba duas fases.

  • Fase 1 – Após a recepção dos dados na memória, eles são ligeiramente alterados para poderem ser usados na RAM.
  • Fase 2- Os dados são movidos para o endereço final na RAM, onde ficarão e serão usados durante o jogo.

Basicamente, quer-nos parecer que, dado que a Microsoft chama a esses 100 GB uma memória virtual, teoricamente a Fase 1 do Check in pode ocorrer já aqui, sendo os dados guardados como se já estivessem na memória.



Note-se porém que esta parte já é especulação da nossa parte, sendo que, mesmo que o processo de check-in seja evitado na parte da alteração dos dados, não o é na parte de movimentação para o endereçamento final, sendo assim expectável que os dados a necessitem ainda de serem movidos uma vez na RAM para a posição final devidamente indexada.

Ou seja, apesar de tal não estar confirmado, a Microsoft pode ter aqui uma forma de passar à frente um pedaço do processo de check-in, apesar que não se liberta dele todo, e não liberta o CPU de ser ele a fazê-lo. No entanto, sobre esta possibilidade, estamos a teorizar pois não há elementos que nos permitam dizer isto com certeza. Mas o facto de os dados estarem descomprimidos numa parte do SSD que até é denominada como “memória virtual”, teóricamente aparente que poderia permitir a criação dessa situação. Mas se realmente tal é possível e se a Microsoft o faz ou não, é outra história.

Daí que, nesse campo, deixa-se a situação em aberto pois, como sempre dissemos, não se conhece ainda tudo sobre as consolas, e este diagrama que somente agora apareceu, é um bom exemplo disso.

Acima de tudo o que este diagrama nos mostra é que a Microsoft criou aqui um esquema que, apesar de relativamente simples, efectivamente pode melhorar as performances do seu SSD. No seu global a coisa ainda aparenta ficar a muita distância do que foi feito na PS5, e é certamente mais penalizador na durabilidade do SSD, mas o certo é que a Xbox mostra, pela primeira vez, como realmente funciona a Velocity Architecture, algo que até agora era uma incógnita e levava a questionar os reais ganhos do Sampler Feedback streaming, que agora se percebem como podem efectivamente existir.

 



 

 



27 Comentários
Antigos
Recentes
Inline Feedbacks
Ver todos os comentários
Marco Antonio Brasil
4 de Julho de 2020 11:37

Fiquei com a impressão de que essa arquitetura só irá entregar seu potencial se a utilização do espaço de 100GB for dinâmica, apesar de isso acarretar evidentes desvantagens colaterais.
Curioso para saber como esse sistema funciona em detalhes!

By-mission
By-mission
Responder a  Marco Antonio Brasil
4 de Julho de 2020 12:21

Em uma recente entrevista à GamingBolt, Kavan falou sobre como a Velocity Architecture da Xbox Series X será um grande benefício para jogos maiores e abertos.

“Isso ajudará muito os grandes jogos – especialmente o mundo aberto – porque o streaming é sempre um problema para lidar”, disse ele. “Não se trata apenas de ler o SSD, mas também fornecer os ativos para o jogo. Então, sim, ter descompressão no nível de hardware e pré-processamento de ativos pode trazer um ponto muito interessante para a suavidade geral. ”

Como é o caso da maioria das novas tecnologias, o impacto real do que a Microsoft promete com a Velocity Architecture do Xbox Series X não será sentido até que vejamos alguns jogos realmente fazendo uso dela, mas está claro por enquanto que, no papel, certamente há muito potencial aqui. Esperamos ver alguns deles em ação mais cedo ou mais tarde… Também gostaria dos detalhes…

Reinaldo
Reinaldo
Responder a  By-mission
4 de Julho de 2020 13:52

Mas… o Alex Batagllia garantiu que não. Que os SSDs não faziam nada.

By-mission
By-mission
4 de Julho de 2020 12:01

Continua um campo minado, reconheço que, o Gotikoozi, tem algum conhecimento mesmo quando insiste em embaralhar termos técnicos (não de má fé) mas ainda é difícil dar credibilidade quando se é um funcionário da Microsoft, quando se faz um trabalho com o público de Xbox, e depois se isentar disso como alguém que realmente quer dar a entender as coisas…
Ontem mesmo eu assisti o vídeo dele a explicar o porquê de alguma otimização demorar de 1 a 2 anos, nas mudanças de geração, como na UE5, na Unity, e em outra Engines Gráficas comerciais… Digo eu entendo realmente o que ele explica,mas para aí tem de haver uma grande boa vontade, pois uma pequena olhada mais crítica , já vais no ” estava passar pano para Microsoft”
Ex: ontem ele estava explicando o por que de AC ValHalla ser 4k no Series X, e como ele explica, a Ubsoft tem no momento 4 Engines Gráficas e otimizar 4 Engines para 7 consoles deve ser a situação mais desconfortável do mundo… PS4, PS4PRO, XBOX ONE, XBOX ONE S, XBOX ONE X, XBOX SERIES S,XBOX SERIES X….

Então sim eu entendo esse desafio monumental de programação,mas que é como uma passada de pano isso é kkkk

Last edited 4 anos atrás by By-mission
Carlos Eduardo Santos
Carlos Eduardo Santos
Responder a  By-mission
5 de Julho de 2020 2:48

Rapaz, eu parei de ver o canal dele no dia que ele disse que a largura de banda da ram do SX, irá compensar a diferença de velocidade que existe entre os SSDs dos dois consoles…
Além de falar uma grande merda, passou um pano monstruoso.
Ele tem credibilidade com os retardados que acham que tudo que ele diz está certo e é verdade.
Mas ele além de funça da M$, é caixista enrustido, e fala um monte de coisas risiveis pra quem tem um mínimo de entendimento na área.
Fora o complexo de superioridade…

By-mission
By-mission
4 de Julho de 2020 12:18

OFF TOPIC:
Ao que parece a Microsoft demorou a enviar os devkits da Xbox Séries S, assim alguns devs usaram o devkit da da Series X para otimizar seus jogos, num MODO Lokhart… Enfim a Microsoft já enviou alguns devkits então temos alguma noção de como é otimizar para os 2 consoles…

DISCUSSÃO SOBRE JOGOS

Decidi perguntar a um amigo meu na indústria sobre o Lockhart e a Série X vs PS5 e o que ele pensa até agora. Ele está trabalhando no Borderlands 3 para a próxima geração no momento.

Verificado por Bill O’Rights

Quando perguntei sobre Lockhart “segurando a próxima geração”. Ele disse o seguinte:

“Eu realmente odeio esse termo, pois não faz sentido em termos de como os jogos são realmente feitos, mas eu entendo o que as pessoas estão tentando dizer. Mas se você já projetou um jogo, não há tudo o que você pode e não pode fazer. É tudo uma questão de em que você está disposto a dedicar tempo / recursos para funcionar corretamente. Sempre que uma nova geração de consoles acontece, os criadores conseguem que as coisas funcionem mais rápido e facilmente. minha equipe foi informada pela primeira vez que parecia muito ruim no papel.

A Microsoft falhou ao fornecer kits de desenvolvimento reais e detalhes sobre o projeto. Não recebemos nenhum tipo de hardware Lockhart até muito recentemente. Antes de termos o hardware, recebemos um perfil nos kits de desenvolvimento Anaconda que imitavam o que Lockhart seria. Mas a Microsoft nunca mencionou que teria a mesma CPU e um SSD ou a quantidade de RAM que eles pretendiam ter. Eu suspeito que isso foi porque eles próprios não haviam decidido. Para ser franco, eles divulgaram esses perfis muito cedo. As ferramentas que eles forneceram nos fizeram odiar Lockhart.

Isso mudou quando adquirimos os kits Lockhart Dev. É de fato o mesmo CPU e SSD e a instalação e operação deste dispositivo foram super fáceis em comparação com o Anaconda executando no perfil Lockhart. Conseguimos fazer o trabalho que queremos no Anaconda e executá-lo no Lockhart sem muito trabalho, mas foi necessário um pouco mais de tempo para garantir que o código funcionasse nas duas máquinas da mesma maneira. Não é algo com que realmente estamos preocupados. Com o passar da geração, sinto que essa será a abordagem de muitos estúdios. Você inicia no Anaconda e otimiza para o Lockhart. Não há nada que o Lockhart não possa fazer que o Anaconda pode.

A única coisa que ouvi sobre isso é que os kits de desenvolvimento Lockhart não são comuns. Parece que a Microsoft realmente deseja usar o Anaconda para retratar com precisão o desempenho do Lockhart e essa não foi a experiência que minha equipe teve. Os perfis e as ferramentas estão melhorando no Anaconda em termos de imitação do Lockhart, mas se você não tiver um kit de desenvolvimento Lockhart, sinto que não será capaz de ver como ele é executado com precisão no Lockhart. Talvez isso mude, mas a partir de agora você realmente precisa de um kit Lockhart Dev para entendê-lo. Para equipes menores, pude ver o processo de otimização mais demorado, mas as ferramentas fornecidas pela Microsoft percorreram um longo caminho. Eles tornam muito fácil pular de um kit para outro e o kit Lockhart é equipado com muitas ferramentas que ajudam a ver exatamente onde o código precisa ser visto. O Ray Tracing é uma área em que eles pareciam se concentrar e facilitaram muito o ajuste dos níveis “.

Perguntei sobre os kits de desenvolvimento PS5 e os kits de desenvolvimento da série X e qual console tem a vantagem?

“O kit de desenvolvimento do PS5 é um pouco mais fácil de trabalhar. É bem pensado e projetado de maneiras que tornam um pouco mais fácil ajustar e mudar as coisas em relação ao Anaconda. Dizer que eu prefiro um sobre o outro não é ‘realmente justo, porque ambos são muito bons, mas é um pouco mais fácil trabalhar com o PS5, mas o Anaconda tem vantagem em termos de podermos realmente pressionar os efeitos. A diferença se resume a efeitos sobre a resolução para nós. 4K / 60 no Borderlands 3 e temos quase zero tempo de carregamento nos dois kits, olhando para eles lado a lado a imagem é muito semelhante…….

Daniel Torres
Daniel Torres
Responder a  By-mission
4 de Julho de 2020 12:40

Bacana saber disso vindo de um dev, mas ai eu faço a pergunta que já foi feita várias vezes e quando os jogos estivem a puxar o máximo da Series X e Ps5 como a Lockhart vai lidar com isso? Ao meu ver parece que a Micro esta querendo começar o desenvolvimento de cima e depois ir para baixo o que na minha humilde experiência isso quase nunca dá certo, basta ver alguns ports de jogos que saíram no Pc e depois foram portados para os consoles o desempenho na maioria das vezes sofre. Assetto Corsa Competizione que eu diga.

Marco Antonio Brasil
Responder a  By-mission
4 de Julho de 2020 15:24

Se for assim, acho que isso indicaria algumas coisas:
– Lockhart roda jogos com funcionalidades nextgen
– Lockhart não vai segurar a X
– Lockhart não vai ser tão barata quanto alguns estão especulando

Last edited 4 anos atrás by Marco Antonio Brasil
By-mission
By-mission
Responder a  Marco Antonio Brasil
4 de Julho de 2020 16:07

Eu digo e é minha opinião, se tantos caixistas diziam que ao ter menos CUs a PS5 teria problemas com o RayTracyng, que dirá a lockhart com 20 CUs?
A segunda questão é que quão mais barato eles vão atingir porque se por um lado eles economizam na GPU, o CPU é SSD se diz ser igual?

By-mission
By-mission
Responder a  Mário Armão Ferreira
4 de Julho de 2020 20:54

Pau eu já li muito sobre o Raytracing e um dos problemas que mais atrapalha a tecnologia é o RUÍDO… Logo menos raios, mais ruído. Aqui fica a minha dúvida, se iluminas uma cena em 4k uma RTX 2080 TI se encontra tramada sendo o 1080p um mundo ideal, apesar que não chega a ser total, mais lá quase anda… Que raios vai fazer a Lockhart, digo se tu me mostra o primeiro jo um Minecraft 1080p30fps, a Lockhart faz o que? 480p???
Não estou aqui a menosprezar os engenheiros da Microsoft, mas é uma dúvida genuina

By-mission
By-mission
Responder a  By-mission
4 de Julho de 2020 21:19

Edit
Por isso eu odeio a Samsung, omaldito corretor ortográfico deles é uma mer%$&#!!!!!!

bruno
bruno
Responder a  Marco Antonio Brasil
4 de Julho de 2020 16:18

A Lockhart pela minha estimativa tem o chip a custar menos 70$ que o da XsX.

A diferença chega aos 100$ se não tiver drive. 120$ se tiver 12GB ao invés de 16GB, 130$ se tiver somente 10GB.

Daniel
Daniel
Responder a  bruno
4 de Julho de 2020 16:32

Não sei se fariam, mas podem economizar num nvme de 512GB (muito improvável até), e mais alguns trocados na refrigeração, sem contar que com o all digital, tem a questão das margens da venda de jogos, ou a não revenda deles acabar compensando um pouco. O lockhart deve chegar entre $299 e $349, podendo ter o ps5 all digital como fator determinante. Na minha humilde opinião, o lockhart tem que estar a pelo menos $100/120 dólares do ps5 all digital para valer a pena.

Carlos Zidane
Carlos Zidane
Responder a  bruno
5 de Julho de 2020 3:28

Preço é o maior obstáculo no meu ponto de vista, pra compensar deveria custar a metade do X

Daniel
Daniel
Responder a  By-mission
4 de Julho de 2020 16:18

Não sei se seria muito infortuno, mas o que seu amigo tem a dizer sobre como vai ser a métrica dos jogos exclusivamente next gen em relação ao PC? O que eu quero chegar é se obrigatoriamente teremos que comprar um nvme tão bom quanto os novos consoles ou se uma guinada tanto na ram quanto na vram mais um ssd mais simples, pelo menos inicialmente, terão desempenho satisfatório.

By-mission
By-mission
Responder a  Daniel
4 de Julho de 2020 18:15

Pah sem fazer confusão, este é um
comentário do Neogaf, a fonte foi verificada pelos moderadores e por isso é só por isso coloquei aqui… No mais acredito que quem esta falando alguma coisa neste momento está sob um NDA dos mais absurdos que os advogados da Sony e Microsoft possam imaginar…
Por enquanto são dicas, alguns pedaços de informações aqui e ali pois pode comprometer um Studio inteiro, a propósito o dev que fez esse relato trabalha em Bordelands 3 e sua conversão para a próxima geração.

Last edited 4 anos atrás by By-mission
By-mission
By-mission
4 de Julho de 2020 12:25

Off Topic 2:
Aparentemente, a demonstração do UE5 não estava usando texturas compactadas.. . Olha essa próxima geração promete muito!

Fabian Giesen @rygorous

It wasn’t. That demo was made before we (RAD) knew about what UE5 was doing for rendering, and also before Epic knew about Oodle Texture. 🙂

Marco Antonio Brasil
Responder a  By-mission
4 de Julho de 2020 15:26

By-mission confesso que até hoje fico empolgado ao ver imagens da techdemo UE5

Deto
Deto
4 de Julho de 2020 15:13

Para mim a diferença é bem simples.

enquanto no PS5 todo o disco funciona como memória virtual, no xbox apenas 100GB funcionam assim.

realmente, fica parecendo que o xbox ia ter um SSD de PC normal, só para loading e a MS saiu correndo depois que viu o que o PS5 iria entregar e fez essas gambiarras para tenta igualar.

Last edited 4 anos atrás by Deto
bruno
bruno
Responder a  Deto
4 de Julho de 2020 16:14

Deto isto não são alterações de última hora.

Talvez a MS tenha pensado no SSD depois da Sony…. Ou talvez tenha este sistema pelo PC.

É especulação pura afirmar que a MS está a fazer alterações de última hora e q correr atrás seja de quem for.

Daniel Torres
Daniel Torres
Responder a  Mário Armão Ferreira
4 de Julho de 2020 19:40

Mário levando isto que falou em consideração como o SSD do Ps5 poderia mitigar esse desgaste? Desculpa é que eu realmente ainda não consegui compreender.

error: Conteúdo protegido