A lei de Amdahl aplicada às actuais consolas permite perceber o motivo pelo qual elas são bastante semelhantes.
A questão dos GPUs das novas consolas está a surpreender muita gente. Como é possível que um GPU com mais 1.84 Tflops. a potência de uma PS4, seja tão rápido ou até mais lento como um de 10.28 Tflops»
Vamos imaginar uma fábrica… onde temos esteiras onde a matéria prima entra numa sequência automatizada de produção.
Ora com uma esteira que recebe o material a uma determinada cadência, um determinado volume de produção que entre na esteira (100 unidades, por exemplo) demora T segundos a ser produzido!
Poderemos então pensar… ora se eu pegar e colocar outras esteiras lado a lado com a que tenho, o tempo que demoro a calcular este mesmo volume vai ser divido pelo número de esteiras.
Ou seja, se eu colocar P esteiras, o que vou ter é esse tempo dividido por esse número, ou seja T/P.
Num exemplo, se T = 60 minutos, e se o número de esteiras P = 4, então, para o mesmo volume de produção, irei precisar de apenas 15 minutos. 60m/4=15m.
Mas se isto é assim numa fábrica, porque motivo não é assim num GPU, quando temos igualmente unidades de produção, os CU, e aumentamos a quantidade deles?
Existem 2 obstáculos a isso:
- O não paralelismo
- A sobrecarga
Ora o grande interesse do paralelismo é podermos dividir o trabalho por várias unidades de produção. O objetivo aqui passa por duas partes. O reduzir o tempo que demora a tarefa a ser feita, e o poder efetuar mais tarefas no mesmo tempo.
Ora o Ganho é o Tempo que temos com o aumento das unidades paralelas, o P. Vamos chamar a isso o TP. Ou seja,:
Ganho = T/TP
No exemplo de cima, o Ganho era então 60m/15 m = 4 vezes! Ou seja, a nível de tempo para produzir a mesma coisa, tínhamos um ganho de 4 vezes, pois produzíamos em 1/4 do tempo a mesma coisa.
E repare-se: Que o Ganho não é nada mais, nada menos, do que o número de unidades de produção paralelas ou seja o P.
Ganho = P = 4
Ora o que podemos igualmente ter é casos onde o Ganho é Sublinear, ou seja o Ganho é menor que P. E casos onde onde o ganho é Superlinear, ou seja o Ganho é maior que P.
Por exemplo, se P=4, mas o Ganho = 5, temos um aumento superlinear, mas se P=4 e o Ganho = 3 temos um aumento Sublinear.
Vamos agora abortar um outro conceito relevante, o rendimento:
O Rendimento é o trabalho sobre o tempo usado com o uso das unidades paralelas, que em cima chamamos de TP.
Rendimento = Trabalho/TP
Assim, imaginemos que produzíamos 100 caixas, que seria o nosso trabalho.
Com uma única unidade de produção, o rendimento seria 100/60 m = 1,66
Mas com as 4, a nossa produção faz-se em 15m, logo o rendimento será 100/15 = 6.666
Basicamente, no caso de uma fábrica, o Rendimento seria P vezes superior, ou seja, é igual ao número de unidades de produção.
E isto leva-nos a um novo conceito, o de Eficiencia.
A Eficiência ou uso efetivo das unidades de produção paralelas traduz-se na seguinte formula:
Eficiência = Ganho/P
Ora no caso anterior, como o Ganho era de 4 vezes e as unidades paralelas eram 4 (P=4), temos uma Eficiência de 4/4=1 ou seja, de 100%.
E com este conceito percebido, vamos calcar novamente naquilo que já abordei aqui mais de 100 vezes, a Lei de Amdahl, aplicada aos processadores paralelos!
A Lei de Amdahl
Antes do mais, devo referir que já estudei isto há muitos anos, e não tendo a necessidade de ter estas coisas na ponta da língua, pode-se tornar difícil explicar este conceito. Diga-se mesmo que estou a relembrar muita coisa pelo que espero que consiga passar a mensagem.
Mas a realidade é que o paralelismo na computação não é idêntico ao paralelismo numa fábrica como no exemplo de cima. E daí que Gene Amdahl tenha tido a necessidade de criar uma Lei que explica o rendimento de um sistema informático com o aumento das unidades de computação paralelas.
E que melhor exemplo de grandes quantidades de unidades de processamento paralelas do que um GPU?
O grande problema da computação, e que cria a diferença para o exemplo de cima fornecido numa fábrica, é que a computação é inerentemente sequencial. Mesmo quando temos computação paralela, há sempre processamento sequencial. E ao contrário do que acontece numa fábrica onde eu posso fabricar um produto em várias linhas sem problemas, na computação existe algo chamado as dependências, ou seja, resultados que podem estar a ser calculados na linha de produção A, mas que são depois necessários na linha de produção M para esta poder prosseguir.
E estas dependências são o que impede que a computação paralela seja equivalente à produção paralela.
A acrescentar a isto, há muito código que, pura e simplesmente, não pode, ou pelo menos não deve sob pena de as dependências criarem gargalos a todo o sistema, ser paralelizado, havendo a necessidade de ser processado sequencialmente.
E isto cria uma realidade na computação paralela que é diferente da realidade da produção paralela, um aumento da perda de eficiencia, com o aumento do número de unidades de processamento paralelas.
Assim a formula do Ganho assume uma outra forma, e passa a ser:
Ganho = 1/Percentagem de código que necessita de ser sequencial.
Assim, se precisarmos de 50% de código sequencial, o ganho será 1/0.5, ou 2x
Se o código que precisa de ser sequencial for de 10%, o Ganho será 1/0.1 ou 10x
O que, mantendo-se a formula da eficiência, permite perceber que a mesma só será 100% quando a percentagem de código sequencial for basicamente nula.
Esta situação leva-nos a tabelas deste tipo:
O gráfico basicamente representa o seguinte:
O Ganho (Speedup) pode ser representado por várias linhas, dependendo da capacidade de paralelização do código. A azul temo código que é em 50% sequencial, e 50% paralelizável, e onde o ganho máximo que podemos obter é, como já tínhamos visto na conta de cima, 2, e a verde um código basicamente bem executado e preparado para paralelismo, onde apenas 5% do código é sequencial, e onde o ganho pode ir até 20 vezes sobre a existência de um único processador.
No entanto, com o aumento do número de processadores, as dependências aumentam exponencialmente, e consequentemente, a partir de um determinado número de processadores, os ganhos tornam-se nulos.
Eis um exemplo de uma dependência, em código:
sum = a+1; /* << */
first_term = sum*scale1; /* << */
sum = sum+b;
second_term = sum*scale2;
Basicamente, a variável sum depende do valor que possuía anteriormente
Podemos ver no gráfico de cima que com 95% de paralelismo isso ocorre com algo acima dos 4096 processadores. Tendo cada CU 64 unidades de processamento, isso implica que o limite acima do qual não justifica ir é 64 CU. Exatamente o limite que sabemos existia no CGN, e acima do qual a AMD nunca foi.
Mas o que podemos ver aqui é que a diferença no ganho entre 52 CU ou 3328 Processadores e 36 CU ou 2304 processadores é super reduzida.
Outra coisa que o que estamos a ver nos mostra é que a velocidade é importante. O ganho que estamos a observar no gráfico é em número de vezes o ganho de um único processador. Se um único processador é 22% mais rápido do que outro, o ganho obtido com as consequentes perdas é, comparativamente superior.
Por outras palavras, e algo que já sabemos, um processador que obtenha a sua performance por velocidade é mais eficiente que um que obtenha a mesma performance por paralelismo.
Como vemos no gráfico de Amdahl, a velocidade não é tomada em conta, mas sendo a Eficiência = Ganho / P, e o Ganho com 2304 processadores muito próximo do Ganho com 3328 processadores, o valor da Eficiência do processador com menos unidades paralelas é mais alto.
Ora o que sabemos é que a Sony mexeu ainda mais na sua eficiência. Os Cache Scrubbers, os motores de Coerência, e mesmo o seu Geometry Engine estão alterados para melhorarem a eficiência ao reduzir a quantidade de processamento que é feito pelo sistema na sua gestão interna. E consequentemente, se a Eficiência ainda sobe mais, sendo P um valor fixo, o Ganho aumenta.
E isso permite que a PS5 possa estar ao mesmo nível da Xbox, apesar da diferença teórica de 18% dada pelos Tflops.
Mas várias perguntas podem ser colocadas:
1 – O paralelismo máximo é 95%?
Apesar de não poder dar essa certeza, é quase uma certeza que ele não deverá ser muito superior a isso.
Situações como a computação que seja limitada pela memória, ou pelo sistema de I/O, ou mesmo maus balanceamentos de cargas de processamento que criem sobrecargas ou overheads no sistema, obrigam forçosamente a serialização, mesmo que o código fosse totalmente paralelizável. Daí que apesar de não poder afirmar com toda a certeza que 95% seja a paralelização máxima, os 100% nos sistemas catuais são apenas teoria, e os 95% são uma boa aproximação da realidade em código bem realizado.
2 – Mas então porque apostar em mais CU e não em mais velocidade?
Na realidade, desde que o código seja bem feito, ambas as situações são meras alternativas. A questão passa depois pela maior dificuldade em paralelizar o código para mais CUs evitando as dependências ao máximo. Mas acreditando-se que isso se supera ambas as alternativas são viáveis e conduzem a resultados semelhantes.
A opção da Sony não seria a melhor se não fosse pelas melhorias adicionais na eficiência interna do sistema, que permitem fechar os pouco porcento de performance extra que a Xbox possui, tornando as consolas em tudo semelhantes, apesar de chegarem lá de formas diferentes. Eventualmente código mais otimizado para um tipo de processamento ou para outro, poderá fazer a balança pender para um lado ou para o outro mas, à partida, sempre com algum equilíbrio pois no global os sistemas acabam por ser muito semelhantes a nível de performance.
3 – Mas há quem diga que a lei de Amdahl está ultrapassada! Ela continua válida?
Na realidade a Lei de Amdahl é um modelo muito simplista que ignora imensos fatores, servindo apenas como modelo de aproximação, mas não como algo preciso.
Basicamente o modelo foi criado para responder a uma questão relacionada com o paralelismo: Se tenho um trabalho a fazer, quão mais rápido o posso fazer com paralelismo?
Mas por exemplo, se eu tenho um tempo de duas horas para processar algo, e arranjo um sistema mais rápido ele no mesmo tempo pode processar algo ainda mais complexo.
Sem darem significado aos termos, chama-se ao primeiro caso uma medida de escalamento forte, e ao segundo uma medida de escalamento fraca. E este segundo caso responde a uma outra pergunta: Que quantidade de trabalho posso processar num tempo fixo.
Ora apesar de para os videojogos basicamente e historicamente apenas sempre nos interessou o escalamento forte pois o jogo é o mesmo em todos os sistemas, cada vez mais vemos o escalamento fraco a ser usado, com a performance adicional a ser usada para efeitos adicionais ou resolução.
Daí que surgiu uma perspetiva diferente. Uma que inverte o problema que Amdahl colocou, e que em vez de calcular o quanto mais rápido é um sistema com P processadores do que com um processador com uma fração F de código paralelizável, podemos ver quanto mais lento é um processador face a P processadores num problema que é P vezes maior.
E teremos esta formula:
S(P) | = |
T __ |
≤ |
(1-F)+FP ____ |
= |
1+F(P-1) |
|||
TP |
(1-F)+F |
Esta é o lei de Gustafson’s, e nela a parte serializada não aumenta com o problema e pode ser ignorada.
Como vimos num cálculo anterior, se a percentagem de paralelização fosse de 90%, o ganho máximo do sistema seria de 10x, mesmo que subíssemos os processadores para além do necessário. Mas se a percentagem serializada não escalar com o tamanho do problema, 100 processadores poderiam aumentar o problema a resolver em 1000 vezes e escalar o mesmo num fator de 900.
Esta situação demonstrou uma fraqueza na lei de Amdahl, que na realidade não é uma fraqueza. Basicamente o que acontece é que esta inversão do problema mostra que os ganhos não são exatamente aquilo que a lei de Amhdal refere. E que os ganhos podem ser maiores do que os ali indicados. No entanto não altera a realidade global da lei, pelo que a mesma continua válida na teoria que representa e no limite imposto pelos processadores paralelos.
Outra situação onde a lei falha é que não toma em conta a paralelização dentro da paralelização. Todos sabemos que a AMD passou a usar Double CUs. Basicamente uma Navi RDNA 1 possui agora 40 CUs, mas numa estrutura de 20 Double CUs. Quer isto dizer que onde antes tínhamos um limite de 64 CUs, esse limite passa agora a ser de 64 Double CUs, ou seja 128 CUs.
Esta situação contorna o limite da lei de Amdhal, sem no entanto a quebrar. Continua a haver um limite de 4096 processadores com 95% de paralelização de código, mas cada um desses processadores são agora constituídos por dois processadores.
Numa outra falha da lei, ela parte do principio que todos os processadores em jogo são iguais, o que não necessita de ser verdade (por exemplo a PS3). Mas mais uma vez apesar de todos estes pontos serem referidos como algo que a lei não toma em conta, para o caso em causa a mesma continua válida.
É contudo uma lei que, dados os avanços na computação, deverá deixar de ser usada em breve pois não toma em conta muitas das novidades tecnológicas que apareceram e que permitem superar os seus limites. No entanto, para o caso em questão, e apesar de já estarmos a lidar com Dual Cus, a validade da mesma ainda pode ser tomada em conta para perceção da semelhança dos sistemas.
Excelente artigo para começar o ano, muito didático.
PS: É maravilhoso quando a ciência entra em campo, jogando luz em qualquer debate. Uma pena que tantos aderiram a esse movimento de desacredita-la, apenas para defender seus pontos de vista a qualquer preço. Mas sigamos nos juntando aos bons.
Parabéns pelo artigo, como sempre de altíssimo nível.
A discussão sobre processamento sequencial e paralelo é bastante interessante. Gostaria de acrescentar algo que foi levantado pelo @LeviathanGamer2 no twitter. Links: https://twitter.com/LeviathanGamer2/status/1329171522905366533?s=20 https://twitter.com/LeviathanGamer2/status/1329171814463967234?s=20
Ele resumiu o fluxo de trabalho em 3 etapas.
1) front-end / pré-processamento,
2) O trabalho do core shader
3) back-end / pós-processamento
Ele defende a tese que o PS5 é superior no backend (pixel fillrate) enquanto que o XSX é superior no core shader ( mais CUs). E sobre o lado do front-end, o PS5 pode estar levando vantagem, iniciando o passo 2 um pouco mais cedo que o XSX. Isso significa que embora o passo 2 tenha um paralelismo maior no Xbox Series X, entregando mais resultado em menos tempo, a parte sequencial que ocorre antes de entrar no passo 2 termina mais rápido no PS5, o que equilibra as coisas.
Perguntei no privado o que ele entende pelo passo 1, e recebi a resposta:
Ótimo artigo, Mario.
É, parece que a Sony trabalhou muito melhor na proposta que um consolo deve ser, ou seja, um console.
Parece que dessa a Microsoft foi pega de surpresa com as alterações da arquitetura do PS5 e agora já ficou bem complicado defender a proposta de “mais poderoso”, sendo que na prática os jogos são quase iguais ou até superiores no PS5.
Tô curioso para ver o futuro, pois se em força bruta o PS5 leva vantagem agora, imagino quando forem levadas em consideração todas as features next gen.
Provável que seja os compromissos com Azure.
Impressionante que a DF sequer pensa nessa realidade… Desde que a AMD lançou as 6x a DF não piou mais com os papos furados de “não melhora com clock mais alto” e o Alex parou de falar de papo furado de Full RDNA.
Quando apareceu desenvolvedor falando que a diferença era pouca, sem falar qual era o melhor, já imaginei que era a favor do PS5, para evitar xiliques histérico dos fanboys do Xbox no forum
Mário, ia comentar nesta thread (http://www.pcmanias.com/vrs-quem-o-quer-eu-nao/) , mas os comentários não estão mais habilitados.
Na análise do patch 2.0 de Dirt 5, o NXGamer disse que a versão do Xbox Series X melhorou muito, mas visualmente ainda está um pouco atrás do PS5. E ele culpou o VRS lol. Segue, a partir de 2:28 https://www.youtube.com/watch?v=-1FBC-1V59M
E isso só não se nota mais porque eles colocaram um filtro de sharpness na Xbox para disfarçar o VRS.
O único interesse da perda de qualidade do VRS é o ganho de performance. E nem por o usar a X se destaca.
Excelente artigo Mario!
Acho q a gente pode considerar mais isso como uma noção de que o paralelismo tem limites.
Qual é? Depende do caso.
Mais um ótimo artigo exclusivo, muito bem explicado. A lei de Amdahl mostra a tendência geral em sistemas reais, mas não abrange alguns processos não triviais. Por isso eu acredito que ela não deve ser aplicada literalmente a sistemas reais. Por exemplo como estimar corretamente na lei de Amdahl o efeito da sincronização de barreira, seção crítica, operações atômicas etc. A curva na lei de Amdahl mostra saturação quando o número de processadores chega a cerca de 2.000, mas não há uma modificação do Amdahl para sistemas de computação heterogêneos como GPUs em que os programadores podem calcular acelerações teóricas. Ela mostra a a ideia geral de paralelização, mas não é adequada para estimativas de desempenho reais.
A lei de Amdahl não é precisa. Não toma em conta muita coisa. Eu dei o exemplo de como ela é falível na sua essência ao falar da lei de Gustafson. No entendo ela dá uma percepção do que esperar. O GCN estava limitado a 64 CU (4096 processadores) porque, como a lei mostra, mais do que isso traz ganhos reduzidissimos ou zero. E nós vimos como a Vega 56 era extremamente próxima da Vega 64.
É exactamente o facto de, mesmo com limitações, ela se aplicar ao GCN que nos permite usá-la como referência aqui. O RDNA não é mais do que uma evolução do GCN que contorna a lei com algumas situações adicionais.
Ainda é cedo, pois ainda nem sequer há multis exclusivos desta nova geração.
Ainda há coisas a melhorar no desenvolvimento como podemos ver no dirt 5, que apenas depois deste novo patch a SX equiparou a ps5.
Na realidade não. A PS5 continua com algumas coisas onde é superior. Vê a análise do NX Gamer.
Mas isso não invalida a realidade de que as consolas são semelhantes.
A melhoria na SX foi feia com um simples patch, o que poderá dizer que ainda mais se pode fazer e que as produtoras não estão a tirar real partido da SX no início, o que era de se esperar.
Claramente as duas consolas são muito semelhantes e o que parece faltar atualmente am alguns jogos na SX deve-se ao mesmo motivo porque ainda não vemos a superioridade do SSD da ps5 em relação á SX, ou seja, ainda não estão totalmente dedicados ás features.
A SX não é inferior à PS5, mas no que ali tinhas era… Aliás, era mais diferente do que alguma vez vista na PRO e One X. O que o patch fez foi repor a realidade.
Quanto ao SSD, tu tiras partido dele imediatamente, mas nunca a 100%. Se tens um jogo cross gen o mais certo é que algum código de acesso seja partilhado e como tal o CPU seja metido ao barulho, limitando as performances do SSD.
Mais uma vez um excelente artigo, Mario!!
Eu quero ver como cada uma se porta daqui a 2/3 anos.
Os 2 sistemas tem uma abordagem diferente, e vamos ver até que ponto os motores tiram partido de um ou de outro sistema, ou se de ambos.
Eu ainda não me sinto confiante relativamente a velocidade que a ps5 atinge, principalemte quando os jogos forem mais exigentes. Já sabemos que o sistema chega aos 2,23ghz, mas que tem as suas limitações. No caso da xbox sx, em termos de performance bruta, não se sabe.
Mas também acredito que a existir uma diferença, seja muito reduzida, relativamente a reaplicação e não será percetível
Que são? Quais as limitações?
Depender da carga térmica/energética.
As RDNA 2.0 são verdadeiras bestas enjauladas no que se diz respeito a velocidade de relógio. Há colegas em fóruns (só olhar no Adrenaline) conseguindo setar 2.7 ghz nas RX 6800XT com bons índices de consumo e temperatura, e o mais impressionante; alguns acham que a AMD limitou um pouco e que poderiam ir além (estou muito curioso para algum entusiasta blocá-las e não me admiro que cheguem a 3.0 GHz). Eu também estava cético, mas dado ao fato narrado em conjunto ao sistema de resfriamento do PS5, não me parece que haverá problemas.
Parece que vc não pegou até hoje o que Cerny disse, não é mesmo? Os 2.23ghz são constantes quando o sistema precisar, se não precisar aí os relógios descem, etc, etc etc… TB é a térmica/energética base do sistema com CPU e GPU trabalhando no seu máximo com suas margens preservadas. É na verdade o oposto dos boost clocks do PC. Incrível a dificuldade surreal de alguns entenderem algo tão bem explicado e de fácil entendimento.
O que o Xbox fez? Algo que nenhum sistema faz nos dias de hoje: Trabalhar com relógios travados. Qual a vantagem disso? Esquentar que é uma beleza desnecessariamente. Se tivesse que me preocupar com a longevidade de um sistemas seria com o SX, por razões óbvias. E você diz que não se sabe das variações na SX? Não se sabe, pois elas não existem! Os relógios estão bloqueados e não sobem e nem descem!
Há vídeos da PS5 a funcionar com o cooler desligado, e ela aguenta-se. Só após bastante esforço é que ela se protege descendo as velocidades de relógio.
Não vejo que, com o cooler, isso aconteça a não ser pontualmente.
Exatamente, Mario.
Como Cerny disse; basta um par de dígitos da descida de relógios para resolver completamente qualquer possível aquecimento de quando o pior jogo chegar.
O meu deve ficar a maior parte do tempo com cooler desligado, pois é um silêncio absoluto. Ele só liga em uns 10 segundos a cada hora e volta a silenciar.
No entando quem teve de implementar metal liquido (e é uma escolha que ninguém faz sem ser por necessidade de maior) foi a sony.
Estive a pesquisar e a verdade é que não existe informação 100% credível e fiável de como funciona exactamente o clock da ps5.
De qualquer das maneiras penso que a longo prazo o maior problema será o módulo de memória da ps5 que atinge 92 graus, que é temperatura limite para o tipo de memória em questão.
O Metal líquido é actualmente standard nos produtos ASUS de topo…
A GDDR6 pode operar a 104 graus sem problemas.
Uma marca a usar numa gama de produtos de alto desempenho e compactos é tudo menos standard.
93.3 graus é perto do limiar de funcionamento, ou seja, como em todos os componentes electrónicos, trabalham mas a probabilidade de sofrer de deterioração prematura aumenta bastante.
https://m.imgur.com/fDS3FYN
Uma imagem das temperaturas de uma RX 5700. RAM s 104 graus sem problemas.
É a sapphire? Como sabes que não vai ter problemas? Até um carro faz muitos kilometros com metade de oleo de motor.
Como sabes que vai? A memória está a trabalhar nas especificações normais!
Desgaste mais acentuado devido a temperatura. É um problema inerente a qualquer produto electrico/electronico.
É a Sapphire?
Não… É um modelo de referência da AMD. Que diz que até 110 graus é perfeitamente normal e dentro dos parâmetros standard de funcionamento.
Estou a falar desse bench da imagem. De que marca é essa gráfica?
Um modelo de referência da AMD.
Não se preocupe, amigo. O Ps5 já sabemos que você não vai comprar mesmo. Quem deve se preocupar é quem compra. FUD aqui agora?
Como assim não existe informação credível de como funcionam os clocks? Está a falar que não acredita no Mário? Ou está falando que o Cerny é mentiroso? Assista road to ps5 ou leia o artigo do Mario sobre continuous boost que você vai entender.
Não questionas os relógios bloqueados na SX pq? Por que eles fizeram essa escolha incomum? Por que o SX sustenta seus relógios mesmo sem precisar? Gastar energia e esquentar a toa agora é virtude?
Ah, o novo artigo do Mario mostra testes incomuns para o console e ele se saiu muito bem. E isso sem ventoinha! Tá em dúvidas ainda quanto ao projeto?
Acreditar em mim? Eu não afirmo pois não tenho info previligiada… eu só explico o que os outros tentas explicar mas que algumas cabeças não entendem.
Agora aceito o que dizes… porque sabendo-se que isso foi explicado aqui, se alguém questiona ou não lê os artigos, ou é bom que apresente argumentos fortes a contrapor.
Sim, Mario. Foi nesse contexto que falei “Não acredita no Mário”. Ora, se tudo que você escreve não tem valor para alguns e eles questionam a todo momento, mesmo com infos oficiais falando o mesmo, não sei o que fazem aqui, não é mesmo?
A malta do PC gosta de ter o sistema o mais fresco possível e se possível longe das temperaturas limites mencionadas pelos fabricantes porque são maluquinhos.
Qualquer pessoa sabe que componentes electronicos a funcionar perto do limiar aceitável da temperatura desgasta os componentes mais rápidamente.
Aliás nem sei porque a sony se preocupou em deixar todos os outros módulos de memória bem mais frescos e apenas deixou um a chegar aos 93 graus.
Também não esquecer que a temperatura medida não é no Tjunction, que será superior aos 93.3 ºC.
Imagino que para vocês foi intecional e deve ter algum tipo de segredo.
As RTX aquecem como qualquer outro GPU.
Quem é que está a falar de GPU?
Na moral mesmo, cara? Acorda! Nenhum engenheiro construiu o ps5 do zero não fazendo ideia do que era o projeto. Os caras pesquisaram metal líquido por 2 anos para ver a viabilidade, estão pensando no ps5 desde 2015, com Cerny viajando o mundo falando com devs e com parceiros da epic!
Você parece um amigo meu, sempre desconfiado de tudo simplesmente porque “eu nunca vi antes algo assim”. Eu TB não vi muita coisa na década de 90 que é possível hoje. Incrível né? As coisas evoluem, a Sony é uma empresa muito conhecida pelo seu investimento diuturno em pesquisa! Tudo foi muito bem explicado como funciona. Agora se você não acha a Sony credível, problema seu! Já eu não acho que você fale coisas com embasamento e lógica e nem por isso acho que você é um cara péssimo.
Se falasse as coisas com algum embasamento, mas não adianta contrapor e desenhar, mostrar fontes, standard e nada a você, que continua desconfiado. Continue assim, um mala sem alça. Hehe abraço.
Os engenheiros do RROD, YLOD e jet engine mandam-te um abraço.
E os milhares de componentes PC retornados todos os dias por problemas fazem o mesmo.
Exato. Mas aqui no site a ps5 é perfeita e isenta de problemas.
A PS5 tem problemas… Ainda recentemente se falou de um com o DualSense.
O que não tem são problemas inventados.
Tu não sabes o Tjunction da memória, não sabes o modelo, não sabes o fabricante. Mas queres fazer crer que a consola tem um problema de aquecimento nas RAMs que pode, pelo menos, causar desgaste.
E quando a AMD, o fabricante refere que até 110 graus elas estão nos parâmetros normais de funcionamento, dizes que não é informação oficial, e para te suportares, comparas com uma frase de suporte a um dos clientes em que é usada uma frase que bem analisada não diz verdadeiramente nada.
E como a AMD disse essa frase, por essa lógica, a partir de agora tudo o que disserem deixa de ser oficial e é questionável…
Pode haver aqui um potencial problema? Sim, pode. Mas também pode não haver nada. E estamos a especular sem dados, e isso, no meu livro, é FUD.
Enfim….
vc mesmo respondeu como é ridiculo esse papo com “deixou um chip sem refrigeração”
esse GN é o mesmo nível de especialistas do “RDNA1 não melhora desempenho, PS5 9TF” “pq no PC”?
Mas vamos fingir que vc está coberto de razão:
Sony é idiota e resolveu não refrigerar um chip dos 16 chips de RAM e não foi o teste do pião de computador que esta errado.
fabricante da memoria é idiota, certifica até 100 graus, mas isso faz a memoria ser descartável
sony idiota, além de ESQUECER um chip de ram para refrigerar, ainda não sabe que tem q refrigerar para temperatura máxima de 1/2 da certificada pelo fabricante de memoria.
um pouco de senso de ridiculo para ter noção de que se vc “escreve na internet” não te da o mesmo curriculo que uma empresa grande pq “ela tb escreve na internet igual a mim”
Erros de concepção acontecem. Já ouviste falar RROD e YLOD?
O fabricante da memória não é a AMD.
Mostra-me dados oficiais do temperature range do Tjunction da GDDR6.
Porque a sony não colocou o módulo no mesmo range dos outros módulos? Sabes dizer?
O RROD foi na Microsoft e com o CPU, o YLOD nada teve a ver com falhas de concepção.
Se a temperatura para funcionamento normal da memória é de até 110C°, 95 não está nem próximo disso. Você querendo ou não.
Dados oficiais do range da Tjunction sff?
Amigo… Se vem aqui para contrariar traga os dados e não os peça…
A AMD refere 110 graus,a Micron varia entre os 94 e os 105 dependendo do modelo da memória.
Se sabe quem fabrica as memórias da PS5 e qual a sua Tjunction forneça o dado. Caso contrário vamos todos aceitar que quem fabricou a consola sabe bem o que lá está e não andar aqui a criar FUD baseado em nada.
Não, porém não sei o porquê da sua preocupação… A Sony faz videogame desde 1994, não é amadora e a maioria das pessoas confiam na empresa. Se você não confia e já disse que não vai adquirir a ps5, não sei o porquê da sua preocupação. Eu tenho um ps5 aqui e ele tá rodando tudo muito bem e sempre que fui colocar a mão atrás do console quando percebi que a ventoinha tinha acelerado, pah, lá estava um ar morno para frio, Muito diferente do tempo que montei PCs por exemplo. Então se é algo que você na sabe e TB não tem o mínimo interesse em ter o produto, não sei o porquê de tanto desespero.
Nem PS5 nem Xbox. Estou á espera da RTX3080, mas está difícil.
cuidado para a Nvidia não botar cheat nos drivers.