Os Tflops são uma medida de performance que só pode ser usada em arquiteturas exatamente iguais. Este artigo tentará explicar o porque!
Os Tflops são uma medida de capacidade de processamento que se tornou muito popular na geração passada. É muito adequada e útil, mas infelizmente pode igualmente ser uma medida muito enganosa uma vez que ela só reflete a realidade quando o comparado possui semelhanças arquiteturais elevadas.
Este artigo tem como intenção explicar o motivo porque os Tflops não são sempre uma medida adequada para se medir a performance real de dois sistemas.
Vamos lá então ver!
O processamento genérico do GPU é realizado usando um componente do mesmo denominado de Compute Units, ou CU para abreviar.
Essas unidades, presentes em número de 36 na PS5 e 52 na Xbox série X encontram-se descritas em pormenor na foto de cima, e são constituídas por um conjunto de 64 Stream processors (SP) cada uma. Estes SP, unidades SIMD, são as verdadeiras unidades de processamento dentro do CU, dado que são elas quem usam as unidades lógicas aritméticas ou ALU, para realizarem o processamento que aqui ocorre.
Basicamente estas unidades são vectoriais, e nesse sentido as suas ALU podem ser designadas por VALU.
Cada uma destas unidades SIMD contribui assim para o processamento global. E sendo cada uma delas capaz de processar duas instruções por ciclo de relógio, num total de 64 unidades por CU, temos então que são elas que nos fornecem a capacidade do GPU em TFLOPS.
Assim na PS5 temos 64 Stream Processors, cada um a processar duas instruções por ciclo de relógio, em 36 CU, a 2230 Mhz.
Isto fornece o valor de 64*2*36*2230 = 10.275840 ou 10.28 Tflops.
Na Xbox série X a coisa repete-se, com a diferença que agora os CU são 52 e que a velocidade de relógio é de 1825 Mhz
E temos assim 64*2*52*1825 = 12.147200 ou ou 12.15 Tflops.
Ora este valor é teórico porque? Porque ele apenas representa a capacidade máxima de processamento. Ou seja, se o Stream processor (SP) a cada ciclo processasse normalmente então o valor calculado de Tera operações de virgula flutuante por segundo ou Tflops, seria a performance real do GPU.
Mas infelizmente… a coisa não funciona assim! Eis uma captura de ecrã que mostra um caso real de ocupação das unidades SIMD, os SPs, dentro de um CU.
A ocupação do CU está aqui representada em linhas sequenciais. Apesar de algumas diferenças de tonalidade e mesmo cor, para o nosso caso importa apenas realçar que as zonas com cor representam um estado de ocupação do CU. Já as zonas a negro, são alturas em que o processamento do CU está parado, a aguardar dados ou outra situação.
A caixa vermelha representa um pedaço de tempo retirado para amostra.
Ora como se percebe daqui, para obtermos um resultado com a totalidade dos Tflops máximos teóricos do GPU, isso implicaria que a imagem de cima presente no interior do rectangulo vermelho, fosse totalmente verde. Mas na realidade não é, o que quer dizer que a cada vez que vemos uma zona escura, estamos perante uma perda face à capacidade máxima teórica do GPU!
Por aqui se percebe então como os Tflops são uma medida teórica, e que nunca é alcançada. Esta situação repete-se em todos os SPs do GPU, e eles são 2304 na PS5, e 3328 na Xbox série X, e consequentemente em todos os CU, mostrando assim que a perda de rendimento é uma realidade, e que os Tflops máximos são por isso apenas uma medida de comparação teórica que nunca é atingida.
Mas e então, o que leva a que ela só seja válida em arquiteturas iguais?
Como já se percebeu, é a percentagem de zonas a negro, ou seja, zonas em que não há processamento, que definem a perda de rendimento do GPU. Quando se refere que há melhorias no rendimento de um GPU, basicamente o que se quer dizer é que, face a uma versão anterior, as zonas a negro, ou zonas mortas, são menos, e como tal a eficiência aumenta. Dessa forma, um GPU mais eficiente até pode ter menos Tflops, e mesmo assim revelar-se superior. Basta que os tempos mortos do seu processamento compensem a descida da capacidade máxima teórica de processamento.
Ora isto é o que Mark Cerny referia… Que por norma um GPU bem optimizado alcança 60% do seu rendimento máximo total teórico. E que essa situação foi o que a Sony tentou optimizar. Descer ao máximo o tempo morto no processamento de cada CU.
Ora os SP trabalham partilhando informação uns com os outros usando as cache L0, os CU partilham informação entre si usando as cache L1, e os shader engines (conjuntos de CU), falam entre si usando as cache L2.
Este tipo de situação permite que todo o sistema “fale” entre si, mas com penalizações a serem pagas… as latências.
Essa situação leva a que quantos mais CU, e mais Shader Engines existirem, dado que todos precisam de “falar entre si”, mais perdas de performance existam. Apesar de o ganho pelo acréscimo de mais unidades de processamento existir, o maior tráfego nas caches cria mais situações de latência que penaliza a ocupação dos CU ao aguardarem por resultados.
Nesse sentido surge a comparação de MarkCerny que refere que dois GPUs que obtenham a mesma performance máxima teórica, um por mais velocidade de relógio, e o outro por mais CU, o primeiro terá melhores performances.
Menos CU a mais velocidade não só permite processamento mais rápido, e mais processamento no mesmo CU, como há menos tráfego nas caches de níveis superiores. O aumento de velocidade aumenta também a velocidade e consequente largura de banda das caches, tornando-a mais responsiva e rápida.
E basicamente as caches, a sua velocidade e largura de banda são super relevantes para a optimização dos CU. Quanto mais rápidas elas forem, mais depressa os dados chegam, e menos tempos mortos há no processamento.
Repare-se neste dado comparativo da RX 5700 e de uma Vega 64
Como se pode ver, a RX 5700 tem apenas 9.75 Tflops, ao passo que a RX Vega 64 apresenta 12,66 Tflops. É uma diferença superior à existente entre a PS5 e a Xbox série X.
Mas no entanto a RX 5700 bate com uma perna às costas a RX Vega 64… Menos Tflops, mas mais performance! Tudo graças a um rendimento interno superior… Algo que é conseguido com mudanças na arquitetura que incluem mudanças na frequência e melhor largura de banda das caches, conforme podemos ver nas tabelas de cima.
Ora isto quer dizer que quando comparamos a PS5 à XBox estamos a fazer um exercício teórico no qual estamos a pressupor uma igualdade na arquitetura pelo facto de ambas serem baseadas no RDNA 2. Mas a realidade é que as consolas são hardware personalizado, e neste momento não sabemos ainda a totalidade das personalizações que a Sony efetuou no seu SOC, e que possam ajudar a melhorar a sua eficiência interna.
Mas mesmo assim sabemos que a PS5 tem mais velocidade de relógio. E isso quer dizer que os seus CU, apesar de serem menos, processam mais depressa.
Esta situação cria uma aproximação a uma situação com mais Compute Units, e é o que permite que a diferença de Tflops máximos teóricos se fique pelos 18%. Mas como explicado em cima, convêm notar igualmente que mais CUs criam uma inter dependência de trabalho maior, e capaz de criar maiores zonas de espera de resultados.
Por esse motivo, apesar de a diferença máxima teórica de performances ser de 18%, convêm ter a noção que os CUs da Xbox entregam dados de forma 22% mais lenta (2230/1825=1,2219).
Isto quer dizer que, dependendo do tipo de processamento, teremos casos onde a vantagem poderá ir para o lado da Xbox, e outros em que a vantagem poderá ir para o lado da PS5. Já que não teremos facilmente são casos onde a diferença seja abismal e ao nível da geração passada.
Note-se igualmente que o aumento da velocidade de relógio reflete-se em todo o GPU e não apenas nos CU, e isso quer dizer que todo o pipeline gráfico fixo, e que os Tflops não abrangem, também será 22% mais rápido. E dessa forma a consola da Sony terá um débito de pixels e de triângulos 22% superior. Na parte dos CU, estes serão mais rápidos e as suas caches terão 22% mais velocidade e largura de banda!
Podemos extrapolar a partir dos valores da RX 5700 qual a largura de banda das três caches do GPU nas duas consolas:
Xbox série X
L0 – 9.35 TB/s
L1 – 3.73 TB/s
L2 – 1,86 TB/s
PS5
L0- 11.32 TB/s
L1 – 4,57 TB/s
L2 – 2,28 TB/s
Mas as otimizações nas caches da PS5 não se ficam por aqui, pois é conhecida a implementação de cache scrubbers, que permitem otimizar o uso das caches, poupando até 40% de largura de banda, e alterar o conteúdo das mesmas mesmo durante a sua utilização, o que melhora ainda mais a sua eficiência e largura de banda útil.
O interessante é que este aumento de velocidade e largura de banda das caches, se torna relevante no Ray Tracing. Basicamente para o Ray Tracing não nos interessa tanto ter mais trabalho paralelo, mas sim trabalho mais rápido. Dado que estamos a trabalhar com orçamentos de tempo muito reduzidos (de poucos ms), interessa-nos que o processamento dos raios apresentem os resultados o mais rápido possível e não que se lance mais raios. E nesse sentido ter as caches com largura de banda e mais rápidas é uma ajuda fundamental ao permitir trocar mais dados dentro desta memória rápida sem recorrer à RAM.
Basicamente, como creio que este artigo deixa claro, os Tflops foram muito interessantes na geração passada quando vimos a PS4 e a Xbox One a apresentarem hardware em tudo semelhante. Mas nesta geração, as diferenças entre os hardwares são significativas, e há muitos outros factores em jogo.
Por esse motivo, não se pode ignorar a vantagem de performance máxima teórica da Xbox, mas a realidade é que não podemos também ignorar que a Sony otimizou a sua consola para uma maior eficiência. E por esse motivo estamos convictos que as consolas, apesar de tudo o que se refere em muitos locais, acabarão por ser muito, muito semelhantes…
Mas isso, se são nossos leitores, já sabem ser a nossa opinião desde sempre!
Mário, é por artigos desse nível que todos nós frequentamos diariamente a Pcmanias!
Sensacional o artigo!
Parabéns!
Mario que artigo sensacional, tudo muito bem explicado, eu que não entendo muito da variante mais técnica por detrás dos GPUs, entendi facilmente e retive bastante da informação que disponibilizaste. Estou muito entusiasmado para ver as comparações entre as duas consolas, para ver onde cada uma se sobressai, mas sei perfeitamente que o output, ou seja, os jogos terão uma qualidade gráfica muito em par de igualdade. Quero muito saber assim como todos aqui as custumizações que a Sony fez ao seu SoC e ainda entender a questão do custom-raytracing que a Xbox diz possuir, para saber se aplicação deles será diferentes da variante do desktop, então ainda possuímos muito coisa da discutir aqui na PCmanias. Também achei estranho a AMD não mostrar nenhuma aplicação de raytracing num jogo, sendo que estas são as primeiras GPUs que possuem tal funcionalidade, apesar de já termos visto jogos da PlayStation a utilizar, outra a divulgação de uma feature tipo DLSS 2.0, visto que a mesma tem ganho muito tracção e existe especulação que eles têm, bem certamente ainda existem muitas perguntas a poucas semanas do início de uma nova geração
O Raytracing do XSX é o mesmo das GPUs RDNA2, essa informação já é antiga até
O Paul do Redtechgaming, ontem salientou que eles na conferência da hot chips falam em custom, assumindo assim que eles fizeram personalizações proprietárias, mas até agora não disseram nada, portanto estou contigo e foi só um termo que usaram para dizer que havia uma ligeira personalização, mas deve ser a mesma implementação do que nas GPUs do desktop, visto que nas especificações da consola diz Direct X Raytracing, ou seja, o mesmo que ontem foi dito na conferência da AMD
Excelente análise. Só uma pequena correção, no antepenúltimo parágrafo é PS4 e não PS5.
Antevejo que a Xbox terá uma performance superior em jogos retrocompatíveis (será visível nos jogos que usam resolução dinâmica e framerate desbloqueado), fruto do seu poder bruto.
Já nos jogos da geração atual, prevejo uma grande paridade dado que serão otimizados para tirar partido das especificidades de arquitetura de cada consola. E neste campo, como refere o antigo, tudo leva a crer que a arquitetura da PS5 tem mais otimizações e menos bottlenecks.
Vamos ver os primeiros comparativos em breve, já da para ter uma pequena ideia.
Mas eu fiquei muito mal impressionado com o Dirt 5 aquele tearing é chocante, na versão ps5 está igual?
As novas AMD 6000 estão aparentemente ao nível das nvidia o que é para mim uma grande surpresa, mas não falaram no RT porque?
https://www.gamevicio.com/noticias/2020/10/desempenho-detalhado-em-ray-tracing-da-amd-radeon-rx-6000/ parece que teve comparativos, e o RT das 6000 é melhor que a RTX2000 porém pior que a série 3000. Bom, fiquei animado, eu particularmente esperava um desempenho em ray tracing pior q as RTX2000, estou bem animado para falar a verdade.
A situação já foi corrigida Rui… Era um problema com o VRR.
Não sabia que tinha sido resolvido também fiquei bastante decepcionado era sofrivel aquilo !
Estava pensando, a Sony pode ter incorporado uma customização com base na 6900xt cortada pela metade, porque os clocks são bem parecidos e faz todo sentido que a Sony faça um PS5 Pro nos próximos 3 anos com uma GPU de 80cu(72 ativos).
Visto pelo histórico, acho bem improvável se houver um pro, ele aparecer com 80 CUs numa arquitetura rdna 2. Vejo algo afrente, tipo rdna 3 com alterações, sendo mais eficientes e menos CUs.
Eu não acredito muito nisso.
As consolas começaram a ser desenvolvidas há alguns anos. Numa altura em que o RDNA 2 não estava totalmente definido.
O RDNA2 é, a meu ver, algo que resulta da interação da Sony e Microsoft na personalização das suas arquitecturas.
O que me quer parecer é que a solução da Sony é muito mais proprietária que a da Microsoft, uma vez que a Microsoft tem a compatibilidade PC, suporte PC e servidores para se preocupar. E daí que a sua consola seja mais o RDNA2 apresentado ontem.
A versão da Sony não deixará de ser RDNA 2, mas com alterações próprias, algumas das quais poderão ainda vir a aparecer em futuras versões do RDNA. Será um SOC com tecnologias alternativas às existentes, que fazem o mesmo, mas de outras formas (se melhor ou pior é algo a ver).
Tem fundamento, mas é cedo pra afirmar isso.
Consoles de meio de geração pra rodar games a 8K 30fps?
Bom dia a todos, 5 estrelas pro Artigo
Mario percebi dois erros em seu artigo:
Interessante o seu artigo, da pra perceber que o Mark Cerny tentou a todo custo minimizar os gargalos do sistema, o otimizando ao máximo, de fato, a Santa Mônica ao referir em uma vaga de emprego antes da revelação do PS5 de que o console seria o mais rápido é em tudo verdadeira, desde o SSD, a GPU passando pelas caches.
Mais uma coisa que no final vc expos me fez pensar no XSS, o que será deste console quanto ao Raytracing já que a GPU dele é muito mais lenta que as de XSX e PS5 e a sua RAM então, mais lenta ainda, teria este console capacidade pra ter Raytracing em virtude de seus gargalos? E caso sim a qual resolução?
Sobre o PS5 em comparação ao XSX? Os jogos falam por si só, os First Party todos tem modos 4K sem Raytracing, todos tem modo com Raytracing, todos tem modos a 60fps, todos tem grafismos no mínimo aceitáveis pra nova geração e a cereja do bolo são de que até este momento todos os multiplataformas rodam no PS5 com as mesmas especificações que no XSX.
Já no lado do XSX, não temos até esta data jogo algum que apresentou gameplay com Raytracing, os “exclusivos” não terão tal tecnologia no lançamento (The Medium), temos alguns jogos com gráficos questionáveis rodando em resoluções questionáveis (Yakuza) e o não há a esta data qualquer vantagem pra este console cuja Microsoft o define como o console mais poderoso do mundo, “um monstro que come outros monstros ao café da manhã” ou pelo menos era isso que ela referia a alguns meses atrás.
Pra terminar, já está novamente em curso mais uma campanha de FUD disseminada pela comunidade Xbox de que o console da Sony é RDNA1, não importa o que o Cerny diz, não importa o que a Lisa Su diz, não importa o que o tio do Teardown do PS5 diz e nem o que a AMD já disse também, “o PS5 é RDNA1 e pronto”. hehehe
Essa parte do FUD de verdade não vou culpar os fanboys, porque quem dissemina isso é a própria Microsoft, foi a página oficial deles que divulgou isso de ser o único console FULL RDNA2. Quem alimenta os fanboys da Microsoft é ela própria, acho que os piores exemplos estão na Xbox Brasil.
Bem vrd também
Esqueci de referi que agora no lançamento em novembro teremos jogos multiplataformas que já confirmaram e já exibiram Raytracing na versão do PS5 (DMC5 e novo COD) e que o XSX receberá posteriormente por Update, ou seja, pra além de ter jogos com as mesmas especificações o PS5 terá jogos superiores em novembro.
Outra coisa, DMC5 no PS5 tem 4 modos, dois deles com Raytracing a 4K30fps e 1080p60fps. Ora, pra rodar a 60fps com Raytracing teve de baixar a resolução a 4x, neste caso o XSS rodaria este mesmo game a qual resolução? 480p? 640?
O artigo tenta não abordar o lado mau das coisas, mas apenas o lado bom. Porque do lado mau a Xbox tem mais CU por shader Array do que uma 6900 XT, e isso pode trazer penalizações serias na cache…
Mas como não sei o que foi feito para minimizar isso (mais 1 MB de cache l2??), não vou por aí e falo antes do que é conhecido, que é o aumento da velocidade da cache da PS5!
Excelente artigo como de costume.
Gostaria de contribuir escrevendo sobre algo que leio bastante no neogaf e tem me intrigado.
Ontem nós vimos a revelação as novas linhas da AMD
6900XT = 8 shader arrays, 128 ROPs, 10 CU e 16 ROPs por shader array
6800XT = 8 shader arrays, 128 ROPs, 9 CU e 16 ROPs por shader array
6800 = 6 shader arrays, 96 ROPs, 10 CU e 16 ROPs por shader array
E ao trazer para as consolas
XSX = 4 shader arrays, 64 ROPs, 13CU e 16 ROPs por shader array.
PS5 = 4 shader arrays, 64 ROPs, 9CU e 16 ROPs por shader array.
Vemos acima uma discrepância, onde o XSX tem mais unidades computacionais por Shader Array. Alguns tem dito que isso pode afetar o geometry pipeline. Outro potencial problema pode ser a quantidade de cache, que provavelmente precisará ser maior no XSX do que no PS5. Caso o cache seja igual ou menor, é provável que as CUs no XSX sofram mais com cache miss, ou seja, precisar de uma informação e ser necessário esperar alguns ciclos para que seja preenchida pelos caches mais lentos ou até pela RAM.
Off Topic:
Supostamente existe um bug no Watch Dogs Legion a causar superaquecinento e consequente crash na XSX… Para já apenas acontece nessa plataforma
https://www.google.com/amp/s/gamerant.com/watch-dogs-legion-xbox-one-overheating-crashing/amp/
Xbox One X… Não a SX! Os nomes confundem!
Nem acredito fui apanhado pela confusão dos nomes,
Hahaha.
Peço desculpa.
Ironicamente um erro 404!
Em falar de watch dogs, primeiras imagens na XsX
https://youtu.be/0l8jG12fSCQ
Excelente artigo Mário,
Mais uma ferramenta para desarmar mentes quadradas.
Mais um excelente artigo, obrigado.
Excelente artigo, Mario. Realmente você desenhou desta vez.
Deixo aqui um questionamento off Topic:
Se o Xbox Series S|X é o único console a ser “Full RDNA 2”, estaria a AMD com um RDNA 2 customizado com infinity cache que não tem no Xbox? 🤔🤔
A Microsoft e seu marketing me intrigam! 😂😂😂
também pensei nisso, se o xbox é “full RDNA2” pq não tem Infinity Cache?
Não é só o Infinity cache… É o controlo granular de frequências, é as frequências elevadas, e é o limite de CU por shader Engine que não obedece às regras do RDNA, saturando as caches.
É por isso que digo que esse marketing da Microsoft só serve para alimentar os fanboys da marca.. Tinha necessidade de postarem aquilo no site oficial deles?
Off – Sobre a gameplay do demon’s souls de hoje, queria pontuar que a iluminação está espetacular, porém aos 00:24 do vídeo fica claro como os primeiros games demonstrados para next-gen são apenas um porte da geração atual. Achei tosca a forma como aquela pedra cai e seus pedaços desaparecem instataneamente sobre a escadaria, é um tipo de coisa que perdoo para atual geração, principalmente pensando em como o processadore Jaguar é limitado, mas com certeza eu espero que isso seja superado nas próximas levas de jogos que sejam true next-gen, acredito que com o processador zen2 a física pode começar a ser mais elaborada. Tendo dito isso, eu posso apostar que esse jogo também será lançado para PS4, como foi vazado outro dia.
https://www.youtube.com/watch?v=C7NqSTQvRBw
Explica-me sff como a cerca de 2 semanas, só foi anunciado uma versão e ainda se fala em outras, que lógica teria eles só lançarem a versão da PS4 depois?? Porque se for para fazer migrar as pessoas, faz muito mais sentido deixar o jogo exclusivo à nova plataforma, mas quero ouvir a tua versão para entender no que te baseias
Eu só suspeito porque listaram outro dia DS para PS4, pode ter sido apenas um erro, se não for, então creio que talvez na próxima semana podemos ter alguma confirmação. E eu digo isso porque esse jogo tirando o fato de estar aparentemente abusando de efeitos ray tracing na iluminação, ele não me parece com algo que diria ser impossível rodar em um PS4. Então se ele não for lançado para atual geração na minha visão será apenas por questões comerciais e provavelmente quando começaram a produção dele tinham em mente o hardware do PS4.
Possui uma entrevista da game informer a um dos diretores do projeto, sugeria que a visses, para te dar umas luzes sobre o que eles estão a fazer no jogo, porque o que estás a dizer, que não vês o porquê que o mesmo não pode sair na PS4, é baseado nos visuais de dois trailers que são ligeiramente superiores aos melhores jogos a nível gráfico, mas gráfico não é tudo e como sei que tu sabes a nova geração proporciona avanços em outras vertentes e eles na entrevista falam disso. Também ouvi desse rumor, era muito duvidoso, outro o meu ponto de vista, é que a de estratégia empresarial iria contra a ideia de negócio da empresa lançar este jogo na Ps4 e seria um desrespeito aos early adopters, sendo que muitos estão a comprar a consola por causa deste jogo e sendo que eles já esclareceram quis são os jogos Cross-gen, mas se por ventura sair uma versão sou o primeiro da dizer que os homens e mulheres que traçam os planos de negócios e fazem a estratégia da empresa, não foram inteligentes e muitos desleais com o consumidor
Outra o gameplay que vimos é a versão em 4K dinâmicos a 60 fps, ou seja, com muito menos foco no raytracing, a versão a 4K 30fps será a focada na resolução e raytracing
A sua reclamação tem uma explicação por parte da Bluepoint, e ela não se trata de port ou algo assim.
Demons Souls é um Remake 1:1 como Shadow of the Colossus, eles melhoram os visuais, mas animações de cenário e personagens permancem os mesmos. Eles disseram que queriam mudar algumas coisas, inclusive incluir a sexta archstones mas isso desrespeitaria a obra cujo criador é o carinha lá da From. Diante disso ai, não se trata do que vc disse não, é apenas uma questão de falta de informação sua sobre o jogo e consequente entendimento.
Nota que a PS5 tambem não o deve ter… poderá é ter algo parecido devido aos cache scrubbers e optimização da largura de banda da cache.
Sim, Mario. Mas não é a Sony que está mentindo no marketing. Os japoneses estão bem quietos, trabalhando de forma exemplar e sem alimentar guerrinhas sem propósito.
Tem vindo a público muita informação por vias travessas. A afirmação de ser a única consola “full RDNA 2″ está não só a ser um barrete como pode jogar contra a Microsoft pois o que tem sido referido mostra que a Sony poderá estar para cima do RDNA 2.
Vamos aguardar!
Note-se que eu nem acredito e nem deixo de acreditar nisso… Refiro apenas o que está a ser dito.
Ou seja, “Full RDNA 2” só para o que convém né? Essa maneira da Microsoft abordar as coisas realmente me irrita. É como se colocasse todas as pessoas num saco e chamá-las de imbecis!
É meio off, mas não é também.
Quem pensou que a Sony iria responder o “full RDNA” da MS hoje com alguma informação sobre hardware, caiu do cavalo… Liberaram mais um Gameplay do Demon’s Souls e mais detalhes de como funciona o jogo.
Se for pensar, está certo… e é até meio ridículo ver que a MS esta no twitter hypando Semântica enquanto a Sony está apresentando jogos.
Fico me perguntando se o público alvo do “Full RDNA” ainda esta hypando isso hoje e não percebeu nada disso que eu citei acima.
================================
off 2 (texto removido pela moderação)
https://www.resetera.com/threads/peter-moore-on-why-the-plug-was-pulled-on-the-dreamcast.315079/
executivo da Sega EUA reclamando que a Sony fez FUD dizendo que o PS2, saindo dois anos depois, era muito mais poderoso que o Dreamcast.
ai esse mesmo cara depois virou um dos criadores do xbox original e tatuou “GTA 4” pq iria sair no x360 e não “seria mais exclusivo de playstation”
engraçado que vender o xbox original por 1/3 do preço, lançar o x360 um ano antes do PS3 com sérios problemas, desesperado para chegar antes da Sony no mercado e “quando der pau a gente pega a grana infinita da MS e da garantia com troca pra todo mundo” não tem nada de errado, mais falar que o PS2 é muito mais poderoso que o Dreamcat, ai é “fazer FUD”
Fui interessante que isso me motivou a ir pesquisar a diferença de poder entre o PS2 e o Dreamcast… tem métrica que chega a ser 10x mais rápido no PS2.
Descobri este artigo através das noticias do google, não conhecia este site é a primeira vez que o visito. Fiquei entusiasmado com o que lí, tudo muito bem escrito e fácil de compreender, mostra que o autor tem bastante conhecimento e sabe explicar. PARABÉNS! A partir de hoje irei continuar a visitar este site.
Obrigado Hugo… mas como terás lido na caixa onde escreveste o comentário, os comentários estão vedados a novo utilizadores. De forma que este passou como uma excepção!
Recomendo que consultes a secção artigos exclusivos, se queres ler mais algumas coisas interessantes que são exclusivas deste website!
Obrigado Mário… mas como é que eu me posso registar? A secção dos artigos exclusivos permite-me consultar livremente todos os artigos sem que me seja pedido um registo.
Sim… A consulta é livre. O registo para comentários está de momento fechado e todos ficam sob moderação (que não acontece pois vai tudo para o lixo). Os teus comentários calhou de os ver e lhes dar atenção.
Bom demais esse artigo. Colocar assuntos complexos em palavras simples é uma arte!