Andrew Lauritzen trabalhou como engenheiro gráfico de software na Intel, tendo aderido à Epic onde é um dos membros da equipa que desenvolveu o Nanite. É tambem membro do Beyond3D, onde é moderador, e os seus comentários neste fórum são uma fonte preciosa de informação.
Uma análise a alguns comentários de Lauren Lauritzen no Beyond 3D, onde é moderador, permitem obter uma quantidade de informação altamente relevante.
Por exemplo, neste post, Andrew responde a algumas questões sobre a performance de uma demo criada para PC, usando o Unreal Engine 5. Explica que a demo usa uma geometria que está longe de ser a mais indicada para RT, e que como tal ela não deve ser a usada para uma experiência que se pretenda mais refinada.
Mas o mais relevante ali dito é a listagem de problemas do hardware e APIs atuais que causam os problemas com este tipo de geometria. Segundo ele, o DRX, a componente Ray Tracing do DirectX está longe de ser a ideal para muitas áreas. É apenas uma primeira aproximação ao problema, sendo que as áreas de criação das arvores BVH (Uma hierarquia de volume delimitadora em árvore, necessária para a implementação do Ray Tracing) ainda necessitam de evoluir de forma significativa. Felizmente elas baseiam-se em software pelo que a evolução pode ser rápida, mas ela é um problema atual, particularmente no DirectX.
Andrew critica ainda a enorme área ocupada pelos Tensor Cores, numa frase onde refere que muito dos chips do GPU se encontram Idle quando do processamento, deixando implícito que os Tensor Cores, mesmo quando usados para o DLSS, possuem muitas partes que se encontram sem uso.
Andrew refere ainda que, pelo seu método de funcionamento, o Nanite puro e duro, não tira partido das ROPs.
Numa continuação da referencia ao mau estado do DXR, temos este comentário que volta a referir os problemas com as BVH, referindo que basicamente, no estado atual, o RT apenas pode ser usado em pleno em jogos com geometria simples, como neste comentário,
Como ponto culminante e relevante, temos este comentário, onde Andrew refere que mais ou melhor hardware para RT não é solução nenhuma, uma vez que o problema da criação das BVH só aumenta com maior capacidade de RT. A solução passa por melhorias na criação das BVH, melhor capacidade de Streaming, e criação de níveis de detalhe (LOD).
Curiosamente este ponto parece aplicar-se bem às atuais consolas, onde nunca vimos na Xbox série X melhor RT ou melhor performance a nível de RT, do que na PS5, O motivo é que mais raios implicam BVH mais complexas e consequente perda de performances. Curiosamente, uma das soluções referidas passa pela capacidade de Streaming, e o que vimos no teste do NXGamer à demo Matrix Awakens, e que parece ajustar-se aqui, foi que, apesar de a demo apenas requerer cerca de 300 MB/s, o que está longe de saturar qualquer das soluções, um aumento da velocidade de voo, traz implicações grandes à performance da série X, não afetando verdadeiramente a PS5.
Noutros comentários, como este, percebe-se a clara liberdade como Andrew mistura Mesh Shaders com Primitive Shaders, dando a entender que basicamente eles são o mesmo, ou similares o suficiente, sendo que o nome diferente pode derivar apenas de serem nomes atribuídos em SDKs diferentes para consolas diferentes.
Numa outro tema, estava a ser discutida a performance dos GPUs no 3DMark, e mais especificamente na parte específica de Sampler Feedback. Aí um outro utilizador do fórum referia que ativando o Sampler Feedback no seu GPU tinha tido um ganho de… 5%.
A coisa piorou quando o GPU em causa se soube ser uma RTX 3090, o que levou Andrew a comentar, referindo:
O Sampler feedback – Tal como os originais tiled resources – sempre foram um espaço algo estranho. Mesmo o benefício teórico é bastante marginal… basicamente são casos onde tens um Kernel anisotrópico que sai das bordas de um limite de um “tijolo”, e não pretendes estar a fazer bordas. Obviamente as bordas são completamente razoáveis para dados de texturas.
O comentário na sua totalidade está aqui.
Gosto muito de artigos técnicos como este. Um off topic – descobri uma novidade sobre codificação de informações tipo o QRcode, chamasse DRIC CODE que pode decodificar em segundos 1 imagem contendo 2 gigas de informação, a tecnologia permitirá no futuro decodificar até 72 gigas, achei exagerado e gostaria de ouvir algumas opiniões. Não consigo colar o link, mas basta pesquisar por DRIC CODE.
Link do DRIC CODE: https://www.mobiletime.com.br/noticias/14/06/2021/brasileiros-criam-codigo-bidimensional-capaz-de-armazenar-ate-21-gb/
Impressionante! Isso quer dizer que poderemos em breve guardar todo o nosso acervo digital em adesivos colados nas paredes da nossa casa, nada mais de cloud service pago ou trocentos hdds de backup! 😄
Júlio… não vou dizer que o que acabei de ver em video sobre o que referes é falso, pois não tenho dados para tal. Mas acho estranho que a coisa seja como está a ser entendida, pois tal seria uma revolução de tal forma grande que mudaria o mundo.
Repara que se podes imprimir numa imagem de 5,3 cm2 que pesa 100 KB, 2,1 GB de informação, isso revolucionaria os sistemas de armazenamento. Um disco passaria a levar Biliões de Gigas se armazenasse apenas imagens dessas, e conseguiria ler as mesmas a velocidade estonteante em medias baratos e lentos.
Para além do mais, uma simples foha de papel substituiria um SDD de Teras…
A revolução seria de tal forma, que me parece estranho que tal descoberta esteja apenas limitada a ser referenciada em meia dúzia de websites. E mais do que isso, um apoio de 3.5 milhões de dólares para uma tecnologia destas. Não te soa a ridículo? Algo que poderia mudar o mundo só levava um financiamento miserável desses.
Tenho por isso de colocar sérias reticencias enquanto a coisa não for melhor esclarecida.
Eu estou achando estranho essa explicação da tecnologia. Baseado no que foi dito na matéria eu vi um comentário bem interessante. Se for assim, vc poderia armazenar a informação de todo universo em apenas 100kb. Basta você gerar várias arquivos de 100kb de dric code dentro dos 2.1GB e fazer isso recursivamente.
Uma extraordinária observação…
Se é possível meter 2,1 Gb em uma imagem de 100 KB, compilava-se toda a informação em 2,1 GB de imagens dessas, e criava-se uma nova imagem… Resumidamente, toda a informação do universo caberia numa única imagem dessas.
Essas coisas precisam da revisão dos pares, e no geral, costumam só ser festim. Quando vi que tinham brasileiros envolvidos aí já tenho como fake, pois infelizmente tudo que é notícia otimista vindo do Brasil ultimamente é por regra, falso. É preciso esperar pra ver se é só mais alguma coisa sensacionalista ou algo em que se possa acreditar com mais sobre isso no futuro. Parece mais uma falácia de brasileiros, infelizmente.
Juca, depois do primeiro momento de impolgaçao também fiquei com o pé atrás, pois parece muito revolucionário. Fiquei curioso sobre o modelo de matemático Monte Carlo, vou pesquisar.
Mário, as ponderações que fizeste são algumas que discuti com outras pessoas, uma coisa tão revolucionária deveria estar sendo divulgada em muitos lugares de renome, aguardemos o andar da carruagem.
O tiohildo teve um comentário fabuloso sobre essa tecnologia. Se podes meter 2.1 GB numa imagem dessas, com 100 KB cada, então podes pegar em 2.1 GB dessas imagem, ou 22 mil imagens dessas e metê-las dentro de uma outra de 100 KB, E nesse caso terias uma imagem de 100 KB com 46 terabytes. Agora pega em mais 22 mil imagens dessas e cria uma nova, e tens um valor que eu nem sequer consigo ler.
Isso só pode ser peta… ou então está muito, mas mesmo muito mal explicado, e na realidade não é mais do que um QR code com capacidade para 20 mil caracteres em vez dos habituais 200 e pouco.
Ou seja, o “super” DirectX continua sendo a merda que sempre foi. Sempre atrasado.
Assim, você atiça as vespas! 🤣😄🤣
o melhor que em nenhum post dele ele fala alguma groselha de “monstro dos TF e CUs” que importa.
fala que o problema hoje é streaming de dados e software.
Em ambos o PS5 tá na frente, em streaming todo mundo sabe, em software é uma plataforma fechada que não depende de compatibilidade entre dois consoles diferentes e trocentas mil configurações de PC.
Mário, não sei se ele fala precisamente do RT associado ao DX e Unreal 5 juntos, mas noutra engine, como a da Capcom, em alguns trechos com RT vê-se discreta melhor performance do Xbox, nada muito relevante, mas o “modo RT” de RE8 e de DMC possuem melhor performance de um modo geral, mas é algo que obviamente pode ter a ver com a Engine (segundo testes da DF). Outro caso de que me lembro é do polêmico e insignificante modo foto de Control, entretanto, porém, nesse caso a qualidade de reflexos no PS5 está melhor e a comparação de performance me parece injusta, e inclusive desnecessária, já que fps em modo foto não faz diferença, a menos que levasse o game a slowdowns absurdos nesse momento, o que não é o caso.
Porém, é claro que o desempenho em RT tem sido irrelevante entre os 2 consoles, e o fato da diferença aparentemente existir apenas numa engine, pode falar mais da engine do que dos hardwares em si.
Bom, no dia que o Xbox apresentar algo do nível de Ratchet and Clanck: Rift Apart, podemos abrir o debate. Antes disso, é desnecessário.
No mais, enquanto os jogos exclusivos Sony forem referência em gráficos, o Xbox pode ter o poder que for, pois sempre vai ficar limitado com essa palhaçada da Microsoft querer economizar e cagar pro console colocando-o sob o mesmo “guarda-chuvas” do PC.
Por sinal, acabo de ver que o NX Gamer elegeu o game como melhores gráficos e melhor tecnologia de 2021.
Mas aí você fala de talento e know how em games, coisa que a MS não conseguiu obter muito nessas mais de duas décadas fazendo games.
Mas imagine um Doom exclusivo, ou mesmo o Flight Simulator, não é de se desprezar em termos de RT, mas obviamente nenhum dos dois foi criado por uma equipe da MS na prática.
E igual ao Ratchet tecnicamente precisa , provavelmente, de um SSD melhor, apesar do Ratchet ainda não ser muito exigente quanto a velocidade do SSD.
Em que trechos vês melhor performances? E em que motores?
Control não é exemplo. É um motor criado para a geração passada, longe de ser optimizado para a nova geração-
Eis o que Matt Hargett referiu sobre a análise:
“DF’s technique and analysis here is sound. Some unoptimized last-gen engines will benefit more from a “wide” (more CUs, lower clocks) architecture than a deep (less CUs, faster clocks/caches) and vice versa. Looking forward to more “benchmarkable” scenarios across engines.”
Creio que o Matt não tenha dúvida alguma qual dos consoles fez o melhor trabalho. Ele confia e muito que a arquitetura mais profunda vai ter vantagem na geração. Isso se os motores tirarem partido total do que o Ps5 oferece.
Apesar que, com um SS dificilmente vamos ver algum multi que chegue perto dos exclusivos ps5 na geração. Já era difícil chegar na geração passada, nesta então…
Obviamente que agora que estão surgindo engines pensadas ou modificadas pensando em um PS5 (a própria Unreal 5 ainda está sendo finalizada), até porque a arquitetura do xbox é relativamente convencional comparada ao PS5, mas não podemos fazer comparações de jogos de agora pensando no futuro, e hoje os dois consoles estão relativamente equilibrados.
Se não me engano a Engine da Capcom é a mesma usada em DMC5 de nova geração e RE8, é a RE Engine.
Em RE o vídeo é esse, a partir do 14 min e 30 s:
https://www.youtube.com/watch?v=CMRuYC8UBkk
Em DMC5 a partir de 8min e 15s do vídeo abaixo:
https://www.youtube.com/watch?v=GIIhJqTERls
Não existe um DMC5 de nova geração. Existe um DMC 5 para a PS4 a Xbox One, e uma versão para a Série X e PS5 que é exactamente igual, mas acrescenta RT. Isto faz toda a diferença!
Assim como não existe um Resident Village de nova geração. Apenas melhorias pontuais, como o Ray Tracing.
Isso aí já questiono. Porque apesar de o motor não estar, nem de perto nem de longe, optimizado para a nova geração, ele começou a ser desenvolvido pensando nas novas consolas. Daí que pode estar ainda muito atrasado naquilo que seria a optimização ideal para as novas consolas, mas certamente estará melhor que o DMC5 que já estava feito a pensar nas consolas da geração passada.
OFF: Ultima vez… há alguém que queira participar amanhã à noite num direct? (Nota: Não é em directo, hehehehe)
Mário, não gosto de câmeras, até gosto de discutir sobre tecnologia mesmo sabendo pouco, porém não curto videoconferências, me desculpe pela minha declinação do seu convite, sou um pouco antisocial e não curto minha imagem rodando pela internet.
os posts dele só jogam agua fria em fanboys do xbox.
Fico curioso se a DF vai ler e pensar nessa parte:
“I feel pretty confident in saying the primary problems for general game workloads right now are on the BVH building/streaming/LOD side”
O post é de Novembro do ano passado, e nos ultimos trinta dias alex bukeke “o xbox é o console mais preparado para o futuro pq tem mais CUs”
O cara se presta a ir bostejar “mas o tamanho na Store prova que não é VANTAGEM PS5” na compactação.
Mas perguntar algo sobre streaming que chamaria atenção positiva para o PS5, ai ele não tem nenhum palpite…
“Vários CUs” é algo sempre complicado! Tanto porque a velocidade é algo melhor que o paralelismo de um modo geral como já foi tantas vezes explicado pelo Mário e diversos colegas aqui, como pelo trocadilho em si! 🤣
eu não sei como funciona esse trocadilho em PT-PT uhauhauhauh
interessante os comentários também sobre DLSS… Os caras tudo hypando isso, caindo tudo no marketing da Nvidia e o Andrew fala que o negocio é pouco utilizado e um desperdício de silício.
Então, isso reforça a minha suposição que isso ai é tudo coisa de Data Center que a Nvidia botou para jogos pq “foda-se” os gamers se tem solução muito mais custo beneficio para jogos.
Da para entender pq a AMD e Sony apostam em outras soluções nesse sentido.
a Intel tb parece estar apostando em algo similar a Nvidia, ou seja… Intel tb vai tentar “GPU de servidor” para gamers…
Comentário de quem nunca utilizou a tecnologia.
Já nem digo em usar, mas pelo menos alguma vez te deste ao trabalho de ver no youtube o que o dlss faz em muitos jogos?
As capacidades do DLSS são inegáveis. Mas para o teres tens de ter uma larga porção de silício dedicado a ele. O que o autor das afirmações refere é que nem durante o seu uso o silício fica plenamente usado, pelo que se questiona se realmente vale a pena dedicar um espaço tão grande ao DLSS em detrimento de mais unidades de computação que poderiam ajudar e muitas outras áreas.
Ou seja, não se está a dizer mal do que existe. Apenas se questiona se a gestão do espaço estará a ser a melhor dado que nem nos casos de computação mais intensa o silício é plenamente usado.
Quanto às afirmação do Deto, elas não tem pés nem cabeça. O DLSS é usado e excelente no que faz. É aliás o melhor que há, e o que o autor faz não é uma critica a ele.
Esse é um bom debate. Mas pelo que li sobre o assunto, mesmo a versão 2.3 do dlss é só o início. Ainda assim, quando bem utilizado faz milagre. No guardiões da galáxia e control mudam completamente a experiência. O problema é a adesão.
Interessante o que ele disse sobre BVH. Fazendo uma analogia com os algoritmos de ordenação, seria algo como ainda estarmos atrás de alcançar a performance do “quicksort” do Ray Tracing lol. Enquanto isso, estamos sofrendo com a performance dos Bubblesort da vida lol.
E isso faz sentido até pelos resultados que estamos vendo agora, porque em pouco tempo a Insomniac conseguiu aprimorar a resolução dos reflexos de 1080p para 4k checkerboarding. Isso tudo se deve às optimizações que estão trabalhando.
Um Spiderman 2 com RTGI na ilha de Manhattan seria sensacional. Tomara que alcancem esse nível de excelência.
Desculpe a ignorância Carlos o aue seria RTGI?
Seria a iluminação global do jogo ser toda via Ray Tracing, algo como foi feito no Metro Exodus enhanced, e no Cyberpunk 2077 (versão PC).
Ray Traced Global Ilumination
Tirando o Bloodborne
O jogo que eu mais quero que a Sony lance pra PC é o R&C: RA, só pra ver testes em outros tipos de armazenamento
A prova final hehe
Em armazenamentos mais lentos as transições são mais lentas.
O jogo poderá ser jogável, mas aquilo que é instantâneo deixa de o ser se os armazenamentos forem mais lentos, o que basicamente remove aquilo que define o jogo, tornando-se num jogo normal.
É tão simples como isso.
A alternativa é requerer o dobro da RAM, mas isso implicava mexer no motor.
Talvez passados dois anos sobre o lançamento o tenhas.
Esse teste seria a mesma coisa que voltarmos para 1995 e pegarmos o CD de um jogo de PS1 ou Saturn, e colocarmos no PC para conferir o tamanho. Ao verificarmos o jogo ocupa meros 30MB, podemos argumentar:
“viu, nem foi necessário usar CD nesses consoles, já que só precisa de 30MB dos 700MB de espaço disponível. Poderiam usar cartuchos igual o Nintendo 64”.
Daí chegamos em 1996, e o jogo Enemy Zero no Saturn já usava 4 CDs. Final Fantasy 7 lançado no PS1 em 1997 ocupando 3 CDs.
O raciocínio no SSD é o mesmo, o throughput será gradativamente aproveitado ao longo da geração, inclusive no PC. A tech-demo do Matrix demanda streaming de 10MB por frame, ou seja, a cada 33.33ms. Não é necessário um SSD pcie gen4 para isso, mas com certeza um HD não faz essa entrega em tempo real não, teriam que continuar fazendo uso do bom e velho streaming pool.
https://pbs.twimg.com/media/Eh8xe73XkAAR5zH?format=jpg&name=small
Falando especificamente de Ratchet, eu apostaria que um gen3 resolve. SSD Sata eu já teria mais dúvidas, talvez veríamos mais pop-in, LODs demorando um pouco para carregar, etc.. Mas com certeza demanda SSD. Veja esse trecho da entrevista com Mike Fitzgerald, um dos diretores do jogo: https://www.theverge.com/22431256/ratchet-and-clank-rift-apart-ps5-interiew-tech-ray-tracing-ssd
Esse trecho mostra que os Ratchet and Clank do PS4, PS3, etc. usavam o tradicional formato de: “vai entrar em um planeta? Legal, vamos carregá-lo na RAM, logo após o loading, todo o planeta estará na RAM e você poderá explorá-lo à vontade. Quando quiser mudar de planeta, faremos um novo loading”.
Ratchet and Clank Rift Apart no PS5 é diferente, porque o carregamento na RAM é similar ao de um jogo em mundo aberto, ou seja, via streaming mediante a movimentação do jogador pelo cenário. Só que Ratchet Rift Apart não é um jogo de mundo aberto. Cada planeta possui uma densidade de assets grande o bastante para demandar streaming mediante a movimentação do jogador. E para deixar ainda mais interessante, tanto Ratchet quanto Rivet possuem mecanismos para se movimentar rapidamente pelo planeta, o que demanda um streaming ainda mais eficiente.
Agora, se mudar o código-fonte, a conversa muda. Se eu posso retirar as músicas de uma ROM do PS1 e reduzir o tamanho do jogo de 400MB para 50MB, se eu posso rodar Street Fighter 2 projetado para CPS-1 com um Motorola 68000 de CPU principal e deixá-lo ultra-capado em um Zilog Z80 no Master System, por que não poderia capar Ratchet Rift Apart e fazê-lo rodar com HD sem usar RAM adicional? Possível é, mas a experiência muda bastante.
Sempre bom ler seus comentários ajuda a elucidar muita coisa, obrigado!
hehehe
É como eu disse
O ponto final pra acabar de vez com os questionamentos é só quando sair no PC
Como está escrito no meu comentário anterior, questionamento eu só tenho é de qual é o SSD mínimo que o Ratchet irá suportar em uma eventual versão PC. Coloquei até mesmo um SATA como possibilidade, porque embora mais lento, não sofre de leitura aleatória como o HDD.
No mais, sobre a exigência de SSD para o jogo, eu prefiro dar um crédito para o que foi dito pelos devs da Insomniac, caso contrário estaria colocando em cheque a credibilidade dos estúdios/empresas
e vai ser o gamer nexus para testar?
o que botou jogo em 1080p no PC vs 1440p no PS5 pq nem sabia a resolução no PS5?
Acho engraçado esses especialistas de PC, sabem montar PCs e já querem pagar de engenheiros.
Oh pá… Que pena que não possas participar do Direct…abordavamos isto lá…
As pessoas tem que parar de dar ouvidos a devs de segunda, essa é a verdade. Confiem nos devs de ponta, que é o caso dos da insomniac. Eles não vão brincar com o que trabalham e mentir para todos.
Alguém se lembra de um desenvolvedor envolvido em Tomb Raider – salvo engano – questionando e falando que a apresentação da ND na E3 de 2016 era mentirosa, que aquilo nunca correria num Ps4? Pois então… O jogo lançou e esse cara teve que vir a se desculpar com seus colegas de profissão. Aquilo estava sim rodando no ps4 e naquela parte, em específico, o jogo teve upgrade gráfico na versão final. Enfim…
Entendo
Mas ainda sim, o ponto final vai ser quando sair no PC
Não há cá ponto final nenhum… Os próprios devs referiram que nosseus testes o uso de um SSD inferior ao recomendado trazia uma degradação de 15%.
Claro que 15% de instantâneo ou 15% de 1 segundo não é basicamente nada. Mas a questão é que isso altera o conceito do jogo. Imaginemos que ratchet nem precisa de streaming (o que não é verdade pois o jogo apenas possui na memória o que está no campo de visão – https://mobile.twitter.com/JamesStevenson/status/1392487201754161154?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1392487201754161154%7Ctwgr%5E%7Ctwcon%5Es1_&ref_url= – mas apenas precisa de loadings para as transições imediatas. Nesse caso até um HDD faria isso. A diferença é que se tem de esperar largos segundos. Neste caso a experiência foi criada para resposta imediata, pelo que qualquer SSD inferior, mesmo ainda oferecendo uma experiência similar, já foge daquilo que era o conceito de instantâneo criado para o jogo.
A grande questão aqui é a desconfiança gigante que pessoas como tu colocam sobre os devs. Tratam tudo como uma cambada de desonestos. Mas curiosamente a maior parte das pessoas que faz isso, acredita depois em tudo o que vem da Microsoft.
É este tipo de, e vou-lhe chamar ignorância, sobre devs de renome, e crença cega numa empresa historicamente conhecida pelo seu marketing, que leva a que hajam decepções tremendas em muita gente.
Olhar as coisas com desconfiança, SIM. Mas a acreditar em algo, até porque nem tudo que é dito é mentira, exige bom senso e análise ao histórico das pessoas. E tem sido um dos motivos pelos quais a PCManias tem acertado em quase tudo o que temos vindo a prever. Porque sabemos analisar, julgar e perceber o que é verdade e mentira.
Eu sempre fui um apaixonado pelos PCs… Ainda hoje não o dispenso. Mas a minha conclusão atual é que o PC, apesar de ser a máquina superior, não justifica para jogar. O que oferece a mais, pura e simplesmente não justifica o preço, as chatices, e todos os problemas que rodeiam o PC.
Ratchet and Clank é o primeiro jogo criado a pensar efetivamente na nova geração. Se pode correr em specs algo inferiores, certamente poderá. Mas quando andamos aqui a ver sites a medir o tempo de loading no início de um jogo, é porque eles são relevantes. E daí que se vamos aumentar esses tempos de forma constante num jogo que está constantemente a transitar entre mundos, estamos a alterar a experiência de jogo. E isso para mim vale tanto ou mais do que ter que um ou menos um fps.
É mesmo?
tudo que é da Sony eu vejo “não sei não, deve ser fake”
e vc não questiona nunca os “12TF” do xbox que rendem na maioria das vezes menos que os “8TF” do PS5.
Basicamente a implicância é recalque.
Se o xbox que tivesse os melhores jogos exclusivos dos ultimos 12 anos, vc viveria questionando tudo que a MS faz.
Garanto que vc nunca disse em nenhum lugar com TESTE de multiplataforma:
“acho que a MS mentiu sobre os 12TF, deve ser 9.5TF pq TEM TESTE rendendo menos que os 10TF do PS5”
Isso eu nunca vi e nunca vou ver, e tenho certeza que vc nunca questionou isso.
Já vi ele na gamevicio comentando: “Devo confiar no estúdio ou nos desenvolvedores de sofá?” Isso quando o dev falou o que ele queria ouvir.
Agora mudou e ele não confia mais no dev, pois não disse o que era gostoso para seus ouvidos. Daí muda automaticamente o modo de pensar e ele fala: “Quero ver os testes no PC”. Comédia demais.
Vai esperar muito tempo para ver testes no PC, pois esse jogo deve pintar por lá só daqui uns 3 ou 4 anos e ainda assim vai questionar os requisitos mínimos altos no PC, como fez em Gow. Hahaahah
é limitação mesmo, o sujeito nunca consegue avaliar o que fala e o que faz; o que acredita.
ele nunca vai se questionar sobre a hipocrisia dele, pq ele não tem memora RAM suficiente para carregar as argumentações dele ao mesmo tempo e comparar.
o que eu percebo é que parece que tem uns devs com inveja.
tem o Nerdcast de Devs, já deu para ver pelo tom de voz que eles ficaram de ranço pq o Jovem Nerd citou a Naught Dog…
no outro de INDIES já começaram a falar em “filminho” quando o JN falou sobre historia como sendo importante no jogo.
tem o DEV do Lego lá falando groselha da Insominiac…
pq vc nunca ve um DEV de um jogo foda falando mal de algo menor? vc não ve um DEV da Insominac lançando R&C e indo falar do Macaco Craig.
Escutava o PODQUEST que tinha “DEV” gravando, ficaram uns 15min só falando que Horizon Zero Dawn era uma bosta bla bla bla; e passaram anos hypando Mass Effect andromeda pq um deles trabalhava no jogo… porra, como isso não soa inveja? se comparar HZD com Andromeda, HZD fica parecendo o GOTY da geração.
as vezes tem DEV bem babaca também.
Em geral se o sujeito tenta diminuir algo maior, é inveja mesmo. O DEV do Lego ai que tá a uns 15 anos na linha de montagem do Lego falando que o SSD era fake e não sei o que..