Após 5 anos, a Geforce 1060 deixou de ser o GPU com maior fatia de mercado.
Os dados do Steam são ultra relevantes para o mercado pois são uma das poucas ferramentas existentes para se averiguar as percentagens de mercado de cada GPU, e se ter uma noção do estado do mercado PC.
Apesar de tudo, os dados do Steam não são perfeitos, pois eles apenas mostram capturas temporárias do estado do mercado, de acordo com a atividade dos utilizadores. E nesse sentido as percentagens variam basicamente todos os meses.
Daí que, para uma melhor perceção do mercado, devido a tal, os dados não possam ser lidos diretamente, mas tenham de ser alvo de estudo estatístico.
Ora a realidade é que estudo completo ou mera análise mensal, o GPU médio do mercado PC esteve 5 anos dividido entre a GTX 1060 e a GTX 1650, com a 1650 a ganhar mais relevância nos últimos tempos, mas a 1060 a dominar no seu global.
Mas isso agora mudou… e o GPU com maior quota de mercado mudou… E a 1060 ficou para trás, sendo ultrapassada nas ultimas medições não por um, mas por dois novos GPUs.
São eles a RTX 2060 e o novo Rei, a RTX 3060, que no ultimo mês conseguiram cotas de 8.05% e 10,67%, respetivamente.
Apesar desta situação, altamente bem vinda, a tabela de cima mostra que o mercado PC está muito mal servido a nível de GPUs, pois a tabela de cima inclui nada mais, nada menos do que 62.94% do mercado, sendo que do que ali está presente, apenas 15,15 é superior à 3060, e apenas 2.62% (a 3080) é garantidamente mais capaz em todos os jogos, do que uma Xbox série X ou PS5.
Seja como for, é bom ver que o mercado PC evoluiu, e o salto da 1060 para a 3060 é muito, muito significativo.
Senhor Mário ,achei interessante este video e compatilhei com o site para uma analise sobre o atual cenário e o que esperar sobre o futuro das gpus:
https://www.youtube.com/watch?v=8L-TFYAP6EU
Discordo do que ele refere ao tentar deitar culpas às marcas de GPUs. A NVIDIA apostou em tentar obter um monopólio à custa de hardware proprietário, ao passo que a AMD sempre pretendeu usar algo mais genérico. No fundo a AMD estar a puxar para um lado e a NVIDIA para outro é uma consequência que se esperava, mas não derivada de uma guerra atual, mas sim de escolhas passadas.
Pessoalmente já contava com isto pelo que a minha 3060 tem 12 GB e a 3090 24 GB.
Pelo menos no Brasil o salto da 3060 foi devido a venda de notebooks e a venda de 3060 de notebooks para PC pelos chineses.
Pois é, pelo que havia lido é que boa parte disso se deve à entrada de chineses ou placas chinesas na Steam, provavelmente os refugos pós fim da era de ouro da mineração de coins!
A galera da China faz cada gambiarra. A gpu da moda é a 6600m. Um produto de notebook convertido para PC.
O mais preocupante nesse gráfico é o fato de ser tudo nvidia. Sem concorrência, os preços nunca vão melhorar.
Eu posso estar errado, mas a visão que tenho é que em comparação com a AMD a Nvidia sempre teve mais tecnologia em suas GPUs que a Amd, onde esta só está vindo a se recuperar de umas 2 gens para cá, e mesmo assim fica atrás em muitos quesitos inclusive no uso de RT, onde as Amds não chegam perto em desempenho.
E muito disso também é culpa da própria AMD que parece esta sempre um passo atrás quando o assunto são novas tecnologias. E o que concordo 100% com você é que se a AMD não fizer frente a Nvidia os preços nunca vão baixar e quem sofre é o consumidor.
Na questão de software as Gpus da nvidia estão ainda muito a frente. Nvenc, dlss, etc. Ainda assim, os produtos da amd já são bons o suficiente pra competir. O grande problema é que não há volume suficiente pra isso. A AMD encontrou uma mina de dinheiro no mercado corporativo, logo a maior parte da produção vai para lá. O que sobra fica com o mercado doméstico, o que não é suficiente pra afetar a nvidia.
Concordo plenamente, Daniel, a AMD vem sempre com soluções tampões e numa etapa posterior pra tentar compensar as novidades da Nvidia.
A questão aqui é que a Nvidia está a entrar nas tecnologias de forma proprietária. A AMD mesmo disse que era fácil para eles terem RT para concorrer com a Nvidia, mas que isso implicava terem também tecnologia proprietária. E a AMD não quer isso, quer que as coisas sejam integradas no pipeline universal de forma a que qualquer um possa usar a arquitetura,
Isto de criar uma uniformização é algo que eu sempre aprovei. Se cada um dos concorrentes optar por tecnologias proprietárias, um dia a evolução fica preso a um legado impossível de ser seguido por todos. E APIs estilo DX 12 deixam de ser possíveis pelo facto que o hardware não tem nada em comum.
Eu entendo o problema que isso pode ocasionar no futuro, mas ainda sim eu acho a solução da Nvidia melhor para lidar com o RT, pois o impacto nas performances apesar de serem grandes ainda são melhores que nas placas da AMD, outra coisa é o DLSS que tem uma qualidade visual superior que o FSR 2.1 ambos na opção de qualidade.
Estava vendo um vídeo onde eles adicionaram Path-tracing no Cyberpunk 2077, e só conseguiram bons resultados com DLSS em modo performance e uma RTX-4090 em 4k 60fps. Um feito que a AMD não consegue replicar com bons resultados (se é que consegue). E não estava com o frame generation ligado.
Mas também é válido dizer que cada caso tem seu lado positivo e seu lado negativo.
Eu acho que estava com o frame generation ligado sim, Daniel. Eu havia lido em algum lugar que sem DLSS 3 o jogo só ia aos 16 fps nesse modo Over aí. Mas posso estar enganado.
No vídeo que vi da digital foundry eles dizem que não estão usando, segue o link: https://www.youtube.com/watch?v=1K8Br6jHkcs&t=288s
De qualquer forma é uma configuração de Pc que não reflete o mercado e em placas abaixo da 4090 só com o frame generation ligado mesmo.
Valeu, Daniel, vou dar uma assistida, até pra ver o que falam mais!
Acho que li dos 16fps no adrenaline.com.br, mas já vi a informação similar noutros lugares, a dizerem que o jogo ficava entre 16 a 34 fps na 4090 nesse modo overdrive! Acho que vou ter de parar de ler o adrenaline, os caras lá dão muita bola fora!
https://adrenaline.com.br/noticias/v/84181/nvidia-geforce-rtx-4090-entrega-apenas-16fps-em-cyberpunk-2077-overdrive-mode-sem-dlss
Adianta de algo? O Cyberpunk com path trace é ultra realista. Mas como o jogo não foi projetado pensando nisso fica muito pior que a versão com RT. Existe áreas que não há fonte de luz, logo você não enxerga nada na cena. A Nvidia tem investido muito para divulgar a tecnologia, mas é isso que o consumidor precisa? A Sony está aí para mostrar que existe coisas muito mais importantes que RT.
Mas parece normal que seja preciso um GPU de 2000 euros para se meter um mero efeito gráfico em cima que não faz nada que já não se fizesse antes, apenas faz melhor?
Não faz sentido nenhum.
Claro que não, eu só usei o exemplo do cyberpunk, pois é um jogo com bons gráficos e uso de RT, ai só fiz uma pequena comparação das placas e da tecnologia, não da qualidade do jogo.
Quanto ao que fala da Sony me desculpe, mas para mim a Sony é a que esta investindo em jogos mais do mesmo ao ponto de eu não ter mais interesse em seus jogos, não há mais diversidade ou melhor parece que eles mataram a criatividade das equipes, mas digo de novo esse é meu ponto de vista, não tenho nada contra que pense ao contrário.
Tudo bem, Mário, mas a AMD poderia ter a mesma tecnologia própria que rivalizasse com a Nvidia e de modo aberto, permitindo que outros usassem seu modelo. Da mesma forma que faz com os softwares. A questão é que num duopólio, praticamente, só vão existir no fundo duas tecnologias proprietárias. Peso que logo a Intel vai adotar alguma coisa diferente, pois diferencial é o que importa na concorrência.
As tecnologias usadas nos GPUs são todas proprietárias… A questão é enquadrar a mesma com uma arquitectura aberta.
Cada marca faz os seus componentes dos GPUs usando a sua tecnologia, mas todas seguem uma arquitetura padrão que cria a compatibilidade entre todas.
Agora a NVIDIA o que fez foi criar um co-processador, os tensor cores, e encaixa-los ali. Isso é o mesmo que num PC criares algo colocado numa slot PCI, em vez de o integrares nos circuitos da motherboard. Basicamente não evoluis a arquitetura e vais pelo caminho mais simples!
E isto, se todos o fizessem, seria a anarquia.
A ideia da AMD é foi criar algo que qualquer fabricante de GPUs pudesse seguir. Expandir a arquitetura existente e não colocar um add-on.
E se reparares a Intel seguiu o mesmo caminho, porque esse deveria ser o caminho que todos deveriam seguir. Preocuparem-se coma evolução geral e não apenas com a sua, usando coisas proprietárias.
Eu pessoalmente só vejo com bons olhos o caminho da AMD. Porque agora a NVIDIA está presa aos Tensor cores que mais ninguém tem. E com o evoluir das gerações vai ter um legado para trás que lhe pode pesar e muito. Aliás ela fica dependente de terceiros, como a Microsoft e a Fundação que cria o Vulkan, que eles os suportem, pois essas empresas é que definem a evolução dos padrões.
Enfim, isto daria tópico para muita conversa. A solução da NVIDIA é sem dúvida a mais performante, mas o caminho seguido é que não é o melhor, e é típico de quem acha que domina e pode impor os seus padrões.
E isto é um bocado como o Gamepass onde as pessoas só vêem o preço e a quantidades, não pensando nas potências consequências. Aqui só vêem a performance sem perceberem que o caminho da NVIDIA pode, potencialmente, penalizar no futuro de forma severa as performances gerais dos PCs.
Pois é… Pessoal é meio que emocionado com a NVidia e eu vejo a AMD fazendo muitas vezes mais con menos e num custo X benefício superior. A NVidia foi lá e atropelou tudo com a série 20XX, colocando Placas ora rodar RT quando elas nem capaz disso eram na verdade, só para dizer que eles estavam na vanguarda. Já a AMD tem uma mentalidade mais madura nesse aspecto, não atropela tudo pra lançar primeiro que o concorrente e suas placas de vídeo estão muito vem cono estão, evoluindo um passo de cada vez.
Não a Amd não tem a mentalidade mais madura, a Nvidia foi a primeira a dar o primeiro passo no RT a Amd demorou 1 gen a mais pois estava tendo problemas na implementação se bem me lembro. Outra coisa foi com o FSR que demorou muito mais a sair do que o planejado pois a tecnologia não estava pronta e quando saiu ainda teve severos problemas.
Até hoje a Amd tem problemas com seus drivers de vídeo e não é difícil achar relatos. Fora as tecnologias embargadas nas placas é justo dizer que nenhum profissional da área de ti é 100% Amd.
Claro falo isso se tratando apenas de Gpu, pois no mercado de processadores ela dá um show e coloca a intel no chinelo.
A AMD é imensamente mais madura…
Basta ver como o André bem disse, ela atropelando tudo com as placas 20xx empurrando RT, sendo que elas nem aguentavam de verdade…
E isso está claro, ela é tão infantil nesse sentido que como vc mesmo disse sem perceber que ela quer sempre dar o primeiro passo as custas de tudo.
Fora as ideias extremamente prejudiciais para a indústria que ela tem, como exemplo um DLSS com frame generator… Não existe nada que me convença que você duplicar frames artificialmente seja algo bom… É praticamente vc enganar e iludir o jogador com um desempenho “”fake””, e pelo que vejo cada vez mais as placas Nvidia vão depender disso.
Fora o fato que ela restringiu o DLSS 3 apenas pra geração 40xx pra iludir, sendo que usuarios conseguiram desbloquear o frame generator nas placas 30xx e 20xx, mostrando que ela fez o bloqueio desse recurso nas placas de geração anteriores apenas para impressionar mais com a geração 40xx
Eu não iria pela maturidade.
Todos sabemos que ao longo dos anos a NVIDIA tem optado pro criar diversas situações proprietárias que usa a seu favor para demonstrar vantagem. Por exemplo, a NVIDIA usava uma tecnologia hairworks proprietária que esmagava as AMD, e que não cedia a ninguém. A AMD criou a sua própria tecnologia para isso, a tress fx, que é muito mais genérica e pode ser usada em qualquer GPU. E quando ela foi usada no Tomb Raider foi uma vergonha para a NVIDIA pelas performances miseráveis.
A AMD tirou partido disso e mostrou superioridade como a NVIDIA fazia? Não, cedeu o código e permitiu à NVIDIA optimizar para os seus GPUs.
Se a AMD tivesse a mentalidade da NVIDIA, especialmente ao ser menor, tirava proveito disso. Mas tudo o que a AMD faz é genérico, de forma a se enquadrar no espírito da evolução norma e não do proprietário.
O seu Open Ray Tracing, que apareceu pouco antes das RTX tinha o conceito de trazer o RT para todos. A NVIDIA adiantou-se criando co processadores proprietários dedicados a isso e lançou as RTX.
Questionada a AMD ela na altura referiu que só entraria nesse mercado quando o Ray Tracing pudesse ser para todas as placas gráficas (o que na altura até se percebeu mal e se pensou que a AMD queria suporte nos GPUs antigos, quando na realidade o que eles falavam era de algo que pudesse ser genérico e adaptado por todos de forma igual).
https://community.amd.com/t5/general-discussions/ray-tracing-not-an-option-until-it-comes-to-all-graphics-cards/td-p/110519
Se ao menos a NVIDIA explicasse a estrutura dos seus tensor cores, os outros poderiam adoptar e criar algo equivalente, tornando isso na norma, mas a NVIDIA não divulga nada e como tal, eles nunca poderão ser uma norma.
E a ausência de normas para todos corta as compatibilidades, e impede as optimizações ao metal tornando os sistemas ultra dependentes das drivers, algo que até se pretendia eliminar ou reduzir ao máximo por ser uma das grandes causas das ineficiências do PC, mas que só seria possível com uma standarização das normas.
Quando a NVIDIA teve vantagens na tesselização, eles pagavam aos devs para fazer isto:
https://youtu.be/IYL07c74Jr4
Não haviam vantagens gráficas nenhumas, mas como a coisa afundava as AMD, eles pagavam para isso ser feito. E no vídeo que meti vês o abuso que aquilo era.
Eu compreendo, Mário, mas assim, acordo com Nvidia não terá. Melhor se sentar com intel e determinar os rumos comuns pra indústria, porque como só existiam 2 marcas pra concorrer seria meio esperado criarem-se diferenciais para não ficarem na simples briga por preços. O que quis dizer é que se a Nvidia não faz questão de não adotar o de comum acordo apenas, a AMD não tem opção.
Minha impressão é que lamentavelmente o marketing da Nvidia é bem mais eficiente, e que a NVidia inova mais e que a AMD, que sempre vem atrás tentando apenas vir com algo pra compensar o estrago já feito pela não inovação. É lamentável, mas a Nvidia sempre vem com propostas mais pra inovar que a AMD que só tem feito o básico esperado.
A AMD quase sempre se foca apenas em reduzir litografias e melhorar TDP.
É falta de interesse mesmo. A AMD não investe o suficiente no mercado doméstico porque ela vende apenas as sobras, visto que o corporativo dá muito mais dinheiro. Eles tem condições de competir no mesmo nível da nvidia. Mas enquanto não existir concorrência no corporativo, a Intel ficou para trás, o doméstico nunca vai ganhar relevância.
43% inferior ao PS5
1,85% superior ou igual ao PS5 (3080) em teoria
Porque na pratica os 10GB de RAM mataram o desempenho da 3080
Ou seja, na esmagadora maioria o PC continua muito inferior ao PS5.
Os caras do PC deram xilique, mas a realidade vai se impor… se ferraram com as placas de vídeo capadas de vram da nvidia.
Por esses requisitos não duvido mesmo de daqui uns 2 anos precisar de 32GB de VRAM
Uai, funciona bem para games da geração ps4/one.rsrs
Ontem tive que ler que uma 1660 super era pouca coisa inferior ao ps5. xD
Pouquíssimo… Aliás basta ver as 1660 a correrem os jogos da Sony a 4k 60 fps… E depois acordas.
Pessoal também está viajando. O ps5 é um produto excelente, mas é inferior a 3080 de 10gb. O que não é demérito. Estamos falando de um produto de 700 dólares.
O problema dos GPUs PC não é o GPU em si. GPU por GPU uma PS5 é mais coisa, menos coisa, uma 2070, ou 2070 super. O problema dos PCs é que, como qualquer sistema, as partes funcionam como um todo, e havendo gargalos, todos sofrem. Como a arquitetura PC não está preparada para que todas as partes funcionem com débitos máximos, havendo assim grandes transferências de dados internas, as performances caem. E vees um PC a precisar de uma 3080 para bater uma PS5.
Pois é, a GPU do PS5 é o que é uma GPU de 10 TFlops. Mas no geral o PS5 tem rodado melhor que muitos PCs com processadores melhores e GPUs inquestionavelmente superiores, a questão é que é preciso olhar pra isso, e que é melhor uma máquina equlibrada e pensada no todo do que um Frankenstein pensado apenas em termos de brutalidade.
Eficiência… Tal como um carro para debitar a sua potência requer bons pneus, bons filtros, bom carburador, etc, e podemos ver que no tunning, mantendo o motor, se consegue mais potência, a PS5 é basicamente um GPU capaz de debitar mais.
Basicamente quando um GPU trabalha, o nível de eficiência é baixo. Eu não sei qual é atualmente, mas quando da introdução do GPGPU, rondava os 60%.
Isto quer dizer que quando se fala da performance de um GPU na realidade o que vemos no máximo é apenas o valor da sua eficiência. Por exemplo, se o GPU é de 10 Tflops, aquilo que associamos a uma potência de 10 Tflops na realidade são apenas 6 (se a eficiência ainda fosse essa).
O que a PS5 fez foi reduzir todos os gargalos. Basicamente o que os carros fazem com o tunning ao trocar umas peças para melhores resultados. E no meio disto aumentou a eficiência.
Isso é o motivo pelo qual a PS5 faz o mesmo que a Xbox ou até a bate. A Xbox é 18% mais capaz mas a PS5 ontem esse ganho na eficiência interna, o que lhe permite equivaler-se ou passar pelo facto de não ter os gargalos.
Cache scrubbers que evitam stalls do GPU em caso de cache misses e permitem trocar dados individuais das caches sem a ter de limpar toda e meter tudo outra vez. Permitem ainda trocar os dados já processados por dados a processar evitando ter de esperar pelo processamento da totalidade da cache antes de lhe poder trocar o conteúdo.
Motores de coerência que permitem que as caches do CPU sejam directamente acedidas pelo GPU e vice versa, sem ter de as copiar e converter.
Ausência de check in pela descompressão numa memória ultra rápida tampão.
Motores de descompressão dedicados capazes de elevadíssimas performances.
E finalmente um sistema de I/O de alta velocidade que permite que o conteúdo do SSD seja tratado como memória.
Isto não são coisas PC ou previstas para o PC. São melhorias efetivas de problemas na arquitetura x86, criadas com o intuito de melhorar a eficiência de processamento.
E foram alterações feitas pois para além de resolverem problemas e aumentar as performances permitiam um APU mais pequeno, mais rápido, e consequentemente mais eficiente e mais barato.
A arquitetura da PS5 é uma evolução fabulosa face ao que consegue com a sua potência teórica e face ao existente no PC que, com ou sem as performances de topo de um PC de 4000 euros, não me canso de a elogiar pelas performances que traz nas especificações existentes.
Se no PC um GPU de 10 Tflops necessitasse de uma 3080 para ser superado, as pessoas reconheceriam facilmente os méritos ali presentes. Mas como é uma consola, há guerrilhas e fanboys aqui pelo meio, torna-se difícil as pessoas abrirem os olhos como deve de ser.
[OFF] Caraca, os caras tiveram 1 ano pra fazer um port do PC que “só leva uma semana” (segundo diziam) e entregam o jogo bichado!!!
“The most egregious issue plaguing Ghostwire: Tokyo, however, is the game’s performance. On Xbox Series X, the game’s frame rate is all over the place. Sometimes you’ll turn a corner and see performance inexplicably dip from sixty frames down to 30 or lower, although it seems to be worse in certain areas and due to certain effects (like the game’s grainy rain effects). And do forget “quality mode,” since it introduces a bewildering slow-motion input delay that makes the game thoroughly unplayable. It also oddly hitches as you’re moving around the city ever so slightly, creating an uncanny judder that is irritating once you’ve noticed it. The mission-oriented Spider’s Thread expansion doesn’t suffer from the same performance issues and judder I’ve noticed, which suggests to me that the issues stem from streaming the game’s open world. Alas, hopefully, it’s not unfixable.”
https://www.windowscentral.com/gaming/ghostwire-tokyo-xbox-review