Desaparecer nunca desaparecerá, mas uma nova tecnologia permitirá poupar no uso de transistores dos CPUs e GPUs, descendo os consumos, a térmica gerada, e permitindo assim maiores velocidades de relógio.
Eis uma notícia que poderá ser verdadeiramente revolucionária para o mundo da informática. Uma equipa de investigadores da Universidade de Viena está a estudar uma tecnologia que poderá revolucionar o mundo dos circuitos integrados.
A tecnologia baseia-se no uso do do elemento Germânio (Ge), que lhes permite a criação de um transistor adaptável e que pode alterar a sua configuração em tempo real, consoante os requisitos de carga de trabalho exigida no equipamento.
Eis a explicação dada pela equipa:
Conectamos dois elétrodos com um fio extremamente fino de germânio, por meio de interfaces extremamente limpas e de alta qualidade. Acima do segmento de germânio, colocamos um elétrodo controlador como os encontrados nos transístores convencionais. A diferença é que o nosso transístor possui um outro elétrodo de controlo colocado nas interfaces entre o germânio e o metal. Ele pode programar dinamicamente a função do transístor.
Com esta tecnologia as operações aritméticas que requerem 160 transistores poderão passar a ser realizadas com apenas 24. São apenas 15% dos transistores atualmente usados, ou uma poupança de 85% no número de transistores.
A grande vantagem é que desta forma, não só se podem construir chips mais pequenos, e consequentemente mais baratos, como reduzir os consumos e temperaturas de operação, o que por sua vez poderá permitir subir as velocidades de relógio e fornecer outra liberdade de performances até agora impossíveis de serem alcançadas.
Caso esta tecnologia consiga ser implementada, ela tem tudo para revolucionar a tecnologia atual, e permitir processadores com performances extremas. E nesse sentido será algo a que no futuro estaremos atentos.
Quando vejo este tipo de notícias desconfio logo que a ser verdade eles arranjam forma de ser uma tecnologia porreira mas impossível de usar… Porque assim já nao podem cobrar 2000 por uma placa.
OFF: Já chegou a minha nova webcam… PCMANIAS Direct a caminho.. Irei contactar o Daniel, Felipe e Carlos…
O Professor Carlos Eduardo não vai poder participar do Direct. Alguém que queira participar em sua substituição?
Insistindo… Algum interessado?
Precisava de mais uma pessoa… Aquilo é uma conversa informal. Não tenham receios de perguntas difíceis… É um convívio onde damos as nossas opiniões. A diferença é que é filmado.
Tem algum horário em mente?
Celulares com desempenho de i9 12900k + RTX 3090ti seria maneiro
Se isso acontecesse nada se alterava pois os processadores de mesa saltariam tambem, e o a diferença continuaria abismal.
Seja como for, isto reduz consumos e aquecimento, mas uma performance dessas continuaria ser problemática para a capacidade das baterias.
A evolução tecnológica sempre dá um jeito
O Snapdragon 8 Gen 1 deve ser muito mais poderoso que um i7 e uma GTX XX80 de 2010
Mas a evolução nos celulares de fato só acontece quando as inovações chegam nos intermediarios (nos Androids pelo menos), que é onde a grande massa está
Um processador de smartphone nunca atinge as performances de um de mesa, mesmo que teoricamente o possa fazer. O motivo prende-se com as larguras de banda quer da memória, quer dos canais de comunicação usados.
A piorar a coisa, esses SOCs topo de gama já vem a experimentar um problema à muito tempo, que é a térmica, com throttling severo quando usados durante algum tempo.
Eis um Snapdragon 8 Gen 1a perder performance após apenas 2 minutos de jogo (desce dos 60 para 40 fps, alcançando 46 graus). Ao fim de 10m os fps cairam 40%.
https://www.youtube.com/watch?v=dCYx3K4qjX4&t=618s
Pelo o que eu vi nos fóruns, esse Motorola é muito mal construido na parte térmica
Tinha alguns testes com o Xiaomi Mi 12 que a temperatura era consideravelmente menor, no caso o Xiaomi tinha um sistema de resfriamento melhor
https://www.tudocelular.com/curiosidade/noticias/n184240/xiaomi-12-pro-supera-1-milhao-de-pontos-no-antutu.html
Nenhum deles está livre deste problema. A questão é se aguentam mais ou menos. Isto não é de agora, é um problema que já existe há pelo menos 4 gerações de topos de gama.
já que o sujeito ai falou em 3090TI e i9…
me lembrou uma coisa que me frustra no PC, os jogos não escalam bem.
vc dobrar a GPU e CPU não dobra o FPS ou resolução por ex.
claro, tem jogos que escalam bem… mas a maioria não.
escalam muito, muito mal, uma 3090ti vai perto dos 40TF e nem passa perto de 3x o desempenho de uma placa como a 2080 que é uma placa de 10… é 4x os tflops pra 50% a 70% mais de performance.
É só ver a 2080TI vs a 3070, onde a 3070 com 20 teraflops tem uma diferença marginal sobre a 2080ti de 13 teraflops.
Nesse aspecto, a AMD faz um trabalho muito melhor, pois ao invés de olhar pra poder como forma do famigerado marketing, faz um melhor uso energético e melhora o rendimento interno dos seus produtos.
Nvidia virou o Xbox do PC, enquanto a AMD é o Ps5 do PC.
Sim a AMD é menos “ordinária” no Marketing. Mas é difícil não nos sentirmos enganados depois de tanta propaganda. 🤣
Há mais factores em causa para além da potência do CPU e GPU, nomeadamente a capacidade de colocação de dados na memória, que não aumenta, a velocidade e quantidade de RAM, a velocidade de leitura de dados do disco, etc.
Resumir um computador a um CPU e um GPU é redutor.
Claro que você está certo, Mário, mas é que meio frustrante ver uma GPU marketear o seu poder e os resultados práticos passarem longe disso. Mas obviamente um sistema é um conjunto e que seu resultado passa pelo desempenho do conjunto e não de partes isoladas. 🤣
Um jogo que escalona bem é o Doom Eternal
Id Tech é absurda
Mas de fato, no geral não escalona bem
Isso vai depender das exigências do software. O ID tech tem exigências baixas para a base, pelo que sobe bem por aí acima. Seja como for, dificilmente o faz de forma Linear.
Mário,desculpe minha ignorância, mas entendo que o uso de cada transístor de modo mais eficiente e inteligente permita o consumo de energia mais racional e até o aumento do limite dos clocks, pois desperdiça menos energia de forma térmica e por isso permite que um chip chegue a um maior clock com a mesma temperatura limite dos processadores menos eficientes, mas me pergunto o quanto isso é interessante para uma carga máxima de trabalho sobretudo para processadores extremos, já que ao que parece, não é a tolerância do material que muda, e sim a regulação do trabalho, o quanto a barreira de um clock poderá realmente ser quebrada em processadores que já trabalham em carga máxima, por exemplo, já que a quantidade de transístores maior também colabora para o aquecimento e não existe chip que não perca energia de forma térmica?
Fica parecendo apenas que teremos chips com menos transístores com a mesma potência computacional de chips com mais transístores, mas que o limite “superior” computacional ainda mudará muito pouco pois esse ganho de eficácia para chips com maior quantidade de transistores mudaria muito pouco.
Esse estudo já sugere algum grau de aumento da eficácia ou já mostrou algum nível de clock na prática, pra termos ideia do que pode melhorar?
Me desculpe se falo besteira, mas é o que me veio a cabeça quando li o artigo, de o quanto os limites computacionais realmente podem ser quebrados, ou se é so uma questão de diminuição de custos pra obter um mesmo grau de desempenho em processamento.
Uma boa pergunta…
Muito sucintamente, sim, para condições iguais, uma carga de trabalho máximo impediria o transístor de ser mais, e os consumos poderiam não descer. Teoricamente, com o uso destes transistores, sistemas em carga de trabalho máximo até poderiam perder performance..
Mas no entanto não é isso que acontece por norma.
O melhor exemplo disso?… A PS5!
Por norma os CPUs atuais possuem consumos variáveis e frequências variáveis. Basicamente, quando o carga aumenta, eles aumentam a velocidade, aumentando o consumo.
Mas a ineficiência dessa situação é grande, e foi isso que fez a Sony optar na PS5 por frequências fixas e consumos fixos.
Basicamente o que a Sony faz é definir a térmica máxima de saída para o pior caso possível, obrigando a que os jogos passem a guiar-se pela carga de trabalho e não pela frequência.
Isso acontece porque por norma a carga de trabalho nunca é tomada em conta. Por exemplos, o GPGPU foi criado a pensar nos tempos IDLE do GPU, o que quer dizer que eles existem. A ideia da Sony foi otimizar o seu uso fazendo os programadores passarem a ter em consideração a carga de trabalho, e fornecendo as ferramentas para isso.
Este tipo de transístor, faz assim sentido para a maior parte dos casos do mercado, onde se poderá poupar uns valentes cobres, mas poderá não fazer grande sentido em sistemas otimizados para trabalho constante com a carga máxima.
Seja como for, com eles, certamente mesmo assim muito poderá ser otimizado pois nem tudo o que existe num CPU ou GPU tem uso simultâneo.
Infelizmente nos smartphones há essa corrida “armamentista” por clocks cada vez mais altos
Eu não me importaria de ter um Snapdragon 8 gen “2” que só foquem em eficiência, tipo, as melhorias sejam totalmente na eficiência saca
A gente sempre ouve, “tal processador é 30% mais rapido e 20% mais eficiente”
Imagino se não dessem esse aumento de clock, quem sabe essa eficiência aumentasse pra 50%, 60% ou até mais
O que é uma palhaçada de todo o tamanho. Um pouco ao estilo dos megapixels das câmaras.
Qualquer SOC meio de gama é atualmente mais do que suficiente para correr todo o software com performances excelentes.
Ok, Mário, obrigado pelo esclarecimento!
imagino que você quis dizer que foi o que fez a Sony “não” optar na PS5 por frequências fixas e consumos fixos, não?!
Não… a PS5 trabalha com frequências fixas e consumos fixos. É o primeiro hardware que apareceu com esse paradigma! Não quer dizer que o consumo não altere conforme o que está a fazer. Apenas que ele é fixo pelo programador em cada um dos casos, de acordo com a carga de trabalho que lhe vai colocar.
Então a frequência da GPU do PS5 está sempre na mesma frequência, e consumindo sempre o mesmo? Ou quando você fala de frequência fixa e consumo fixo é a possibilidade do programador determinar esses valores pra obter um resultado desejado?
Desculpa… eu respondi-te hoje de tarde pelo telemóvel, estava numas pausas em que estava no carro, e nem reparei na gaffe que estava a cometer.
Corrigindo a coisa.
A PS5 trabalha com frequências variáveis e consumo fixo. A Xbox com frequências fixas e consumo variável.
Deixa lá ver o que disse antes para corrigir.
Ora bem, se li tudo o que escrevi, aqui vaio o correto:
Basicamente um sistema PC normal trabalha com frequências variáveis e consumos variáveis.
Uma consola por norma, e é o caso da Xbox, trabalha com frequências fixas, e consumos variáveis.
A PS5 trabalha com frequências variáveis e consumos fixos.
A diferença entre estes métodos está na térmica. A térmica está associada ao consumo, e ao teres consumos variáveis, e frequencia variáveis tens muitos parametros por onde a térmica pode fugir, pelo que precisas de sistemas de refrigeração caros e potentes.
As consolas tentaram controlar isso fixando a frequência. Tal faz com que apenas a carga de trabalho seja responsável pelo consumo, o que permite ter um maior controlo deste, e desta forma fazer um sistema de refrigeração mais eficaz e barato.
Mas mesmo aí podes falhar… porque podes atingir cargas que nunca previste, e dessa forma passar a temperatura para que o sistema de refrigeração foi concebido.
A Sony apostou por isso em algo mais controlável. Um sistema onde o consumo é fixado. E depois as frequências variam.
A PS5 tem um sistema dinâmico que analisa a cada segundo o que precisa. Basicamente imagina dois sistemas exactamente iguais, em que um tem velocidades de relógio fixas e consumo variável como na Xbox, e o outro velocidaeds variáveis e consumos fixos (que não são sempre o máximo, mas são fixos dentro de escalas pré definidas pela Sony). Num caso de carga pequena, o sistema estilo PS5 define um consumo fixo e uma velocidade variável que é apenas a necessária para o que é requerido, ao passo que num sistema como o da Xbox, ele mantêm a velocidade máxima, mesmo sem ser preciso, acabando por aquecer mais. Num caso de carga máxima, com consumo máximo e frequência máxima os sistemas, aparentemente, comportam-se de forma igual. A questão é que o sistema estilo o da PS5 ao ter consumos fixos, nunca aquece mais do que aquilo que devia, e para o qual o sistema de refrigeração foi concebido. O sistema estilo Xbox pode passar esse valor.
Qual a diferença entre as duas se isso acontecer, ou seja, num caso onde o sistema está com as frequencias no máximo, e a carga de trabalho passa aquilo que foi previsto como máximo?
Bem, o sistema estilo Xbox começa a dar problema de sobreaquecimento, e crasha. O sistema estilo PS5 não… Basicamente o que ele faz passa por dois passos:
1 – Vai verificar se o sistema está todo ele a consumir a energia que foi alocada.
1.1 Se não estiver, e o CPU estiver sem usar a energia a que tem direito, ela passa essa energia não usada para o GPU, para o manter estável. O sistema de refrigeração, por saber quanta energia pode ser dada à totalidade do sistema, e a percentagem que pode passar do CPU para o GPU, já foi previsto para esta temperatura.
1.2 Se estiver, e não houver como alimentar o GPU, estaríamos num caso onde seria preciso aumentar os consumos, o que aumentaria a temperatura. Nesse caso o sistema o que faz é um downclock. Vai descer um par de Mhz, o que permite logo poupar energia suficiente para o manter estável. Podes, durante este pico ter performances um pouco menos estáveis, mas a consola não crasha.
A vantagem aqui é essa. Por todo o mundo tens variações térmicas enormes. Na antartica tens graus negativos, no sahara tens temperaturas elevadissimas. Um sistema normal, que não faça o que a PS5 faz, vai ter problemas de estabilidade quando a temperatura ambiente sobe. Mas para a PS5 isso é irrelevante, pois ela guia-se pelos consumos… O sistema de refrigeração não se guia pela temperatura geral, mas pelo consumo, pois o consumo é que define a real temperatura do SOC.
A consequência é que todas as PS5, sejam em que parte do mundo estiverem, comportam-se todas de igual forma.
Espero desta vez não ter cometido nenhuma gaffe. Apesar de agora estar no computador, estou a escrever de fugida pois tenho de estar num sitio daqui a 5 minutos, e já não estou a ver que consiga… 🙂
Mas enfim, chegarei um pouco atrasado…
até já… e malta, se me enganei, corrijam-me… isto de andar sempre a correr não está com nada, hehehe
E na minha opinião a solucao do PS5 é muito mais elegante e melhor para um console.
O PS5 nunca vai ter super aquecimento.
O Xbox pode ter.
Perfeito, Mário! Desculpe-me fazẽ-lo atrasar de seu compromisso!
Não… Eu é que peço desculpas… Enganei-me e nem reparei.
Acrescento só que apesar de os consumos serem fixos a cada momento, eles são analisados várias vezes por segundo, e ajustados de acordo com as necessidades. O termo consumos fixos pode por isso ser algo traiçoeiro, dado que eles variam. Mas a questão é que num GPU normal eles variam com o aumento da velocidade de relógio, ao passo que aqui face à velocidade de relógio, eles são fixos, e a variação que possuem é apenas com a carga de trabalho.
Este tipo de coisas é que tornou a tecnologia da PS5 muito difícil de ser compreendida. Porque falar-se em Boots de relógio, consumos fixos que na realidade se movem, e Smartshift só dão azo a confusão pois quando comparamos com os equivalentes do PC, a coisa não tem nada a ver.
off:
Comeceu a jogar Dirt da Plus no PS5, como é bom pegar um jogo “colorido” e “animado” para distrair a cabeça dos problemas.
andei jogando Returnal e Death Strading, tô para dizer que esses jogos tem um clima muito triste para o momento atual da minha vida.
Só pus na conta, mas vou baixar, gosto de games de carro e espero que ele seja divertido, sempre alterno meus rpgs com games mas softs e coisa que espero que Dirt seja!
Achei bem bom.
E arcade mas precisa usar freios… Não gosto de arcade que vc aperta o botão do acelerador do início ao fim e só precisa regular o tanto que vai virar a curva com o analógico.
Mario, uma pergunta totalmente off do assunto, gostaria de saber o que podemos esperar a respeito de I.A para nova geração, acho que é o que eu mais espero melhorias para nova geração, seria muito frustante termos NPCs com a mesma I.A dessa geraçao, que geralmente cegos e surdos, acha que devemos ter melhorias significativas nessa area tambem?
Sem dúvida. Não sei se a revolução esperada pois a performance dos GPUs não abunda tantas que são as áreas onde eles são necessários, mas pelo menos no que toca ao que pode ser feito pelo CPU, ele está lá para isso mesmo.
Assim espero! Obrigado.
Bastante interessante essa descoberta! Mas dai a ser posto e prática e a ser vendido em grandes massas, estamos muito longes.
É como o caso das baterias de grapheno, falou se a tanto tempo e vai se falando de vez enquantoz mas ainda nada. (Referente aos telemóveis)
Estas descobertas são sempre boas notícias, mas o grande problema continua a ser a produção ou a aplicação em grande escala.
E sim, gostava que houvesse uma geração de Chips que fosse só eficiência.