Há certas especificações que, apesar de relevantes e importantes, são muitas vezes exploradas pelo marketing. Mas o certo é que nem sempre o que parece… é.
HDR400 melhor que HDR10
Um caso onde a numeração pode causar sérias dúvidas
Nota: Na realidade o título correto deveria ser “Display HDR400 melhor que HDR 10”, mas, convenientemente, muitas vezes os fabricantes “esquecem” o termo Display.
Olhando para estas designações de HDR, qual vos parece melhor?
Para muitos, HDR 400, ao ter o número superior, bate de caras o HDR 10, pelo que esta especificação será considerada melhor.
Mas na realidade, estamos aqui a falar de coisas bem diferentes, e nestes dois casos, pode não ser claro para o utilizador perceber qual o melhor.
Na realidade o termo HDR 10 é usado para indicar que a TV ou monitor (mais raro) possuem capacidades para apresentar 10 bits de cor (reais ou 8bits+FCR). Já o HDR400 é uma indicação sobre o facto que a TV ou monitor (por norma), apesar de suportar HDR10, não alcança os 1000 nits recomendados nesta norma HDR10, ficando-se por um brilho máximo de 400 nits, e suportando apenas 8 bits de cor.
Coisas bem diferentes.
A realidade é que a norma HDR, ao ser aberta, tornou-se confusa. O Dolby Vision, por exemplo, é um standard bem mais claro, pois requer suporte a 10 bits de cor e pelo menos 1000 nits de intensidade de brilho, com suporte a metadata.
Já o HDR, cujos requisitos recomendados são idênticos, tornou-se muito confuso ao ser aberto e com isso se tornar muito mais abrangente.
Ora ao ser mais abrangente, o HDR suporta TVs que funcionam com 8 bits de cor, e TVs com nits tão baixos como 400.
O HDR400 é exatamente um desses subsets criados para a norma HDR. Neste caso, o mais baixo de todos. Já o HDR 10 é o standard onde os requisitos ideais para o HDR se encontram presentes (ou pelo menos deveriam estar presentes).
A norma HDR10 é por isso diferente do HDR. Ela implica um suporte 10 bits, com os requeridos 1000 nits, sem suporte a metadata (que só é requerido no HDR10+). Mas a pouca clareza existente no mercado leva a que quando virem a indicação de suporta a esta norma que convém confirmarem os nits, pois alguns fabricantes de Tvs usam a referência apenas para indicar o suporte aos 10 bits (reais ou 8 bits + FCR), sem efetivamente suportarem os 1000 nits.
Para ser um pouco mais clara nessa situação, a VESA criou um conjunto de subsets do HDR10, que não são mais do que indicações que esses ecrãs suportam HDR, mas não com o brilho na intensidade desejada. Estes subsets por norma são usados para definir o suporte HDR em monitores (daí que por norma seja precedidos do termo Display).
O Display HDR400 é o subset mínimo do HDR. Tem apenas 8 bits de cor. O brilho, esse fica-se apenas pelos 400 nits.
Estes subsets visam tornar a coisa mais clara nos monitores, mas infelizmente não são termos que os fabricantes gostem de usar nas TVs quando elas não alcançam os mínimos do HDR10. E nesse sentido nas TVs a coisa fica confusa, cabendo ao cliente verificar claramente as especificações para saber o que compra.
Basicamente o HDR400 é um suporte HDR com uma qualidade muito inferior que não atinge os padrões definidos na norma para a qualidade total do efeito. Mas muitos utilizadores, pela confusão gerada pelo nome, olham para ele como algo superior, não fosse o facto que 400… É maior que 10.
É nesse sentido que marcas como a Samsung optam por chamar ao HDR10, HDR 1000.
Para mais sobre este assunto e outros subsets do HDR 10, leiam este artigo.
Tempo de resposta é input lag
Coisas diferentes, que muitos julgam ser a mesma coisa
Apesar que poderão ler definições algo diversas em alguns locais, o tempo de resposta numa TV ou monitor representa o tempo que um pixel demora a mudar de completamente branco, para completamente preto, o que representa a mudança máxima de cor que um pixel pode apresentar.
Mas de uma forma mais simples, o tempo de resposta é o tempo que a TV ou monitor usa para refletir uma mudança na imagem.
Nesse sentido, parece que 1ms será sempre melhor que 2ms e que 2ms será sempre melhor que 4ms e por aí adiante. Mas será que é bem assim?
Na realidade sim… e não!
O tempo de resposta de uma TV ou Monitor revela-se adequada quando a mudança total da imagem ocorre antes da mesma receber o próximo fotograma. Idealmente quando antes melhor, pois isso vai definir uma imagem mais nítida em movimento, mas isso será a única vantagem que existirá.
Imaginemos uma TV com um tempo de resposta de 15 ms a apresentar conteúdos a 24 fps ou a 30 fps. Apesar do alto tempo de resposta, estesserão apresentadas sem problemas pois cada fotograma demora 41,6 ou 33,3ms a ser entregue. Isso quer dizer que a TV faz a mudança total da cor dos pixels em tempo útil (menos de metade do tempo de representação).
Mas esta TV teórica dificilmente suportaria 60 Hz, pois com novas imagens a serem entregues a cada 16,6 ms, e a imagem a demorar 15 ms a mudar totalmente, a imagem só ficaria fica por 1,66 ms, o que tornaria a imagem em movimento um total borrão.
Mas ignorando este caso teórico, naturalmente que uma TV ou monitor com um tempo de resposta de 1 ms terá sempre a imagem pronta antes de um de 4 ms, mesmo que ambos estejam a apresentar a imagem tempo plenamente útil.
Convém porém perceber-se que os fabricantes de painéis limitam o suporte em Hz de acordo com o tempo de resposta das TVs ou monitores. Quanto mais baixo for o tempo de resposta, maiores refrescamento podem ser suportados.
No entanto é muito relevante que não se confunda tempo de resposta com input lag, algo que se vê acontecer de forma muito comum, apresentando-se o input lag como tempo de resposta da TV ou monitor, e que cria uma confusão junto de muitos utilizadores que acreditam assim que possuem vantagem competitiva devido a este possuir um menor tempo de resposta.
Mas a realidade é que ambas as situações são coisas distintas e bem diferentes, sendo que o tempo de resposta é o que abordamos nas linhas de cima e o input lag é o tempo que demora entre o utilizador realizar uma ação e a ver no ecrã.
Por exemplo, uma TV que suporte 120 Hz ou uma cadência de 120 fotogramas por segundo, cada um entregue a cada 8ms, terá forçosamente de ter um tempo de resposta inferior a metade desse valor. Já o input lag, esse deverá idealmente cair abaixo do tempo de fotograma, mas poderá cair igualmente acima, e isso sem que a qualidade da imagem seja afetada.
Num exemplo, a popular TV LG C1 OLED, avaliada pelo Rtings em 9.0 para jogos (excelente), tem um tempo de resposta de 0,2 ms, mas um input lag entre os 5.2 ms (120 Hz) e os 10.1 ms (60 Hz).
Resumindo, a diferença entre um ecrã com um refrescamento de 120 Hz com, por exemplo, 3,7 ms de tempo de resposta, face a outro com igual refrescamento com 1 ms de tempo de resposta, traduz-se apenas numa vantagem de uma imagem mais estável, mas não em qualquer consequência do tempo de resposta no jogo. E ambas as TVs apresentando a imagem em menos de metade do tempo que o fotograma está em exibição, conseguem responder em tempo útil e serem ambas jogáveis.
Mas se estas Tvs tiverem um input lag de 5.3 e 16.6 ms respetivamente, a TV com o maior tempo de resposta (3,7 ms), mesmo tendo uma imagem menos estável, revela-se mais adequada a jogo competitivo do que a TV com 1ms de tempo de resposta.
Jogar consola num monitor é melhor que na TV
Monitores e TVs sempre se complementaram, mas nunca se substituiram
Os monitores hoje em dia distinguem-se favoravelmente das TVs pelo menor input lag e pelo maior refrescamento. Apesar de isto não ser uma verdade em todos os casos, falando em termos médios o input lag de uma TV pode andar na casa dos 2 digitos, ao passo que o de um monitor nunca passa 1 dígito. E mesmo quando as Tvs entram na casa de 1 dígito, por normal o input lag dos monitores é sempre inferior. Mas isto claro, varia de caso para caso!
Já a nível de refrescamento, as Tvs por norma ficam-se pelos 120 Hz quando os monitores atingem facilmente os 144 e mesmo os 240 Hz.
No entanto, quando usamos um monitor numa consola, a vantagem reduz-se ao menor input lag, uma vez que os refrescamentos ficarão limitados aos disponibilizados pela consola, e que se encontram otimizados para Tv e consequentemente limitados a um máximo de 120 Hz.
Mas apesar de a diferença ser só no input lag, essa vantagem não pode ser ignorada.
Mas o uso de um monitor não traz só vantagem. Aliás ele implica outro tipo de perdas face ao que são vantagens do lado das TVs.
Por exemplo, os monitores não possuem HDMI Arc, o que significa que para usarem um sistema de som 7.1 ou Dolby Atmos, terão de ligar a consola por cabo óptico, o que, pela sua largura de banda baixa, implica a perda de acesso a estes standards, limitando a som 5.1 e Dolby Digital. Alternativamente não poderão ligar diretamente a consola ao monitor, passando o HDMI pelo sistema de som, e dessa forma arruinando a vantagem do input lag reduzido trazido pelo monitor.
A alternativa passa então pelo uso de headphones.
Mas o som não é a única coisa que se perde com um monitor. O HDR é igualmente uma perda quase certa.
Basicamente 99% dos monitores fabricados não suportam HDR, sendo que os que suportam são maioritariamente HDR400 (que abordamos acima). Isso quer dizer que os possuidores de monitores estão a perder um dos grandes avanços na qualidade de imagem dos últimos anos.
Diga-se mesmo que uma TV com uma imagem 1080p com HDR chega a ser preferível a uma imagem 4K sem HDR, pois apesar do aumento na resolução, a palete expandida e o brilho trazem uma vida à imagem que a resolução só por si não consegue.
Nesse sentido, usar um monitor numa consola é uma questão de abdicar de algo em troca de outro algo. Não são apenas vantagens, nem desvantagens mas sim uma troca que cada um terá de pesar.
Ótimo artigo Mário!
Pra maior elucidação e clareza da informação, é preciso ressaltar que embora as telas certificadas como Dolby Vision sejam de 10bits (pelo menos não conheço nenhuma superior a isso), o conteúdo certificado Dolby Vision traz mais informações, sendo de 12 bits por cada cor ao invés de 10 como o HDR10.
No caso da certificação da Dolby as TVs serve apenas como forma de assegurar que, dentro das possibilidades da tela, o conteúdo Dolby Vision será exibido nela por uma tela calibrada para ser o mais fiel possível ao conteúdo masterizado em Dolby Vision (capacidade de mapeamento de cores mais adequado ao conteúdo).
https://professional.dolby.com/siteassets/content-creation/dolby-vision-for-content-creators/why-master-dolby-vision-white-paper.pdf
Sobre a questão do tempo de resposta de tela e o input lag, realmente há muita mistura nas discussões, eu mesmo já devo ter me enrolado já que não é muito difícil as discussões dessa natureza se embaralharem.
O tempo de resposta que se vê nas especificações de monitores e telas é simplesmente a capacidade (ou “rapidez máxima”) de mudança de cores de um pixel de determinada tela. E não é o mesmo que o tempo que leva do envio de informação de um dispositivo até a exibição daquilo na tela, e o que se traduz como o input lag. [Opinião] Mas julgo que essa é confusão ocasionada pela tradução errônea dos termos para o português, embaralhando o significado das coisas, e também criada propositadamente pelo “marketing” ao expor o tempo de resposta dos produtos dando uma ideia de que o input lag é aquilo também.
Outro fato interessante é que, a depender da resolução e frequência de amostragem utilizada, o input lag sofre alguma alteração, como podemos constatar no link abaixo. Sendo praticamente uma regra, e por questões óbvias, que quanto maior a taxa de refrescamento da tela, menor o input lag. E no geral o input lag se mostra menor a resoluções mais baixas mesmo que minimamente.
https://www.rtings.com/monitor/tests/inputs/input-lag
Interessante notar que a maioria das TVs de hoje até tem um “modo gamer” pra permitir um menor input lag, o que se justifica pra reduzir ao máximo qualquer trabalho de processamento de imagem, a fim de se exibir em tela, o mais rápido possível, o conteúdo enviado pra ela.
No caso daqui de casa, meu monitor Samsung L28R55 tem 4ms de tempo de resposta e 12 ms de input lag em 4k@60, contra 0.2ms – 2,3 ms de tempo de resposta e 5.6ms nos 4k@120, podendo chegar a 5.2ms em 1080@120, ou seja, minha TV é melhor que meu monitor pra jogos competitivos, e posso garantir que também no geral (cores, contraste, nits…), e embora muitos acreditem que monitores no geral são melhores que TV pra jogos competitivos, há muitos “poréns” pra se afirmar isso.
https://monitornerds.com/samsung-u28r55-review/
https://www.rtings.com/tv/reviews/lg/c1-oled
Uma dúvida que tenho é sobre a diferença de metodologia do hardware unboxed e do rtings em relação ao input lag. No hardware unboxed os números são bem maiores, sendo o menor por volta de 6ms. LG C1 48″ OLED Review: PC Gaming on a TV | TechSpot
No meio do review tem uma tabela comparativa.
Hennan, acredito que se utilizam sensores de luz pra verificarem tempos de resposta e para o input devem padronizar uma transmissão com algum input (um botão que quando acionado mude a cor da tela) e marcam com algum sensor a alteração da tela (cronometrando o tempo que levou da ativação do input até o sensor identificar a alteração). Mas vale lembrar que essas coisas são valores médios e uma diferença de 0,4 ms é relativamente irrisória quando se tem inputs lag abaixo de 10 ms. Na prática, se você fizer esses experimentos 10x ou mais sempre terá algum tipo de diferença de tempo mesmo que na casa dos 0.01 ms porque não é um tempo absoluto o que se tem ali, mas um valor médio ou o melhor valor que alcançaram.
Em suma, não é um processo 100% exato embora seja de grande precisão. E os valores diferentes podem ser devido a metodologia, qualidade de sensores e maior ou menor participação de avaliação humana no processo, basicamente. Mas acho que eles deveriam descrever como e com quais equipamentos conseguiram tais resultados, pois se o método é científico, repetindo-o da mesma forma o que se espera é que sejam alcançado os mesmos resultados.