Vamos falar desta tecnologia de imagem que tem chamado cada vez mais atenção dos consumidores, ao lado do 4K.
O HDR é uma das tecnologias de imagem que têm se tornado mais comuns recentemente, principalmente nos novos modelos de TV’s e Projetores que surgem no mercado. Como qualquer tecnologia do tipo, ela é acompanhada por muito hype do público, que sequer sabe como ela realmente funciona, e também sobre as promessas dos fabricantes, que nem sempre são cumpridas.
– Vamos tentar passar de forma simples, o que é o HDR, para que ele serve e a diferença entre as versões existentes no mercado.
O que é HDR?
HDR, ou high dynamic range (alto alcance dinâmico), é uma tecnologia capaz de deixar partes escuras da imagem ainda mais escuras e as claras, ainda mais claras. As cores ficam mais vivas graças a isso, com maior presença em mais próximas do que vemos na vida real.
O HDR está presente em boa parte das TVs atuais da Samsung, LG, Sony, TCL, Panasonic e muitas outras fabricantes, mas também em vários projetores. Embora o funcionamento da tecnologia seja igual entre as marcas e a diferença de efeito seja perceptível para o consumidor, o efeito do HDR varia de TV para TV, e ou de projetor para projetor.
Como o HDR funciona?
Como dissemos anteriormente, o HDR melhora o contraste acentuando a escuridão ou brilho de certos elementos. Para que ele funcione, o aparelho deve trabalhar com profundidade de 10 bits, expandindo a gama de cores por pixel, que é muito mais limitada em TVs convencionais com painéis de 8 bits. A TV também deve ter taxa de brilho maior que a convencional. Enquanto modelos convencionais entregam entre 200 e 400 nits (unidade de luminância), aparelhos com HDR devem chegar ao menos 1.000 nits. ( nits – Quantos mais nits, mais brilho tem o display).
Assim é possível se utilizar do WCG, ou Wide Color Gamut, que expande a paleta de cores que pode ser exibida pela TV, e reproduzir cores mais realistas e algumas tonalidades da vida real que os televisores nunca conseguiram exibir corretamente.
A resolução recomendada para exibição de conteúdo com HDR é a UHD 4K, por isso você só verá aparelhos 4K à venda com a tecnologia. No entanto, também é possível encontrar TVs 4K sem HDR, então fique atento na hora de comprar a sua.
O HDR realmente faz diferença?
Sim. Consumir conteúdo em HDR realmente é uma experiência diferente. Detalhes simples como os raios de sol amarelados ao invés de brancos, e a coloração da grama ficam evidentes ao ver algum filme ou série que tenha suporte à tecnologia.
Os GAMES também se beneficiam do HDR e não é por acaso que Sony e Microsoft lançaram novos consoles no meio da atual geração para suportá-lo. O PlayStation 4 e o Xbox One.
Qual a diferença entre os tipos de HDR?
Existem 5 principais padrões de HDR que disputam o mercado e são mais ou menos parecidos, com vantagens e desvantagens. Um conteúdo (filme, série ou jogo) pode ser compatível com um padrão e não com outros ou com mais de um.
- Dolby Vision -O Dolby Vision é o padrão HDR proprietário da Dolby Laboratories, sendo um dos primeiros introduzidos em TVs, junto com o HDR10. Ele suporta um brilho padrão teórico de 10.000 nits e traz uma profundidade de cores de 12 bits, o que faz dele o HDR de maior qualidade do mercado na atualidade. No entanto, todo esse poder tem um preço: a Dolby cobra royalties para o uso da tecnologia em TVs, reprodutores de mídia, celulares, tablets, consoles e etc., bem como em filmes, séries, vídeos e jogos.
- HDR10 – O HDR10 foi desenvolvido por uma parceria entre Sony e Samsung. O formato é o padrão em discos Blu-ray 4K e foi adotado pelo PS4 Pro, Xbox One S e Xbox One X. Possui brilho de 1.000 nits e profundidade de cores de 10 bits. O HDR10 também não é “dinâmico”: usa metadados fixos para fornecer informações de brilho, o que traz resultados menos que ideais. Em cenas mais escuras, as cores ficam saturadas, enquanto que no Dolby Vision, os metadados são dinâmicos e o brilho se ajusta à cena. Por outro lado, o HDR10 é código aberto e gratuito, podendo ser usado por fabricantes.
- HDR10+ – O padrão HDR10+ foi a segunda tentativa da Sony e Samsung em bater de frente com o Dolby Vision. Ele nasceu para corrigir a falta do mapeamento dinâmico de tons do HDR10, corrigindo o contraste automaticamente de uma cena para outra. No entanto, o formato permanece com os mesmos valores de brilho e profundidade de cor da geração anterior, 1.000 nits e 10 bits. Ainda assim, o HDR10+ continua tendo a vantagem de ser um formato aberto, podendo ser usado de graça pelos fabricantes.
- HLG – O HLG, sigla de Hybrid Log Gamma (Registro de Gama Híbrido, em português) foi criado pelas emissoras BBC e NHK. Com foco em transmissão ao vivo (diferente do streaming e home video), ignora metadados para cálculo de brilho, deixando a tela a cargo do que reproduzir, funcionando até em telas SDR. Em uma TV antiga, vai exibir imagens normais. Numa TV mais nova, terá acesso ao HDR ao vivo. Ainda que a qualidade de imagem seja melhor que o SDR, o HLG é ligeiramente inferior a HDR10(+) e Dolby Vision.
- ADVANCED HDR – Este tipo de HDR da Technicolor possui três sub-padrões distintos.
Cada um com um propósito:
- SL-HDR1:Usa o HLG como base, voltado para transmissão de TV;
e compatível com telas SDR antigas; - SL-HDR2:Similar ao HDR10+ e Dolby Vision;
com metadados para o mapeamento dinâmico de tons; - SL-HDR3:Versão melhorada do SL-HDR1;
introduz metadados para ajuste dinâmico de tons no ao vivo; (ainda em fase testes).
Essa foi uma explicação simples sobre o que é HDR, como ele funciona, as diferenças de padrões e como encontrar conteúdo compatível. Embora não seja uma tecnologia nova, ainda não houve adoção em larga escala, portanto os benefícios ficarão mais perceptíveis no futuro, conforme tivermos mais conteúdo em HDR.
Mauri Sergio – Gerente de Áudio e Vídeo Chiave Distribuidora
Email: maurisergio@chiave.com.br
Deixe um comentário
You must belogged in to post a comment.