Respuesta:
HDR es una tecnología que mejora enormemente la calidad de la imagen al ampliar el rango dinámico de una pantalla, lo que significa luces más brillantes, sombras más oscuras y más detalles en ambas. También utiliza una gama de colores más amplia que hace que los colores destaquen.
Muchos jugadores aún no han tenido la oportunidad de experimentar lo que es el 4K, pero el mundo de la tecnología se mueve rápido y, según sus estándares, 4K ya es una noticia vieja.
El HDR está de moda.
Pero mientras que el 4K es bastante sencillo (en el sentido de que todas las pantallas 4K presentan el mismo número de píxeles), el HDR es mucho más confuso y nos atrevemos a decir que es un depredador en cuanto a la forma de cumplir las promesas que hace. Tampoco ayuda el hecho de que haya varios estándares para el HDR, como el HDR10, el HDR10+ o el DolbyVision, que no hacen más que aumentar la confusión.
Así que estamos aquí para aclarar toda la confusión, explicando primero qué es el HDR y cómo se supone que funciona, y luego repasando los estándares de codificación uno por uno y explicando cómo funcionan realmente.
¿Qué es HDR?
La premisa HDR es sencilla – mejorar la experiencia visual ampliando el rango dinámico. Al fin y al cabo, HDR son las siglas de High-Dynamic Range, en contraposición a SDR o Standard-Dynamic Range.
El rango dinámico es la diferencia entre las partes más brillantes y las más oscuras de una imagen. Es algo más que el contraste, pero lo entenderás si lo comparas con el contraste.
Aumentar el rango dinámico debería dar como resultado una imagen con sombras más oscuras y luces más brillantes, pero conservando el detalle dentro de esas sombras y luces.
También hay que tener en cuenta que, para usar el HDR, primero hay que tener contenidos que lo soporten. Esto se aplica sobre todo a las películas, aunque algunos videojuegos también lo soportan, e incluso hay un intento de transmisión de HDR, como pronto se verá.
El argumento de marketing es sencillo: si crees que las películas aparecen descoloridas en tu televisor SDR, adquiere un televisor HDR y obtendrás una verdadera experiencia cinematográfica en la comodidad de tu salón.
HDR10
Llevar la premisa a la práctica va tan bien como uno esperaría si fuera un cínico, especialmente si se utiliza HDR10.
Este es el estándar de codificación más extendido para el HDR, en parte porque es de código abierto, por lo que los fabricantes no tienen que pagar derechos de autor para incluirlo en sus pantallas. También tiene la ventaja de ser compatible con la mayoría de los contenidos. Pero tiene un gran defecto.
HDR10 se basa en metadatos estáticos. Esto significa que el televisor recibirá información sobre los colores más brillantes y más oscuros de una película. El televisor ajustará entonces su brillo para que se adapte lo mejor posible a esta película.
Esto tiene dos problemas importantes:
- Es posible que tu televisor no sea capaz de manejar HDR en lo absoluto. La mayoría de los contenidos HDR se presentan con la idea de que los colores más brillantes se mostrarán con un brillo de 1000 nits. La mayoría de los televisores HDR económicos solo admiten un brillo máximo de 300 nits en el mejor de los casos. Esto significa que el televisor asignará su propio valor de brillo máximo al color más brillante de la película y tratará de calcular las proporciones a partir de ahí. En consecuencia, la mayoría de las películas se verán mejor en SDR que en HDR en estos televisores.
- Incluso si tu televisor tiene un buen HDR, el hecho de que los metadatos estáticos sólo utilicen dos puntos de referencia para toda una película puede ser un gran problema. Supongamos que estás viendo una película de terror que en general está poco iluminada, pero en la que hay una escena de explosión superbrillante. Pues bien, es posible que tu televisor muestre toda la película más brillante de lo que debería debido a lo brillante que es esa única explosión.
Dolby Vision
A diferencia de HDR10, que es un estándar de codificación de código abierto, Dolby Vision es propiedad de Dolby y, de hecho, aborda los dos problemas que acabamos de señalar.
En primer lugar, HDR10 no tiene ningún estándar estricto. Sólo tiene requisitos recomendados que los televisores deben cumplir para mostrar correctamente el contenido HDR. Por eso se pueden comprar televisores HDR10 que hacen que el contenido HDR se vea peor que el SDR. El televisor sólo tiene que ser capaz de recibir señales HDR para ser comercializado como un televisor HDR – no tiene nada que ver con su capacidad para mostrar imágenes en HDR adecuado…
Dolby, en cambio, es más estricto en cuanto a las especificaciones que deben tener los televisores para soportarlo. Y como los fabricantes tienen que pagar derechos de autor para implementar esta tecnología patentada, es menos probable que la pongan en un televisor que no sea apto para HDR. Todo esto quiere decir que no es probable que encuentres un televisor con Dolby Vision que sea malo a la hora de mostrar contenido HDR.
Lo mejor de todo es que se basa en los metadatos dinámicos. Esto significa que el televisor sabe cómo deben ser los colores más brillantes y los más oscuros, cuadro a cuadro o escena a escena, en lugar de recibir sólo dos valores para toda la película.
Con todo esto en mente, se puede decir que Dolby Vision es superior a HDR10, tanto sobre el papel como en la práctica. El único inconveniente (aparte del precio) es que se hacen menos contenidos para Dolby Vision que para HDR10, pero afortunadamente los televisores Dolby Vision pueden seguir mostrando contenidos HDR10 en HDR.
HDR10+
Desde el principio fue evidente que los metadatos estáticos utilizados por HDR10 supondrían un problema para su longevidad. Así que cuando se toma la naturaleza de código abierto de HDR10 y se le añaden capacidades de metadatos dinámicos, lo que se obtiene es HDR10+.
Las ventajas son obvias: más contenidos compatibles y un precio más bajo que el de Dolby Vision.
Pero esto sólo resuelve el segundo problema descrito en el segmento sobre HDR10. El primero sigue existiendo: es fácil encontrar televisores compatibles con HDR10+ pero con capacidades HDR de baja calidad que arruinan la experiencia visual en lugar de mejorarla.
HLG
Por último, queremos mencionar HLG o Hybrid Log-Gamma.
El problema con otras codificaciones HDR es que no son aptas para la difusión. Para ver algo en HDR tendría que ser específicamente compatible con HDR. Y en este caso, los contenidos por cable simplemente no pueden seguir el ritmo de los DVD, Blu-Rays y servicios de streaming.
Así que la BBC y la NHK se unieron para crear el HLG, una forma de HDR que podía emitirse de forma que la gente con televisores HDR pudiera ver el contenido en HDR mientras que la gente con televisores SDR pudiera ver esa misma emisión en SDR.
Puede que el HLG no se vea tan bien como los demás tipos de HDR, pero es una forma ingeniosa de complacer tanto a la gente de SDR como a la de HDR.
Monitores HDR
Ahora, antes de cerrar las cosas, queremos dedicar un segmento de este artículo a los monitores HDR, ya que siguen normas completamente diferentes a las de los televisores HDR.
Así es. Si pensabas que las cosas eran confusas hasta ahora, ¡abróchate el cinturón!
Los monitores gaming no se anuncian como HDR10, HDR10+ o Dolby Vision. En su lugar, lo que encontrarás son denominaciones como DisplayHDR400, HDR600, HDR1000, etc.
Estos monitores cuentan con la certificación VESA. Y, por primera vez, el número que viene después del HDR no es una tontería, sino que realmente indica cuál es el brillo máximo que puede alcanzar el monitor. Puedes encontrar el resumen completo de las especificaciones DisplayHDR aquí.
Ahora bien, no todos los monitores HDR para juegos tienen certificación VESA. Todavía se pueden encontrar algunos que cuentan con HDR y se supone que debemos creer en su palabra. No lo hagas. Te arrepentirás si lo haces. La característica está técnicamente ahí, en la medida en que se puede activar y desactivar, pero hará que los juegos se vean peor.
De hecho, incluso DisplayHDR400 puede ser insuficiente a la hora de ofrecer una buena experiencia HDR. Diríamos que DisplayHDR600 es lo más bajo que deberías ir si te tomas en serio los juegos en HDR.
Otra cosa a tener en cuenta es que no todos los juegos soportan HDR. Ningún juego lanzado antes de 2017 se hizo con esta característica en mente, aunque algunos han recibido soporte HDR retroactivo, ya sea en forma de parches oficiales, como The Witcher 3, o mods hechos por fans, como Doom:1993
Conclusión
Podría decirse que el cambio de SDR a HDR mejora la experiencia visual más que el salto de 1080p a 4K.
Pero mientras que puedes estar seguro de que todos los monitores 4K muestran el número de píxeles anunciado, los monitores HDR no siempre presentan un buen HDR. Esto se debe principalmente a que hay muchos estándares de codificación para ello.
Así que vamos a repasarlos rápidamente:
- El HDR10 está completamente obsoleto hoy en día. Persiste sólo por motivos de marketing.
- HDR10+ es capaz de hacer grandes cosas, pero no todos los televisores que lo soportan tienen las especificaciones adecuadas.
- Dolby Vision es posiblemente el mejor estándar, pero también es el más caro.
- HLG es un intento de llevar el HDR a la radiodifusión.
Y, por último, si buscas un monitor HDR, asegúrate de que tenga al menos la certificación VESA, aunque los que quieran una buena capacidad HDR deberían apostar por al menos DisplayHDR 600.
O, si todo esto te parece confuso, siempre puedes consultar esta guía en la que hemos recopilado los mejores monitores HDR del mercado.
Bismarks
Bismarks es ingeniero de software y se licenció en la Universidad de Denver. Actualmente trabaja a tiempo completo administrando InfoPCGamer mientras programa sus propios proyectos.