Spesso accostati, Ultra HD (UHD) e HDR (High Dynamic Range) sono in realtà tecnologie molto diverse. Concorrono entrambe a una superiore resa qualitativa dell’immagine sullo schermo, ma con mezzi profondamente differenti. In questo articolo definiamo meglio questa differenza e, anche attraverso questa, capiamo nel dettaglio cos’è l’HDR.


Se, nell’ambito del miglioramento della resa qualitativa dell’immagine, per l’UHD si è parlato senza mezzi termini di “rivoluzione”, lo stesso bisognerebbe fare – e in molti casi si fa – per l’arrivo della tecnologia HDR, nuova ma non più nuovissima.

Di cosa si tratta? Come funziona l’HDR? Proviamo rispondere a questa domanda anche, appunto, attraverso il confronto con l’Ultra HD, utile come premessa per una definizione più chiara e puntuale dell’HDR.


Monitor con immagine HDR e scritta HDR.

Premessa: UHD e HDR, la fondamentale differenza

Se l’Ultra HD ha portato sugli schermi e sui monitor un maggior numero di pixel (3840×2160, altrimenti detto 4K UHD o 2160p), aumentando dunque la risoluzione degli schermi stessi e consentendo immagini molto più definite, l’HDR ha portato una maggiore resa qualitativa dei pixel, di cui non viene cambiato il numero.

La stretta interconnessione tra UHD e HDR è giustificata dal fatto che l’arrivo – tanto in sede di ripresa quanto in riproduzione – dell’High Dynamic Range è legato alla tecnologia 4K UHD, che ha reso possibile (e sensato) un lavoro di tipo qualitativo sui pixel che compongono l’immagine.    


Cos’è e come funziona l’HDR

Arriviamo quindi alla definizione. Detto in breve, l’HDR è una tecnologia in grado di migliorare la qualità di ogni singolo punto dello schermo, rendendolo maggiormente in grado di rappresentare i cosiddetti “estremi della gamma dinamica”, ovvero le immagini molto luminose e quelle molto scure che, per opposte ragioni, normalmente perdono nella resa dei dettagli (“bruciate” le prime, sottoesposte le seconde). Grazie a precisi metadati che le ricalibrano più frequentemente, le immagini HDR sono molto più particolareggiate anche in alte o basse luci, e conferiscono alla riproduzione video una “pasta” più profonda, molto utile ad esempio in applicazioni di Home Cinema, in cui la qualità dell’immagine è fondamentale.    

I monitor HDR lavorano necessariamente con un pannello per la riproduzione dei colori a 10 bit, che offre una maggiore profondità-colore, caratteristica che si sposa perfettamente alla superiore gamma dinamica.  Un pannello a 10 bit, infatti, può riprodurre fedelmente più di un miliardo di sfumature e offre uno spazio colore più ampio rispetto al consueto Rec.709. Il confronto è impietoso: una TV non-HDR può visualizzare circa il 35% dei colori “reali”; una TV HDR con pannello 10 bit arriva al 54%, e le prospettive future (con pannello a 12 bit) sono di raggiungere il 76%.  


HDR in registrazione e in riproduzione

Ovviamente, perché l’effetto-HDR sia efficace, non occorre soltanto che le immagini vengano riprodotte in gamma dinamica più elevata, ma anche che vengano registrate con determinati accorgimenti. Non è questa la sede per dilungarci sulle complessità della registrazione HDR, ma per farsene un’idea basta considerare l’uso dell’HDR che già da tempo si fa in fotografia.

Il sistema è semplice e si basa sullo scatto di tre diverse immagini con esposizioni diverse, che il processore della macchina andrà poi a “miscelare” per produrre un’unica immagine HDR che abbia le caratteristiche migliori delle tre immagini-sorgente.  Il principio, portato sulle macchine da presa digitali, non è molto differente ma implica un notevole aumento del “peso” dei files


I quattro standard: HDR10, HDR10+, Dolby Vision, HLG

Sono quattro i principali standard attualmente sul mercato per la tecnologia HDR. 

  • HDR10: è molto diffuso e sfrutta lo spazio colore BT.2020 con codifica a 10 bit, è un formato open source e si basa su metadati che calibrano la curva di luminosità sulla scena più luminosa del file da riprodurre 
  • HDR10+: evoluzione dell’HDR10, che aggiunge metadati dinamici, ovvero non basati esclusivamente sull’immagine più luminosa. Rispetto all’HDR10, la versione HDR10+ raggiunge una luminosità quadrupla (4000 nit contro i 1000 dell’HDR10) e può essere implementata negli apparecchi HDR10 con un aggiornamento del firmware. 
  • Dolby Vision: standard sviluppato dai Dolby Laboratories, basato – come l’HDR10 – sullo spazio colore BT.2020, ma pensato per una codifica dei colori a 12 bit anziché a 10. Dispone di metadati sia statici che dinamici, con curva di luminosità che può variare persino fotogramma per fotogramma. Si tratta di uno standard proprietario. 
  • HLG (Hybrid Log-Gamma): sviluppato esplicitamente per le trasmissioni televisive dai colossi BBC (britannico) e NHK (giapponese), si tratta di uno standard che combina la gamma dinamica standard (SDR) e l’HDR in un unico segnale video, con risparmio di banda e piena compatibilità anche con gli schermi non-HDR.