Nadeszła era HDR – dowiedz się, co to oznacza dla Twoich urządzeń

Opublikowano: Listopad 26, 2018

HDR (ang. High Dynamic Range) to nowa technologia, która przez wiele osób uważana jest za kolejną wielką rewolucję w dziedzinie obrazowania po technologii 4K. Wychwala się ją przede wszystkim za realistyczne odwzorowanie rzeczywistości – co to jednak oznacza? Czy faktycznie jest się czym zachwycać? Czym różni się HDR dla fotografii i dla filmów? I czego potrzebujesz, by móc wyświetlać materiały w tym standardzie?

Poniższy tekst został przygotowany na podstawie angielskiego tłumaczenia japońskiego artykułu opublikowanego 22 sierpnia 2017 roku na portalu ITmedia. Copyright 2017 ITmedia Inc. Wszystkie prawa zastrzeżone.

Czym jest technologia HDR?

W ciągu ostatnich kilku lat pojęcie HDR zaczęło pojawiać się wszędzie tam, gdzie mowa o technologiach obrazowania. Jest to skrót angielskiego terminu High Dynamic Range, oznaczającego wyświetlanie obrazów z szeroką rozpiętością tonalną. Najłatwiej natknąć się na niego w sklepach ze sprzętem elektronicznym, które coraz częściej wykorzystują obsługę HDR do reklamowania telewizorów.

Słysząc „HDR”, amatorzy fotografii mogą pomyśleć, że chodzi tu o taki sam rodzaj HDR jak w przypadku cyfrowych zdjęć. Choć samo pojęcie HDR rzeczywiście kojarzy się głównie z fotografią, zwłaszcza odkąd aparaty smartfonów takich jak iPhone zaczęły obsługiwać robienie zdjęć w tym standardzie, HDR w fotografii działa zupełnie inaczej niż HDR używane w nowoczesnym sprzęcie wideo.

Referencyjny monitor HDR ColorEdge PROMINENCE CG3145

Różnica między HDR w fotografii i filmie

Czym różni się tryb HDR w iPhone’ach?

„Dynamic range” odnosi się do zakresu między najciemniejszymi i najjaśniejszymi obszarami obrazu, który jest w stanie odtworzyć dane urządzenie, zachowując jednocześnie subtelne różnice między odcieniami. Jeśli będąc w mieszkaniu zrobimy zdjęcie, na którym będzie dobrze widać wnętrze pokoju, słoneczny krajobraz za oknem będzie prześwietlony. Jeśli natomiast zrobimy zdjęcie tak, by jasna scena za oknem była dobrze widoczna, wnętrze pokoju wyjdzie za ciemne. Łatwo zaobserwować ten efekt samemu, robiąc zdjęcie zwykłym aparatem cyfrowym albo telefonem.

Przyczyną takiego zjawiska jest zbyt duża różnica między najjaśniejszym (słońce za oknem) i najciemniejszym (wnętrze pokoju) elementem fotografii. Aby wyeliminować ten problem, należałoby poszerzyć rozpiętość tonalną tak, by najjaśniejsze obszary nie były prześwietlone, a najciemniejsze – całkowicie ciemne. Im bardziej uda się zwiększyć ten zakres, tym bardziej realistycznie będzie wyglądało nasze zdjęcie, jego rozpiętość tonalna zbliży się bowiem do rozpiętości tonalnej postrzeganej przez ludzkie oko.

Rozpiętość tonalna spotykana we wszechświecie jest bardzo szeroka, np. Słońce widziane z Ziemi ma jasność na poziomie ok. 1,6 mld cd/m2 (kandeli na metr kwadratowy), podczas gdy typowa jasność spotykana na dworze wynosi ok. 2000 cd/m². Zakres postrzegany przez ludzkie oko to zaledwie 30% zakresu występującego w przyrodzie!

Urządzenia takie jak aparaty fotograficzne są jednak skonstruowane w oparciu o stare standardy z epoki kineskopowej (tzw. SDR – Standard Dynamic Range). Sprzęt SDR potrafi odwzorowywać bardzo wąski zakres jasności, od 0,05 do 100 cd/m². Innymi słowy, obrazy w standardzie SDR oddają zaledwie skrawek tego, co potrafi dostrzec ludzkie oko.

Rozpiętość tonalna standardu SDR obejmuje zakres od 0,05 do 100 cd/m2. W efekcie jasne obszary obrazu są prześwietlone, a ciemne przyciemnione.

Tryb HDR oferowany przez iPhone’a i inne smartfony bazuje na ujęciach o różnej ekspozycji (jedno dla ciemnych detali, jedno dla jasnych). Na zdjęciach robionych w ten sposób jasne obszary są odwzorowywane w oparciu o jasną ekspozycję, a ciemne obszary w oparciu o ciemną ekspozycję. Pozwala to zapobiec utracie różnych odcieni i daje efekt zbliżony do percepcji ludzkiego oka. Niestety nawet zdjęcie stworzone w wyniku połączenia dwóch ujęć o różnej ekspozycji musi zostać skompresowane do zakresu tonalnego SDR. Choć ciemne i jasne obszary nie tracą całkowicie szczegółów, ta metoda nie poszerza rzeczywistej rozpiętości tonalnej zdjęcia.


Dostępny na smartfonach tryb HDR łączy ujęcia o różnej ekspozycji, tworząc jedno zdjęcie mieszczące się w zakresie SDR.

W kontekście nowoczesnego sprzętu wideo pojęcie HDR odnosi się natomiast do zdolności odwzorowania znacznie poszerzonego zakresu jasności (od 0,0005 do 10 000 cd/m²) bez konieczności kompresji. Łatwo policzyć, że zakres HDR jest stukrotnie większy niż zakres SDR. Oczywiście telewizory z obsługą HDR dostępne obecnie na rynku nie potrafią odtwarzać aż tak dużej rozpiętości tonalnej; standard produkcyjny ITU-R BT.2100 zakłada maksymalną jasność na poziomie 1000 cd/m², a minimalną na poziomie 0,005 cd/m². Nie ma wątpliwości, że obrazy w standardzie HDR wyglądają bardziej realistycznie niż obrazy w standardzie SDR. Sceny z wysokim kontrastem (np. promień słońca wpadający do ciemnego pokoju) zyskują wyrazistość, a sceny zachodu słońca nabierają głębi i realizmu.

HDR
W standardzie HDR obsługiwany zakres jasności wynosi od 0,0005 do 10 000 cd/m². Pozwala to     odwzorować kontrast w sposób zbliżony do percepcji ludzkiego oka.

Różnica między HDR dla zdjęć (skompresowana krzywa jasności) i dla filmów (poszerzony zakres jasności).

Być może najważniejszym krokiem na drodze do przyjęcia technologii HDR jest rozwój sprzętu. Urządzenia takie jak aparaty fotograficzne już teraz potrafią obsługiwać jasność wykraczającą poza zakres SDR (od 0,05 do 100 cd/m²), a podświetlenie wyświetlaczy LCD jest w stanie osiągnąć kilkukrotnie większą jasność niż ta, której potrzebują obrazy SDR. Jeszcze większe możliwości dają wyświetlacze OLED.

W efekcie powstało nagłe zapotrzebowanie na wyświetlacze i systemy transmisji, które potrafią odtwarzać dane obrazu z urządzeń – takich jak aparaty i kamery – obsługujących szeroką rozpiętość tonalną. Na rynku zaczęły się pojawiać telewizory z obsługą HDR, dostępne dziś w niemal każdym sklepie z elektroniką. Ale czym tak naprawdę różni się obraz HDR od SDR?

 

Wideo w standardzie HDR: różnica widoczna gołym okiem

Na ten temat napisano już niejeden artykuł, ale w przeciwieństwie do technologii takich jak 4K czy 8K, które stosunkowo łatwo wyjaśnić posługując się samymi liczbami, nie da się w pełni zrozumieć zalet HDR bez porównania wzrokowego. Różnicę trzeba po prostu zobaczyć – a jest ona widoczna już na pierwszy rzut oka. Tym, którzy nie mieli jeszcze okazji, by osobiście obejrzeć obrazy w standardzie HDR, autor tego artykułu z przyjemnością przedstawi własne spostrzeżenia na temat ColorEdge PROMINENCE CG3145, referencyjnego monitora EIZO.

Moją pierwszą myślą było to, że obrazy wyświetlane na monitorze HDR rzeczywiście wyglądają niesamowicie realistycznie. Dotychczas miałem styczność tylko ze zdjęciami HDR, tworzonymi przez nakładanie na siebie ujęć o różnej ekspozycji, dlatego spodziewałem się czegoś z przesadnie nasyconymi kolorami. Zamiast tego zobaczyłem obraz, na którym cienie i światła oddane są z niezwykłym realizmem. Dzięki szerokiej rozpiętości tonalnej udało się wiernie odwzorować nawet drobne detale, sprawiając, że wyświetlany na ekranie obraz nabrał głębi. Faktycznie wyglądał jak prawdziwy.

Choć teoretycznie wiedziałem, że ludzkie oko potrafi dostrzec przejścia tonalne na ciemnych obszarach, doświadczenie tego na własnej skórze i tak było olbrzymią niespodzianką. Oglądając nocne zdjęcie przedstawiające miejskie światła odbijające się w wodzie, doskonale widziałem subtelne poruszenia na powierzchni wody w cieniu, a mimo to odbite obok nich światła były jasne i intensywne, bez śladu prześwietlenia czy blaknięcia. Tego rodzaju sceny – łączące głębokie cienie i jasne światła – z reguły trudno jest realistycznie odwzorować, jednak ColorEdge PROMINENCE CG3145 doskonale sobie z tym poradził.

Nawet bez pomocy stojącego obok monitora SDR od razu było widać, że różnica jest ogromna. Oczywiście oglądany przeze mnie model ColorEdge PROMINENCE CG3145 był prototypem przeznaczonym dla profesjonalnych twórców, oferującym lepszą jakość obrazu niż typowy telewizor z obsługą HDR. Mimo to na pewno warto wybrać się do lokalnego sklepu z elektroniką i zobaczyć, jak wyglądają filmy w standardzie HDR.

og_hdr_009.jpg
Wystawa sklepowa z telewizorami obsługującymi technologie 4K i HDR.

 

Czego potrzebujesz, by korzystać z technologii HDR

Ustaliliśmy już, że technologia HDR nie jest tylko chwytem marketingowym i rzeczywiście oferuje lepszą jakość obrazu. Teraz pora odpowiedzieć na pytanie, czego potrzebuje zwykły użytkownik, by z niej korzystać.

Po pierwsze potrzebujemy telewizora obsługującego sygnały HDR10. Będzie nim każdy telewizor reklamowany jako „kompatybilny z HDR”, trzeba jednak pamiętać, że nawet niektóre telewizory 4K nie spełniają tego kryterium.

Istnieją także telewizory, które odbierają sygnały HDR10, ale jednocześnie mają dość niski poziom jasności i kontrast. Oczywiście im lepsza specyfikacja, tym bardziej realistycznie wyglądają wyświetlane obrazy, ale wielu producentów telewizorów w ogóle nie podaje tych parametrów. W takim wypadku można posiłkować się logo Ultra HD Premium. Jego obecność oznacza, że urządzenie otrzymało certyfikat UHD Alliance, gwarantujący zgodność ze standardem HDR.

og_hdr_010.jpg
og_hdr_011.jpg
Logo Ultra HD Premium promowane przez UHD Alliance (po lewej) i logo Sony 4K HDR (po prawej).

Nie będziemy szczegółowo omawiać wszystkich wymagań, które muszą spełniać certyfikowane urządzenia; warto jednak zaznaczyć, że ekran musi mieć minimalną jasność szczytową 1000 cd/m² i maksymalny poziom czerni 0,05 cd/m² (dla wyświetlaczy LCD) lub minimalną jasność szczytową 540 cd/m² i maksymalny poziom czerni 0,0005 cd/m² (dla wyświetlaczy OLED). Tym wymogom nie jest wcale łatwo sprostać, dlatego niemal wszystkie certyfikowane urządzenia są nadal bardzo drogie.

Kiedy mamy już odpowiedni wyświetlacz, pora zadbać o materiały w standardzie HDR. Do wyboru są dwa formaty: HDR10 i Dolby Vision. Pierwszy z nich to ustandaryzowany format dla treści HDR. Można spokojnie założyć, że wszystkie materiały reklamowane jako kompatybilne z HDR są kompatybilne z HDR10. Z kolei Dolby Vision to osobny standard HDR stworzony przez korporację Dolby. Ma on większą głębię bitową niż HDR10 (12 bitów zamiast 10), która zwiększa wrażenie realizmu.

Najbardziej interesującym elementem Dolby Vision jest format metadanych. W przypadku HDR10 metadane dotyczą całego materiału (np. filmu), podczas gdy w standardzie Dolby Vision własne metadane ma każda klatka z osobna, co umożliwia dynamiczne zmiany jasności dla różnych scen. Dzięki temu telewizory kompatybilne z Dolby Vision mogą optymalnie wyświetlać cyfrowe materiały, bazując na parametrach jasności danego urządzenia.

Obecnie materiały w standardzie Dolby Vision oferują m.in. Netflix i Hikari TV, japońska telewizja internetowa. Oczywiście potrzebne są także kompatybilne urządzenia. Już teraz na rynku jest ich całkiem sporo – a z pewnością będzie więcej.

og_hdr_012.jpg

Platformy streamingowe takie jak Netflix oferują już treści kompatybilne z technologiami 4K/HDR.

Oprócz telewizorów obsługę HDR oferują również konsole do gier wideo, takie jak PlayStation 4 czy Xbox One S. Technologia HDR w grafice komputerowej działa na takiej samej zasadzie, jak w przypadku filmów. Choć standard SDR nadal stanowi istotne ograniczenie, latem 2017 roku ogłoszono wprowadzanie na rynek kilku monitorów gamingowych z obsługą HDR. Można założyć, że rozwój HDR na rynku telewizorów dodatkowo wpłynie na tempo przyjęcia tego standardu przez branżę gamingową.

og_hdr_013.jpg
Niektóre konsole do gier wideo także obsługują HDR (na zdjęciu Microsoft Xbox One X).

 

5 elementów potrzebnych, by poprawić jakość obrazu

Ogólnie rzecz biorąc, na poprawę jakości obrazu składa się pięć czynników: rozdzielczość, głębia bitowa, szybkość klatek, gamut kolorów i jasność. Pierwsze trzy z nich są ściśle powiązane z gęstością pikseli i ulegały dość dynamicznym zmianom. W kwestii gamutu kolorów przez długi czas nic się nie działo, aż parę lat temu wprowadzono szeroką przestrzeń barwną Rec. 2020. Pozostaje więc ostatni czynnik, jasność, i to właśnie jej dotyczy technologia HDR.


Pięć elementów umożliwiających poprawę jakości obrazu. HDR reprezentuje poprawę jasności.

Mając na uwadze zainteresowanie branży technologią HDR, EIZO stworzyło monitor ColorEdge PROMINENCE CG3145 dla profesjonalistów zajmujących się tworzeniem materiałów HDR.

 

ColorEdge PROMINENCE CG3145: monitor HDR dla profesjonalnych twórców

Monitor ColorEdge PROMINENCE CG3145 wykorzystuje panel IPS LCD. Z reguły wyświetlacze LCD (a zwłaszcza IPS) nie potrafią odtwarzać głębokiej czerni. Ciemne obszary obrazu mają więc stosunkowo niski kontrast. Istnieje jednak technologia, która pozwala osiągnąć wysoki kontrast na wyświetlaczach LCD – tzw. funkcja local dimming, która dzieli podświetlenie LED na różne obszary. Dzięki temu można dopasować jasność podświetlenia w każdym z wydzielonych obszarów osobno w zależności od wyświetlanego obrazu. Taki zabieg powoduje różnice jasności i reprodukcji barw na ekranie.

og_hdr_016.jpg

og_hdr_017.jpg

Funkcja local dimming umożliwia precyzyjne dopasowanie jasności podświetlenia, przydatne do reprodukcji scen z wysokim kontrastem (po lewej obraz z funkcją local dimming, po prawej bez). Technologia local dimming powoduje tzw. efekt halo (rozmazana otoczka) wokół obszarów, gdzie występuje duża różnica jasności (patrz zdjęcie po lewej).

Na obszarach, gdzie występują duże różnice jasności, pojawia się również tzw. efekt halo – krawędzie jasnych obszarów stają się rozmazane. Być może nie jest to duża wada w przypadku wyświetlaczy używanych do odtwarzania filmów, ale z pewnością jest poważnym mankamentem w monitorach referencyjnych.

EIZO stosuje więc nowy rodzaj panelu IPS LCD, który nie potrzebuje funkcji local dimming, by wiernie odtwarzać głęboką czerń na poziomie zaledwie 0,005 cd/m² lub mniej. W efekcie natywny kontrast monitora wynosi aż 1 000 000:1. Inną zaletą ColorEdge PROMINENCE CG3145 jest jego zdolność do zachowania stałej jasności i reprodukcji kolorów dla dowolnego rodzaju obrazów. Wiele innych monitorów referencyjnych zmniejsza czasami poziom jasności podczas wyświetlania jasnych scen, aby wydłużyć żywotność ekranu.

ColorEdge PROMINENCE CG3145, zaprojektowany jako monitor referencyjny do profesjonalnego color gradingu, nie należy do najtańszych. Oczywiście są jeszcze inne etapy tworzenia materiałów, od nagrywania, przez edycję aż po proces kompozycji, które nie wymagają aż tak precyzyjnej reprodukcji. Właśnie z myślą o nich EIZO oferuje usługę aktualizacji, zapewniającą (pseudo) obsługę HDR w monitorach ColorEdge CG. Polega ona na dodaniu krzywych gamma Perceptual Quantization (PQ1000 i PQ300) oraz HLG (Hybrid-Log Gamma) do trybów wyświetlania. Aktualizację krzywych gamma poleca się twórcom, którzy chcą mieć możliwość podglądu materiałów w standardzie HDR niższym kosztem.

Informacje o monitorze ColorEdge PROMINENCE CG3145

Aby dowiedzieć się więcej, przeczytaj artykuł „Wszystko, co chciałbyś wiedzieć o HDR”.