Wydrukuj tę stronę

HDR rewelacja (i rewolucja) w świecie wideo

Gru 16, 2015

HDR, czyli obraz o szerokim zakresie dynamiki, najpierw wkroczył do świata fotografii cyfrowej. Dziś staje się hasłem-kluczem w najnowszych generacjach telewizorów. Ale co tak naprawdę ten termin oznacza?

Tekst: Filip Kulpa, Maciej Koper | Zdjęcia: Filip Kulpa, Grafika: BBC, Dolby


Podczas tegorocznych targów CES (2015) główną osią tematyczną w sektorze wideo był standard Ultra HD, a w szczególności kolejne etapy rozwoju tej technologii. Pierwszy, polegający na zwiększeniu rozdzielczości, przebiegł w miarę bezproblemowo. Już w ubiegłorocznych katalogach wielu firm, znaczna część wyświetlaczy miała w specyfikacji rozdzielczość 3840 x 2160 pikseli. Dziś obserwujemy ich prawdziwy wysyp. To jednak dopiero początek tego, co nas czeka.

HDR

bez HDR

Nareszcie dostrzeżono, że rozdzielczość to nie wszystko. My powiedzielibyśmy nawet, że na tym etapie rozwoju techniki wideo nie jest to najważniejszy parametr obrazu. Uwaga producentów zaczęła dryfować w kierunku szerszej przestrzeni barwnej (ta obecnie stosowana liczy sobie już kilkadziesiąt lat) oraz zwiększonego zakresu dynamiki. Elementy te, po nieudanej promocji technologii 3D, powinny stać się motorem napędowym dla wyświetlaczy następnych generacji. Tak przynajmniej życzą sobie tego producenci. I tym razem zasadniczo mają rację.

O zwiększonej przestrzeni kolorów i związanych z tym zagadnieniem problemach napiszemy przy innej okazji. Tym razem zajmiemy się obrazem o zwiększonej dynamice tonalnej. To ciekawe, ale i złożone zagadnienie.


Początki HDR

Obrazowanie z dużym zakresem dynamiki, czy – jak kto woli – z dużą rozpiętością tonalną (HDR – High Dynamic Range) przez całe dekady było marzeniem zawodowców parających się fotografią krajobrazową i specjalistyczną. Za prekursora tej techniki uważa się Francuza Gustave’a Le Graya, który już w latach 50. XIX wieku, a więc 160 lat temu, wykonał pierwszą fotografię morskiego krajobrazu, stosując oddzielne negatywy dla nieba (krótsza ekspozycja) i dla morza (dłuższa ekspozycja). Sto lat później Charles Wyckoff opracował na zamówienie Sił Powietrznych Stanów Zjednoczonych trójwarstwową kolorową błonę fotograficzną XR, zdolną do rejestracji obrazów o ekstremalnie dużej rozpiętości tonalnej. Dolna warstwa filmu miała czułość ASA 0,004, górna – ASA 400. Film ten mógł ponoć rejestrować obrazy o kontraście 100 000:1. Oczywiście nie powstał z myślą o amatorach i fotografii ślubnej. Dzięki niemu wykonano pierwsze fotografie wybuchów jądrowych. Materiał ten był też stosowany w astrofotografii, medycynie i w badaniach spektrograficznych.

Pod koniec lat 90. ubiegłego stulecia tematyka obrazu HDR ponownie wypłynęła na światło dzienne – tym razem za sprawą fotografii cyfrowej, która w relatywnie łatwy sposób umożliwiła wykonanie zdjęć, które w bardziej realistyczny sposób oddają sceny o dużej rozpiętości tonalnej. Fotografowanie w technice HDR polega na wykonaniu dwóch lub więcej fotografii o różnych ekspozycjach: jedna z nich musi wydobywać informacje w cieniach (zdjęcie prześwietlone), druga – w bielach (zdjęcie niedoświetlone). Następnie obydwa zdjęcia składa się w jedno. Potrzeba ta wynikła z niedoskonałości wczesnych matryc, które miały ograniczony zakres dynamiki – ustępowały one pod tym względem błonie światłoczułej. Wraz z postępem technologicznym i rozwojem oprogramowania graficznego, dynamika matryc osiągnęła satysfakcjonujące wartości. Wciąż jednak fotografia HDR jest atrakcyjna – pozwala bowiem zdecydowanie lepiej przenieść na zwykły ekran monitora lub na odbitkę fotograficzną obraz sceny o dużej rozpiętości tonalnej. Mamy tu więc do czynienia nie tyle ze zwiększaniem dynamiki obrazu, ile z jej kompresją w taki sposób, by efekt był atrakcyjny dla oka i pełniej odzwierciedlał rzeczywistość. To trochę tak, jak ze słuchaniem radia, gdzie muzyka jest celowo poddana kompresji po to, by lepiej było ją słychać w samochodzie i ze zwykłych odbiorników.

Postęp w nowoczesnych wyświetlaczach – w szczególności w telewizorach – daje realną nadzieję, że fotografie HDR można będzie wkrótce oglądać w pełnej krasie, tj. nie jako obrazy przetworzone techniką mapowania tonalnego (to właśnie ten proces umożliwia wspomnianą kompresję HDR-ów), lecz jako obrazy o faktycznie zwiększonej dynamice – kontraście rzędu tysięcy do jednego.

By zrozumieć, czym jest obraz o dużej dynamice (HDR) konieczne jest uświadomienie sobie, z jak dużymi kontrastami mamy do czynienia w rzeczywistości.


Rozpiętość tonalna

Wygodną jednostką do posługiwania się zakresem dynamiki jest nie kontrast, lecz liczba stopni przesłony – termin historycznie wywodzący się z fotografii. Jedna działka przesłony (EV – Exposure Value) odpowiada dwukrotnej zmianie jasności obrazu. Dwie działki – czterokrotnej, 10 działek – 1024-krotnej. Obowiązuje tu proste prawo potęgowe: 2 do potęgi EV definiuje kontrast.

W rzeczywistym świecie rozpiętość tonalna obrazów jest olbrzymia. Określa się ją na 26 EV, co odpowiada kontrastowi 67 milionów, choć tak naprawdę jest jeszcze większa, gdyby za miarę omawianego zjawiska przyjąć analog kontrastu on/off w świecie wideo. Najjaśniejszy naturalny obiekt spotykany w przyrodzie –Słońce – osiąga jasność 1,6 miliarda cd/m2, czyli aż 5 milionów razy większą niż telewizory LED! Z kolei nocne, bezksiężycowe niebo osiąga „czerń” znacznie poniżej możliwości wyświetlaczy plazmowych: 3 x 10-5 cd/m2. Wprawdzie obydwa te elementy w warunkach ziemskich nigdy nie występują jednocześnie, jednak porównanie to ukazuje, jak ekstremalna jest rozpiętość jasności obrazów obserwowanych w naturze.

Na tym tle dynamika ludzkiego wzroku wydaje się niezbyt imponująca. Określa się ją maksymalnie na 14 EV, co odpowiada kontrastowi 16 000:1. Nasze testy najlepszych na rynku ekranów plazmowych (ostatniej generacji Panasoników i Pioneera Kuro 9G) zdają się potwierdzać to oszacowanie: kontrast ANSI rzędu kilkunastu tysięcy do jednego jest już na tyle duży, że czarne pola wydają się czarne. Zwiększenie kontrastu ANSI do 100 000:1 nie przyniosłoby żadnej odczuwalnej poprawy kontrastu.

Mówimy tu jednak o rozpiętości tonalnej obserwowanej w danej chwili, przy niezmienionym stopniu otwarcia (przymknięcia) źrenic. Ludzki wzrok jest w stanie rejestrować znacznie większe wahania jasności dzięki szerokim możliwościom adaptacji. Przy w pełni otwartych źrenicach możemy czytać książkę w świetle księżyca, a także dostrzegać relatywnie słabe obiekty astronomiczne na niebie. W słoneczny dzień również radzimy sobie z czytaniem książki, jednak bezpośrednia obserwacja tarczy słonecznej nie jest już możliwa.

Jak na tym tle wypadają współczesne wyświetlacze wideo? Nie najgorzej. Kontrast najlepszych matryc LCD sięga 12 EV (4000:1), najlepsze plazmy osiągały 14–15 EV. Problem jednak w tym, że jasność obrazu telewizyjnego (o projekcyjnym nie wspominając) jest odgórnie ograniczona: nie przekracza 250–300 cd/m2 (stare generacje matryc podświetlanych świetlówkami CCFL osiągały wartości ponad 500 cd/m2), zaś obowiązujący od lat standard – 100 cd/m2 dla monitorów profesjonalnych i ekranów domowych. W kinie jest jeszcze ciemniej – 48 cd/m2.

Dla porównania, Księżyc w pełni osiąga jasność 2500 cd/m2, zaś przeciętna jasność gruntu w słoneczny dzień wynosi około 3000 cd/m2. Różnica jest więc 30-krotna. Innymi słowy, współczesne domowe i profesjonalne wyświetlacze wideo (SDR) nie są w stanie realistycznie przekazać jasnych obrazów z otaczającej nas rzeczywistości.


Problematyczna DUŻA jasność

10-krotne zwiększenie jasności matryc telewizyjnych wiązałoby się z koniecznością stosowania bardzo mocnych diod, które byłyby kosztowne i wymagałyby potężnych zasilaczy. Oczywiście, jasność rzędu 3000 cd/m2 nie jest potrzebna na całym ekranie ani przez długi czas. To wymóg krótkotrwały, nieobciążający w proporcjonalny sposób zasilania. Niemniej, musiałoby ono jednak podołać wielokrotnie większym mocom niż obecne układy impulsowe. Technicznie nie jest to wielki problem, ale pociąga za sobą koszty. Wraz ze wzrostem mocy podświetlenia pojawia się jednak kolejny problem – chłodzenia panelu. By uniknąć tych trudności, producenci mówią na razie o jasnościach rzędu 1000 cd/m2. Laboratorium Dolby – na bazie własnych, przeprowadzonych w ubiegłym roku badaniach panelowych –  twierdzi jednak, że nasze potrzeby są 10-krotnie większe. Zakres luminancji idealnego wyświetlacza powinien rozciągać się od 0,004 do 20000 cd/m2 (!). Nie jest to żadna teoria, lecz wynik badań, w których wykorzystano specjalnie skonstruowany wyświetlacz z projekcją tylną, podświetlany bardzo mocnym projektorem NEC. Tworzony w tej sposób obraz osiągał jasność  20 000 nitów (cd/m2).

Na razie zejdźmy na ziemię. Ze względu na charakter obrazów o dużej dynamice, dla potrzeb telewizorów mających zapewniać obraz HDR zdecydowanie rozsądne i wskazane wydaje się stosowanie podświetleń direct LED oraz systemów strefowego sterowania jasnością. Tak jest w szczytowym modelu Samsunga JS9500. Implementacja techniki HDR w połączeniu w podświetleniami krawędziowymi wydaje się z góry skazana na porażkę – chwilowe podnoszenie mocy całego panelu (lub znacznej jego części) nakłada większe wymagania na zasilacz, a trzeba też pamiętać, że wraz z jasnością bieli rośnie też luminancja czerni – kontrast obrazu będzie wciąż wąskim gardłem.


Jak zakodować HDR

W dwóch ostatnich dekadach nastąpił wielki postęp w jakości urządzeń rejestrujących wideo oraz wyświetlaczy. Ich jasność jest znacznie wyższa niż ekranów CRT, problem szumu (analogowego) przestał istnieć, a kamery wizyjne osiągają dziś dynamikę rzędu 13–14 EV – podobnie jest z aparatami cyfrowymi wyższej klasy. Taśma filmowa również przenosi rozpiętość tonalną 14 EV. Na tym tle obecny standard wideo ze swoimi 8 bitami (8 EV) jest archaiczny. Mamy więc drugi ważki powód, dla którego warto by w końcu coś zrobić z obowiązującym standardem kodowania wideo, a konkretnie –  stworzyć go od podstaw. Tym bardziej, że studia emisyjne i produkcyjne od lat pracują już na 10 bitach.

Podniesienie jasności matryc to najmniejszy z problemów, jakie czekają wytwórców paneli i telewizorów HDR, nie mówiąc o nadawcach i producentach „kontentu”. O wiele ważniejszym zagadnieniem okazuje się to, jak dobrze zakodować sygnał wideo o zwiększonej dynamice. Dobrze, to znaczy, w taki sposób, żeby rozszerzenie dynamiki nie spowodowało efektu posteryzacji (bandingu) wywołanego zbyt „rzadką” kwantyzacją poziomów luminancji. No bo skoro dzisiejsze wyświetlacze operujące 8-bitowym sygnałem wideo pokazują pewne ograniczenia obecnego standardu, to nietrudno sobie wyobrazić, że 10-krotny (nie mówiąc o większym) wzrost luminancji, pociągający za sobą proporcjonalny wzrost dynamiki sygnału, spowodowałby silną posteryzację obrazu – utratę ciągłości przejść tonalnych. Jak temu zaradzić?

Rozwiązaniem wydaje się zagęszczenie kodowania wideo – na przykład poprzez dodanie 2 bitów. Dwa dodatkowe bity przyniosłyby jednak tylko 4-krotne zwiększenie liczby poziomów, co w kontekście postulowanego przyrostu luminancji obrazu jest niewystarczające. Dalsze zwiększenie rozdzielczości – do 12 bitów – wydaje się rozwiązywać problem, ale tylko doraźnie. Nowy standard wideo nie powinien „ledwo co” zaspokajać bieżących potrzeb – tym bardziej, że – jak wspomnieliśmy – z badań przeprowadzonych w ubiegłym roku przez Dolby wynika, że optymalną górną granicą luminancji obrazu powinno być 100 00 cd/m2, co oznacza 100-krotny przyrost dynamiki obrazu względem obecnego standardu (100 cd/m2).

Dalsze zwiększanie rozdzielczości kodowania wideo okazuje się niepraktyczne (nie mieści się w standardach Ultra HD ani w Blu-ray Ultra HD) i niecelowe. Istnieje inne, lepsze rozwiązanie problemu. By je zrozumieć, musimy przypominieć sobie, czym jest gamma i dlaczego się ją stosuje.


EOTF - koniec z gammą

Jasność obrazu emitowanego przez wyświetlacz wideo (obojętnie jakiego typu) zależy od amplitudy (poziomu) sygnału wejściowego, lecz nie jest to zależność liniowa (przykładowo: dwukrotnemu wzrostowi sygnału nie towarzyszy dwukrotny wzrost luminancji panelu). Odpowiedź tę opisuje funkcja EOTF (Electro-Optical Transfer Function). W ogólności może to być dowolna zależność. Od kilkudziesięciu już lat w technice wideo obowiązuje jednak jedna i ta sama postać funkcji EOTF, którą w uproszczeniu opisuje prosta zależność potęgowa:

L = Vingamma x Lmax,

gdzie L to luminancja; Vin – poziom sygnału wejściowego (kod danego odcienia) w znormalizowanej skali (0-1), zaś Lmax – maksymalna luminancja panelu.

 

hdr oetf

Krzywe funkcji OETF (odwrotności EOTF) opisują charakterystykę urządzeń rejestrujących obraz. By zwiększyć zakres dynamiki wideo, kamery mają załamanie (kolanko) na charakterystyce OETF (krzywa różowa), by przenieść dodatkowe informacje w bielach. Linia żółta obrazuje funkcję proponowaną przez BBC, niebieska – przez Dolby.

 

Przetłumaczmy to na język zrozumiały dla humanistów. Dla małych sygnałów (ciemnych i szarości) jasność obrazu narasta powoli (wolniej niż w zależności liniowej), zaś dla dużych – zdecydowanie szybciej. Tak więc, zmianom małych sygnałów towarzyszą małe różnice jasności obrazu (mała dyskretyzacja ich poziomów), zaś zmianom dużych sygnałów towarzyszą duże zmiany jasności. Ta nieliniowość była historycznie pożądana – z trzech względów. Po pierwsze, charakterystyka opisana gammą równą 2,4 odpowiadała naturalnej charakterystyce pracy wyświetlaczy (CRT). Po drugie, dobrze kompensowała problem szumów – bardziej dokuczliwych przy małych amplitudach sygnału niż przy dużych. Po trzecie, gamma 2,4 dobrze kompensuje naturalną nieliniowość ludzkiego wzroku. W skali małych zmian natężenia światła reakcję wzroku można przybliżyć prawem logarytmicznym, natomiast w skali większych różnic lepiej opisuje ją funkcja potęgowa (z wykładnikiem wynoszącym około 0,42).

Funkcja EOTF opisana gammą przetrwała w niezmienionej postaci dobrych kilkadziesiąt lat (kineskopy są produkowane od lat 30. ubiegłego stulecia). Jak to możliwe? Nadawany sygnał wideo jest (wciąż) 8-bitowy, a to oznacza, że użyteczna dynamika (kontrast) obrazu telewizyjnego pozostaje dzisiaj na śmiesznym, zdawałoby się, poziomie 200:1. Wprawdzie kontrast dobrych matryc telewizyjnych LCD jest dziś o rząd wielkości większy (a najlepszych plazm był kolejne 10 razy większy), lecz nie był to dotąd wystarczający powód ku temu, by zająć się nową funkcją EOTF. Niemniej, kuriozalny jest fakt, że dopiero 4 lata temu, a więc po wyeliminowaniu ekranów CRT, funkcja ta została oficjalnie ustandaryzowana w ramach dokumentu ITU-R Rec BT.1866.


Gamma a HDR - trochę teorii

Dopóki poruszamy się w obszarze obrazów SDR (o standardowej dynamice), dopóty gamma zdaje egzamin. Przysłowiowe schody zaczynają się wraz ze znacznym poszerzeniem dynamiki i próbą zakodowania obrazu HDR z wykorzystaniem nie 8 lub nawet 10 bitów. Wówczas okazuje się, że rozważana funkcja EOTF, w korelacji z postrzeganiem różnic jasności przez ludzkie oko, nieoptymalnie wykorzystuje bity słów kodowych, przypisując zbyt dużo informacji obszarom jasnym, a zbyt mało – ciemnym. Efekt jest taki, że przejścia tonalne w zakresie jasnych szarości i bieli są oddane doskonale – nawet zbyt dobrze w stosunku do potrzeb – natomiast w cieniach mamy zbyt mało informacji (banding). Zrozumienie tego fenomenu wymaga poznania zależności opisującej czułość ludzkiego wzroku na zmiany jasności obrazu.

Już w XIX wieku Ernst Heinrich Weber (1795–1878) odkrył, że próg rozróżnialności bodźca (świetlnego, dźwiękowego i innych) determinuje jego względna zmiana, nie zaś bezwzględna różnica w natężeniu. Najmniejszą procentową zmianę, jaką jesteśmy w stanie zarejestrować, określono mianem frakcji Webera (uważa się, że jej wartość w odniesieniu do jasności wynosi 0,01–0,02). Nieco później Gustav Fechner doprecyzował tę zależność w sposób matematyczny, stwierdzając, że relacja pomiędzy bodźcem a percepcją jest logarytmiczna. Prawo to posłużyło zresztą za podstawę do określenia miary jasności obiektów astronomicznych. Dziś uważa się, że reakcje wzroku na zmiany jasności (w dużej skali) lepiej opisuje prawo potęgowe. Za dokładniejszą miarę czułości wzroku na zmiany jasności uznaje się obecnie model Bartena (patrz: załączony wykres). Przy małych jasnościach obrazu jesteśmy w stanie dostrzec 1–2-procentowe różnice w jego jasności (jak wynika z prawa Webera), zaś przy jasnościach rzędu 100 cd/m2, rejestrujemy znacznie mniejsze zmiany w jasności – rzędu 0,2%.

 

hdr barten

Linia przerywana obrazuje progową wartość detekcji kontrastu (różnic w jasności obrazu) przez ludzkie oko – tak zwany model Bartena. Przy małych jasnościach, wykrywalna przez wzrok względna zmiana jasności jest znacznie większa niż przy dużych i bardzo dużych jasnościach. Zaproponowana przez Dolby funkcja EOTF (linia czarna) zapewnia niewidoczne przejścia tonalne przy 12-bitowym kodowaniu sygnału. Dopiero 15-bitowa gamma (linia czerwona) dałaby porównywalny efekt.

 

Specjaliści z laboratoriów Dolby uznali to kryterium za podstawę do wyznaczenia nowej krzywej EOTF, która pokryłaby zakres luminancji od 0 do 10 000 nitów (cd/m2) w taki sposób, by w całym zakresie jasności obraz zakodowany 12-bitowo był całkowicie wolny od bandingu (pominięto tu oczywiście wpływ ewentualnej kompresji). Krzywa ta, nazwana skrótem PQ (od Perceptual Quantizer), zapewnia równie znakomite efekty co 15-bitowa EOTF Rec.709 (gamma), tak więc oszczędność w pojemności słów kodowych jest znacząca – wynosi całe 3 bity.

 

hdr frakcje

Wykresy 10-bitowych frakcji Webera dla różnych krzywych OETF opracowane przez BBC pokazują nieodpowiedniość obecnego standardu (gammy), która zbyt dokładnie (małe wartości frakcji Webera) opisywałaby przejścia tonalne w jasnych partiach obrazu, a zbyt zgrubnie – w ciemnych.   

 

Odmienną funkcję EOTF postulują specjaliści z BBC, dowodząc, że w ramach 10-bitowego kodowania, a więc takiego, jakie zaakceptowano w standardzie Ultra HD, zapewnia ona mniejszy banding niż krzywa PQ. Ponadto proponowana krzywa jest bardziej kompatybilna z gammą Rec.709, ponieważ została opracowana z myślą o wyświetlaniu obrazów tylko 4-krotnie jaśniejszych niż w obecnym standardzie. BBC nie skorzystało z modelu Bartena, lecz z prostszego prawa Webera-Fehnera, które – jak wspomnieliśmy – opiera się na pojęciu frakcji Webera i jej stałej wartości.


Zupełnie nowa jakość!

Znamy już aspekty techniczne obrazu o szerokim zakresie dynamiki. Pozostaje pytanie – jak on wygląda w praktyce? Odpowiedź nie jest jednoznaczna, bowiem HDR jest tak naprawdę narzędziem, które artysta-twórca może wykorzystać do uzyskania takiego czy innego efektu. Od niego zależy, czy będzie on duży, subtelny, czy może ledwo widoczny. Tak czy inaczej, potencjał 100-krotnie jaśniejszego obrazu (1000 cd/m2, bo o takich wartościach na razie się mówi w zastosowaniach komercyjnych) jest ogromny. Wystarczy wyobrazić sobie ujęcia, w których blask słońca odbija się od wody, czy choćby blask księżyca na czystym niebie. To, co do tej pory musiało być jednolitą, niezbyt jasną plamą, będzie mogło zawierać znacznie więcej informacji, a jasne obiekty znacznie zyskają na realizmie.

Od razu uspokoję sceptyków – HDR nie oznacza, że wszystko będzie wypalało wzrok, jak na wystawach sklepowych (choć biorąc pod uwagę, że producenci w początkowej fazie będą się bardzo chwalić HDR-em, nie dysponując odpowiednimi treściami, takie ryzyko jednak istnieje). Niemniej, żaden artysta/producent nie będzie się starał nas oślepić pełnoekranową bielą o tak wysokiej jasności. Mowa jest jedynie o niezbyt dużych elementach w obrazie, które zwiększają jego ekspresję.

Kilka miesięcy temu współautor tego artykułu (MK) miał okazję podziwiać prawdziwy obraz HDR na wyświetlaczu inżynieryjnym w siedzibie Philipsa, w Ghent. Oj, było się czym zachwycać! Obok stał zwykły telewizor i dopiero takie porównanie jasno obrazowało, ile jeszcze możemy osiągnąć w dziedzinie jakości obrazu.


Więcej pytań niż odpowiedzi

Przed nami jednak długa droga. By można było cieszyć się obrazem o rozszerzonej dynamice, konieczne jest stworzenie jednolitych specyfikacji w ramach standardu Ultra HD. Nie wiadomo, jaka funkcja EOTF zostanie zastosowana w standardzie Blu-ray UHD i czy przypadkiem nie pozostaniemy ze starą gammą na kolejne lata. Według finalnej specyfikacji, obsługiwana jest otwarta norma SMPTE ST.2084. W grę wchodzi także wspomniana funkcja PQ (Dolby Vision), a także trzecia – autorstwa Philipsa. Nie da się ukryć, że wprowadzenie nowej funkcji EOTF spowoduje olbrzymie zamieszanie nie tylko po stronie producentów, użytkowników, ale też nadawców i sprzętu studyjnego, w tym kamer, które będą musiały wykorzystywać zmodyfikowaną funkcję OETF (odwrotność EOTF). To wielkie wyzwanie dla całego przemysłu wideo, stąd też niepewność, czy i kiedy nowa krzywa transferu zostanie zaimplementowana.

Ze wstępnych ustaleń wynika, że wymagana jest też aktualizacja interfejsu HDMI do standardu 2.0a. Na spotkaniu organizowanym przez Philipsa w Barcelonie, inżynier obrazu, Danny Tack, poinformował bowiem, że HDMI 2.0 w obecnej formie nie jest przystosowane do transportu treści HDR (!).

W styczniu na targach CES większość producentów zadeklarowała, że flagowe serie na 2015 rok będą wspierały HDR. Nie jest jednak jasne, co powinniśmy przez to rozumieć. Zagadnieniem interesują się też serwisy strumieniowe, takie jak np. Netflix. Nie wiadomo, kiedy zostaną przedsięwzięte jakieś poważniejsze kroki w kierunku popularyzacji treści HDR.

Na telewizję w najbliższych latach raczej nie powinniśmy liczyć. Pozostaje nowy standard Blu-ray Ultra HD oraz, ewentualnie, streaming. Z pewnością same telewizory wyprzedzą całą resztę: treść i nowy standard. Na razie ich możliwości będzie można wykorzystać tylko w jeden sposób: do symulacji efektu HDR. Czasami wychodzi to nawet całkiem ciekawie, jak na przykład we flagowym Samsungu JS9500, w którym możemy uzyskać efekt HDR dla dowolnej treści. Uaktywnienie funkcji wygaszania („diody smart led”) maksymalnie podnosi luminancję niewielkich jaskrawych elementów ponad skalibrowany poziom bieli. Jest to nawet atrakcyjne wizualnie, ale to wciąż tylko konwersja. Idziemy jednak o zakład, że właśnie w taki „sztuczny” sposób producenci telewizorów będą w nich zachwalać funkcję HDR. Oby tylko nie poprzestano na samej funkcji (konwersji), bo potencjał HDR-a jest nieporównywalnie większy. Z punktu widzenia wierności obrazu jest to bardziej pożądana zmiana niż przejście z rozdzielczości Full HD na Ultra HD.

Podsumowując: na razie mamy więcej niewiadomych niż konkretów. Jeśli nie zostanie to szybko uporządkowane, a wyświetlacze HDR będą bardziej dostępne, to może dojść do sytuacji, w której nie będziemy mogli prawidłowo odtworzyć danego filmu w HDR (lub przekaz zostanie zniekształcony), bo został on zapisany w formacie niekompatybilnym z naszym ekranem.
Może się też okazać, że będziemy świadkami swego rodzaju wojny standardów. Oby tak się nie stało.


Galeria

Oceń ten artykuł
(2 głosów)