txt:江口靖二 構成:編集部

HDRについて考える

CESなどでは、HDRに関する展示や提案が非常に多くなっている。それらは再生側、ディスプレイに関する技術の展示がほとんどである。しかしながら実際のテレビ制作現場の立場からすると、おそらく当面は、既存のHD SDRと4K HDRが混在するというのが現実である。そしてこれらの実現のためにダブルスタンバイを要求されるとすればコスト面で成立し得ない。そこでHDR/SDRのサイマル制作に関してのワークフローの展示がUltra HD Forumブースで行われていた。

UHDフォーラムブースの一角

デモ事例は、2017年1月31日のロサンゼルス・レイカーズ対デンバー・ナゲッツのバスケットボールのライブ中継をSDRとHDRで同時に行ったものである。技術はTechnicolor社とSpectrum Sports社が共同で行った。この事例では、追加の設備投資とオペレーションをほとんど行うことなくSDRとHDRの同時放送が可能であることが示されという。

説明用のパネルを見ていただきたい。SDRのカメラとHDRのカメラが現場に投入され、SDRカメラの映像は中間フォーマットとしてのS-Log3のデータとともにHDRにアップコンされる。HDRカメラの信号は同じくS-Log3データとともに中継車内のスイッチャーに送られ、JPEG2000でエンコードされて親局に送られる。必要に応じて現場でのリプレイ用のアーカイブや各種のCGも同様にS-Log3でアップコンされる。親局ではCMサーバーの素材映像も同様にアップコンされる。

UHDフォーラムにおけるLIVE HDRのワークフローの事例

これらの映像信号をSDRにダウンコンして、S-Log3のメタデータとともに各局に伝送され、ATSC3.0でOAされたり、各OTTサービス向けにも配信された。これによってすべての伝送路、すべてのフォーマットに対応したライブ中継を実現したのである。

またもう一つ興味深いことは、この仕組みでHDRを撮影すると、SDRが元の映像よりも優れていることがわったという。つまりSDRをSDRで撮るよりも、HDRで撮ってSDR化したほうが優れていたという話である。これは実は意外な話ではなく、かつてCMを35ミリフイルムで撮影し、D1 4:2:2でテレシネとポスプロを行った方が、たとえ最終段がアナログ放送だったとしても優れていたというのと同じである。

またこのS-Log3を中間フォーマットにするという考え方は、ソニーのSR Live for HDRも同様である。ソニーの場合はベースバンドプロセッサーユニット「BPU−4000」から4K HDR とHD SDRがそれぞれ出力され、撮影時のオペレーションはHD SDRで全て行い、4K HDRは最終段でのみ使用する方式を提唱している。

ソニーの提唱するHDR&SDRサイマル制作 ソニー「“SR Live for HDR”とは」より

こうした中間フォーマットを利用するメリットは、仮にサイマル制作などを行う場合でも、SDR、HDRのどちらを基準にするかを考える必要がないわけだ。ソニーのSR Live for HDRの仕組みをスカパー・ブロードキャスティングの4K HDR中継車に世界で初めて納入したそうである。

コンシューマー目線では、家の中のテレビの話をする限り、4Kや8Kという高解像度よりも、HDRのような本物に近い光の話のほうが誰の目にもわかりやすいはずだ。大げさではなく映像技術に置ける革命的な出来事とさえ言える。SDRとHDRを同じ素材で比較する機会があれば、「いままではこんなに暗い絵を見ていたのか」と愕然とするわけだ。しかし、放送にせよネット配信にせよパッケージメディアにせよ、これまでのSDRをすぐに捨て去ることは当然ながらできないわけで、こうしたHDR/SDR共存のためのワークフローの確立が不可欠である。そしてそのための中間フォーマットのような考え方が、8Kより先のさらなる高解像度や高臨場感に関する技術革新においても、うまくスケーラブルなものとして定着していくことが大切ではないだろうか。

txt:江口靖二 構成:編集部


Vol.02 [After Beat NAB2017] Vol.04