期待のバーチャルプロダクションシステムが初の本番運用

バーチャルプロダクションは効率的かつ効果的な手法ではあるが、コストが問題で手が届きにくいという認識も広まりつつある。ハイエンドシステムではなく、高価なトラッキングシステムを使わないトータルコストを抑えたシステムで一石を投じようとしているのが、ブリッジリンクとビジュアル・グラフィックス(VGI)で進めているバーチャルプロダクション環境だ。

両社はバーチャルプロダクションをミッドレンジ市場に向けてサービスを提供したいとしており、協業、事業化への技術検証を進めている様子を「Vol.12 ブリッジリンクがバーチャルプロダクションシステムを計画。ビジュアル・グラフィックス等と協力して環境構築と実動作検証の様子を公開」で紹介した通りだ。

そして両社の共同プロジェクトはテスト運用の段階に入り、ピアニストのH ZETT Mのアルバム「記憶の至福の中に漂う音楽」のMV撮影現場で使われた。撮影現場の様子やシステムを体験した福居英晃監督とカメラマンの小林基己氏に話を聞くことができたのでお伝えしよう。

H ZETT M/近代(Modern Times)[Music Video]

ビジュアル・グラフィックスのバーチャルプロダクション向けソリューションが本格始動

MVの監督は、数多くのアーティストのミュージックビデオの演出を数多く手がける福居英晃氏が努めた。これまで100本以上のMVの現場を経験してきた福居監督だがバーチャルプロダクションの手法は初めてであり、MVを撮ると同時に「まず実現させることそのものがチャレンジ」だったと振り返った。

福居監督が今回の作品でバーチャルプロダクションの手法に至った経緯は、八ヶ岳の音楽堂でアーティストが約2週間に渡ってレコーディングを行い、そのアーティスト側からMVのシチュエーションもCGなどを使って森を表現した映像が作れないかとオーダーを頂いただいたのがきっかけだったという。

モニターを確認する福居監督(写真手前)

MV撮影は、東京都江戸川区のブリッジリンク本社で行われた。ビジュアル・グラフィックスによると、バーチャルプロダクションのサービスはまだ公式発表はしていないが、体制、準備が整ったところでサービス内容などを正式に発表予定だという。

そんな現場でまず目を引いたのは、ビジュアル・グラフィックスオリジナルのトラッキングシステムだ。前回の実証実験では試作として稼働していたオリジナルトラッキングシステムが現実に使われていた。RedspyやStarTrackerと違ってマーカーを貼る必要はなく、設置の簡易さを特徴としている。

カメラにインテルのRealSenseトラッキングカメラT265を搭載。カメラはソニーのFX3で、G Masterの24-70mmとの組み合わせ
RealSenseから出力されたデータを小型のLinuxが動作するシステムに入力して、FreeD D1形式に変換出力する仕組みを実現している

LEDパネルは、実証実験では1.5mmピッチのグレアタイプと2.6mmピッチのノングレアタイプをテストしていたが、MV撮影では1.9mmピッチのノングレアタイプを使用。4箇所の屈曲点を設けていて15°ずつ内側に曲げて設置し、カメラアングルが斜めになったときでもより自然になるように工夫されていた。角度を大きく取りすぎたことで反射して筋が見えてしまうこともあったが、確かにラウンドしているほうが撮影可能範囲が大きくなると感じた。

さらに、幅4m×高さ2mの照明用3.9mmピッチLEDパネルを設置し、ピアノへの映り込みに使われていた。

背景のLEDのほかに、ピアノの側面への映り込みのための照明用LEDも使われていた。また、本物のピアノを用意して、LEDの画面の高さと合うように台で底上げしている

LEDパネル内のCG制御は、Unreal Engine4を使用。ディレクショナルライトで太陽の場所を設定したり、背景の制御をここから行っていた。

MVのシーンには、オーロラと森のカットが用意され、森のカットは昼と夕方の時間帯を実現。これらはUnreal Engine上で構成されたアセットを使用した。

カメラマンから見たバーチャルプロダクションとは?

次に、バーチャルプロダクションの現場をカメラマンはどのように感じているのかを聞いた。

本MVのVFXアドバイザー的な役割も担っていた撮影の小林基己氏は、カメラマンがバーチャルプロダクションで最も制約を受けるのはLEDディスプレイの大きさだという。カメラマンは当然、LEDディスプレイよりも広い画を撮ることは不可能で、映す範囲を切り取るような感覚での撮影になり、背景のLEDパネルはできるだけ広いほうが理想だと語った。

今回のMV撮影では真横、真正面などピアノと背景の角度を連動して回転させ、キーライトを調整することによって全方位の撮影を実現した。

カメラワークは、レール移動とジブを中心としていた。小林氏によると、「インカメラVFXは、カメラが動いていなければ普通の書き割りと一緒。カメラが動くことによって、背景も連動して急にリアリティが増してきます」と解説。このような理由で、レール移動とジブを多様したという。

さらに、「本当はフィックスでもいいのですが、インカメラVFXを使っているということを主張したくて、少し動きすぎたかもしれません」ともコメントしていた。

通常のバーチャルプロダクションでは、トラッキングシステムのマーカーをトラッキングエリアに貼って、複数のマーカーを検出することによりカメラの位置情報を収集可能をする。一方、ビジュアル・グラフィックスのトラッキングシステムにはマーカーが存在しないのを特徴としている。

小林氏はマーカーの設置の必要が無くセッティングが早く、これまでのマーカーの範囲やViveTrackerのようにベースステーションの位置に制限されなくて便利だったと評価した。

その一方で、精度に少し問題を感じる部分もあったという。マーカーがない分、基準点が少しずつ次第に変わってきてしまう。精度を上げることがこれからの課題点だと語った。

バーチャルプロダクションで予算が抑えられたのか?

バーチャルプロダクションはスタジオの費用はかかるが、ロケ撮影の費用やポストプロダクションのコスト削減が可能と言われている。そのあたりについてを福居監督に聞いてみると、「今回は特別のお試しの部分が多く、ロケと比較できない」との返答だった。

福居監督は、今後バーチャルプロダクションが軌道に乗ってきたら、コストはロケとあまり変わらなくなるのではとも予想した。ただし、バーチャルプロダクションとロケ撮影は単純な予算の比較ではなく、「やりたいことを実現できるのはどちらか」であり、「コストが安いから選ぶということにはならないのでは?」とも持論を展開した。

撮影して6日後にはYouTubeで公開できる早さは魅力

最後に小林氏と福居監督にバーチャルプロダクションを使ったMVに参加した感想を聞いてみたので、まとめとして紹介しよう

小林氏: バーチャルプロダクションを使って非常に良かったのは、撮影から6日後にはYouTubeで公開できたことです。もし撮影をグリーンバックで行っていたらポスプロにあと約1カ月かかっていたでしょう。この作品に関しては、一切合成はなしで、カラコレのみです。

ただし、先ほども指摘した通り、問題がないわけではありません。途中でトラッキングは掴めなくなってしまってコマが飛んだりしてしまう場合もあったので、その部分を使わないように編集をしなければいけませんでした。

また、フリッカーの問題もあります。今回はGENLOCKをかけないで行っています。VGIとしては安価なバーチャルプロダクションシステムを実現するためにGENLOCKをかけないでできないだろうか?いわゆるソニーFX3クラスのムービー一眼でバーチャルプロダクションの実現をトライしています。今回は1/25のシャッタースピードで撮ることによって、フリッカーを抑えています。

でも、LEDを使ったインカメラVFXはコストがかかるのが定説です。それをできるだけ、大幅に下げた状態のチャンネルとしてこういうのがあるのは知っておいたほうが良いと思います。

福居監督:バーチャルプロダクションは、ぜひ予算とやりたいことがマッチするタイミングがあったら積極的に使っていきたいと思いました。MVはCMや他のコンテンツと比べて尺が長いという特徴があります。カメラを動かしたりして、シーンを増やしていきたいとなると、どうしても現在のロケで撮影、美術で作れるものには限りがあり、クリエイティブ的に行き詰まってしまう部分があります。

そこを打破するという意味では、同じ予算であればバーチャルプロダクションの方に、より可能性を感じると思いました。

また、グリーンバックのバーチャルプロダクションも今はあります。そういったものも選択肢として、今後はいろいろ試していきたいと思います。


◀︎Vol.14 [Virtual Production Field Guide] Vol.16▶︎