展示会会場の隅に鎮座する「バック・トゥ・ザ・フューチャー」のデロリアン
txt:安藤幸央 構成:編集部

展示会場

siggraph2016_04_P7270350

展示会場入ってすぐ。にぎわうNVIDIAのブース

SIGGRAPH展示会コーナーで、ひときわ目立っていたのはNVIDIAとIntelのブース。特にNVIDIAは、今回のSIGGRAPHにあわせて数多くの新発表があった。

NVIDIA VrWorks
siggraph2016_04_P7292155

デモで利用していた360°パノラマ撮影に用いた4Kカメラ3台のリグ。360 Designs社製Mini EYE 3。価格は約1万5000ドル前後

NVIDIAのVR向け開発環境であるVRWorksは、コンテンツ作成者が本来のVR作品づくりに集中できるよう、様々な機能を用意。HMD(ヘッドマウントディスプレイ)に搭載されているレンズにあわせた描画ができる機能、一回の描画で左右どちらの眼の画像も一度に生成してしまう機能(左右の画像のズレが無くなる)、見ているところによって、描画の解像度を変える機能(周辺部は荒く、注視しているところのみ解像度が高くなる)、複数のグラフィックスチップが搭載されたハイパワーのハードウェア機材を最大限活かす機能などが用意されている。

またVRWorksでは、360°のビデオスティッチ(複数のカメラで撮影したパノラマ映像を繋ぎ合わせる)や、360°パノラマ映像を配信する仕組みVRWorks 360 Video SDKが整い始めている。今年中にリリースされる予定だ。たとえば、複数台の高解像度カメラで撮影したパノラマ映像をスティッチする場合、映像の連続性、つなぎ目の除去、カメラ間の色合いの違いの調整、画面の端のブラーなどを考慮する必要がある。VRWorksを活用すれば、最大32台のカメラリグによる撮影も、繋ぎ合わせることができる。

制作過程を洗いざらい公開。メイキングの話題がいっぱいのプロダクションセッション

プロダクションセッションは、最新のハリウッド映画のメイキングや、ライドもの、VRものなど、CG映像の制作過程を紹介する、特別なセッションだ。なかには、一般公開前、または公開中の映像も含まれるため、セッションの内容の録画、録音、写真撮影は完全に禁止。会場のアナウンスでは、カメラやスマートフォンによる撮影はもとより、ドローンによる撮影と、ポケモンGOによる撮影も禁止します!と会場の笑いをさらっていた。

全体的に、どのメイキングも、とても手間をかけていること、CG映像といえども、実世界のさまざまなものを、綿密に参考にしながら制作してることが伝わってきた。

■The Making of PEARL

360°YouTube動画。Google Spotlight Storyのアプリ(Android版、iOS版)で楽しめる

Google Spotlight StoryというGoogleが提供するVRコンテンツ群の中の中でも、ミュージックビデオ的位置づけの「Pearl」についてのメイキングが話された。「Pearl」は、父親とその娘が、車で旅をしながら音楽の夢を追いかけるというストーリー。Pixarの「PaperMan」という手書き風短編CGを制作したPatrick Osborne監督による作品。

制作に際して注意したのは、360°パノラマ映像は、何か注視するものがないと、人々は周りを見渡してしまう。そのため動くもの、キャラクター(人物含む)、飛ぶ物体などをつかって、見せたい方向を導くように考えているとのこと。全編におけるストーリボードを作成し、登場人物の設定を考える。昼の映像の雰囲気と、夜の映像の雰囲気を考えた上で、映像の中に何が映るのか、どのタイミングで何が映り込むかを考えながら作った。特に車の中での映像の動き、カメラの動き、何が映るのかを検討。

「Pearl」のように音楽が最初にある場合は、音楽にあわせた動きのあるビデオストーリーボードを作成登場するキャラクターの口の場所から、ちゃんとセリフの音声が聞こえるように3Dの音像、車の中での反響の量、車の中で反射する音量を調整したとのこと。車の中で演奏された楽器の録音も360°マイクを設置されたドームの中で収録したり、実際の車の中にステレオマイクを用いて、車の中で楽器を弾いて収録。それぞれ映像シーンの違いによって、ステレオマイクをカメラの場所に置いて収録したりドアを開けた状態で車の外で演奏したものを集録したり、さまざまな状況での演奏を収録。

「Pearlの特徴的な点は、一つのストーリーを、VRデバイス、スマートフォン、YouTube、YouTube VRで観ることができること。皆さんもVRコンテンツを作る場合は、広くたくさんのプラットフォームに展開できるようVRコンテンツを見るきっかけを増やすべくコンテンツ制作するのが得策だと解説してくれた。


LAIKA “Kubo and the Two Strings”: One Giant Skeleton, One Colossal Undertaking

Kuboのメイキング映像

siggraph2016_04_IMG_1826

高精細の3Dプリンタで出力された主要キャラクタのモデル

siggraph2016_04_IMG_1835

日本では残念ながらあまり人気が無いが、3Dプリンターを用いたストップモーションアニメーションとして絶大な人気を誇るLAIKAの新作「Kubo and the Two Strings」は、太古の日本を舞台に、猿とカブトムシをお供に旅に出る少年の冒険ストーリー。

今年で10周年となるLAIKAは、映画「コララインとボタンの魔女」、映画「パラノーマンブライス・ホローの謎」、映画「ザ・ボックストロールズ」(日本劇場公開無し)を経て、それらのノウハウの集大成としての Kuboがあるとのこと。10年間の間には、3Dプリンター技術のみならず、制作のための様々な技術がとても進歩したため、これまで以上に巨大なキャラクターや、背景、建築物を用意しての撮影となった。

今回一番大きなキャラクターは、なんと18フィート(約5.5メートル)。少し動かすことも困難なため、動きを細かくコントロールできる高額な工業用ロボットを米国のオークションサイトeBayで購入して利用した。コントロールするためのツールがものすごく使いづらかったのので、撮影用に使い易い操作パネルを自作してしまったりもした。

他にもいろいろな小道具を自作して撮影したものがあり、ギョロ目のキャラクターの眼球の動きは、トラックボールの動きをボーリングのボールで操作できるようにした装置で演出、演技をさせたとのこと。全編Canon EOS 5D Mark IIIのストップモーション用に改造したカメラを用い、これらのロボット等のおかげで、最終的には1フレームの撮影を50秒で済ませられるようになったそう。


■Developing”Mass Effect: New Earth”–A 4D Holographic Adventure

Mass Effectの紹介映像

米国サンフランシスコのアミューズメントパークに新たに設置された、席が震動する立体視のライドもの「Mass Effect」のメイキング。ロケーションベーストエンターテインメントと呼ばれるこの種の映像制作は、映画やゲームなどその他のCG映像の制作とはまた違ったノウハウが必要となる。

Mass Effectは、エレクトロニック・アーツの人気ゲームの世界観を体験型にしたもの。立体視4K液晶スクリーンと、大音量のシステム。動く座席と、煙も出る最新の機材で固められたロケーションベーストエンターテインメント。立体視できる3D液晶スクリーンは最新の機材で、コントラストも深く、すべての色がしっかり表示され、とても素晴らしい表示装置。その環境で映像と、音と、振動と、様々な要素で楽しませるのが目的。映像の動きと、座席の震動の動きと、音楽や音のタイミングを合わせることで、映画やゲーム以上の体験を与えられるよう考えたとのこと。「おぉ!」と言えるような瞬間を随所に仕込むことに工夫を凝らしていった。

プレビズも多数つくって検討したが、やはりパソコンの画面上でいろいろ考えていても仕方なく、本番のスクリーンで何度も何度も試写して調整を進めていったとのこと。

リアルタイムCGの台頭で、映像制作の流れが変わる

リアルタイムのCG映像は、少し前までは、レンダリングした映像には表現力が叶わないという意識があったかもしれない。けれども現在ではハードウェアのパワーの向上によって、リアルタイムに描画できるゲームエンジンなどの表現力もあがってきた。

実時間で映像制作し、試行錯誤の回数、失敗の回数を増やして、よりよい映像を素早く作り上げる新しい作業フローが考えられつつあるのだ。リアルタイム性によって、新しい用途が生まれたり、試行錯誤のスピードを早めることができる。今後もすべてがリアルタイム映像になるというわけではなく、じっくりと時間をかけてレンダリングするCG映像と、リアルタイムで素早く結果を得るリアルタイム映像のお互いの良いところをうまいバランスで活用していくことになるであろう。下記は、今回のSIGGRAPHで、先進的なリアルタイムグラフィックスを発表した例である。

■Real-Time Graphics in Pixar(Film Production)
siggraph2016_04_pixar

Pixar Prestoで表示した「トイ・ストーリー」のウッディ

siggraph2016_04_P7271113

映画で利用するクオリティのキャラクターをリアルタイム表示させている様子

Pixarのリアルタイムデモは、一般的によく知られている「トイ・ストーリー」のキャラクターをリアルタイムで作成、変更するもの。一般的にリアルタイム表示のために使われるゲームエンジンは、ピクサーが求める映画製作のワークフローに適していないため、自分たちが使うためのリアルタイム表示環境を作ったもの。このPixar Prestoでは、被写界深度をリアルタイムで調整したりすることができる。


■Project Tango
siggraph2016_04_P7270512

Google Tango対応のタブレット端末。カメラの他に距離センサーとモーショントラッキング用のカメラが搭載されている

siggraph2016_04_P7270517

現実世界の床面に合わせて恐竜が立っている様子。タブレットの動きに合わせて映像も素早く補正される

Project Tangoは、距離センサーが搭載されたAndroid端末によって、現実世界の空間をスマートフォンや、タブレット端末が認識し、新たな価値を生み出そうとするGoogleのプロジェクトだ。タブレット端末で恐竜を選び、床面に合わせて動き回る恐竜をみて、会場からは「ポケモンGOみたい!」という声もあがっていた


■ILMxLAB Augumented Reality Experience

映像のテストをしている様子

siggraph2016_04_ilm

現実世界に、AR(拡張現実)でC-3POを登場させている様子

siggraph2016_04_P7270828

会場のデモでは、目の前に映画Ant-Manのキャラクタを登場させていた

ILMxLABは、昨年新しく設立された、「スター・ウォーズ」の特殊効果作成で知られるILM(Industrial Light and Magic)の研究部門。VR技術やAR(拡張現実)技術を、映画の作成にも生かせるよう、ツールやワークフローを考えていくというのがミッション。今回のデモでは、iPadとHTC Viveのトラッキングシステムを活用した、リアルタイムで現実世界にCGを重ねて表示できるシステム。バーチャルなカメラとしての役目を、安価な機材で果たすようになるのだ。またILMxLABは、現在謎に包まれている、最先端のVR機材であるMagicLeap社とも提携し、今後の展開が期待される。

txt:安藤幸央 構成:編集部


Vol.03 [SIGGRAPH 2016] Vol.05