txt:安藤幸央 構成:編集部

先端技術展示。未来的のディスプレイデバイスの紹介

最新技術の展示体験コーナー、レーザー描画の絵柄でお出迎え

SIGGRAPHの醍醐味の一つに、現在研究開発中の最先端デバイスを知り、実際に体験できる点がある。スペック表だけではわからない製品化前の研究開発中のデバイスを体験し、その開発者に説明や苦労話、こだわった点を聞くこともできる。実際にSIGGRAPHでのデモ展示での観客のフィードバックが、その後の商品開発に反映したり、影響を及ぼすこともあるので、展示する側にとっても大事な機会となっている。

今回も数多くのデバイスの展示・デモが行われた中でも、とくにディスプレイ系のものに注目していくつか紹介しよう。ここで紹介するものはそれぞれ開発中であるため、商品化の予定、リリース時期、価格などは未定である。


■筒型ディスプレイ/Sony:360-degree transparent holographic screen display

360°ホログラフィック円筒ディスプレイ。円筒の下部にレーザープロジェクターと毎秒1000フレーム撮影可能な複数のハイスピードカメラが搭載され、周りで観ている人の動きを検知した上で、立体感のある表示がなされる。デモ展示では視聴者がヘッドフォンを装着し、ヘッドフォンの位置を検知し、その人が居る方向に適した映像を送出していた。

透明な円筒の内壁には輝度をあげるためプロジェクタからのレーザー光のみを拡散するスクリーン加工がなされている。CGモデルの表示には外部PC上で動作するUnityが活用されている。表示だけでなくハンドジェスチャーに反応する表示デモも用意されていた。円筒状の筺体の中央に像が浮かんでいるかのように見えるが、実際は円筒の外周に下部のプロジェクターからの映像が上部のミラーで反射されて、円筒外周部に投影されている。


■半透明ディスプレイ/Adobe:Project Glasswing

正式な展示タイトルは「A Transparent Display With Per-Pixel Color and Opacity Control(ピクセルごとに色と透明度を制御する透明ディスプレイ)」。透明液晶ディスプレイを使ったボックスタイプのディスプレイ。ディスプレイの中に「靴」などの実物を置いて、それらの実物と比較しながらタッチパネル状の透明液晶に映し出された映像を操作することができる。

Adobe Photoshopで行っていた色の差し替えや、ペイント作業が、現実世界にも滲み出してきたかのような感覚のあるディスプレイ装置だ。透明ディスプレイ自身はすでにいくつかの企業から商品化されたものが販売されているが、Adobe Project Glasswingのようなタッチパネル上のユーザーインタフェースも含めて統合された環境として考えられており、新たな可能性を強く感じられるデバイスとして会場でも話題にのぼっていた。


■ドローングラフィティ/スコルコボ科学技術大学:DroneGraffiti

複数の小型ドローンを使った、グラフィティ(壁へのアーティスティックな落書き)。素材の画像を線画データで入力すると、複数のドローンどうしが干渉しないよう、描く順番や飛行の軌跡を考慮しながら壁に絵を描いていく。グラフィティの保存にはグラフィティがもつ改変や追記の性質を考慮し、ブロックチェーンが活用されている。SIGGRAPH会場では仮設の壁に対して簡易的に描いていたが、本来はビルの外壁などに描くことを想定したプロジェクト。現状は最大同時3台まで。グラフィティだけでなく巨大な壁面広告を描いたり、ビルの外壁の清掃、点検などにも応用可能とのことだ。


■スカウター型ディスプレイ/Sony:A Compact Retinal Scan Near-Eye Display

眼の網膜に直接投射するスマートグラスタイプのディスプレイ装置。視野角47°というこのタイプの表示装置の中では広い視野に投影可能で、近接25cmくらいの近さから、無限遠までに画像の焦点を合わせることができる。解像度は1280p✕720pフルカラー。最大10000nitの輝度で、あかるくハッキリ、くっきりと投影される。電源供給用のUSB-Cと、HDMI接続用のType-Dの2本のケーブルで接続される。

「Real Time Live!」にみるリアルタイムCGの現状と可能性

会場の座席を4つの区画にわけ、スマートフォンライトを掲げた領域に合わせて音が変化する

「Real Time Live!」はSIGGRAPHで数年前に企画されて以来の人気イベント。従来高品質のCG/VFXを制作するには膨大なマシンパワーと計算時間が必要だと考えられていた。その考えは現在も大きくは変わらないが、ひとつおおきな潮流として「リアルタイムグラフィックス」の盛り上がりがある。必要とするCG映像が、再生に必要な時間内、つまりはHD解像度、60fpsで描画できれば、CG映像生成のための時間を待たずに実時間で再生しながら映像を表示できる。そして限定的ながらもリアルタイムで生成できるCG映像の種類、表現はとても幅広くなってきている。

リアルタイムグラフィックスの得意分野としてはゲーム中の3DCGや、VR/AR、バーチャルスタジオ、バーチャルカメラ、モーションキャプチャなど。それらリアルタイム系のソリューション、ツール、映像制作などの様子をその場で実演・デモするのがReal Time Live!の醍醐味でもある。今回は10本のデモ発表より、ピックアップして数本ご紹介しよう。

イベント本編の開始前には、昨年以前のReal Time Live!デモンストレーターのデモがうまく動かず頭を抱えて叫んでいる風景が上映されたりインタラクティブミュージシャンforgotten futureによる観客を巻き込んだ音楽ライブが行われた。forgotten futureのライブは、観客のスマートフォンライトのリアクションに応じて音楽の要素が変化するライブ演奏に、会場の一体感が感じられる、そしてスマートフォンのバッテリーが無くなる催しでもあった。

本編前のライブから、Real Time Live!本編まで約2時間の映像


■“Reality vs. Illusion” Real-Time Ray Tracing

ゲームエンジンUnityの発表は、どちらがリアルな車か、どちらがCGの車かといった会場参加者の議論を巻き起こすデモであった。車の広告などではすでに3DCG表現の幅が広がり、実車の設計CADデータから起こした3Dデータを元にCGを制作することも一般化している。

今回の映像制作としての挑戦は、リアルタイムグラフィックスその場で見る方向や、視点を自由に変更できる映像の中で、実写撮影した「実車」とゲームエンジンで描画した「CGの車」を見比べて、その車体の輝きや質感を見て、どちらがCGでどちらが実写なのかを観客に問うというデモであった。車体表面の塗装における複雑な光の反射、車体の影になっている部分の色合い、金属の重量感といったものがリアルタイムCGベースでもぱっと見では見分けがつかないくらい表現されている。左右どちらの車が本物で、どちらがCGなのか、正解はYouTube動画をご覧いただきたい。


■Spooky Action at a Distance: Real-Time VR Interaction for Non-Real-Time Remote Robotics

Spooky Action at a Distanceは遠隔地にあるロボットアームをVR映像でコントロールするデモ。SE4社によるもの。時間や距離を超えて人とロボットが時間が協力して働くためのソリューション。2025年ころに火星のインフラ開発に従事するロボットを目指しているそう。宇宙探索のみならず、原子力プラントでの作業、水中での作業などにも応用がきく。VR空間でブロックを組み上げる作業が、離れた場所に設置されたロボットに送信され、人間と同じ動作を行い、その結果組み上げられたブロックの構造がVR映像にフィードバックされる。実際の操作には若干のタイムラグがあるが、遠隔地であることVRであることを意識せずに作業できていた。


■Real-Time Procedural VFX Characters in Unity’s Real-Time Short Film “The Heretic”

ゲームエンジンを提供するUnityの活躍の場は、ゲーム制作に限らず、ここ数年映像制作のリアルタイムCG活用に大きく貢献している。ここで紹介された「The Heretic(異端者)」は、そういった一連のUnityの映像作品への挑戦における最新版の映像だ。Unityの最新機能HDRP(High-Definition Render Pipeline)が最大限に活用された映像。数百万円もするような超ハイエンドマシンではなく、市販のゲーミングPCクラスのマシンで、1440p/30fpsの映像再生が可能。とくに今までの作品に比べ、人間(デジタルヒューマン)のリアルな表現に注目して欲しいとのことだった。


■Rebirth: Introducing photorealism in UE4

ゲームエンジンUnreal Engine 4によるリアリタイム映像。制作・デモはQuixel社によるもの。Quixel社が提供するサービスQuixel Megascansでは、現実世界の風景や建造物を3Dスキャンした3Dモデルのデータ、マテリアル(質感)データをライブラリ販売している。ゼロからモデリングしたりレイアウトを考えたり、質感を悩みながら調整することなしに、ありものの3Dデータライブラリを組みあわせるだけで、リアルな風景、環境をすぐに構築できるのが売りだ。


これらゲームエンジンを活用したリアルタイムCGによる映像制作のアプローチは近年数多くの現場で採用され始めている。映像のクオリティを追求してしまうと、従来型の時間をじっくりとかけたレンダリングファームによるオフラインレンダリングで生成される映像に叶わないかもしれない。けれどもゲームエンジンを活用した映像制作は、圧倒的なスピードで完成映像が得られることから、トライアンドエラーのスピードと回数が圧倒的に効率化し、締め切りのある映像制作の現場においてその点だけでも優位性がある。制作のスピードを重視し、それに合わせて映像制作のワークフローそのものも変化させていく機運が高まってきている。

リアルタイムCGを前提として映像制作の場合、データのセットアップは事前の準備に若干の時間がかかるが、制作の後工程になればなるほどスピードがあがり、トライアンドエラーや演出による修正が柔軟に対応していける利点が重要視されている。また懸念とされている品質も、各種シェーダーや映像表現の工夫によって、従来型のレンダリングと遜色のない仕上がりにまで高めていく工夫が進んでいるのが現状だ。

続くレポートでは、SIGGRAPH 2019全体を振り返り、全体を総括して紹介する。

txt:安藤幸央 構成:編集部


Vol.03 [SIGGRAPH2019] Vol.05