カディンチェ株式会社では、バーチャルリアリティ(VR)やミックスドリアリティ(MR)のシステム開発・アプリケーション開発に取り組んでいます。それと同時に360度動画の撮影やVTuber等のライブ配信支援にも取り組んでおり、様々な局面で映像とCGを併用したコンテンツに触れています。2020年春頃から急増している感染症に関する対策として、イベントや舞台などの映像化→ウェブサイトを通じた動画配信のご相談も増えてきました。リアルな会場で行われていた催事や行事を撮影するだけでなく、CGなどと融合して演出や効果を付加することで、ネット配信に適した動画制作のニーズを感じ始めています。そこで実写映像とCG映像を融合した映像撮影を可能にするバーチャルプロダクション手法を確立し、専用のスタジオ設立に向けて準備を開始しました。
バーチャルプロダクションにおいて、まずは以下の3テーマに着手します。
役者の背景に用いる映像は三次元のコンピュータグラフィックスで制作された3Dモデルになります。3Dモデルは完全にバーチャルなものから、実空間を3次元スキャン(もしくはフォトグラメトリーで制作)したデータをもとにしたリアルなテクスチャに近いものまでいくつかの種類が考えられます。当社では、特にリアルな現場をレーザースキャナー等の3Dスキャナーで撮影・計測して、リアルそっくりなバーチャルセットを構築する手法開発に取り組みます。また、実際に制作したバーチャルセットと役者映像の合成については、緑色の布を用いて後処理でソフトウェア合成するグリーンバック手法と、スタジオの背景にLEDディスプレイを配置して、撮影時に合成をするLEDウォールの2手法がありますが、まずはグリーンバックスクリーンを用いた手法に取り組む予定です。
背景に3次元モデルを配置して、カメラ位置に応じてカメラから見える背景の角度が変わることで、より実際の空間にいるかのような映像になります。背景映像をカメラの位置や向きに合わせて変更するには、カメラの位置情報や設定情報を取得する必要があり、それらはカメラトラッキングシステムと呼ばれています。まずはHTC ViveのトラッキングセンサーであるVive Trackerを使用した簡易実験から進めますが、春以降にはより広範囲で正確な位置が取得できるカメラトラッキングシステムの導入を予定しています。
カメラから入力される実写の映像と、事前に制作されたCGの映像を合成するのはUnreal EngineやZero Density社のReality Engine等のゲームエンジンやリアルタム映像合成ソフトウェアを用いて行います。カメラのレンズやフォーカス等に応じて、背景のCGの写り方も変わり、また演者の動きによってCG側がリアルタイムに変化する(たとえば影を生成する)ことで、リアルとデジタルの映像が違和感なく合成されることになります。
バーチャルプロダクションを利用した斬新な映像を作られたいクリエイターさんとのコラボレーションができればと考えております。まだスタジオ構築にあたってスタジオマネージャーの募集も以下の通り行っております。お気軽にご連絡・ご相談を頂ければ幸いです。
Industrial Light & Magic社は映画「Mandalorian, Season One」の制作において、その50%程度をバーチャルプロダクション手法で撮影されたそうです。以下の動画では約6mの高さで270度をLEDに囲われたスタジオでの撮影風景も紹介されています。
こちらはバーチャルプロダクションのリアルタイム合成によく使われるゲームエンジンであるUreal Engineによるバーチャルプロダクションの概要紹介動画です。
いきなり映画製作に利用できるレベルというのは難しいかもしれませんが、一歩ずつ制作フローを確立して、新しい時代の映像制作に取り組みたいと考えております。