見出し画像

【現場レポート】東京モーターショー2019:Nissan ARプレゼンテーション

皆さんは、今年の「東京モーターショー」に足を運ばれたでしょうか?
BASSDRUM(以下BD)がこの一年で担当させていただいた数々の案件のなかで、特に印象深いもののひとつが10月24日から11月4日まで東京ビックサイトで開催された「第46回 東京モーターショー2019」のNissan ARプレゼンテーションです。このプロジェクトでは、公文悠人を中心に、村山健、高嶋一成のBDメンバー3名が演出に携わらせていただきました。12日間という長い会期の間、毎日45分毎に1回、15分のプレゼンテーションが実施され、その数は1日13回、会期全体では約140回にも及びました。本日は、仕様策定・設計に1ヶ月、制作期間も僅か1ヶ月という短期間での準備を経て本番を迎えたこちらのARプレゼンテーションの舞台裏についてご紹介していきます。

ARという手法の選択

ご存知のように、近年、自動車業界は自動運転時代へと突入し、各メーカーでは車の知能化が始まっています。今回のクライアントである日産もまた、“最先端の技術で、あなたを未来のワクワクへと導く”というスローガンを掲げ、「ニッサン インテリジェント モビリティ」という取り組みを行っています。その“ワクワクする未来感”を東京モーターショーのプレゼンテーションで表現したい、というリクエストをいただき、今回テクニカルディレクターとしてプロジェクトに参加させていただいた私たちは、ステージに設置された巨大LEDモニターを活用し、映像に「AR」を重ねて流す案を採用しました。なぜ「AR」なのか?それは、ARがプレゼンテーションをより効果的で分かりやすいものにするだけでなく、それを目にする方達に大きな“インパクト”と“ワクワクする未来感”を与えてくれるからです。

東京モーターショーのプレゼンテーションでは、日産の話題の新コンセプトカー「ニッサン アリア コンセプト」と「ニッサン IMk」が披露されました。特設ステージ上の2台のコンセプトカーがターンテーブル上でゆっくりと回転する間、2名のプレゼンターがその特徴を説明していきます。背後に設置されたLEDモニターには、ステージ上のコンセプトカーがリアルタイムで映し出され、その上に重なるようにプレゼンターの話や動きに連動したARが同じくリアルタイムで表示されます。文章での説明だと少し分かりにくいかもしれませんが、会場で直にご覧いただいた方には、観客の方達がスクリーン上に写り込んでいるため、それがリアルタイムの映像であることがご理解いただけたかと思います。

今回の手法はプリレンダーではなく、リアルタイムのレンダリングで実現したもので、車以外は全てリアルタイムでCGを合成しています。例えば、プレゼンターが「デザインフィロソフィー」という言葉を発すると、デザインフィロソフィーを構成する三つの言葉がLEDモニター上に現れます。車の寸法も同様です。走行の様子も車だけをマスクし、他は全てリアルタイムにCGが合成されています。

画像1

画像2

画像3

システムについて

画像4

今回のシステムを簡単に説明すると、ステージの撮影は4台のカメラ(CAM  01〜04)で構成され、カメラにはそれぞれ1台のレンダリングPC(Workstation 01〜04)が繋がっています。カメラで取り込んだ映像は、キャプチャーボード経由でTouchDesigner上に取り込まれ、その場でレンダリングされたCGと合成されて、その映像がHDMIでスイッチャーに送出されます。ARのCGのレンダリングには、Unreal Engineを採用しています。4台のWorkstationから送出された映像は、プレゼンテーションの間、タイミングに合わせてスイッチングされるのですが、スイッチングのプログラミングはドイツの会社が担当してくれました。Workstation 05は、車が配置されたターンテーブル2台の回転情報をMC Protocolで取得し、OSCでWorkstation 01〜04へ伝えています。

カメラパート

画像5

今回のプレゼンテーションが行われた日産ブースはかなり広い空間で、写真からもそのサイズ感がご理解いただけるかと思います。先ほどのシステム図にあったステージを撮影するためのCAM 01〜04には、Panasonic製のネットワークカメラを使用しました。4台は対角線上に並んでいて、2台が正面から、残り2台が後ろからの絵を撮っています。

画像6

3Dシミュレーションの有効性

このようなプロジェクトを進める際に、非常に有効なのが3Dシミュレーションです。3Dを展開する空間が今回ほどの大きさになると、作り手側のイメージが統一されないことがあります。代理店側から次々に上がってくる絵コンテは、主な方向性を決める分には十分ですが、具体的なアニメーションの詰めや、細い仕様設計をする際には向きません。一番怖いのは、本実装をした後で制作側が修正地獄に陥るパターンです。そうならないために、事前に3Dシミュレーションをしておきます。VRなどで実際に一人称視点で見れるものがあると、代理店側で想像するイメージもクリアになっていきます。

画像7

上記は3Dシミュレーション(上)と実際のプレゼンテーション(下)の一部です。見比べていただいても、パッと見はほぼ一緒であることが分かるかと思います。このぐらい準備しておければ、実物が出来上がった際も「イメージ通りでしたね」となります。

現場ならではの注意点

経験のある方ならご存知かと思いますが、現場では「トラスを上げる時までに〇〇全てを設置しなければならない」といった、現場ならではの手順があります。今回にように関わる人が100人を超えそうな現場では、細心の注意を払いながらテンポよく作業を進めなければ、多くの人に迷惑をかけてしまいます。また、トラス上にケーブルを這わせるような作業には専門の資格が必要ですが、今回は高所作業資格を持つメンバーがフットワーク良く作業していきました。全てのトラスが上がり、床が入ると、いよいよ本番へ向けての直前の準備が始まります。

画像8

バックヤード

バックヤードは、ARプレゼンテーションで使用される約40x40cmのLEDパネルが無数に組み合わされた巨大モニターの真裏にありました。会期中、自分たちが使う作業エリアには、水冷式のグラフィックボードGTX-2080TIを搭載したGtune4台を設置しました。バックヤードには自分たちが持ち込んだ機材以外にも熱を発するものが多くあったため、Gtuneの前にはサーキュレーターを設置し、熱対策を施しました。

画像9

画像12

画像11

トラブルを回避できたバランスの良いチーム編成

今回、BASSDRUMから関わったメンバーは、ハードウェアの開発を得意とする公文、国内外の現場で様々なソフトウェアの開発をこなしてきた村山、あらゆる機材を熟知する“機材のプロ”の高嶋で、このバランスの良い3名の組み合わせによって、無事に本番を終えられたとも言えます。

例えば、キャプチャーボードを選択する際に決定打となったのは、機材に詳しい高嶋の一言でした。二社製の選択肢が目の前にあったとき、高嶋から「A社製は、映像を取り込んで流すだけで7フレくらい遅れるよね」と正確な数値の指摘があったことで、B社製を採用することになりました。

今回のARのシステムは、3DCG空間に全く同じ世界をつくり、その3DCG空間と現実の空間をうまくミキシングする、というものでした。ネットワークカメラのケーブルには、これまでの経験から保険の意味でSDIとHDMIの両方を使用していましたが、実際、会期中に4本中のSDIケーブル1本の映像信号のレベルが落ち、4Kの映像が映らなくなるトラブルが起きました。しかし、スペアで入れていたHDMIで代用し、難なく回避することができました。

他にも開場前のテストの際に、リアルタイムであるべき映像が少し遅れて表示されたことがありました。この時も、現場慣れしたメンバーがPC下にあった他の機材の電源がノイズの原因であることを指摘し、難を逃れました。

画像12

今回は、仕様策定設計が1ヶ月、制作期間も1ヶ月というかなり短い準備期間でありながら、本番は12日間という長期に渡るものでした。しかしながら、それぞれの分野のスペシャリストであるテクニカルディレクター3名が集まることで、円滑に制作を進め、無事に本番を乗り切ることができました。

第46回 東京モーターショー2019 Nissan ARプレゼンテーション
会期:2019年10月24日〜11月4日
会場:東京ビックサイト
<CREDIT>
Client: 日産自動車株式会社
Agency: TBWA HAKUHODO
Technical Directors: 公文悠人、村山健、高嶋一成(BASSDRUM)

BASSDRUMマガジンでは、今後もテクニカルディレクターやエンジニアの皆さんのお役に立てるよう、様々な現場からのレポートをお届けしてまいります。

この記事が気に入ったらサポートをしてみませんか?