NAB SHOW 2022 雑感
3年ぶりの実展示となるNAB SHOWが4月24日から4日間のスケジュールで開催されました。過去十数回NABに参加している身としては待ち焦がれていた展示会ではありますがコロナ禍での海外渡航制限緩和がギリギリだったのと帰国時のリスクを勘定、現地の方から「まだちょっと来るの早いかもね〜」というアドバイスにより、
私は今年NAB SHOWに行っておりません! が、
情報は逐一伝わってきたのでそれを元にNAB SHOW 2022のレポートとは言いませんが雑感として書いていきます。
NAB SHOW 2022 概要
展示会場はいつもの LVCC(ラスベガスコンベンションセンター)です。いつもは会場全ホールを使用しますが今回はサウスホールが使われていません。代わりについ最近できたウェストホールがノース、セントラルとともに使われました。ウェストホールはノースホールからモノレール、道路を超えた先で専用通路で繋がっています。またイーロンマスクが作ったトンネル掘削会社、The boring Companyによって会場地下にトンネル通路が掘られ、ホール間をテスラ社の車で移動できるサービスなんかも始まっています。(Vegas Loop)
全登録参加者 52,468人
海外からの参加者 11,542人
参加国数 155
通常NAB SHOWの参加者は約10万人なのでその半分。海外からの参加も全参加者の25%くらいを推移するのが常ですが今年はその実数、割合ともに減っています。展示者数自体も半分くらい。これは去年のInterBEE2021も同様でまだまだコロナの影響があることを示しています。完全復活は来年あたりでしょうかね。9月のIBCは盛り上がってもらいたいところです。
特異な状況に端を発した製作ワークフローの変化
製作ワークフローの進化は以前から進んできましたがやはりCovid-19の影響は大きく、かなり制作手法が変わってきている、むしろ変わらなければならない状況に誰もが置かれました。リモートプロダクションはポスプロ業界では従来からあるものですがそれがライブプロダクションの範囲まで広がってきています。以前はテストくらいにしか試されていなかったものが次々と実戦で使われているようになってきています。
またロシアのウクライナ侵攻では放送局自体が攻撃対象となり、放送塔が破壊され一時的にコンテンツを発信できなくなりましたがあらゆるメディアソース、配信方法を駆使して従来の手法にとらわれず生のニュースを発信し続けています。プロパガンダによるフェイクニュースへの対処も逐一行われています。彼らは放送のBCP対策を否応なしに行わなければならない立場に置かれています。
「いつかは」「そのうち」とほとんどの関係者が思っていた新しいワークフローへ、思ってもみなかった事柄からスピードをもって移り変わっていく展開を私たちは体験するのかもしれません。もちろんNAB Show 2022にはそれに対処するためのヒントや答えが数多くありました。
クラウドを使ったIPワークフロー
プロダクションシステムがソフトウェアベースに置き換わりつつあります。映像の取り込み、コンテンツ作成、データ共有、アーカイブ、変換、配信など扱うものがデジタルデータであるのに途中でSDIのベースバンドにする必要はなく、SNSや様々なメタデータとの連携など製作側に要求されることが今後増えていく中ではソフトウェアベースでないと短時間で機能を更新していくこともままなりません。またデータをIPで送ることにより同軸ケーブルでは実現できない複雑性と柔軟性を両立することができます。プロダクションシステムも一箇所に集中して設置する必要もなく、例えばオンプレミスで設置しているベースのシステムに加えてイベントなど急に拡張が必要になった場合にAWSやMicrosoft Azureのサービス上にプロダクションシステムを構築し対処することが可能になります。そのイベント中に利用すればいいだけなので無駄に設備を遊ばせるといったことが防ぐことができます。システムが分散しているということはBCP対策にもなりますし、コロナ禍の状況ではリモートプロダクションをクラウド経由で行うことも多くなりました。
会場ではそのようなシステムが各メーカーで展示されていたわけですが操作画面やパネル展示が多く、いまいち内容や他との違いがわからなかったとの感想が散見されます。これはしょうがないことでブースという物理的制約がある中でスタジオ機能全てを盛り込んだシステムを置けるところは少ないでしょうし、来場者一人一人にすべてを説明していくのは全くの非効率です。それを理解している会社はNAB会場でのカンファレンスやワーキンググループでの説明を重視していたとの話もあります。またこのようなシステムは基本的な機能は網羅しているのですが最終的にはユーザーに合わせてカスタマイズ、つまりちょっとした開発が必要になります。これは一般的なITシステムと全く同じで導入する側もそれ相応の知識と技術が必要になります。IT知識なんて映像製作側からすれば最も苦手とする分野で出来れば今後も避けたいと思うかもしれませんがこれからはそのような人材を確保あるいは育てていく必要があります。そうでなければ丸投げになってしまいますが特定のメーカー依存によるベンダロックインや誰も特にならないシステムが出来上がってしまうなどIT業界の問題をそのまま引きずることになります。信頼できるメーカー、代理店やコンサルタントに相談することをお勧めします。
さらにはIT業界でも流行っているローコード/ノーコードというプログラミングの知識がそんなになくても好みのシステムにカスタマイズできるソリューションもあったりします。Tedial社のソリューションはその一例になります。
Adobe社は昨年買収したFrame.ioのクラウドストレージサービスに対してCamera to Cloudというカメラから直接転送してすぐに共有、編集ができる方法を披露しています。カメラからはAtomos社のSHOGUN CONNECT、ATOMOS CONNECTやTERADEK社のSERV 4Kを使い撮影しながらクラウド越しの共有ストレージにアップロードできます。撮影現場からメディアが到着するのを待つことなくプロキシ編集が可能となりますし、即座にメディアチェックができるため撮影クルーに対して追加ショットの指示を出したりすることができます。
BlackMagicDesign社は新しいDavinci Resolve バージョン18で作業プロジェクトをクラウド越しに共有できるBlackMagic Cloudを発表しています。プロジェクトの共有そのものは以前のバージョンからできましたが物理的なサーバーを用意する必要がありました。今回はクラウド越しにプロジェクトあたり10人まで、月あたり$5で使用することができます。素材はあらかじめ各々同じものを用意する必要があるため別途クラウドストレージの利用などが求められます。こうしたSaaSを使うことによってIT専門者でなくてもクラウド利用の共同作業ができるようになっています。
使用される放送用IPプロトコル
これまで放送向けIPとして様々な規格が乱立していましたが現状ではSMPTE ST2110かNewtek NDIに落ち着いています。放送局としてはST2110を採用することが多いのですがデータ量がNDIに比べてかなり大きいためネットワーク構築やシステム開発の難しさなどもあり全体的にコスト高です。反面NDIはそこまでではなく簡単に始められる利点はありますがプロプラエタリなので一企業が核心部分を持つことに神経質になるユーザーもいたりします。クラウド利用を対象にしたリアルタイム伝送にはSRTやRISTを使うことが多くなっています。こちらも色々あってSRTが先行していますがもう少し放送用として考え出されたRISTも採用されるようになっています。両者のどちらがいいかということではなく、お互いにバージョンアップしているので似たような規格になっていくものと思われます。NDIもSRTも一企業を端に発していてそれぞれのエコシステムが出来上がっている状態なので統合されるというよりは性格が違うのでユーザーに合ったプロトコルを選択することになると思われます。
ライブIPプロダクションにおける5Gの活用
TVU Networks、Dejero、LiveU、Vislinkなどが第5世代移動通信に対応したトランスミッターを発表しています。ライブプロダクションでは遅延をなるべく減らすことが求められますが5Gの利点である高速、大容量がモバイルで扱えるということはかなり自由が効く撮影ができるということになります。(もちろん回線だけではなくカメラ自体の処理遅延、エンコード/デーコードの時間を極限まで減らす必要があります。)5G回線は現在のところエリアが狭いとか思ったより速度が出ないといった状況ですがこれはアメリカでも同じ問題を抱えています。ただしこれらの問題は将来的に解決していくものですから今のうちから5Gを使ったワークフローを念頭におくことはなんら不思議なことではありません。
数年前に「5Gが普及したら中継車とか要らなくなりますよねぇ、、、」とうっかりつぶやいた相手の会社が新しい中継車を導入したばかりらしく怒られてしまいましたが数年も経てばカメラから直接局に5Gで送るのが普通になるのかもしれません。5Gでなくても低解像度の4G伝送は既に行われていますし5G使用も東京オリンピック2020でも既に実績があります。
In-Camera VFXとLED表示デバイス
In-Camera VFXそのものは昔からある特殊効果撮影の手法なのですがここ数年はUnreal EngineとLEDウォールディスプレイを組み合わせてカメラの動きに追従しながらリアルタイムにバックの映像を動的に変えていくといった方法が流行っています。もともとUnrealEngineはゲームを作るためのエンジンですがそのリアルタイム性とフォトリアリスティックな映像を作り出せることでプロダクション業界でも数多く使われています。4月に正式リリースされたバージョン5ではさらにビジュアル品質が上がっています。LEDウォールによるプロジェクションは旧来のプロジェクターから置き換わり、よりコントラストの強い解像度が増した映像を投影できます。LEDウォールディスプレイは平面だけでなく球面状のモデルも展示されていてIn-Camera VFXだけでなくVR/AR/MR領域にも使われていくことでしょう。プロジェクターでは解決できなかった問題によりLEDウォールデバイスへの置き換わりが進みそうです。
ソニーのIn-Camera VFX事例がわかりやすく説明がなされてました。LAでの撮影に加えてそのロケ地の建物をボリュメトリックキャプチャをして実際の空間を3DCGデータに書き起こします。そのデータを利用して東京のIn-Camera VFXスタジオでその建物内を再現し撮影をするというものです。2拠点の制作チームは一度も会うことがないままクラウド経由のやりとりだけで制作されています。
Sony Group | KILIAN’S GAME (JP) 本編映像
Sony Group | KILIAN’S GAME | Behind the Scenes メイキング映像
またLEDウォールを使ったIn-Camera VFXは最近できたもので現状の課題や今後どうすべきかのディスカッションも参考になります。
NAB Show 2022 – Virtual Production: Opportunities, Challenges and the Future
出来ることや出来ないこと、グリーンバック使用との違い、コストが下がる面もあれば上がる部分もあること、Unreal Engine 映像技術者の養成など興味深いところです。
割と増えつつある8K対応カメラ
NAB Showで新製品発表というわけではないのですが様々なレベルの8Kカメラが展示されていました。SONYのVENICE2 8K、BMD Blackmagic URSA Mini Pro 12K、CANON EOS R5 C、RED Digital CinemaなどのRAW記録でグレーディング前提のシネマカメラやSDI出力のIOIndustries 8KSDI、ネットワークカメラとしても使えるBOSMA 8Kなどが紹介されています。映画制作だけでなく産業用途、セキュリティ分野やVRなど高解像度から切り出して使うために8Kセンサー搭載のカメラを利用する場面が増えてくることでしょう。ちなみにBOSMA 8Kは将来的に5G回線と組み合わせた監視ソリューションをリリースするようです。(BOSMA社はもともと光学機器製造が発祥でホームセキュリティを主にしている会社)以前より8Kイメージセンサーが手に入りやすくなったのでいろんなタイプの8Kカメラが今後も登場しそうです。もっともイメージセンサーを上手に駆動できるかどうかは各メーカーの力量次第なところもあります。
個人的に気になったデバイス
スタジオ設計屋として全くの独断と偏見で選んだ製品はまずRiedel社のIPゲートウェイデバイスです。ST2110、ST2022-6に対応して従来のSDI信号との相互変換、信号処理ができるようになっています。機能別にSFP(small form-factor pluggable)トランシーバーの形状になっていて必要な機能分をメインの筐体に挿して使うというものです。SDI/IP混在のシステムには必要なものですがSFPに機能を詰め込んで発熱が気になるところではあります。単純にこういったチビっこいデバイスが好きなだけです。
次はDensitron社のタッチパネル制御デバイスです。放送機器のIT化に伴っていろんなメーカーの機器を制御することが増えてきています。ただそれぞれの機器に対していちいち操作しているようでは作業量は昔となんら変わりなく何のためのIT?って話になってしまいます。複数の機材を一括で制御、オートメーション化、タスクのマクロ化できるデバイスがあれば無駄な作業は減らせますし、何よりも煩雑な操作ミスによる放送事故も防ぐことができます。一般のAV設備系では昔から行われていることですが放送系でもこのような制御の仕方が増えてくると思います。タッチパネルだけでは心許ない場合はツマミがあるハイブリッドタイプもあるようです。