RF-S3.9mm F3.5 STM DUAL FISHEYE を購入して空間ビデオで苦戦し始める
EOS R50 V をほぼ同時期に購入した RF-S3.9mm F3.5 STM DUAL FISHEYE が、少し遅れてやってきた。正確にはカメラのキタムラに取りにいったので連れてきたというのが正しい。たまにいくコワーキングスペースの通勤路沿いにあるので取りに行きやすいのである。
RF-S3.9mm F3.5 STM DUAL FISHEYE は、EOS R50 V が装着することができる VR レンズの中では一番画角が広い。もう少し画角が狭い製品もあるが、今回つくってみたいのは視界にひらけるタイプの空間ビデオであったためこちらを選んだ。
EOS R50 V はレンズ交換型のカメラでなおかつ放熱対策がされているモデルとしては小さい方だ。そのため、VR レンズを装着すると筐体の下部分が浮いてしまうし、本来の割にレンズが大きい感じの異様な見た目となってしまう。
Vision Pro の解像度で考えれば、欲を言えば 8K 、そうでなくても 6K くらいは欲しい所であるが、 EOS R50 V の撮影解像度は 4K である。また、RF-S3.9mm F3.5 STM DUAL FISHEYE は 180度ではなく 144度の画角であり、少し足りない感はある。が、このコンパクトさは捨て難いものがあり、この「少し足りない感じ」を逆に何かしらの強みとして探求してみようと思う。サイドバイサイドな映像が撮れるミニマムなサイズだと思うからだ。
さて、適当に近所を撮影し Xcode に取り込もうとして、意外とそんな簡単にはいかないということがわかってきた。たとえば、今回購入したカメラとレンズは EOS VR SYSTEM によって APMP (Apple Projected Media Profile) に対応することが発表されているが、どうもまだ現行バージョンだとエクスポートが対応していない (ようにみえる)
ということで、とりあえず実機で撮影した映像を観てみたいので Apple が提供している空間ビデオのサンプルプロジェクトを使ってみることにした。
ただ、この Rendering stereoscopic video with RealityKit プロジェクトは visionOS 26 / Xcode 26 以降に対応しており、従って自分の Vision Pro や Xcode も 26 にあげる必要があった。visionOS 2.6 を使ってたからいきなり 20 以上のバージョンアップだ。
このプロジェクトは AppleTV でみることができるような視界全体を覆うような再生のされ方をするものではない。が、とりあえず撮影した映像がきちんと立体的な情報を持っているかどうかだけでも確かめたかったのでよしとした。ということで、撮影したビデオを Xcode に取り込む。
実はここでも一悶着あり、撮影したビデオをそのまま Xcode にドラッグすればいいというものではなく、 Canon のユーティリティを使って変換する必要があったのだ。前述の EOS VR SYSTEM を使う、もしくは EOS VR Plugin for Adobe Premiere Pro を使う必要がある。おまけにこれは月額 550 円のサブスクリプションが必要であり、EOS VR SYSTEM と EOS VR Plugin for Adobe Premiere Pro では別々の課金が必要となる。これはちょっと事前にチェックし忘れていた。まさか公式のツールが要課金だとは思わなかったのである。
かといって使わないという方法はないので、登録をしてビデオを変換した。あとは Xcode プロジェクトがビルドできることを確認し、ビデオの読み込みを変更したら完成である。とはいえ、これで完成ではなく、空間全体に貼るなどの処理が必要となってくるが、それはまた次回以降の課題。