コラム

XRデバイスの「見え方」を支える、あんな技術・こんな技術

2024.09.27

XRデバイスの「見え方」を支える、あんな技術・こんな技術

現在XR市場を強力に牽引している「Apple Vision Pro」と「Meta Quest 3」。両者の「見え方」について、海外のエンジニアがやや偏り気味の評価を下してユーザーたちをザワつかせる事態になっています。

そしてそれについてVR専門メディアが記事を掲載したり、別のVRエンジニアが反論したりと、さらにザワザワすることに・・・。

さて一体何があったのか。できる限り客観的にそれぞれの意見を追ってみましょう。

目次

    Apple Vision Proの「見え方」についてエキスパートが指摘

    この議論は、2024年3月1日にKarl Guttag氏が自身のブログ「KGOnTech」に掲載した記事が発端です。Guttag氏はXRデバイスに使われるマイクロディスプレイをはじめとするさまざまなハードウェアに詳しい人物です。

    Texas Instruments(TI)社で最年少フェローを務めたほか、25年以上もこの分野の製品開発に携わり、関連特許を150以上も取得しているという、まさにXRデバイスのエキスパートともいえるでしょう。

    Guttag氏は、発売直後に入手したApple Vision Proについてのファーストインプレッションを2024年2月16日にブログに投稿しました。

    長年の経験とスキルに基づいてさまざまな検証を行なったGuttag氏は、時折、Meta Quest 3とApple Vision Proの構造の違いについても解説。

    そして最終的にはApple Vision Proについて「表示品質は他のほとんどのVRヘッドセットと比べると良好だが、ミドルクラスの最新のコンピューターディスプレイと比べると劣っている」と表現したのでした。

    さらにそのブログ記事を受ける形でGuttag氏は、「Apple Vision Pro's Optics Blurrier & Lower Contrast than Meta Quest 3」というタイトルのブログ記事を公開しました。

    この記事でGuttag氏は、Apple Vision Proについて改めて「画像が少しぼやけている」と述べた上で、Meta Quest 3との表示能力の比較を行なったのです。

    そしてブログタイトルにもなっている「Apple Vision Pro の光学系は Meta Quest 3 よりもぼやけていてコントラストが低い」という結論に至ったのでした。光学系というのは、要はレンズ周りなどの機能ですね。

    その根拠はGuttag氏が実行した1つの検証でした。1080p(解像度1920×1080ピクセル、フルHD画像)の白黒テストパターンを使って、Apple Vision ProとMeta Quest 3それぞれで表示した画面をキャプチャして比較したのです。

    ブログに貼り付けられた画像を見ると、確かにMeta Quest 3の画面の方が、コントラストが効いていて文字もはっきり見えるようです。

    必ずしもApple Vision Proの表示は悪くない?

    またこのブログを紹介した記事が、2024年5月9日にXR情報サイト「Road to VR」の記事「Quest 3 Has Higher Effective Resolution, But This is Why Vision Pro Still Looks Best」に引用される形で掲載されたことでも話題を呼びました。

    この「Road to VR」の記事内では、「Apple Vision Proは片目あたり11.7MP(メガピクセル、3660×3200ピクセル)の解像度を備え、Meta Quest 3の片目あたり4.5MP(2064×2208ピクセル)という解像度の2.6倍のピクセル数を備えている」と説明(ちなみにApple Vision Proの正確な解像度は公表されておらず、第三者機関の調査によるものです)。

    同記事ではデータを提示しながら「スペック的にはApple Vision Proの方が高精細である」ことを示しています。

    つまりGuttag氏の調査で、見え方が劣っているという結果が出たことは、やはり彼の主張のとおりApple Vision Proの光学的な機能や処理に問題があるのかもしれないと、暗に示唆していると読み取れます。

    さらに同記事では、VR/ARゴーグルの見え方は単なる「解像度」に依存するものではない、「レンダリング」によってその視覚体験は大きく変わる、と指摘しています。

    「Road to VR」の記事を介してGuttag氏のブログを読み、それに異を唱えたのが、「[Segmentation Fault]」というブログを執筆しているMax Thomas氏。

    Thomas氏もまたVRエンジニアですが、主にソフトウェア開発に関わっているようです。

    Thomas氏は「Apple Vision Pro has the same effective resolution as Quest 3... Sometimes? And there's not much app devs can do about it, yet.」という記事を2024年5月12日にブログへ掲載。それとほぼ同時に、自身でredditへも投稿したのでした。

    ご存知のとおりredditは多くのユーザーが集う掲示板型のSNSサービスです。redditへの投稿が発端となってバズるニュースも少なくありません。Thomas氏の投稿も、redditで多くの人の目にとまることとなり話題となったのでした。

    VR/ARゴーグルの見え方はソフトウェアの処理にも左右される

    という経緯はともかく、Thomas氏はブログ(およびreddit)で、ソフトウェア寄りのVRエンジニアとしてGuttag氏の記事へ一定の理解を示しつつ反論を行なったのでした。

    Thomas氏はApple Vision ProとMeta Quest 3の「実効解像度」の違いがGuttag氏の言う「光学系の機能差とぼやけ」につながっていると指摘しています。

    VR/ARヘッドセットに内蔵されるマイクロディスプレイには当然ながら物理的な「解像度」があります。前述した「Road to VR」の記事で触れられているのがそれにあたります。

    その表示はさまざまな処理が行なわれることでユーザーの目に届きますが、このときユーザーが実際に目にする解像度を「実効解像度」と呼び、それが高いほど「視覚的品質」も良くなります。

    Thomas氏は、Apple Vision Proの内部で行なわれているレンダリング処理(データを処理または演算して画像や映像を表示させること)に「可変ラスタライズレート(Variable Rasterization Rate/VRR)」と「フォービエイテッドレンダリング(Foveated Rendering、中心窩レンダリング)」があると言います。

    VRRはレンダリング性能を最適化することができる処理で、たとえばユーザーが目にしている仮想空間の映像で、重要な領域は高解像度で、そうでもない領域は低解像度で処理します。

    そしてVRRをより有効に実現するのがフォービエイテッドレンダリング機能です。これはユーザーが見ている中心部分を高解像度に、その周辺は低解像度で処理するというもの。

    ユーザーの視野の中心ほど解像度が高くなることで視覚的な没入感が高くなるという特徴があるとともに、VRRの効率も良くなる機能であり、まさにVR/ARゴーグルには必須の機能といえます。

    ユーザーが見ている部分には高精細な映像を提供しつつ計算の負荷を抑え、処理のパフォーマンスを保つことが可能になるからです。そしてひいては、VR/ARゴーグル全体の処理軽減につながり、バッテリー消費減にも貢献するというわけです。

    最終的に「人がどう知覚するか」がすべて

    そして今回の問題で注目すべきは、フォービエイテッドレンダリングに、さらに「動的フォービエイテッドレンダリング(Dynamic Foveated Rendering/DFR)」と「固定フォービエイテッドレンダリング(Fixed Foveated Rendering/FFR)」があるということです。

    DFRはユーザーの視線の動きを追跡して視野の中心を計測してレンダリングする機能で、FFRは視線の追跡はなく、指定された位置を視野の中心と定めてレンダリングします。

    Thomas氏は、自作のツールを作るなどしてGuttag氏の検証を再検証しました。そこで推測したのは、Guttag氏が検証時にApple Vision Proで見ていた(表示していた)文字は、DFRではなくFFRで検証されていたのでは? ということです。

    つまり、Apple Vision Proを装着した状態でGuttag氏の提示したテストパターンを表示し、見ていたら、DFRの効果によって文字も鮮明に読めたのでは? と指摘しています。

    さらにThomas氏は、Apple Vision Proの視覚的品質を評価する場合、レンダリング処理についてだけでなく「ミップマッピング(Mipmapping)」についても検証すべきとしています。

    ミップマッピングとは、3D処理でテクスチャマッピングするとき、異なる解像度のテクスチャ画像を複数用意しておき、視点からの距離に最適な解像度のテクスチャを選択する技術です。

    これにより、レンダリングの品質を向上させつつパフォーマンスを最適化します。Thomas氏は、Apple Vision Proのレンダリング解像度が低め(1920×1824ピクセル)に設定されているためにミップマッピングの際に視認性が低下する可能性があると指摘しています。

    これらのソフトウェア処理に関わるいくつかの要因によって、Guttag氏の行なった検証ではApple Vision Proの画質があまり良くない結果になったのではないか、必ずしも光学的な性能が劣っているからではない、というのがThomas氏の主張です。

    この議論の結論は、未だ明確にはなっていません。結論は出ないのかもしれません。

    先に紹介した「Road to VR」の記事では「人間の知覚は非常に複雑であり、VR/ARゴーグルの視覚的品質をピクセル数だけで判断することはできない」と示し、Apple Vision ProとMeta Quest 3の画質に優劣をつけるのは難しいとしています。

    実際に利用するユーザーの体験こそが、VR/ARゴーグルを評価する唯一の判断基準ということなのでしょう。

    この記事を共有する

    関連記事