JP6444886B2 - ニアアイ・ディスプレイのディスプレイ更新時間の低減 - Google Patents

ニアアイ・ディスプレイのディスプレイ更新時間の低減 Download PDF

Info

Publication number
JP6444886B2
JP6444886B2 JP2015550679A JP2015550679A JP6444886B2 JP 6444886 B2 JP6444886 B2 JP 6444886B2 JP 2015550679 A JP2015550679 A JP 2015550679A JP 2015550679 A JP2015550679 A JP 2015550679A JP 6444886 B2 JP6444886 B2 JP 6444886B2
Authority
JP
Japan
Prior art keywords
image data
display
data
user
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015550679A
Other languages
English (en)
Other versions
JP2016510525A (ja
JP2016510525A5 (ja
Inventor
タントス,アンドラス
ジー. フリック,ロド
ジー. フリック,ロド
ペリー,ジェッド
ディー. ボーン,デイヴィッド
ディー. ボーン,デイヴィッド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2016510525A publication Critical patent/JP2016510525A/ja
Publication of JP2016510525A5 publication Critical patent/JP2016510525A5/ja
Application granted granted Critical
Publication of JP6444886B2 publication Critical patent/JP6444886B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/03Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/35Unequal or adaptive error protection, e.g. by providing a different level of protection according to significance of source information or by adapting the coding according to the change of transmission channel characteristics
    • H03M13/356Unequal error protection [UEP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234318Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234345Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234354Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering signal-to-noise ratio parameters, e.g. requantization
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2383Channel coding or modulation of digital bit-stream, e.g. QPSK modulation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0127Head-up displays characterised by optical features comprising devices increasing the depth of field
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/65Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience
    • H04N19/67Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience involving unequal error protection [UEP], i.e. providing protection according to the importance of the data

Description

ヘッド・マウント・ディスプレイ(HMD)デバイス等のニアアイ・ディスプレイ(NED:near-eye display)デバイスは、拡張現実(AR)体験又は仮想現実(VR)体験のために、ユーザにより装着され得る。多くの要因が、NEDユーザの満足のいくユーザ体験に影響を及ぼし得るが、ユーザ・アクションに対するレスポンスを反映するために更新されることになる画像データのために相当な時間期間待たなければならないユーザにとって、良好でない画像品質又は短いバッテリ寿命は、不満足なユーザ体験の一般的な要因である。装着するのに快適であるべき消費者向け製品のこうした一般的な要因等の要因に対処することはまた、スペース、重量、電力、及びコスト(SWaP−C)等の実際の要因を考慮に入れることも伴う。
本技術は、NEDデバイスのディスプレイ更新時間を低減させる方法の1以上の実施形態を提供する。当該方法の実施形態は、注目点(point of focus)から、ディスプレイ視野(display field of view)内に表示するための画像データまでの、ニアアイ・ディスプレイ・デバイスのディスプレイ視野における距離ベクトルを識別することを含む。注目点からの距離ベクトルと、低知覚基準(low perception criteria)と、に基づいて、NEDデバイスに通信可能に接続されたコンピュータ・システムは、表示されることになる画像データの少なくとも一部が、低知覚基準を満たさない無損失優先データ(lossless priority data)として適しているかどうかを判定する。当該方法の実施形態は、注目点からの距離ベクトルに基づいて、NEDデバイスに通信可能に接続されたコンピュータ・システムが、表示されることになる画像データの少なくとも一部が低知覚基準を満たす損失許容データ(allowed loss data)として適しているかどうかを判定することをさらに含む。損失許容データとして適している画像データの少なくとも一部に応じて、コンピュータ・システムは、損失伝送(lossy transmission)を許容する1以上の通信技術を用いて、損失許容データをNEDデバイスに送信する。無損失優先データとして適している画像データの少なくとも一部に応じて、無損失伝送基準(lossless transmission criteria)を満たす1以上の通信技術を用いて、無損失優先データが、コンピュータ・システムにより、NEDデバイスに送信される。
本技術は、ニアアイ・ディスプレイ(NED)デバイスのディスプレイ更新時間を低減させる方法の1以上の実施形態を提供する。当該方法の実施形態は、通信可能に接続されたコンピュータ・システムからユーザ画像データを受信することと、受信されている画像データ内の、NEDデバイスのディスプレイ視野におけるユーザ焦点領域(user focal region)内に表示するためのユーザ焦点領域画像データ(user focal region image data)を識別することと、を含む。ユーザ焦点領域画像データが、無損失伝送基準を満たす1以上の通信技術を用いて取り出される(retrieved)。ユーザ焦点領域外に表示するための少なくとも何らかのセカンダリ画像データ(secondary image data)が、受信されている画像データ内で識別され、損失伝送を許容する1以上の通信技術を用いて取り出される。ユーザ焦点領域画像データ及び少なくとも何らかのセカンダリ画像データが、NEDデバイスのディスプレイ視野内に表示される。
本技術は、ニアアイ・ディスプレイ(NED)デバイス・システムの1以上の実施形態を提供する。NEDデバイス・システムの実施形態は、ニアアイ・サポート構造と、ニアアイ・サポート構造によりサポートされ、ディスプレイ視野を有するニアアイ・ディスプレイ(NED)と、を含むニアアイ・ディスプレイ・デバイスを備える。NEDシステムは、ニアアイ・サポート構造によりサポートされ、ニアアイ・ディスプレイ(NED)に光学的に結合される画像データを出力する画像生成ユニットをさらに備える。実施形態は、画像データの表示を制御するための、画像生成ユニットに通信可能に接続された1以上のプロセッサをさらに備える。1以上のプロセッサは、ユーザ焦点領域内に表示するためのユーザ焦点領域画像データを識別し、NEDデバイス・システムにより実行されている1以上のアプリケーションに基づいて、ユーザ焦点領域外に表示するためのセカンダリ画像データを識別する。第1の通信モジュールが、1以上のプロセッサに通信可能に接続され、通信媒体を介して、コンピュータ・システムに通信可能に接続される。通信モジュールは、無損失伝送基準を満たす1以上の通信技術を用いて、コンピュータ・システムから、ユーザ焦点領域画像データを取り出す。通信モジュールは、損失伝送を許容する1以上の通信技術を用いて、コンピュータ・システムから、少なくとも何らかのセカンダリ画像データを取り出す。
この概要は、発明を実施するための形態において以下でさらに説明されるコンセプトのうち選択したものを簡略化した形で紹介するために提供される。この概要は、特許請求される主題の主要な特徴又は必要不可欠な特徴を特定することを意図するものではないし、特許請求される主題の範囲を決定する際の助けとして使用されることを意図するものでもない。
ニアアイ・ディスプレイ(NED)デバイス・システムの一実施形態の例示的なコンポーネントを示すブロック図。 NEDデバイスと付属処理モジュールとの間で無線通信を用いるNEDデバイス・システムの別の実施形態のブロック図。 NEDデバイス・システムの別の実施形態の例示的なコンポーネントを示すブロック図。 光学的シースルーARディスプレイを有し、ハードウェア・コンポーネント及びソフトウェア・コンポーネントのためのサポートを提供する眼鏡として具現化されているNEDデバイスの一実施形態におけるフレームの眼鏡テンプルの側面図。 NEDデバイスの同実施形態のディスプレイ光学系の一実施形態の上面図。 NEDシステムによりデータを受信するために、あるいは別のコンピュータ・システムによりNEDシステムへデータを送信するために使用することができる通信モジュールの一実施形態のブロック図。 送信側コンピュータ・システムの観点からの、NEDデバイスのディスプレイ更新時間を低減させる方法の一実施形態のフローチャート。 NEDデバイス・システムの受信側コンピュータ・システムの観点からの、NEDデバイスのディスプレイ更新時間を低減させる方法の一実施形態のフローチャート。 ディスプレイ・デバイス2を装着しているユーザ周囲の空間の3次元(3D)マッピングにおける仮想オブジェクトの3D空間位置の一例を示す図。 ユーザ焦点領域内又はユーザ焦点領域外の位置に基づいて画像解像度を変えるNEDデバイスにより表示されている仮想ヘリコプタの例を含むディスプレイ視野の一例を示す図。 ジェスチャがNED視野内の注目点を示す、ヘリコプタの例の別のバージョンを示す図。 ニアアイ・ディスプレイ・デバイスにより画像データを表示するための、ソフトウェアの観点からの、システムの一実施形態のブロック図。 ニアアイ・ディスプレイ(NED)のディスプレイ視野内に画像データを表示するために領域を識別する方法の一実施形態のフローチャート。 ディスプレイ視野内のセカンダリ領域を決定し、セカンダリ領域に関連付けられた画像解像度を決定する方法の別の実施形態のフローチャート。 送信側コンピュータ・システムの観点からの、NEDデバイスのディスプレイ更新時間を低減させる方法の別の実施形態のフローチャート。 NEDデバイス・システムの受信側コンピュータ・システムの観点からの、NEDデバイスのディスプレイ更新時間を低減させる方法の別の実施形態のフローチャート。 異なるレベルの誤り訂正を用いるプロセスの例のフローチャート。 図9Aの通信技術のいくつかの実施例を示すフローチャート。 受信画像データから無損失優先画像データ及び損失許容画像データを取り出す際に使用することができる通信技術のいくつかの他の例を示すフローチャート。 受信画像データから損失許容画像データを取り出すための通信技術の別の例を示すフローチャート。 伝送品質に応じて変化する変調技術を用いて画像データを送信するプロセスの例のフローチャート。 コンステレーション符号化スキームとしての変調通信技術のいくつかの実施例を示すフローチャート。 送受信されるべき画像データの優先度に基づいて、通信技術としての通信チャネルについてネゴシエートすることを示すフローチャート。 ネットワーク・アクセス可能なコンピューティング・システム、付属処理モジュール、又はニアアイ・ディスプレイ・デバイスの制御回路を実装するために使用することができるコンピューティング・システムの一実施形態のブロック図。
ニアアイ・ディスプレイ(NED)デバイスの一例は、ヘッド・マウント・ディスプレイ(HMD)デバイスである。NEDデバイスは、拡張現実体験又は混合現実体験のために、現実オブジェクトとともに視野内に仮想オブジェクトの画像データを表示するために使用することができる。仮想現実システムにおいて、NEDは、現実世界の関係とは独立して、コンピュータで制御される画像を表示することができる。別の例において、ニアアイ・ディスプレイは、例えば、暗視デバイスといった赤外線撮像デバイス等の視野を拡張するためのアプリケーションにおいて使用することができる。こうした体験を現実的なものに保つために、ディスプレイは、ディスプレイのディスプレイ視野内のユーザの注目点の変化及び実行アプリケーションに基づく画像データの変化をもって、リアルタイムに更新される。注目点周囲のユーザ焦点領域が、眼追跡データ又はNEDシステムのナチュラル・ユーザ入力システムにより生成されるジェスチャ・データにおいて識別されるポインティング・ジェスチャ等のナチュラル・ユーザ入力データに基づいて、ディスプレイ視野内で識別され得る。他の例において、ユーザ焦点領域は、NEDデバイスを装着しているユーザがニアアイ・ディスプレイの視野内の更新された画像データを見る可能性が高いので、実行アプリケーションに基づく画像データのディスプレイ位置の識別に基づいて予想され得る。
画像データは、静止画像データに加えて、ビデオ等の動画像データであり得る。画像データはまた、3次元であり得る。3D画像データの一例は、ホログラムである。画像データは、ポリゴン・メッシュにおいて表現することができる、あるいはエッジ・データとして表現することができる構造データを含む。さらに、画像データは、クロマ・データ又は彩度データと、輝度データと、を含む色データを含む。画像データの各カテゴリ内で、ビットが優先度を付けられる。例えば、より高い優先度ビットは、ワード・フォーマットで、予め定められた数の最上位ビット(MSB)に格納され得るのに対し、より低い優先度ビットは、予め定められた数の最下位ビット(LSB)に格納され得る。色ワードのMSBビットは、緑色(green hue)等のベース・カラーを表すことができ、LSBビットは、色のうち緑色系列内の緑色を区別するより飽和した値(more saturation value)を表す。データが、ディスプレイ視野内で注目点から移動すると(例えば、ユーザが頭を動かす、あるいは画像がアプリケーションのロジックに基づいて変化すると)、LSBにより表された緑色間の微妙な差(subtlety)は、緑色レセプタ(green receptor)が窩(fovea)からの距離から離れてしまっているので、もはや人間の眼上で分解できるものではない、あるいは非常に小さな量である。したがって、より低い優先度色ビットを表現しないことは、ユーザ体験を著しく損なうものではない。
同様に、基本構造(例えば、骨格)を表す構造データは、高優先度データとして扱われ得るのに対し、詳細のレイヤ(layers of details)は、基本構造の上に構築されるので、メモリにおいて、低減した優先度のビット構造で表され得る。輝度データもまた、ワードのMSBから優先度が低減したビットで格納され得る。注目点からの距離が増すにつれ、画像データを送信するコンピュータ・システムは、その距離を、送信のために失われ得る複数のより低い優先度ビット(例えば、複数のLSB)に関連付けることができる。
MSBからLSBに加えて、画像データの異なるタイプの優先度を示す、コンテンツを記憶する他の予め定められたパターンがまた使用されてもよい。さらに、注目点からの距離に基づいて損失伝送を許容する通信技術を用いてどのくらいの量の画像データを送信できるかに関する予め定められた限界が存在してもよい。画像品質の段階的な減少がまた望ましく、また、人間の眼の分解能を超えて留まる、例えば、解像度といった画像品質が望ましい。ユーザ焦点領域から動くときの不意に現れる、あるいは消えるデータは、自然な視野体験から逸脱し、ユーザ体験を損なう。
人間の眼の分解能を利用し、無損失伝送及び損失伝送のための注目点に関連する位置に対する画像データを優先度付けする技術の実施形態について以下で説明する。さらに、いくつかの実施形態は、ユーザ焦点領域内の画像データ及びユーザ焦点領域外の画像データの異なる解像度レベルを使用する。
伝送における損失データは、絶対に到達しない失われたデータ、又は途中で破損したために送信されないデータを表す。通信においては、常に何らかの非常に小さな誤りが存在するので、無損失伝送基準は、全ての送信されたデータが受信機において正確に検出されているシステムの予め定められた基準に応じた、例えば、99%又は99.999999%よりも大きいといった高確率として説明される。無損失伝送基準を表す別の方法は、ビット誤り率である。いくつかの例において、記憶された無損失伝送基準は、全ビット誤り率を満たす通信特性及び通信技術の異なる組合せを識別し得る。そのような基準のいくつかの例は、通信媒体のタイプ、有線であるか又は無線であるか、伝送の範囲、雑音レベル範囲、及び誤り訂正技術の利用可能なタイプに関連付けられた誤り訂正率、並びに1以上の利用可能な変調技術に関連付けられた1以上の誤り率である。基準の1つのタイプを変更することは、無損失伝送基準を構成する他のタイプの基準の基準値を変更させ得る。無損失伝送基準を満たさないことにより損失伝送を許容することは、損失データをもたらさない場合があるが、例えば、受信機において正確に検出されたデータの80%といったデータの損失の確率は、ユーザが注目している高優先度データについては、受け入れられないものであり得る。
図1Aは、ニアアイ・ディスプレイ(NED)デバイス・システムの一実施形態の例示的なコンポーネントを示すブロック図である。図示した実施形態において、システムは、ヘッド・マウント・ディスプレイ(HMD)デバイス2としてのニアアイ・ディスプレイ(NED)デバイスであって、付属処理モジュール(companion processing module)4として識別される別のコンピュータ・システムに有線6を介して通信可能に接続されるNEDデバイスを含む。多くの実施形態において、付属処理モジュール4は、NEDデバイス上の通信モジュールとの直接1対1通信リンクを確立することができる。このリンクは、例えば、10フィート以内といった、短距離とすることができる。直接リンクは、ネットワーク・ルータ又はセルラ・ステーション等の介入通信伝送ポイント(intervening communication transfer point)に依存しない。直接リンクの一例は、有線直接リンク、又は、空中の無線通信媒体を介した赤外線リンク等の無線直接リンクである。直接通信リンクに加えて、NEDデバイス2及び付属処理モジュール4はまた、他のネットワーク・デバイス等、ネットワーク・プロトコルを介して通信してもよい。多くの実施形態において、付属処理モジュール4は、ユーザにより装着される、あるいは保持される。そのいくつかの例は、手首ベースのモジュール、又は、スマートフォン若しくはタブレット等のモバイル・デバイスである。ユーザがNEDディスプレイを装着しているときにユーザは付属処理モジュールを伴い、付属処理モジュールは、例えば、NEDデバイス用の補助ユーザ入力デバイスとして動作するといった、補助サービスを提供することができる。
図1Bは、NEDデバイス2と付属処理モジュール4との間で無線通信を用いるNEDデバイス・システムの別の実施形態のブロック図である。図1Cは、NEDデバイス・システム8がニアアイ・ディスプレイ・デバイス2上に組み込まれている、付属処理モジュール4を含まないNEDデバイス・システムの別の実施形態の例示的なコンポーネントを示すブロック図である。
これらの実施形態において、NEDデバイス2は、フレーム115状の眼鏡の形状であり、NEDがユーザにより装着されたときに、各眼は、NEDデバイスの前方に位置するそれぞれのディスプレイ光学系(display optical system)14を介して見ることになる。この実施形態において、各ディスプレイ光学系14は、投影ディスプレイを使用する。投影ディスプレイでは、画像データは、画像データがユーザ前方の3次元視野内の位置においてユーザに見えるように、画像データの表示を生成するためにユーザの眼に投影される。例えば、ユーザは、リビング・ルームにおいて、光学的シースルー・モード(optical see-through mode)で敵ヘリコプタ撃墜ゲーム(shoot down enemy helicopter game)をプレーしていることがある。ユーザは、人間の眼に近い画像データに焦点を合わせることができないので、ヘリコプタの画像は、レンズ116とレンズ118との間ではなく、ユーザのリビング・ルームにおいて、椅子の上を飛んでいるように、ユーザに見える。画像を生成するディスプレイは、画像が見られる場所とは分離されている。各ディスプレイ光学系14は、ディスプレイとも呼ばれ、2つのディスプレイ光学系14が合わせてディスプレイと呼ばれる場合もある。
いくつかの実施形態において、ディスプレイは、仮想現実(VR)コンテキストにおいて、画像データを表示していることがある。例えば、画像データは、装着者の現実世界環境とは独立して動く人及び物のものであり、ユーザの現実世界環境からの光は、例えば、不透明フィルタ(opacity filter)を介して、ディスプレイによりブロックされる。他の実施形態において、ディスプレイは、拡張現実(AR)のために使用されてもよい。ニアアイARディスプレイを使用しているユーザは、現実オブジェクトとともに表示された仮想オブジェクトをリアルタイムに見る。詳細には、光学的シースルー拡張現実ディスプレイ・デバイスを装着しているユーザは、シースルー・ディスプレイの、したがって、シースルー・ディスプレイ及び光学的シースルー・ディスプレイのディスプレイ視野内で、仮想オブジェクト又は仮想エフェクトの画像データにより隠されていない現実オブジェクトを、ユーザの自然の視野で実際に見る。ビデオ・シースルー・ディスプレイ又はビデオ観視モード(video-see mode)で動作するディスプレイと時折呼ばれる、ビデオ観視ディスプレイ(video-see display)等の他のタイプの拡張現実ディスプレイでは、ディスプレイは、実際にはシースルーではない。なぜならば、ユーザは、ユーザの自然な視野で現実オブジェクトを見るのではなく、現実オブジェクトが、仮想オブジェクト及び仮想エフェクトの画像とともに、自然な視野で見えるように、隠されていない表示画像データを見るからである。以下のシースルー・ディスプレイへの言及は、光学的シースルー・ディスプレイを参照している。
これらの実施形態において、フレーム115は、適切な位置でNEDデバイス2のエレメントを保持するためのニアアイ・サポート構造としてのみならず、電気接続のための管路としての便利な眼鏡フレームを提供する。ニアアイ・サポート構造のいくつかの他の例は、バイザ・フレーム(visor frame)又はゴーグル・サポートである。フレーム115は、音を記録しオーディオ・データを制御回路136に送信するためのマイクロフォン110を有するノーズ・ブリッジ(nose bridge)104を含む。フレームのテンプル又はサイド・アーム102は、ユーザの両耳の各々の上に静止し、この例において、右のサイド・アーム102rがNEDデバイス2の制御回路136を含むものとして図示されている。
付属処理モジュール4は、様々な実施形態を取り得る。いくつかの実施形態において、付属処理モジュール4は、例えば、手首といったユーザの身体上に装着され得るポータブルな形態であってもよいし、モバイル・デバイス(例えば、スマートフォン、タブレット、ラップトップ)等の別のポータブルなコンピュータ・システムであってもよい。図1A及び図1Bに示されるように、付属処理モジュール4は、1以上の通信ネットワーク50を介して、有線又は無線で(例えば、WiFi(登録商標)、Bluetooth(登録商標)、赤外線、赤外線パーソナル・エリア・ネットワーク、RFID伝送、無線ユニバーサル・シリアル・バス(WUSB)で)、近くに位置する、あるいはリモート位置にある1以上のネットワーク・アクセス可能なコンピュータ・システム12と、例えば、ピア・ツー・ピア通信の一部としてある位置又は環境にある他のニアアイ・ディスプレイ・デバイス・システム8と、利用可能である場合にはその環境にある1以上の3D画像キャプチャ・デバイス20と、に通信することができる。他の実施形態において、付属処理モジュール4の機能は、ディスプレイ・デバイス2のソフトウェア・コンポーネント及びハードウェア・コンポーネントに統合することができる(図1C参照)。付属処理モジュール4のハードウェア・コンポーネントのいくつかの例は、図11に示されている。
1以上のネットワーク・アクセス可能なコンピュータ・システム12は、電力処理及びリモート・データ・アクセスのために利用することができる。コンピュータ・システム12のハードウェア・コンポーネントの一例が、図11に示されている。コンポーネントの複雑さ及び数は、コンピュータ・システム12及び付属処理モジュール4の異なる実施形態ごとに大きく異なり得る。
アプリケーションは、コンピュータ・システム12上で実行されていることがある。コンピュータ・システム12は、ニアアイ・ディスプレイ・デバイス・システム8における1以上のプロセッサ上で実行されるアプリケーションとインタラクトする、あるいは、そのようなアプリケーションのための処理を実行する。例えば、3Dマッピング・アプリケーションは、1以上のコンピュータ・システム12及びユーザのニアアイ・ディスプレイ・デバイス・システム8上で実行されていることがある。いくつかの実施形態において、アプリケーション・インスタンス(application instance)は、マスタ・ロール(master role)及びクライアント・ロール(client role)で実行することができ、そこでは、クライアント・コピー(client copy)が、ニアアイ・ディスプレイ・デバイス・システム8内の1以上のプロセッサ上で実行されており、そのディスプレイ視野の3Dマッピングを実行し、1以上のコンピュータ・システム12から、マスタ3Dマッピング・アプリケーションからのそのビューにおけるオブジェクトのアップデートを含む3Dマッピングのアップデートを受信し、利用可能である場合、画像データ、奥行きデータ、及びオブジェクト識別データをマスタ・コピー(master copy)に返送する。さらに、いくつかの実施形態において、同じ環境内の異なるニアアイ・ディスプレイ・デバイス・システム8上で実行されている3Dマッピング・アプリケーション・インスタンスは、システム8間で、例えば、ピア・ツー・ピア構成の現実オブジェクト識別情報(identification)といったデータ・アップデートをリアルタイムに共有する。
用語「ディスプレイ視野」は、NEDデバイス・システムのディスプレイの視野を指す。すなわち、ディスプレイ視野は、ユーザの視点から見られるようなユーザ視野を大まかに表す(approximate)。しかしながら、自然な人間の視野は、周辺視野を含め、ユーザの眼間を中心に180度を超えて延びることができるのに対し、NEDのディスプレイ視野は、通常、より制限されている。例えば、NEDデバイスのディスプレイ視野は、人間の視野の中心部分のおよそ60度を表し得る。多くの実施形態において、ディスプレイの各タイプのディスプレイ視野は、直交するX軸、Y軸、及びZ軸を有するビュー依存の座標系(view dependent coordinate system)によりマッピングされ得る。その座標系において、Z軸は、1以上の基準点(reference point)からの奥行き位置を表す。例えば、ディスプレイは、各ディスプレイの光軸(図2Bの下の142参照)の交点等、各ディスプレイ14l、14rの基準点を使用することができる。さらに、ディスプレイ視野はまた、オブジェクトを識別し、関連画像データを取り出すために有用である環境のビュー非依存の座標(view independent coordinate)においてマッピングされ得る。関連画像データは、次いで、画像データのユーザの視点を大まかに表すために、ビュー依存の座標において、表示のために方向付けられる。
図1の例示した実施形態において、1以上のコンピュータ・システム12及びポータブル・ニアアイ・ディスプレイ・デバイス・システム8はまた、1以上の3D画像キャプチャ・デバイス20へのネットワーク・アクセスを有する。3D画像キャプチャ・デバイス20は、1人以上のユーザにより実行されるジェスチャ及び動きに加えて、サーフェス及びオブジェクトを含む周囲空間の構造が、キャプチャ、解析、及び追跡され得るように、例えば、1人以上のユーザ及び周囲空間を視覚的にモニタリングする1以上のカメラとすることができる。画像データ及び奥行きデータは、1以上の3D画像キャプチャ・デバイス20によりキャプチャされた場合、ある位置にある1以上のニアアイ・ディスプレイ・デバイス・システム8の1以上のキャプチャ・デバイス113によりキャプチャされたデータを補足することができる。1以上のキャプチャ・デバイス20は、ユーザ環境内に位置する1以上の奥行きカメラとすることができる。
図1Cは、NEDデバイス・システム8がニアアイ・ディスプレイ・デバイス2上に組み込まれている、付属処理モジュール4を含まないNEDデバイス・システムの別の実施形態の例示的なコンポーネントを示すブロック図である。この実施形態において、ディスプレイ・デバイス2の制御回路136は、付属処理モジュール4が図1Aにおいて提供する機能を組み込んでおり、通信ネットワーク50を介し、通信モジュール(図2Aの通信モジュール137参照)を経由して、近くに位置する、あるいはリモート位置にある1以上のコンピュータ・システム12と、ある位置又は環境にある他のNEDシステム8と、利用可能である場合にはその環境にある3D画像キャプチャ・デバイス20と、に通信することができる。
図2Aは、光学的シースルーARディスプレイを有し、ハードウェア・コンポーネント及びソフトウェア・コンポーネントのためのサポートを提供する眼鏡として具現化されているNEDデバイスの一実施形態におけるフレームの眼鏡テンプルの側面図である。例えば、カメラといった、少なくとも2つの物理環境対面画像キャプチャ・デバイス(physical environment facing capture device)113のうちの1つが、フレーム115の前方に存在する。画像キャプチャ・デバイス113は、少なくともシースルー・ディスプレイのディスプレイ視野内、したがって、ユーザの視野内の現実オブジェクトをマッピングするために、現実世界のビデオ及び静止画像等の画像データを、通常は色でキャプチャすることができる。いくつかの実施形態において、キャプチャ・デバイスは、赤外(IR)光、又は紫外線等の可視光スペクトル外の他のタイプの光に対して感度が高いものであり得る。画像は、暗視アプリケーション等のアプリケーションによる表示のために、キャプチャされたデータに基づいて生成され得る。
キャプチャ・デバイス113はまた、ユーザの頭部から外側に面しているという意味で、外側対面キャプチャ・デバイス(outward facing capture device)とも呼ばれる。任意的に、3Dマッピングのために使用することができる、ユーザの環境内の現実オブジェクトの画像データもキャプチャする外側対面サイド・キャプチャ・デバイスが存在してもよい。キャプチャ・デバイス113はまた、ユーザの頭部から外側に面しているという意味で、外側対面面キャプチャ・デバイスとも呼ばれる。図示したキャプチャ・デバイスは、それぞれのディスプレイ光学系14の基準点に関して較正される、前方対面キャプチャ・デバイス(front facing capture device)である。そのような基準点の一例は、それぞれのディスプレイ光学系14の光軸(図2Bの142参照)である。較正により、キャプチャ・デバイス113によりキャプチャされたデータからディスプレイ光学系14のディスプレイ視野を決定することが可能となる。
いくつかの例において、画像キャプチャ・デバイス113はまた、奥行きに対して感度が高いものであり得る。例えば、画像キャプチャ・デバイス113は、奥行きデータを決定することができる赤外光を送信及び検出する奥行きセンシティブ・カメラ(depth sensitive camera)とすることができる。他の例において、フレーム115前方の、又はサイド・キャプチャ・デバイスが使用される場合にはそのサイドの別の奥行きセンサ(図示せず)がまた、ディスプレイ視野内のオブジェクト及び他のサーフェスに対する奥行きデータをキャプチャ及び提供してもよい。奥行きデータ及び画像データは、ディスプレイ視野を含むよう較正される画像キャプチャ・デバイス113のキャプチャされた視野の奥行きマップを形成する。ディスプレイ視野の3次元(3D)マッピングが、奥行きマップに基づいて生成され得る。
いくつかの実施形態において、物理環境対面キャプチャ・デバイス113は、立体視(stereopsis)に基づいて、画像データ内のオブジェクトの奥行き情報を決定することができるオーバーラッピング画像データ(overlapping image data)を提供する。視差、及び色等の明暗特徴(contrasting feature)を使用して、現実オブジェクトの相対位置を決定することもできる。
制御回路136は、ヘッド・マウント・ディスプレイ・デバイス2の他のコンポーネントをサポートする様々なエレクトロニクスを提供する。この例において、右のサイド・アーム102は、処理ユニット210と、プロセッサ読み取り可能な命令及びデータを記憶するための、処理ユニット210がアクセス可能なメモリ244と、処理ユニット210に通信可能に接続される通信モジュール137と、制御回路136のコンポーネント、並びに、キャプチャ・デバイス113、マイクロフォン110、及び以下で説明するセンサ・ユニット等の、ディスプレイ・デバイス2の他のコンポーネントに電力を供給する電源239と、を含む、ディスプレイ・デバイス2の制御回路136を含む。処理ユニット210は、中央処理ユニット(CPU)及びグラフィックス処理ユニット(GPU)を含む1以上のプロセッサを備えることができ、別の付属処理モジュール4のない実施形態では特に、少なくとも1つのグラフィックス処理ユニット(GPU)を含む。
オーディオ出力デバイスの一例としてのイヤフォンのセット130のうちの1つのイヤフォンと、1以上の慣性センサを含む慣性検出ユニット132と、1以上の位置センサ又は近接センサを含む位置検出ユニット144と、が、サイド・アーム102内部に設けられる、あるいはサイド・アーム102に搭載される。位置検出ユニット144のいくつかの例は、GPSトランシーバ、赤外線(IR)トランシーバ、又はRFIDデータを処理するための無線周波数トランシーバである。一実施形態において、慣性検出ユニット132は、慣性センサとして、3軸磁力計、3軸ジャイロ、及び3軸加速度計を含む。慣性センサは、ヘッド・マウント・ディスプレイ・デバイス2の位置、向き、及び突然の加速を検出するためのものである。このような検出された動きから、ユーザの視点における変化及び画像データがユーザの視点とともに追跡するために更新されるディスプレイ視野における変化を示す頭部の位置、したがって、ディスプレイ・デバイスの向きがまた、決定され得る。この実施形態において、そのオペレーションにおいてアナログ信号を処理するユニット又はデバイスの各々は、制御回路を含む。この制御回路は、デジタル処理ユニット210及びメモリ244とデジタルでインタフェースを取り、それぞれのデバイスのために、アナログ信号を生成又は変換する、あるいはアナログ信号を生成及び変換する。アナログ信号を処理するデバイスのいくつかの例は、位置検出ユニット及び慣性検出ユニット、イヤフォン130に加えて、マイクロフォン110、キャプチャ・デバイス113、及び、各眼のディスプレイ光学系14l及び14rのためのそれぞれのIR照明源134A及びそれぞれのIR検出器134Bである。
ユーザの頭部の位置の追跡、及び少なくともディスプレイ視野の3Dマッピングは、どの画像データを異なる体験でユーザに提示すべきかを判定するために使用される。そのような体験として、NEDデバイス・システム8若しくはネットワーク・アクセス可能なコンピュータ・システム12又はそれらの組合せの1以上のプロセッサによる、拡張現実、仮想現実、及び暗視等がある。
この実施形態において、画像生成ユニット120は、1以上の現実オブジェクトとインタラクトすることができる仮想オブジェクトの現実的な焦点3次元ディスプレイ(in-focus three dimensional display)を提供するディスプレイ視野内の指定された奥行き位置に見えるように、仮想オブジェクトを表示することができる。いくつかの例において、仮想的特徴の画像の焦点部分の複数の画像又は合成画像の急速な表示が、表示仮想データを異なる焦点領域において見えるようにするために、使用され得る。
図2Aの例示した実施形態において、画像生成ユニット120は、レンズ・システム等の、マイクロディスプレイ及び結合光学素子(coupling optic)を含む。この例において、マイクロディスプレイにより出力される画像データは、反射面又は反射エレメント124に向けられる。反射面又は反射エレメント124は、画像生成ユニット120からの光を、ディスプレイ・ユニット112(図2B参照)に光学的に結合し、ディスプレイ・ユニット112は、デバイス2がユーザにより装着されたとき、画像を表す光を、ユーザの眼に向かわせる。
図2Bは、NEDデバイスのディスプレイ光学系の一実施形態の上面図である。ディスプレイ光学系14のコンポーネントを示すために、この右眼用の14rの場合、ディスプレイ光学系を取り囲むフレーム115の一部は、図示されていない。この実施形態において、ディスプレイ14l及びディスプレイ14rは、光学的シースルー・ディスプレイであり、各ディスプレイは、2つのオプションのシースルー・レンズ116及び118間に図示されたディスプレイ・ユニット112を含み、ハーフ・ミラー、格子、及び画像生成ユニット120からの光をユーザの眼140に向かわせるために使用することができる他の光学エレメント等の1以上の光学エレメントを表す代表反射エレメント134Eを含む。矢印142は、ディスプレイ光学系14rの光軸を表す。光学的シースルーNEDのディスプレイ・ユニット112の一例は、導光光学エレメント(light guide optical element)を含む。導光光学エレメントの一例は、平面導波管(planar waveguide)である。
光学的シースルー拡張現実の実施形態において、ディスプレイ・ユニット112により、ニアアイ・ディスプレイ(NED)デバイス2の前方からの光が眼140により受け入れられることが可能となり得、それにより、ユーザが、画像生成ユニット120からの仮想的特徴の画像を見ることに加えて、NEDデバイス2の前方の空間の実際の直接的ビュー(actual direct view)を有することが可能となるように、ディスプレイ・ユニット112もまたシースルーである。「実際の直接的ビュー」という用語の使用は、オブジェクトの作成された画像表現を見るのではなく、人間の眼で現実世界オブジェクトを直接見る能力を指す。例えば、眼鏡を通して部屋を見ることにより、ユーザは、部屋の実際の直接的ビューを有することが可能となるのに対し、テレビジョン上で部屋のビデオを見ることは、部屋の実際の直接的ビューではない。
いくつかの実施形態において、各ディスプレイ・ユニット112はまた、任意的に、統合眼追跡システムを含んでもよい。例えば、赤外線(IR)照明源が、各ディスプレイ・ユニット112に光学的に結合され得る。可視光を眼に向かわせる1以上の光学エレメントはまた、IR照明を眼に向かわせることができ、眼からIRカメラ等のIRセンサへIR反射を向かわせることができるという意味で、双方向的であり得る。瞳孔の位置が、各眼について、キャプチャされたそれぞれのIRセンサ・データから識別され得、眼モデル、例えば、Gullstrand眼モデルと、瞳孔の位置と、に基づいて、近似された窩の位置から伸びる各眼の注視線(gaze line)が、決定され得る。ディスプレイ視野内の注視点(point of gaze)が識別され得る。注視点におけるオブジェクトが、注目オブジェクトとして識別され得る。注視点周囲のユーザ焦点領域が、人間の視覚パラメータ(human vision parameter)に基づいて識別され得る、あるいは、人間の視覚パラメータに基づいて以前に決定された予め定められた距離に基づいて識別され得る。
この実施形態において、ディスプレイ・ユニット112は、ディスプレイの一部として動作する平面導波管を含み、また、眼追跡を統合する。代表反射エレメント134Eは、ミラー、格子、及び画像を表す可視光を平面導波管からユーザの眼140に向かわせる他の光学エレメント等の1以上の光学エレメントを表す。この実施形態において、代表反射エレメント134Eはまた、眼追跡システムの一部として、赤外光の双方向反射を行う。赤外線照明及び反射はまた、通常はユーザの瞳孔であるユーザの眼の位置及び動きを追跡するための眼追跡システム134の平面導波管を横切る。各動きはまた、まばたき(blink)を含み得る。眼追跡システム134は、眼追跡IR照明源134A(赤外線発光ダイオード(LED)又はレーザ(例えば、VCSEL))及び眼追跡IRセンサ134B(例えば、IRカメラ、IR光検出器の構成)を備える。代表反射エレメント134Eとともに波長選択フィルタ134C及び134Dが、双方向赤外(IR)フィルタリングを実施し、これが、好ましくは、光軸142の周りに集中して、IR照明を眼140に向かわせ、好ましくは、光軸142の周りでキャプチャされた反射を含むIR反射をユーザの眼140から受け、この反射が、導波管からIRセンサ134Bに向けられる。
他の統合眼追跡ディスプレイの実施形態において、例えば、自由曲面プリズム(free form prism)といったプリズムが、ディスプレイ・ユニット112の一部を形成する。画像生成ユニット120及び眼追跡IR照明源134Aからの画像データを表す光が、プリズムに光学的に結合される。プリズムの一例は、ウェッジ光学素子(wedge optic)である。眼からの反射が、プリズムを介してキャプチャされ、眼追跡IRセンサ134Bに光学的に結合される。
他の実施形態において、眼追跡ユニット光学素子は、ディスプレイ光学素子と統合されない。HMDデバイスの眼追跡システムのさらなる例については、Kranzらの2008年7月22日に発行された「Head Mounted Eye Tracking and Display System」と題する米国特許7401920号、Lewisらの2011年8月30日に出願された「Gaze Detection in a See-Through, Near-Eye, Mixed Reality Display」と題する米国特許出願番号13/221739号、及びBohnの2011年9月26日に出願された「Integrated Eye Tracking and Display System」と題する米国特許出願番号13/245700号を参照されたい。
導光光学エレメント112と整列している不透明フィルタ114は、自然光がディスプレイ・ユニット112を通過することを選択的にブロックすることにより、現実世界ビュー(real world view)に対する画像データのコントラストを高める。不透明フィルタは、仮想オブジェクトの画像が、より現実的に見え、色及び強度のフル・レンジを表すのを支援する。この実施形態において、不透明フィルタの図示せぬ電気制御回路が、制御回路136から、フレームを経由して通っている電気接続を介して、命令を受信する。不透明フィルタのさらなる詳細は、2010年9月21に出願された「Opacity Filter For See-Through Mounted Display」と題する米国特許出願番号12/887426号において提供されている。
再度、図2A及び図2Bは、ヘッド・マウント・ディスプレイ・デバイス2の半分を示している。図示した実施形態では、完全なヘッド・マウント・ディスプレイ・デバイス2は、別のディスプレイ光学系14を含み得る。別のディスプレイ光学系14は、オプションのシースルー・レンズ116及び118の別のセット、別の不透明フィルタ114、別の導光光学エレメント112に加えて、別の画像生成ユニット120、別の外側対面キャプチャ・デバイス113、眼追跡システム134、及び別のイヤフォン130を有する。いくつかの実施形態において、各眼についてのディスプレイ光学系ではなく、両眼により見られる連続的ディスプレイ(continuous display)が存在してもよい。いくつかの実施形態において、単一の画像生成ユニット120が、両眼により見られる連続的ディスプレイに光学的に結合されてもよいし、眼のための別々のディスプレイに光学的に結合されてもよい。ヘッド・マウント・パーソナルA/V装置のさらなる詳細は、2010年10月15日に出願された「Fusing Virtual Content Into Real Content」と題する米国特許出願番号12/905952号において示されている。
図2Cは、NEDシステムによりデータを受信するために、あるいは別のコンピュータ・システムによりNEDシステムへデータを送信するために使用することができる通信モジュールの一実施形態のブロック図である。有線であるか又は無線である通信媒体に応じて、通信モジュール250は、有線通信又は無線通信を処理するよう具現化され得、場合によっては、含まれるアンテナ及びインタフェース回路の両方次第である。通信モジュール250は、制御回路136内に具現化されるコンピュータ・システム又は付属処理モジュール4内に具現化されるコンピュータ・システム等の、NEDシステムのコンピュータ・システムに通信可能に接続し、そのようなコンピュータ・システムに/からデータを伝送するための機能を提供する。例えば、通信モジュール137は、通信モジュール250の実施形態の機能を具現化することができる。別のNEDシステム8又はネットワーク・アクセス可能なコンピュータ・システム12等のコンピュータ・システムが、図2Cの実施形態等の通信モジュールを含んでもよい。そのような機能のいくつかの例は、1以上の規格又はプロトコル、及び誤り訂正技術に従って伝送のためにデータを符号化するとともに受信データを復号化することや、データを信号に変調し信号からデータを復調すること等の通信技術と、チャネルについてネゴシエートすることや衝突を解決すること等の通信管理アクティビティと、を含む。
図示した通信モジュールの実施形態は、通信管理モジュール123と、1以上のアンテナ119と、入力データ及び出力データのための1以上のデータ・バッファを含むメモリ121と、を含む。通信管理モジュール123は、画像データの受信及び送信を識別するために、NEDシステム8の1以上のプロセッサと通信する。無損失伝送基準は、通信モジュール250のためにメモリ121に記憶されてもよいし、通信可能に接続されたプロセッサからダウンロードされてもよい。通信管理モジュール123は、1以上のエンコーダと1以上のデコーダとを備え、画像データが無損失伝送のために処理されているか、あるいは損失許容伝送のために処理されているかに基づいて、エンコーダ及びデコーダに命令を提供する。例えば、命令は、順方向誤り訂正(FEC)コード等の誤り訂正技術のための所定のヘッダ・ビットを設定するかどうかと、冗長データを含めるか否かと、を示すことができる。ビット密度は、注目点からの画像データの距離に基づいて変わり得るので、通信管理モジュール123は、変調器及び復調器に命令を提供する。例えば、以下においてユーザ焦点領域画像データと呼ばれるユーザ焦点領域内に表示するための画像データについて、ビット誤り率が無損失伝送基準を満たす1以上の通信チャネルの雑音特性に基づいて推定されるビット誤り率を提供するために選択されたビット・ツー・シンボル密度(bit-to-symbol density)とともに、コンステレーション符号化スキームが割り当てられ得る。
様々なチャネル状態が、ビット誤り率に影響を及ぼし得る。ビット誤り率は、管理部123によりテスト・パターンを用いて測定され得る、あるいは、検出された雑音レベルに基づいて推定され得る。1以上の雑音低減技術、誤り訂正技術、及び変調技術が、通信管理部123により選択及び適用されてもよいし、1以上の雑音低減技術、誤り訂正技術、及び変調技術が、NEDシステム8の1以上のプロセッサ(例えば、付属処理モジュールの902等の処理ユニット)により選択され、この選択が、通信管理部123に送信され、無損失伝送基準内のビット誤り率をもたらすために、通信管理部123により適用されてもよい。様々な無損失伝送基準が、様々な通信媒体に適用され得る。有線接続は、通信媒体の1つのタイプである。無線接続は、通信媒体の1つのタイプである。例えば、ツイスト・ペア等の異なるケーブル・タイプ又はHDMI(登録商標)といった異なるタイプの有線接続が存在し、IEEE802.11ファミリにおける無線プロトコルのような、無線接続のために適用され得る異なる無線プロトコルが存在する。
本技術は、自然な人間の視野の分解能限界を利用して、伝送されるデータの量を低減させ、人間の眼により知覚される可能性が低い画像データの無損失伝送を確実にする通信技術を回避して時間を節約する。人間の眼は、人間の網膜上で受けられている、所定の波長帯域の光の反射により、「見る」。窩は、網膜の中央にある。窩に到達する光を反射するオブジェクトが、最高のシャープネスで、あるいは人間の視野のための詳細の明瞭さをもって見られる。このタイプの明瞭な視覚(clear vision)は、中心視覚(foveal vision)と呼ばれる。両眼を用いる通常の場合では、人間の眼の注視点若しくは注目点又は注目オブジェクトは、光が反射されて各眼の窩の中央に戻るものである。注目オブジェクトの一例は、本のページ上の単語である。読者がページを見るとき、一般に、注目単語の周囲の複数の単語も明瞭に見える。複数の単語は、注視点を含むユーザ焦点領域内に存在し、ユーザ焦点領域において、オブジェクトは、シャープ又は明瞭に見える。これは、時折単一視覚(single vision)によるものと呼ばれる。
パーヌム融合(Panum’s fusional)として知られているボリューム(volume)は、人間の眼が単一視覚でオブジェクトを見るボリュームである。人間は、両眼視覚又は立体視覚を有する。各眼は、異なる視点から画像を生成する。パーヌム融合領域のこの小さなボリュームにおいてのみ、人間は、単一視覚でオブジェクトを見る。これは、一般に、オブジェクトに焦点が当てられていると言えるときを意味するものである。この領域外では、オブジェクトは、ぼやけて見えることがある、あるいは二重像として見えることさえある。パーヌム融合領域の中央内にあるのが、ユーザの眼の注目点又は注視点を含むホロプタ(Horopter)である。ユーザが空間内のある点に焦点を当てているとき、空間内のその点は、曲線上に位置する。空間内のこの曲線上のオブジェクトは、窩において眼の網膜に位置する。この曲線は、時折、水平ホロプタ(horizontal horopter)と呼ばれる。注視点の上にある眼から曲線上の注視点の下にある眼に向かって遠ざかるように傾く曲線を介した線である垂直ホロプタ(vertical horopter)も存在する。以下で使用される用語ホロプタは、その垂直成分及び水平成分の両方を指す。
眼球は、しばしば、Gullstrandモデル等、球形状又は半球形状としてモデル化されるので、網膜上の領域のサイズは、しばしば、度若しくはラジアン単位、又は角度測定値で表される。以下において窩と呼ばれる中心窩は、網膜の中心にあり、2度より小さく、例えば、1.2度である。しかしながら、窩は、人間が、他の生物よりも広範な範囲の色を知覚することを可能にし、桿体細胞が提供するよりも、奥行きを含む詳細及び詳細な変化の正確な知覚を可能にする最高密度の錯体細胞を有する。桿体細胞は、網膜上の窩外に存在し、網膜上の錯体細胞の数を大幅に上回る。桿体細胞は、網膜のより広い視野から光を取り込むが、可視光に対する感度は、錯体細胞よりも著しく低い。しかしながら、桿体細胞は動きに対して敏感である。人が、「自分の眼の隅から」何かを見るとき、それは、桿体細胞の感度によるためである。まとめると、錯体細胞は、桿体細胞よりも高い分解能の画像を脳に提供する。網膜の中央にある窩から、錯体細胞の量は低減し、桿体細胞の数は増加する。その結果、人間は、各眼の窩の中心から角距離離れる詳細を知覚する。例えば、窩に近づくと、眼の角度分解能(angular resolution)は、上述したように1分(arcmin)程度である。中心窩から約8度ずれると、眼の自然な角度分解能は、2分を下回る半分だけ低下する。中心窩から約15度ずれると、眼の分解能は、さらに半分だけ、例えば、窩の分解能の4分の1に低下する。
窩に到達する光の人間の眼の分解能は、およそ1分である。例えば、窩の1分の分解能により、ユーザは、ページ上のテキストを読むことが可能となる。60×60度のディスプレイ視野にわたる1分の分解能を実現するために使用される帯域幅の意味を与えるために、次の例が提示される。デュアル1080pビデオ・ストリームは、毎秒5.6ギガビット(5.6Gbps)の通信帯域幅を用いて、毎秒60フレーム(60fps)及びピクセル当たり24ビット(24bpp)で送信される。これは、USB3.0の能力を超えるものであり得、非常に新しい高速通信標準である。1分の分解能での60×60度のディスプレイ視野をカバーするために、34Gbpsという付随するデータ転送速度とともに、驚くべき3600×3600ピクセル解像度が使用される。単一の銅ケーブル・ペアを介して5Gbpsのデータを超えるデータを送信する挑戦は意義がある。
以下のフローチャートは、画像データが表示されることになるディスプレイ視野内の注目点からの距離に基づいて、受信画像データをどのように送信及び処理するかを判定することにより、ディスプレイ更新時間を低減させる方法の実施形態を提供する。図8A及び図8Bで説明する実施形態において、画像データが表示されることになる、注目点周りに集中した領域の観点で、距離を決定することができる。他の手法により、より段階的な形又は継続的な形で伝送品質基準を低減することが可能となる。
図3Aは、送信側コンピュータ・システムの観点からの、NEDデバイスのディスプレイ更新時間を低減させる方法の一実施形態のフローチャートである。NEDデバイスに通信可能に接続された送信側コンピュータ・システムの一例は、付属処理モジュール4内に具現化されたコンピュータ・システムである。別の例において、送信側コンピュータ・システムは、図示したネットワーク・アクセス可能なコンピュータ・システム12(例えば、ゲーム・コンソール又はクラウドベースのゲーム・サービスのコンピュータ・システム)等、NEDデバイス・システム8からリモートにあってもよい。ステップ252において、NEDに通信可能に接続されたコンピュータ・システムは、注目点からディスプレイ視野内に表示するための画像データまでの、ニアアイ・ディスプレイ視野における距離ベクトルを識別する。
距離は、画像データの再分割部分(subdivision)の各々について測定することができる。例えば、ピクチャ・エレメント、ディスプレイ・ユニット112のピクセル等の特定のディスプレイ領域により投影される画像データ・セグメントの中心からの距離を測定することができる。別の例において、距離は、例えば、バスケットボール・コート・シーンの3Dマッピングの座標における表示されたバスケットボールの中心等、画像データにより表されるオブジェクトの中心に対するものであってもよい。ステップ254において、注目点からの距離に基づいて、送信側コンピュータ・システムは、表示されることになる画像データの少なくとも一部が、低知覚基準を満たす損失許容データとして適しているかどうかを判定する。ステップ256において、注目点からの距離と、低知覚基準と、に基づいて、送信側コンピュータ・システムは、表示されることになる画像データの少なくとも一部が、低知覚基準を満たさない無損失優先データとして適しているかどうかを判定する。いくつかの例において、距離ベクトルを使用して、各眼について、交点まで戻るディスプレイ視野内の画像データの位置を、近似される網膜位置(例えば、143l及び143r)に関連付ける。交点から近似される中心窩までの角距離ベクトルが、低知覚基準へのより良い関連付けのために決定され得る。
低知覚基準は、予め定められており、色、構造、及び輝度を決定するための確立された人間の視覚基準(human vision criteria)に基づく。例えば、そのような人間の視覚基準は、人間の網膜上の錯体細胞及び桿体細胞分布のモデルに基づき得る。低知覚基準の一例は、ディスプレイ視野内に投影される画像データからの光が、網膜上で窩から所定の角距離にあることである。
注目点からの距離部分は、低知覚基準が満たされるかどうかを判定する際に、大きく重み付けされ得る。画像データは、ディスプレイ視野のエッジの近くにあり得るので、方向もまた、大きな重み付けを受け入れ得る。一般に、画像データが注目点に近いほど、その画像データは、無損失優先画像データとして適している可能性が高く、画像データが注目点から遠くなるほど、画像データは、損失許容画像データとして適している可能性が高い。一般に、以下でさらに説明するように、注目点を取り囲む画像焦点領域内のより多くのデータが、ユーザ焦点領域外に表示するための画像データよりも、無損失優先データとして適している。しかしながら、場合によっては、ユーザ焦点領域内に含まれる、注目点に十分近い画像データであっても、伝送からカットされる所定の低位ビットを有する場合がある。というのは、ユーザ焦点領域内であっても、低位ビットは低知覚基準を満たさないからである。データが周囲の色データに非常に近く、注目オブジェクトが、眼及びおそらくはニアアイ・ディスプレイの色解像度を超えるように、ディスプレイ視野内で十分遠く離れているので、色のためのワード・サイズの最下位ビットの低い数、例えば、2ビットは、損失伝送を用いて送信されることが許容され得る。
ステップ258において、損失許容データとして適している画像データの少なくとも一部に応じて、コンピュータ・システムは、損失伝送を許容する1以上の通信技術を用いて、損失許容データを送信し、ステップ260において、無損失伝送基準を満たす1以上の通信技術を用いて、損失許容画像データとして適していない画像データである無損失優先画像データを送信する。
図3Bは、NEDデバイス・システムの受信側コンピュータ・システムの観点からの、NEDデバイスのディスプレイ更新時間を低減させる方法の一実施形態のフローチャートである。上記で示したように、NEDデバイス・システムの受信側コンピュータ・システムの例は、処理ユニット210と、メモリ244と、通信モジュール137と、を備える制御回路136のハードウェア・コンポーネント及びソフトウェア・コンポーネント、又は付属処理モジュール4内に具現化されるコンピュータ・システムであり得る。
ステップ262において、受信側コンピュータ・システムは、通信可能に接続されたコンピュータ・システムから、画像データを受信し、ステップ264において、無損失伝送基準を満たす1以上の通信技術を用いて送信された、受信されている画像データ内の無損失優先画像データを識別する。ステップ266において、受信側コンピュータ・システムは、無損失伝送基準を満たすよう使用された1以上の通信技術に基づいて、無損失優先画像データを取り出す。
ステップ268において、受信側コンピュータ・システムは、受信されている画像データ内の損失許容データを識別し、ステップ270において、損失伝送を許容するよう使用された1以上の通信技術に基づいて、損失許容画像データを取り出す。ステップ272において、NEDデバイスは、NEDデバイスのディスプレイ視野内に、無損失優先画像データ及び損失許容画像データを表示する。
上述したように、眼追跡データは、窩の位置を近似するために使用することができる注視点を識別し得る。ユーザ焦点領域は、近似された光が、近似された窩の位置又は近似された窩の中心のある角距離内に含まれる、空間内の領域として識別され得る。例えば、上述した8度の近似を用いると、窩の中心の8度内の領域における画像データは、ユーザ焦点領域内に含まれる。セカンダリ領域(secondary region)もまた識別され得る。「セカンダリ」は、そのような領域がユーザ焦点領域内にはないことを示すために使用される。ユーザ焦点領域の画像データは、最重要なものである、あるいは、ユーザが自然に見ることができない、セカンダリ領域の画像データよりも優先度が高い。
指定された領域内の注目点又は位置からの距離に基づいて画像データの解像度を変化させることに加えて、その距離又は関連領域に基づいて、異なるディスプレイ更新速度が適用され得る。例えば、セカンダリ領域内のデータは、毎秒30フレームで更新され得るのに対し、ユーザ焦点領域内のデータは、毎秒60フレームで更新される。
さらに、サービス品質(QoS)インジケータが、画像の再分割部分ごとに、例えば、記憶される画像データの一部としてピクセル又はボクセルで、記憶され得る。したがって、QoSインジケータを使用して、画像データにおける優先度、量、及び再分割部分の許容データ損失のタイプを識別することができる。例えば、輝度よりも色に関して許容されないデータ損失が存在し得る。1つのQoSバケット(QoS bucket)に量子化されたピクセルは、眼がどのように機能するかに基づいて、画像の1つの領域に集まる。さらに、異なるQoS数又はインジケータが、ビットが低知覚基準を満たすか否かを判定する際に送信側コンピュータにより使用され得るピクセルに関連付けられた各ビットについて記憶され得る。そのようなアプローチの結果は、低優先度ビットの損失が高いほど、画像データは注目点から遠くなるが、それでも、その画像データのより高い優先度ビットの高画像品質を得る、ということであり得る。異なる伝送処理を示す1以上のQoSインジケータの値は、無損失伝送基準の一部であり得る。
図4Aは、ディスプレイ・デバイス2を装着しているユーザ周囲の空間の3Dマッピングにおける、仮想オブジェクトの3次元(3D)空間位置の一例を示している。3D空間位置は、オブジェクトがどれくらい空間を占有しているかと、空間を占有した3Dディスプレイ視野内のどこに配置されているかと、を識別する。例示的なコンテキストは、ユーザが敵ヘリコプタ202を撃墜するゲームである。(現実オブジェクト及び仮想オブジェクトのマッピングについては、図5を参照してより詳細に説明する。)
図4Aのヘリコプタ202が、人間の中心視覚のための角度分解能1分を満たすためにディスプレイにより使用される解像度で示されている。尾部及び尾部ロータを有するヘリコプタ202aは、この例においてはユーザ焦点領域外のデフォルト領域である第3の領域301及びユーザ焦点領域外の第2の領域内の上方左のディスプレイ視野にある。ヘリコプタ202bは、中央からちょうど上の右のディスプレイ視野からディスプレイ視野の中央に向かうわずかに下方の軌道上にあり、ディスプレイ視野の中央において、ヘリコプタ202cは、ユーザに向かって真っすぐに進んでおり、ヘリコプタ202cは、網膜143l及び網膜143r上の窩から伸びる注視線701l及び注視線701rにより示される現在の注目オブジェクトである。これらの仮想ヘリコプタ202は動いており、ユーザは、ヘリコプタを撃墜するために自分の頭部を動かしている可能性がかなり高いので、画像データは、リアルタイムに3次元で更新されている。
人間の視覚の限界に起因して、図示するヘリコプタが全て、ユーザ焦点領域101に含まれないとき、ユーザは、そのようなディスプレイ解像度で、図示するヘリコプタ全てを自然に解像することはないであろう。NEDデバイス・システムは、人間の網膜に沿った知覚分解能の差異を利用することができる。図4Bとともに使用される図4Aは、ユーザ焦点領域外の第2の領域における中央画像解像度レベル又は中間画像解像度レベルを含むより低い画像解像度レベルと、ユーザ焦点領域画像データ外のユーザ焦点領域画像データからより遠い第3の領域301の低画像解像度レベルと、の例を示している。QoSもまた、ここにおいて、画像データの再分割部分のために記憶されたQoS及び各ビットについて記憶されたQoSが、より低い解像度レベルにあってもビットが損失許容可能であり得るチェック又は限界として動作するという点で、結び付けられ得る。
図4Aはまた、ユーザ焦点領域101と、セカンダリ領域201及び301と、の例を示している。図示した例において、それぞれの眼からの注視線701l及び注視線701rが近似される眼追跡データに基づいて、注視点が決定される。注視線は、眼の窩からディスプレイ視野への視線の近似を表す。両方の注視線が交わる場所が注視点であり、注視点は注目点の一例である。ユーザ焦点領域は注視点を含む。左眼140lに関して、注視線701lは、網膜143l上の中心からわずかに左にずれている窩699lからディスプレイ視野に伸び、ヘリコプタ202cに伸びる。右眼140rに関して、注視線701rは、網膜143r上の中心からわずかに右にずれている窩699rからディスプレイ視野に伸び、ヘリコプタ202cに伸びる。異なる実施形態は、モデル化技術を使用して、ディスプレイ視野内のパーヌム融合領域及びホロプタを識別する。現在の例のような他の実施形態は、人間の視覚を研究する分野からの周知の近似を使用することができる。
説明を続ける前に、図面は縮尺通りに描かれていないことに留意されたい。図4Aのこの例において、注視点を含むユーザ焦点領域は、4つの線702la,702lb,702ra、及び702rbにより特定される。この例では、線702laは、網膜上で注視線701lと窩との交点の左に約8度の点からディスプレイ視野に伸びる線を表す。補完的に、線702lbは、網膜上で注視線701lと窩との交点の右に約8度の点からディスプレイ視野に伸びる線を表す。同様に、線702raは、注視線701rと窩との交点の左に約8度の網膜からディスプレイ視野に伸びる。線702rbは、注視線701rと窩との交点の右に約8度の網膜からディスプレイ視野に伸びる。
線702lbと線702rbとの交点は、ユーザ焦点領域のディスプレイ視野における左の境界上の点を形成する。同様に、線702laと線702raとの交点は、ユーザ焦点領域のディスプレイ視野における右の境界上の点を形成する。この例において、球形の形状(geometry)は、ユーザ焦点領域101を特定するために使用され、左の境界点及び右の境界点は、球形の直径を表す。例えば、矩形、円形、3D矩形、正方形、又は立方体といった異なる形状が、設計選択事項として使用されてもよい。
またこの例において示されるように、第2の領域201も特定される。この領域では、表示のための画像データは、参照の目的のためセカンダリ画像データと呼ばれる。セカンダリ画像データは、ユーザ焦点領域外に表示するためのデータである。この例において、第3の領域301の画像データもまた、セカンダリ画像データと呼ばれる。この例において、第3の領域301は、ユーザ焦点領域外であるデフォルト領域であり、第2の領域は、ディスプレイ視野内にある。
線703laが、網膜上で注視線701lと窩との交点の左に約15度であり、線703lbが、網膜上で注視線701lと窩との交点の右に約15度であることを除いて、第2の領域もユーザ焦点領域と同様に特定される。右眼に関して、線703ra及び線703rbは、注視線701rと窩との交点のそれぞれ左に約15度及び右に約15度の網膜上の交点からディスプレイ視野に伸びる。線703lbと線703rbとの交点は、第2の領域のディスプレイ視野における第2の左の境界上の点を形成し、線703laと線703raとの交点は、第2の領域のディスプレイ視野における第2の右の境界上の点を形成する。これら第2の左の境界及び第2の右の境界を有し、ユーザ焦点領域を含む球形201、したがって、注視点は、第2の領域を表す。
人間の視覚は、周辺視野を含め約200度まで広がり得るが、前述したディスプレイ視野は、そこまで広がり得ない。例えば、頭部のサイズと、眼鏡産業及びHMD分野からのその頭部の細部の眼のモデルと、に基づいて決定される、例えば、NEDデバイスの窩の近似された位置から、ディスプレイ視野は、3次元の各々において、約60度、例えば、水平方向に60度、垂直方向、及び奥行き方向に広がり得る。ユーザ焦点領域101及び第2の領域201は、約30度のディスプレイ視野を表す。
上述したように、自然な視覚の分解能は、網膜上の窩から8度から15度の間、半分だけ低下し、15度以降についてさらに半分だけ低下する。この例において、ユーザ焦点領域は、1分の角度分解能を満たすディスプレイ解像度を有し、第2の領域は、約2分の角度分解能を満たす中央解像度を有し、第3の領域は、低解像度を有する。例えば、低解像度は、4分の角度分解能を満たし得る。いくつかの例において、第2の領域を超えるデータは、表示されさえしないこともある、あるいは、ディスプレイ更新速度制約を維持するために表示の最低優先度を有することもある。
図4Bは、ユーザ焦点領域内又はユーザ焦点領域外の位置に基づいて画像解像度を変えるNEDデバイスにより表示されている仮想ヘリコプタの例を含むディスプレイ視野の一例を示している。ヘリコプタ202aは、第3の領域にあるので、この例において、ユーザは、ユーザ焦点領域の自然な眼の角度分解能の4分の1で、ヘリコプタ202aを見るであろう。ヘリコプタ202aの画像データは、この眼の分解能を満たす低画像解像度で提示される。ヘリコプタ202aの尾部ロータは、尾部と同様、領域を有する矩形形状ではなく、線である。ヘリコプタ本体の曲線は、くぼみ(indentation)を失い、チョッパ(chopper)の眼鏡のサイド部分のような境界楕円(bounding ellipse)により表される。上部ロータもまた、矩形ボリュームを有する全ての3つのロータではなく、線である。解像度の損失に加えて、その効果は、人間の眼により気付かれるものではないので、ロータは、この第3の領域の画像データについて、伝送において失われることが許容されるであろう。着陸装置の下の一部(piece)のみが線により表されている。ヘリコプタは、ユーザの眼が画像を取り込むであろう自然な解像度をさらに低減させるように動いている。
ヘリコプタ202bは、第2の領域及び第3の領域にまたがって表示されている。画像データのダウンサンプリングを使用して、中央解像度バージョン及び低解像度バージョンを得ることができる。第2の領域内の上部ロータは、より細くなっているが、それでも何らかの矩形領域を有する。ヘリコプタのコックピットの本体の境界の曲線又はくぼみは、流線形であるが、それでも、形状は、ユーザ焦点領域のボリュームを有している。コックピットの窓の境界は、ダウンサンプリングに起因して、ユーザ焦点領域の正確な湾曲を失っている。第3の領域に伸びる上部ロータの一部は、線として見え、上部モータのベースは、垂直方向に薄くなっている。第3の領域内の尾部及び尾部ロータは、第3の領域内のヘリコプタ202aと同様に、線として表示されている。
ユーザ焦点領域内のヘリコプタ202cは、図4Aと同一に見える。
図4Cは、ジェスチャがNED視野内の注目点を示す、図4Bのヘリコプタの例の別のバージョンを示している。この例において、ヘリコプタ202cに対するポインティング・ジェスチャを実行する、人間の手385の人間の指387が検出される。オブジェクトに対するジェスチャを使用して、注目オブジェクトを識別することもできる。例えば、仮想オブジェクト又は現実オブジェクトは、指又はハンドヘルド・オブジェクトを用いて指し示すことができる、あるいはユーザは、現実オブジェクト又は仮想オブジェクトに対して、保持ジェスチャ又は把持ジェスチャを行うことができる。ユーザ焦点領域101と、セカンダリ領域201及び301と、が、各網膜143の近似された位置上の窩の近似された位置に基づいて識別され得る。例えば、網膜の位置は、NEDディスプレイ・デバイスの頭部のサイズと、人間の眼球のモデルと、に基づいて近似され得る。そのようなモデルの一例は、Gullstrand図式眼モデルである。ジェスチャが向けられるオブジェクト又はポイントの3Dマッピング座標から、ディスプレイ視野内のオブジェクト又はポイントの位置が、各光軸142がそのそれぞれのディスプレイ・ユニットとどこで交わり、次いで、そこを近似された網膜の位置上の1以上の交点に関連付けることができるか等、デバイス上の1以上の基準点に再度関連付けられ得る。他の例において、オブジェクト又は注目点が、その3Dマッピング座標により、再度、近似された網膜の各位置上の1以上の交点に直接関連付けられ得る。
この例において、近似された網膜の位置上の1以上の交点からの各距離もまた、図4A及び図4Bの例とちょうど同じように使用して、セカンダリ領域を識別することができる。例示の目的上、指387により示されるユーザが指し示している、ディスプレイ視野内の点からの線701l及び線701rとして示されている光線が、近似された網膜143の位置における交点に戻るよう跡をたどられ、注視線として効果的に動作する。
他の例において、アプリケーションのタイプに基づいて、注目点及びユーザ焦点領域が、画像データがディスプレイ視野内のどこに表示されるか判定されることに基づいて、識別され得る。すなわち、ユーザは、表示されている新たなデータ又はその動きパターンを変えるデータを見る傾向にあるので、ユーザ焦点領域は、ユーザが焦点をどこに動かすかの予測に基づいて選択される。ユーザ焦点領域を識別するこれらの方法のうち2以上の組合せが使用されてもよい。例えば、アップデート時間基準(update time criteria)内のディスプレイ更新時間を保つために、眼追跡データに基づいてユーザ焦点領域の更新を待つ間に、画像データにおける変化が生じる視野内の予め定められた位置が、ユーザ焦点領域として使用され得る。
図5は、ニアアイ・ディスプレイ・デバイスにより画像データを表示するための、ソフトウェアの観点からの、システムの一実施形態のブロック図である。図5は、NEDシステム8、1以上のNEDシステムと通信する1以上のリモート・コンピュータ・システム12、又はそれらの組合せ等のシステムにより実装され得る、ソフトウェアの観点からのコンピューティング環境54の一実施形態を示している。さらに、NEDシステムは、データを共有してリソースを処理するために、他のNEDシステムと通信することができ、データのための、環境内の他の3D画像キャプチャ・デバイス20等の他の画像キャプチャ・デバイスと通信することもできる。
この実施形態において、アプリケーション162が、NEDシステム8の1以上のプロセッサ上で実行されており、オペレーティング・システム190及び画像・オーディオ処理エンジン191と通信していることがある。アプリケーションは、拡張現実体験、仮想現実体験、又は拡張視覚体験のためのものであり得る。図示した実施形態において、リモート・コンピュータ・システム12がまた、体験を高めるために通信する他のNEDシステム8と同様に、アプリケーションのバージョン162Nを実行していることがある。
1以上のアプリケーションのアプリケーション・データ329がまた、1以上のネットワーク・アクセス可能な位置に記憶され得る。アプリケーション・データ329のいくつかの例は、ルール・データストア、オブジェクトの画像データ及びアプリケーションの画像(imagery)、ジェスチャ認識エンジン193により登録され得る、アプリケーションに関連付けられた1以上のジェスチャの参照データ、1以上のジェスチャのための実行基準、画像・オーディオ処理エンジンのオプションの物理学エンジン(図示せず)により登録され得る、アプリケーションに関連付けられた仮想オブジェクトのための物理学モデル、及び、オブジェクト物理特性データ・セット320に関連付けられ得る、仮想オブジェクトの色、形状、顔の特徴、装具(clothing)等のオブジェクト特性であり得る。
図5の実施形態に示されるように、コンピューティング環境54のソフトウェア・コンポーネントは、オペレーティング・システム190と通信する画像・オーディオ処理エンジン191を含む。画像・オーディオ処理エンジン191は、NEDシステム8等のヘッド・マウント・ディスプレイ(HMD)デバイス・システムのために実行されるアプリケーションをサポートするために、画像データ(例えば、ビデオ等の動きデータ又は静止)及びオーディオ・データを処理する。画像・オーディオ処理エンジン191の実施形態は、様々な機能を含み得る。図示した実施形態は、他の機能に含まれ、他の機能により示され、他の機能を追加することができる実行可能ソフトウェア・エレメントの選択を示している。画像・オーディオ処理エンジン191の図示した実施形態は、オブジェクト認識エンジン192、ジェスチャ認識エンジン193、ディスプレイ・データ・エンジン195、3Dオーディオ・エンジン304、音認識エンジン194、ユーザ焦点領域エンジン196、及びシーン・マッピング・エンジン306を含む。
コンピューティング環境54はまた、データを1以上の画像・オーディオ・データ・バッファ199に記憶する。このバッファは、様々なソースからキャプチャされ得る、あるいは様々なソースから受信され得る画像データ及びオーディオ・データのためのメモリを提供する。例えば、このバッファは、通信可能に接続されたコンピュータ・システム12から通信媒体を介してNEDデバイス2又は付属処理モジュール4のいずれかにより受信された、表示のための画像データを記憶することができる。このバッファは、例えば、全メモリ244の一部として、NED上に存在してもよいし、付属処理モジュール4上に存在してもよい。付属処理モジュール4上の1以上のバッファは、NEDデバイス2に送信されることになる、表示のための画像データを保持することができる。少なくとも一時的にバッファに記憶することができるいくつかの他のタイプの画像データは、NEDシステム8の外側対面キャプチャ・デバイス113からキャプチャされた画像データ、利用可能である場合、他のキャプチャ・デバイス(例えば、3D画像キャプチャ・デバイス20及び環境内の他のNEDシステム8)によりキャプチャされた画像データ、使用される場合、眼追跡システムの眼追跡カメラからの画像データである。このバッファはまた、画像生成ユニット120により表示されることになる仮想オブジェクトの画像データを保持するためのバッファと、マイクロフォン110を介してユーザからキャプチャされた音等の入力及び出力両方のオーディオ・データ、並びにイヤフォン130等のオーディオ出力デバイスを介してユーザに出力されることになる、3Dオーディオ・エンジン304からのアプリケーションのためのサウンド・エフェクトのためのバッファと、を提供する。
図5の個々のエンジン及びデータ・ストアは、アプリケーション162が利用できるデータ及びタスクのサポート・プラットフォームとして設けられている。画像・オーディオ処理エンジン191の様々なエンジンは、データ・アップデートの通知を処理して受信するためにデータを識別するリクエストを送信することにより、1以上の機能を実装する。オペレーティング・システム190は、様々なエンジンとアプリケーションとの間の通信を円滑にする。オペレーティング・システム190は、ジェスチャ認識エンジン193がどのジェスチャを識別したかと、音認識エンジン194がどの単語又は音を識別したかと、上述したシーン・マッピング・エンジン306からのオブジェクトの位置と、をアプリケーションに利用可能にする。
シーン・マッピング・エンジン306についてまず説明する。NEDデバイスの各ディスプレイのディスプレイ視野の3Dマッピングは、キャプチャされた画像データ及び奥行きデータに基づいて、シーン・マッピング・エンジン306により決定され得る。3Dマッピングは、ディスプレイ視野内の現実オブジェクト又は仮想オブジェクトの3D位置を含む。いくつかの実施形態において、特にディスプレイに関して、3Dマッピングは、3D位置の例としての、オブジェクトの3D空間位置又は位置ボリューム(position volume)を含み得る。3D空間は、オブジェクトにより占有される空間のボリュームである。3D空間位置は、そのボリュームの境界の位置座標、又はディスプレイ視野を含む座標系における3D空間を表す。望まれる正確さに応じて、3D空間は、オブジェクトの3D形状をマッチングすることができる、あるいはあまり正確でないバウンディング形状(bounding shape)であり得る。いくつかの例において、3D空間位置は、オブジェクトの向き等の追加の情報を含む。他の例において、3D位置は、例えば、バウンディング円形、矩形、三角形等の2Dバウンディング形状と、オブジェクトの、ディスプレイ視野における奥行き位置と、を含む。
外側対面キャプチャ・デバイス113からのキャプチャされた画像データ及び奥行きデータを表す奥行きマップを、ニアアイ・ディスプレイのディスプレイ視野の3Dマッピングとして使用することができる。奥行きマップは、ユーザ視点を大まかに表す、ディスプレイ視野のビュー依存の座標系(view dependent coordinate system)を有する。キャプチャされたデータは、現実オブジェクトの動きを追跡するために、キャプチャ時間に基づいて、時間追跡され得る。仮想オブジェクトの位置が、奥行きマップにおいて位置合わせされ得る。
ユーザの環境内のユーザの周りにあるものをマッピングすることは、センサ・データにより支援され得る。例えば、3軸加速度計及び3軸磁力計といった慣性検出ユニット132からのデータが、ユーザの頭部の位置変化を決定し、そのような頭部の位置変化と、外側対面キャプチャ・デバイス113からの画像データ及び奥行きデータにおける変化と、の相関は、互いに対するオブジェクトの位置であって、ユーザが見ている環境又は位置のサブセットにおけるオブジェクトの位置を識別し得る。
シーン・マッピング・エンジン306はまた、3Dマッピングのためにビュー非依存の座標系を使用することができ、シーン・マッピング・エンジン306のコピーは、他のシステム(例えば、12、20、及び8)において実行されている他のシーン・マッピング・エンジン306と通信することができるので、マッピング処理は、更新されたマップを他のシステムと共有する1つのコンピュータ・システムにより、集中的に共有又は制御することができる。複数の視点から得られる奥行き画像内の重なり合う対象物(overlapping subject matter)が、ビュー非依存の座標系及び時間と、ボリューメトリック(volumetric)又は位置若しくは環境(例えば、部屋、店舗空間、又はジオフェンス領域(geofenced area)のx、y、z表現)の3Dマッピングを作成するために結合された画像コンテンツと、に基づいて、相互に関連付けられ得る。したがって、光、影、及びオブジェクト位置における変化が追跡され得る。
ビュー非依存のマップは、位置インデックス付き画像及び3Dマップ(location indexed images and 3D maps)324等のネットワーク・アクセス可能な位置に記憶することができる。位置インデックス付き画像及び3Dマップ324を検索するための位置データのいくつかの例は、ニアアイ・ディスプレイ(NED)上の位置検出ユニット144のGPSトランシーバからのGPSデータ、又はNEDシステム8が接続しているWiFi(登録商標)ホットスポット又はセルラ・ステーションのIPアドレスである。(画像データへのアクセスを伴う、装置8等のHMDとコンピュータ・システム12との間の協調的シーン・マッピングに関するさらなる情報については、Avi Bar-Zeevらの2010年10月27日に出願された「Low-Latency Fusing of Virtual and Real Content」と題する米国特許出願番号12/912937号を参照されたい。)
シーン・マッピング・エンジン306は、画像・オーディオ処理エンジン191のオブジェクト認識エンジン192、及び画像データを表示させる1以上の実行アプリケーション162との通信に基づいて、ディスプレイ視野内又はユーザ周囲のボリューメトリック空間(volumetric space)内の現実オブジェクト及び仮想オブジェクトの位置、向き、及び動きを追跡する。
画像・オーディオ処理エンジン191のオブジェクト認識エンジン192は、キャプチャされた画像データと、利用可能である場合にはキャプチャされた奥行きデータと、に基づいて、あるいは立体視からの決定された奥行き位置に基づいて、ディスプレイ視野内の現実オブジェクト、その向き、及びその位置を検出及び識別する。オブジェクト認識エンジン192は、オブジェクト境界をマーキングし、オブジェクト境界を構造データと比較することにより、現実オブジェクトを互いと区別する。オブジェクト境界をマーキングする1つの例は、検出又は導出された奥行きデータ及び画像データ内のエッジを検出して、エッジを接続することである。ポリゴン・メッシュを使用して、オブジェクトの境界を表現してもよい。次いで、確率基準(probability criteria)内のオブジェクトのタイプを識別するために、オブジェクト境界データが、記憶された構造データ200と比較される。オブジェクトのタイプを識別することに加えて、記憶された構造データ200との比較に基づいて、識別されたオブジェクトの向きが検出され得る。
1以上の通信ネットワーク50を介してアクセス可能な構造データ200は、比較のための構造パターン及びパターン認識のための基準としての画像データ等の構造情報を記憶することができる。無生物オブジェクト(inanimate object)に加えて、他の画像処理アプリケーションと同様に、人間はオブジェクトの1タイプであり得るので、構造データの一例は、身体パーツを認識するのを助けるために参照され得る、記憶された人間の骨格モデルである。画像データがまた、顔認識のために使用されてもよい。オブジェクト認識エンジン192はまた、ユーザのユーザ・プロファイル・データ197、パーミッションが設定されネットワーク・アクセス可能な他のユーザのプロファイル・データ322、位置インデックス付き画像及び3Dマップ324、並びにインターネット・アクセス可能な画像326等の、他のソースからの記憶された画像データにも基づいて、オブジェクトの画像データに対して、顔認識及びパターン認識を実行することができる。画像データ及び奥行きデータからのモーション・キャプチャ・データもまた、オブジェクトの動き特性を識別し得る。オブジェクト認識エンジン192はまた、サイズ、形状、1以上の材料、及び動き特性等のオブジェクトの検出された特性を、構造データ200に記憶された基準特性に対して、チェックすることができる。基準特性(例えば、構造パターン及び画像データ)はまた、仮想オブジェクトを生成するために、アプリケーションによりアクセスされ得る。
現実オブジェクトに関して、3Dサイズ、3D形状、検出された材料のタイプ、1以上の色、及び検出された境界形状等の複数のオブジェクト特性の各々について、データが割り当てられ得る。一実施形態において、基準特性との比較後にオブジェクト認識エンジン192により割り当てられた、検出された特性ごとの重み付き確率に基づいて、オブジェクトと、オブジェクト特性データ・セット320Nに記憶されたその特性と、が識別される。オブジェクトの検出及び追跡に関するさらなる情報は、2009年12月18日に出願された「Motion Detection Using Depth Images」と題する米国特許出願12/641788号と、「Device for Identifying and Tracking Multiple Humans over Time」と題する米国特許出願12/475308号と、において見い出すことができる。
シーン・マッピング・エンジン306及びオブジェクト認識エンジン192は、その機能において各エンジンを支援するデータを交換する。例えば、オブジェクト識別と、オブジェクト認識エンジン192により決定された向きと、に基づいて、シーン・マッピング・エンジン306は、より正確に向きを識別するオブジェクトの3D空間位置又は位置ボリュームを更新することができる。例えば、横にある椅子は、右横に立っているときと比べて、そのボリュームの異なる位置座標を有する。位置の履歴と、オブジェクトに関してシーン・マッピング・エンジン306により更新された3D位置から識別された動き経路(motion path)と、は、特にオブジェクトが部分的に隠されているときに、オブジェクトを識別するオブジェクト認識エンジン192を支援し得る。
一実施形態において、ユーザ焦点領域エンジン196は、表示されるようスケジュールされた画像データの3Dディスプレイ視野内の座標を識別するために、アプリケーション162及びシーン・マッピング・エンジン306と通信する。例えば、アプリケーション162は、20cmの奥行きを有して上方左位置に表示されることになるポップアップ・メニューを識別することができ、シーン・マッピング・エンジン306は、ディスプレイ視野の3Dマッピング座標におけるこの位置を識別する。ポップアップ・メニューは注目オブジェクトである。いくつかの例において、ディスプレイ視野は、立方体又は他のボリューメトリック・ユニットに編成される。注目オブジェクトの一部を含む立方体は、ユーザ焦点領域の一部であると考えられる。
別の実施形態において、例えば、奥行き成分を含む、ディスプレイ視野内の注目オブジェクトの3D位置と、各網膜の近似された位置と、各網膜上の窩と、に基づいて、各眼の注視線が、再度、ユーザ焦点領域エンジン196により、関心オブジェクトから近似されたそれぞれの窩の位置に投影され得る。ユーザ焦点領域及び他のセカンダリ領域の境界が、近似された各網膜の位置上で近似された窩と注視線との交点から異なる角距離で出る光線の跡をたどることにより、決定され得る。
ポインティング・ジェスチャ等のジェスチャが、画像データに基づいて認識され、注目点又は注目オブジェクトを識別する図3Cについて上述したように、ユーザ焦点領域エンジン196が、前段落及び図3Cの説明と同じように、境界領域を決定することができる。
別の実施形態において、ユーザ焦点領域エンジン196は、注視点又は注視オブジェクトを識別する眼追跡システム134によりキャプチャされた画像データを処理するための眼追跡ソフトウェアを含む。ユーザ焦点領域の領域境界及びセカンダリ境界が、前述の例において説明したように識別され得る。図2Bの例において、眼追跡ソフトウェアは、光軸142周りでキャプチャされた眼の画像データを処理し、ユーザの眼とディスプレイ・デバイスとの固定空間関係を仮定して、注視線を決定することができる。
その一例がGullstandモデルである眼のモデルにおいて、眼の回転の中心、角膜の中心、及び瞳孔の中心が、眼の光軸に沿って整列している。光軸が、回転の中心から例えば、1.2度といった小さな角度ずれている窩から伸びる視軸としてモデル化されるように、光軸は、光軸に適用される小さな角度補正(small angular correction)を有する。Lewisらの米国特許出願番号13/221739号において説明されているようないくつかの例において、注視線検出座標系(gaze detection coordinate system)が、回転の中心、角膜の中心、及び瞳孔の中心を、例えば、IR・可視反射エレメント134E及び閃光を生成するためのIRイルミネータ等、NEDデバイスのIRセンサ・キャプチャ・ポイントに空間的に関連付けるように生成される。統合された眼追跡の例において、IRイルミネータの位置はまた、反射エレメント134E上にあり得る。例えば、Bohnの米国特許出願番号13/245700号を参照されたい。空間関係における変化が、例えば、虹彩の外周のサイズにおける変化を検出することにより識別され得る。これが、眼とディスプレイとの空間関係の再決定をトリガする。他の実施形態において、上述したように、網膜及び窩の位置の予め定められた近似が、例えば、NEDデバイスの頭部のサイズに基づいて使用される。
空間関係が決定されると、眼窩内の瞳孔の位置が、眼の画像データから決定される。1以上のプロセッサ上で実行されているユーザ焦点領域エンジン196は、頭を振る動作(headshake)を調整するために平均化され得る、それぞれの眼の複数の画像データ・サンプルにおける黒色瞳孔領域(black pupil area)を識別する。瞳孔は円であり、角度をつけて見られたときに楕円である、ということが仮定され得る。瞳孔のサイズは照明の変化に応じて変化するので、照明が変化しないと仮定すると、楕円の1つの軸、すなわち、長軸は、それが変化しない瞳孔の直径を表すように、一定を保つ。
ディスプレイに沿って真っすぐに見るときに瞳孔がディスプレイ光軸142に沿って見ると仮定すると、瞳孔は、ディスプレイの光軸上で中央に寄せられたその検出領域を有するカメラの画像フレーム等の画像フォーマットにおいて、円のように見える。瞳孔がその注視線(gaze)を変化させ、画像フレームの中心から動くとき、瞳孔は、円が角度をつけて見られたときに楕円に見えるように、楕円のように見える。楕円の短軸の幅は、注視線の変化に応じて変化し、その幅の変化が、瞳孔が画像データにおいて円そっくりに近似する真っすぐな位置からの瞳孔の視野角における変化を示すために、測定され得る。画像フレームの中心の左側に狭くなった楕円は、ユーザが右側遠くを見ていることを示す。楕円が幅広になり画像フレームの中心の右側への距離が短くなることは、ユーザが左側を見ているがそれほど遠くを見ていないことを示す。
瞳孔の中心は楕円の中心である。楕円は、画像内の検出されたエッジ点からフィットされる。そのようなエッジ点は雑音を多く含み、エッジ点の全てが楕円上にあるわけではないので、楕円フィッティング・プロセスが、ランダムに選択された全てのエッジ点のサブセットに対して、多くの回数繰り返される。全てのエッジ点に最も整合するサブセットを使用して、最終的な楕円を得る。回転の中心、角膜の中心、及び瞳孔の中心が識別されると、眼の光軸を得るために、回転の中心から角膜の中心及び瞳孔の中心を経由する光線を伸ばすことができる。光軸を決定した後、光軸が視軸を近似し、光軸が注視ベクトル(gaze vector)として選択されるように、デフォルトのオフセット角度が適用され得る。
いくつかの実施形態において、ユーザ焦点領域エンジン196は、眼のフィットされた楕円又はIRキャプチャされた画像データを、以前に取得されたトレーニング画像データと比較する。トレーニング画像は、NEDデバイスを動作させるための初期化プロセスの一部としての眼追跡システム134の初期化中に取得され得るものである。各トレーニング画像は、注視線又は注視ベクトルを生成することができる、各トレーニング画像に関連付けられた、予め定められた注視角を有する。
注視点を決定するために、ユーザ焦点領域エンジン196は、ユーザ前方の3D空間における注視ベクトルの交点を決定し、その交点、注目点の一例である注視点、及び注視点に関連付けられた任意の現実オブジェクト又は仮想オブジェクトが、ディスプレイ視野の3Dマッピング内にあるかどうかを判定する。ユーザ焦点領域及びセカンダリ領域の境界が、上述したように決定され得る。
いくつかの実施形態において、ユーザ焦点領域エンジン196は、注目点と、ディスプレイ・エンジン195又はアプリケーション162が注目点までの画像データの距離を決定するために使用する注目オブジェクトと、を単に識別することができる。
いくつかの実施形態において、シーン・マッピング・エンジン306は、ユーザ焦点領域エンジン196により提供された注目点におけるアップデートをチェックし、注目点から、実行アプリケーションに従って表示されることになる画像データまでの、ディスプレイ視野における距離ベクトルを決定する。距離ベクトルは、画像データの像を映す各網膜上の角距離を決定するために、ユーザ焦点領域エンジン196に送信される。角距離と低知覚基準209とに基づいて、ユーザ焦点領域エンジン196は、画像データのうちどの部分が損失許容データとして適しているかを判定し、シーン・マッピング・エンジン306にその判定結果を通知する。
他の実施形態において、シーン・マッピング・エンジン306は、表示されることになる画像データが、低知覚基準209に基づく損失許容データであるかどうかと、画像データが、ユーザ焦点領域エンジン196により識別された、ディスプレイ視野内のユーザ焦点領域に含まれるか、又は他のセカンダリ領域に含まれるかと、を識別する。
シーン・マッピング・エンジン306は、通信モジュール250の通信管理部123に、どの画像データが損失許容データとして適しているかを通知する。通信管理部123は、損失許容データとして適してしないデータをどのように送信するかを判定するために、記憶された無損失伝送基準にアクセスし、損失伝送に関する限界又は制限を識別するために、損失伝送基準213にアクセスする。損失伝送基準は、無損失伝送基準におけるものと同じタイプの通信特性及びサービス品質インジケータの基準を含み得る。
3Dオーディオ・エンジン304は、位置型3Dオーディオ・エンジン(positional 3D audio engine)である。仮想オブジェクトのために再生されることになる音が、アプリケーション162により、音ライブラリ312にアップロードされ得る。アプリケーション162は、アプリケーションの実行ルールに基づいて音をいつ再生するかを、3Dオーディオ・エンジン304に指示する。3Dオーディオ・エンジンは、3Dマッピングから、仮想オブジェクトの3D位置を識別し、音がイヤフォン130又は他の実施形態ではスピーカ等の他のオーディオ出力デバイスにより再生されるときに、音が識別された3D位置から生じているようにするよう音を生成する。さらに、音ライブラリ312に記憶することができるオーディオ・データと、ユーザ・プロファイル・データ197又はユーザ・プロファイル322に記憶された音声データ・ファイルと、に基づいて、音認識エンジン194は、音声コマンドを介したアプリケーション制御と、位置認識及びオブジェクト認識と、のために、マイクロフォン110を介して受信された、現実世界からのオーディオ・データを識別する。
ジェスチャ認識エンジン193は、1以上のジェスチャを識別する。ジェスチャは、ユーザにより実行される、実行アプリケーションへの制御又は命令を示すアクションである。アクションは、例えば、手又は指といったユーザの身体部分により実行され得るが、眼の連続的なまばたきもジェスチャであり得る。一実施形態において、ジェスチャ認識エンジン193は、(骨格モデルにより表されるような)ユーザがいつ1以上のジェスチャを実行したかを識別するために、骨格モデルと、キャプチャされた画像データから導出された、骨格モデルに関連付けられた動きと、をジェスチャ・フィルタ・ライブラリ313における記憶されたジェスチャ・フィルタ(gesture filter)と比較する。いくつかの例において、ジェスチャを認識するための骨格追跡ではなく、ジェスチャ・トレーニング・セッション中に画像データをユーザの手又は指の画像モデルにマッチングすることが用いられ得る。ジェスチャ認識エンジン193に関するさらなる情報は、2009年4月13日に出願された「Gesture Recognizer System Architecture」と題する米国特許出願12/422661号において見い出すことができる。ジェスチャ認識に関するさらなる情報は、2009年2月23日に出願された「Standard Gestures」と題する米国特許出願12/391150号と、2009年5月29日に出願された「Gesture Tool」と題する米国特許出願12/474655号と、において見い出すことができる。
NEDデバイス・システム8の1以上の実施形態におけるナチュラル・ユーザ・インタフェース(NUI)の一実施形態は、外側対面キャプチャ・デバイス113と、少なくとも1つの身体部分の少なくとも1つのユーザの身体によるアクションの一例であるジェスチャを識別するためのジェスチャ認識エンジン193と、を含み得る。眼追跡システム134と、システム134によりキャプチャされたデータに基づいて眼の動きを解釈するための、ユーザ焦点領域エンジン196の一実施形態において実行されている眼追跡ソフトウェアと、がまた、NEDデバイス・システム8のナチュラル・ユーザ・インタフェースの別の実施形態におけるコンポーネントであり得る。コマンドを示す連続的なまばたき等の眼に基づくアクション、注視点、注視パターン(gaze pattern)、注視期間(gaze duration)、又は眼の動きもまた、少なくとも1つの身体部分の1以上のユーザの身体によるアクションとしてのナチュラル・ユーザ入力のいくつかの例である。ナチュラル・ユーザ入力は、眼追跡ソフトウェアにより識別された画像データ等のナチュラル・ユーザ入力データで表現される、あるいは眼追跡データで表現される。マイクロフォン及び音認識エンジン194はまた、音声コマンドのナチュラル・ユーザ入力を処理することができる。音声コマンドのナチュラル・ユーザ入力はまた、ジェスチャ及び眼の注視等の他の認識された身体によるアクションを補足し得る。いくつかの実施形態において、ユーザ焦点領域エンジン196は、通信可能に接続されたコンピュータ・システム(例えば、4又は8)上で実行されていることがあり、眼追跡システム134及び外側対面キャプチャ・デバイス113からの画像データが、NEDデバイスからバック・チャネル(back channel)を介して送信されるので、注視関連ジェスチャ認識処理(gaze related and gesture recognition processing)が、NEDデバイスの制御回路136からオフロードされる。
アプリケーション162は、画像データにより表され、アプリケーションにより制御されるオブジェクトの、ディスプレイ視野の3Dマッピングにおけるターゲット3D空間位置を識別する。例えば、ヘリコプタ・アプリケーションは、仮想ヘリコプタを撃墜するユーザのアクションに基づいて、ヘリコプタ202a、ヘリコプタ202b、及びヘリコプタ202cの位置及びオブジェクト特性における変化を識別する。ディスプレイ・データ・エンジン195は、ディスプレイ視野内のターゲット3D空間位置を、ディスプレイ・ユニット112のディスプレイ座標に関連付ける。ディスプレイ・データ・エンジン195は、正しいサイズ及び視点で画像データを表示するために、並進、回転、及びスケーリング・オペレーションを実行する。アプリケーション又はディスプレイ・データ・エンジン195は、画像データ・オブジェクトの位置について、シーン・マッピング・エンジンを更新することができる。多くの実施形態において、通信可能に接続された付属処理モジュール4又は他のコンピュータ・システム12から受信された、表示のための画像データは、送信される前のユーザ焦点領域に関連する、ディスプレイ視野内の位置に基づいて調整された画像解像度を有する。
以下の説明は、仮想オブジェクトが、ディスプレイ内の仮想オブジェクトのために決定された3D位置で現実的に見えるように、仮想オブジェクトを配置させる光学的シースルー拡張現実(AR)ディスプレイを更新するためのいくつかの例示的な処理を記述する。1つの例示的な実施例において、Z−バッファは、例えば、ピクセルといった別々にアドレス可能なディスプレイ位置又は領域それぞれについてデータを格納する。ディスプレイ・データ・エンジン195は、現実オブジェクトの境界及び仮想オブジェクトの境界の両方とともに、Z−バッファ内のディスプレイ視野の3Dマッピングをレンダリングする。NEDデバイスは、この例において、光学的シースルー・ディスプレイ・デバイスであるので、画像生成ユニット120が、現実オブジェクトではなく、画像データ・オブジェクトを表示するとき、Z−バッファ内の現実オブジェクトの境界は、画像データ・オブジェクトがディスプレイ内で3次元的にどこに配置されることになるかの基準として動作する。画像データの色情報は、対応する色バッファに書き込まれる。
奥行き値が、例えば、ピクセルごとに(あるいは、ピクセルのサブセットに対して)といったように、ディスプレイ位置ごとに、あるいはディスプレイ位置のサブセットに対して記憶される。この実施形態において、奥行き値に基づく画像データの階層化は、Z−バッファ及び色バッファの結果の両方に関して、画像生成ユニット120を制御して表示する合成画像をもたらす。ディスプレイ更新プロセスは、1秒当たり多くの回数実行することができる(例えば、リフレッシュ・レート)。
ビデオ観視拡張現実ディスプレイ又はビデオ観視モードでのシースルー・ディスプレイのオペレーションに関して、現実オブジェクトの画像データがまた、仮想オブジェクト又は他の拡張オブジェクト(enhanced object)の画像データとともに、Z−バッファ及び対応する色バッファに書き込まれる。ビデオ観視モードでは、眼鏡の前方から反射される光が、ユーザの眼140に到達せず、現実オブジェクト、及び仮想オブジェクト又は拡張オブジェクトの両方の3D画像データが、ディスプレイ上で再生されるように、各シースルー・ディスプレイ14の不透明フィルタを調整することができる。
デバイス・データ198は、パーソナル装置8の識別子と、例えば、IPアドレスといったネットワーク・アドレスと、モデル番号と、インストールされたデバイス等の構成パラメータと、オペレーティング・システムの識別情報(identification)と、NEDシステム8においてどのようなアプリケーションが利用可能であるかと、NEDシステム8においてどのようなアプリケーションが実行されているかと、を含み得る。デバイス・データ198はまた、慣性検出ユニット132内の方位センサ、並びに位置検出ユニット144内の1以上の位置トランシーバ及び近接トランシーバ等のセンサ若しくは検出ユニットからのデータ、又はそのようなセンサ若しくは検出ユニットから決定されたデータを含み得る。さらに、ディスプレイ・ユニット、不透明フィルタ、処理ユニット、メモリ、通信モジュール、画像生成ユニット、及び電源等のハードウェア・コンポーネントの特性がまた、デバイス・データに記憶され得る。そのような特性のいくつかの例は、ディスプレイ解像度、プロセッサ速度、メモリ・サイズ及びメモリ・タイプ、電源のワット、画像生成ユニットの照明出力、通信モジュール内の送信機と受信機又はトランシーバのタイプ、アンテナ・パワー、IEEE802.11ファミリ・メンバ等のサポートされる通信プロトコル、セルラ、赤外線、USB等の利用可能な有線インタフェース又は無線インタフェースのタイプ、スペクトル拡散及びコンステレーション符号化スキーム等のサポートされる変調スキームのタイプ、サポートされるキャリア帯域周波数、サポートされる誤り訂正技術及び圧縮技術である。
本技術は、主旨又はその本質的な特徴から逸脱することなく、他の特定の形態で具現化されてもよい。同様に、モジュール、ルーチン、アプリケーション、特徴、属性、方法、及び他の態様の特定の命名及び分割は、必須ではなく、本技術又はその特徴を実装するメカニズムは、異なる名前、分割、及び/又はフォーマットを有してもよい。
例示の目的上、以下の方法の実施形態は、上述したシステムの実施形態及び装置の実施形態のコンテキストで説明される。しかしながら、方法の実施形態は、上述したシステムの実施形態における動作に限定されるものではなく、他のシステムの実施形態において実施されてもよい。さらに、方法の実施形態は、NEDシステムが動作中であり、適用可能なアプリケーションが実行中である間に、継続的に実行されてもよい。
図6は、ニアアイ・ディスプレイ(NED)のディスプレイ視野内に画像データを表示するために領域を識別する方法の一実施形態のフローチャートである。図5の例示的なコンテキストにおいて、シーン・マッピング・エンジン306は、ステップ422において、NEDデバイスにより検出されたセンサ・データに基づいて、ディスプレイ視野を含む3Dマッピングを継続的に更新する。図5の説明は、慣性検出ユニット132に基づく頭部位置データ等のセンサ・データと、外側対面カメラ113によりキャプチャされた画像データと、の例を提供した。ステップ424において、注目点が、例えば、上述したようなユーザ焦点領域ソフトウェア196により識別され、ステップ426において、注目点を含む第1の領域のディスプレイ視野の3Dマッピングにおける座標が識別される。第1の領域は、ユーザ焦点領域と呼ばれる。ステップ428において、ユーザ焦点領域及び人間の視覚基準に基づいて、ユーザ焦点領域外の1以上のセカンダリ領域の3Dマッピングにおける座標もまた識別される。図4A、図4B、及び図4Cの例において示したように、人間の眼の研究から予め定められている角距離が、人間の視覚基準の一例である。さらに、その例において示したように、ユーザ焦点領域内と、ユーザ焦点領域外とで、異なる画像解像度が適用され得る。
図7は、ディスプレイ視野内のセカンダリ領域を決定し、セカンダリ領域に関連付けられた画像解像度を決定する方法の別の実施形態のフローチャートである。いくつかの例において、マッピング・データは、複数のシステムにわたって共有することができ、アプリケーションは、複数のコンピュータ・システムにわたって実行することができるので、図7の方法の実施形態は、NEDデバイス・システム8の付属処理モジュール4、又は付属処理モジュール4の通信モジュール、NEDデバイス2の通信モジュール、又はそれら両方の通信モジュールと通信するネットワーク・アクセス可能なコンピュータ・システム12により実行され得る。ステップ502において、ユーザ焦点領域の境界から、注目点から第2の角距離までの第2の領域の3Dマッピングにおける座標が識別される。ステップ504において、第2の領域の境界から、注目点から第3の角距離までの第3の領域の3Dマッピングにおける座標が識別される。ステップ506において、1以上の実行アプリケーションに基づいて、第2の領域内に表示するための画像データが識別され、ステップ508において、第3の領域内に表示するための画像データが識別される。画像データを送信するための帯域幅をさらに低減させ、したがって、ディスプレイ更新時間を低減させるために、第2の領域及び第3の領域のセカンダリ画像データが、画像解像度において低減され得る。画像データを低減させる1つの例は、画像データをダウンサンプリングすることによるものである。ステップ510において、第2の領域の画像データの少なくとも一部が、中間解像度レベルまでダウンサンプリングされ得、ステップ512において、第3の領域の画像データの少なくとも一部が、ユーザ焦点領域及び第2の領域の両方の画像解像度よりも低い解像度である解像度レベルまでダウンサンプリングされ得る。ダウンサンプリングされたデータが、次いで、セカンダリ領域のために送信され得る。
いくつかの実施形態はまた、ユーザ焦点領域画像データのための1以上の無損失圧縮技術と、セカンダリ画像データのための損失圧縮技術と、を使用することを含み得る。圧縮は、伝送と混同されるべきではない。損失圧縮により圧縮されたデータは、送信される前に、そのデータ完全性(data integrity)を低下させ、結果として生じる圧縮データは、無損失伝送基準を満たすよう送信され得る。伝送における損失又は無損失は、圧縮における損失又は無損失とは関係ない。
図8A及び図8Bは、注目点周囲の領域において、注目点からの距離が識別される実施形態を示している。図8Aは、送信側コンピュータ・システムの観点からの、NEDデバイスのディスプレイ更新時間を低減させる方法の一実施形態のフローチャートである。NEDデバイスに通信可能に接続されたコンピュータ・システムの一例は、付属処理モジュール4内に具現化されるコンピュータ・システムである。別の例において、送信側コンピュータ・システムは、図示したネットワーク・アクセス可能なコンピュータ・システム12等、NEDデバイス・システム8からリモートにあってもよい。ステップ602において、NEDデバイスに通信可能に接続されたコンピュータ・システムは、1以上の実行アプリケーションに基づいて、ユーザ焦点領域画像データを識別し、ステップ604において、無損失伝送基準を満たす1以上の通信技術を用いて、ユーザ焦点領域画像データを送信する。この実施形態において、ユーザ焦点領域画像データは、無損失優先データとして扱われる。ステップ606において、コンピュータ・システムは、1以上の実行アプリケーションに基づいて、ユーザ焦点領域外に表示するためのセカンダリ画像データを識別し、ステップ608において、損失伝送を許容する1以上の通信技術を用いて、ユーザ焦点領域外に表示するための画像データの少なくとも一部を送信する。この実施形態において、セカンダリ画像データの少なくとも一部は、損失許容データとして扱われる。
いくつかの実施形態は、例えば、コンテンツ・タイプに基づいて、領域に関係なく、所定のタイプの画像データのために、無損失伝送技術を使用することができる。コンテンツ・タイプのいくつかの例は、テキスト及びピクチャである。別の基準は、シーン内に留まる傾向にあり、無損失伝送を満たす通信技術を用いて送信されるとともに、詳細さのレイヤを重ね合わせる、オブジェクトの構造コア(structural core)であり得、損失伝送を許容する色が送信され得る。別の例において、図4B及び図4Cの例とは異なり、画像解像度が、全体として、オブジェクトに適用される。オブジェクト全体の画像データが、オブジェクトの少なくとも一部が属する最高優先度領域に従って扱われる。例えば、部分的にユーザ焦点領域内にあり、部分的にユーザ焦点領域外にあるオブジェクトに関して、ユーザ焦点領域外のオブジェクトの画像データは、あたかもそれがユーザ焦点領域内にあるかのように、伝送のために処理される。
図8Bは、NEDデバイス・システムの受信側コンピュータ・システムの観点からの、NEDデバイスのディスプレイ更新時間を低減させる方法の一実施形態のフローチャートである。上記で示したように、NEDデバイス・システムの受信側コンピュータ・システムの例は、処理ユニット210と、メモリ244と、通信モジュール137と、を備える制御回路136のハードウェア・コンポーネント及びソフトウェア・コンポーネント、又は付属処理モジュール4内に具現化されるコンピュータ・システムであり得る。
ステップ612において、受信側コンピュータ・システムは、通信可能に接続されたコンピュータ・システム(例えば、4又は12)から、画像データを受信し、ステップ614において、受信されている画像データ内のユーザ焦点領域画像データを識別する。通信モジュール250は、複数のベースに基づいて、受信されているデータ内の、異なる領域の画像データを互いと区別することができる。そのようなベースのいくつかの例は、画像データがどの通信チャネルを介して受信されるか、時分割多重化方式におけるどの時間窓で画像データが受信されるか、どのようにデータが変調されるか、データ・パケットのヘッダ内の1以上のビット等の識別データ、及び受信画像データ内の誤り訂正データの存在又は存在の欠如でさえある。無損失優先画像データと損失許容データとを区別するために、これらの例がまた使用されてもよい。
ステップ616において、受信側コンピュータ・システムは、無損失伝送基準を満たす1以上の通信技術を用いて、ユーザ焦点領域画像データを取り出し、ステップ618において、受信されている画像データ内の、ユーザ焦点領域外に表示するための少なくとも何らかのセカンダリ画像データを識別する。ステップ620において、少なくとも何らかのセカンダリ画像データが、損失伝送を許容する1以上の通信技術を用いて取り出される。ステップ622において、例えば、ディスプレイ・エンジン195の制御下にあるNEDディスプレイ・デバイスは、NEDデバイスのディスプレイ視野内に、ユーザ焦点領域画像データ及び少なくとも何らかのセカンダリ画像データを表示する。
図9A〜図9Dは、画像データを送信する際に使用することができる、例えば、画像データの注目点までの距離ベクトルにより表されるような位置関係に応じて、無損失伝送基準を満たし、損失伝送を許容する通信技術としての誤り訂正技術のいくつかの例を示している。図9Aは、異なるレベルの誤り訂正を用いるプロセスの例のフローチャートである。この例は、通信技術として誤り訂正を適用することに焦点を当てている。ステップ632において、送信側コンピュータ・システムは、通信モジュールに、無損失伝送基準を満たす1以上の誤り訂正技術を用いて、無損失優先画像データを符号化させ、ステップ634において、送信側コンピュータ・システムは、通信モジュールに、損失伝送を許容するレベルの誤り訂正を用いて、損失許容データの少なくとも一部を符号化させる。
図9Bは、図9Aの通信技術のいくつかの実施例を示すフローチャートである。ステップ636において、送信側コンピュータ・システムは、その通信モジュールに、パケットの1以上のデータ完全性ヘッダ・ビット(data integrity header bit)を設定することにより、無損失伝送基準を満たす1以上の誤り訂正技術を用いて、無損失優先画像データを符号化させ、例えば、図8Aの例におけるユーザ焦点領域画像データといった無損失優先データのための冗長データを含める。そのような誤り訂正技術の一例は、順方向誤り訂正(FEC)である。ステップ638において、損失許容画像データの少なくとも一部に関して、送信側コンピュータ・システムは、通信モジュールに、パケットの1以上のデータ完全性ヘッダ・ビットを設定することにより、損失許容画像データの少なくとも一部を符号化させ、損失許容データの少なくとも一部のための冗長データを含めない。
別の例において、ビタビ復号化等の畳み込み符号化技術等の順方向誤り訂正(FEC)技術が、データを破裂されることなく、あるいはデータに穴をあけることなく、無損失優先データに対して実行され得、データの破裂を伴うビタビ復号化が、損失許容データに対して実行される。破裂されたデータを伴う又は伴わないターボ符号化がまた使用されてもよい。
図9Cは、受信画像データから無損失優先画像データ及び損失許容画像データを取り出す際に使用することができる通信技術のいくつかの他の例を示すフローチャートである。ステップ642において、NEDシステム・コンピュータ・システムの制御下にある通信モジュールは、受信された無損失優先画像データに対して、1以上の誤り訂正技術を実行し、ステップ644において、損失許容画像データの少なくとも一部に対しては、1以上の誤り訂正技術を実行することを省略する。
図9Dは、受信画像データから損失許容画像データを取り出すための通信技術の別の例を示すフローチャートである。ステップ652において、NEDシステムにおける受信側コンピュータ・システムの制御下にある通信モジュールは、受信された無損失優先画像データに対して、1以上の誤り訂正技術を実行し、ステップ654において、損失許容画像データの少なくとも一部の1以上のデータ完全性ヘッダ・ビットをチェックする。ステップ656において、通信モジュール250は、失われているか、あるいは破損されているかの少なくとも一方である損失許容データ・パケットの1以上の識別子を記憶する。ステップ658において、通信モジュール250は、ディスプレイ・エンジンによりアクセス可能なメモリ・バッファに、受信された損失許容画像データを記憶し、ステップ660において、ディスプレイ更新優先基準が満たされていることに応じて、失われたデータ、破損されたデータ、又はその両方のタイプのデータの伝送をリクエストする。
ディスプレイ更新優先基準の一例は、無損失優先画像データが優先度付けされる、1秒当たり少なくとも所定のフレーム数の更新速度を維持することである。無損失優先画像データのために優先度が付けられた時間窓における利用可能な帯域幅が存在する場合、破損された、あるいは送信に失敗した損失許容画像データが、無損失伝送基準を満たすよう送信される窓に含まれ得る。そのような実施形態は、セカンダリ領域内のオブジェクトにシフトしているユーザ・フォーカスが、予測可能である、あるいは、アプリケーションの性質に起因して生じないよりは可能性が高いアプリケーションにとって有用であり得る。
図10Aは、伝送品質に応じて変化する変調技術を用いて画像データを送信するプロセスの例のフローチャートである。ステップ672において、送信側コンピュータ・システムは、通信モジュール250に、無損失伝送基準のビット誤り率基準を満たす変調技術を用いて、無損失優先画像データを変調させ、ステップ674において、送信側コンピュータ・システムの制御下にある通信モジュール250は、ビット誤り率基準を満たさない変調技術を用いて、損失許容データの少なくとも一部を変調する。
図10Bは、コンステレーション符号化スキームとしての変調通信技術のいくつかの実施例を示すフローチャートである。ステップ682において、送信側コンピュータ・システムは、通信モジュール250に、無損失伝送基準のビット誤り率基準を満たす、シンボル当たり複数ビットの第1のコンステレーション符号化スキームを用いて、無損失優先画像データを変調させる。ステップ684において、送信側コンピュータ・システムの制御下にある通信モジュール250は、シンボル当たりより多くのビットを有し、無損失伝送基準のビット誤り率基準を満たさない第2のコンステレーション符号化スキームを用いて、損失許容データの少なくとも一部を変調する。
上記の説明が示すように、損失許容データ及び無損失優先データの伝送は、同時又はほぼ同時(例えば、同じフレーム)であってもよいし、別々の時間(例えば、異なるフレーム)で行われてもよい。フレームの例に加えて、異なる優先度ビットが、同じ番号の付けられたコンステレーション・スキームを用いて、同じシンボル内で優先度付けされてもよい。コンステレーション・エンコーダは、シンボル内のコンステレーション・ポイントに関連付けられたより高位のビットの無損失優先データを符号化することができ、同じシンボルは、そのコンステレーション・ポイントに関連付けられたより低位のビットとしての損失許容データを符号化する。例えば、QAM16スキームにおいて、より高い優先度ビットは、16個のコンステレーション・ポイントの各々について、高位のビットで符号化される。例えば、各コンステレーション・ポイントは、4ビットのパターンに関連付けられ、そのパターンの最上位ビットは、高位のビットを得る。その結果は、より高い優先度ビットが、シンボルの異なる象限で符号化される、ということである。シンボルの異なる象限におけるコンステレーション・ポイントは、同じ象限内のポイントよりも大きなハミング距離又は変調距離だけ分離される。より低い優先度ビットは、残りのより低位のビットを用いて符号化されるので、それらは、同じ象限内にあり、より近いハミング距離である可能性を有する。ハミング距離が近いほど、雑音が、検出器に、間違ったビット値、したがって、間違ったコンステレーション・ポイント及びコンステレーションにおける関連値を検出させる可能性が高くなる。
望まれる場合、異なる象限におけるコンステレーション・ポイント間のハミング距離又は変調距離が、同じ象限におけるポイント間の変調距離を狭めることを犠牲にして拡張される階層QAM(HQAM)も使用されてよい。QAM符号化は、注目点からの連続的な距離の変化に基づく画像品質の段階的な劣化に特に有用である。
図10Cは、送受信されるべき画像データの優先度に基づいて、通信技術としての通信チャネルについてネゴシエートすることを示すフローチャートである。ステップ692において、NEDシステムにおける受信側コンピュータ・システムの制御下にある通信モジュールは、無損失伝送基準の第1のチャネル雑音基準を満たすかに基づいて、送信側通信モジュールと、無損失優先画像データのための通信チャネルについてネゴシエートし、ステップ694において、損失伝送を許容する第2のチャネル雑音基準を満たすかに基づいて、送信側通信モジュールと、少なくとも何らかの損失許容データのための通信チャネルについてネゴシエートする。
図11は、コンピューティング環境54のソフトウェア・コンポーネントの少なくとも一部をホストすることができる、ネットワーク・アクセス可能なコンピューティング・システム12、付属処理モジュール4、又はニアアイ・ディスプレイ(NED)デバイスの制御回路136の別の実施形態を実装するために使用することができるコンピュータ・システムの一実施形態のブロック図である。図11は、例示的なコンピュータ・システム900を示している。その最も基本的な構成において、コンピュータ・システム900は、通常、1以上の中央処理ユニット(CPU)及び1以上のグラフィックス処理ユニット(GPU)を含む1以上の処理ユニット902を含む。コンピュータ・システム900はまたメモリ904を含む。コンピュータ・システムの正確な構成及びタイプに応じて、メモリ904は、揮発性メモリ905(RAM等)、不揮発性メモリ907(ROM、フラッシュ・メモリ等)、又はそれらの組合せを含み得る。この最も基本的な構成が、図11において、破線906により示されている。さらに、コンピュータ・システム900はまた、追加の特徴/機能を有することができる。例えば、コンピュータ・システム900はまた、追加のストレージ(取り外し可能及び/又は取り外し不可能)を含み得る。そのようなストレージとして、磁気ディスク、磁気テープ、又は光ディスクがあるが、それらに限定されるものではない。そのような追加のストレージが、図11において、取り外し可能なストレージ908及び取り外し不可能なストレージ910により示されている。
コンピュータ・システム900はまた、デバイスが他のコンピュータ・システムと通信することを可能にする1以上のネットワーク・インタフェース及びトランシーバを含む1以上の通信モジュール912を含み得る。コンピュータ・システム900はまた、キーボード、マウス、ペン、音声入力デバイス、タッチ入力デバイス等の1以上の入力デバイス914を有することができる。ディスプレイ、スピーカ、プリンタ等の1以上の出力デバイス916もまた含まれ得る。
図示した例示的なコンピュータ・システムは、コンピュータ読み取り可能記憶デバイスの例を含む。コンピュータ読み取り可能記憶デバイスはまた、プロセッサ読み取り可能記憶デバイスでもある。そのようなデバイスは、コンピュータ読み取り可能命令、データ構造、プログラム・モジュール、又は他のデータ等の情報を記憶するために任意の方法又は技術により実装された揮発性及び不揮発性の取り外し可能なメモリ・デバイス及び取り外し不可能なメモリ・デバイスを含み得る。プロセッサ読み取り可能記憶デバイス又はコンピュータ読み取り可能記憶デバイスのいくつかの例は、RAM、ROM、EEPROM、キャッシュ、フラッシュ・メモリ、若しくは他のメモリ技術、CD−ROM、デジタル多用途ディスク(DVD)、又は他の光ディスク・ストレージ、メモリ・スティック若しくはメモリ・カード、磁気カセット、磁気テープ、メディア・ドライブ、ハード・ディスク、磁気ディスク・ストレージ、若しくは他の磁気記憶デバイス、又は、情報を記憶するために使用することができ、コンピュータによりアクセスされ得る任意の他のデバイスである。
構造的特徴及び/又は方法論的動作に特有の言葉で主題を説明したが、添付の特許請求の範囲において定められる主題は、上述した特定の特徴又は動作に必ずしも限定されないことを理解すべきである。むしろ、上述した特定の特徴及び動作は、請求項を実施する例示的な形態として開示されたものである。

Claims (4)

  1. ニアアイ・ディスプレイ・デバイスの3次元(3D)視野における3D距離ベクトルを決定するステップであって、前記3D距離ベクトルは、前記ニアアイ・ディスプレイ・デバイス上の予め定められた基準点と、前記ニアアイ・ディスプレイ・デバイスのユーザの一方の眼と、のうちの1つから、前記ユーザの3D注目点へと伸びるものであり、前記一方の眼は、前記ニアアイ・ディスプレイ・デバイスから離間しており前記ニアアイ・ディスプレイ・デバイスと接しておらず、前記ユーザの前記3D注目点は、前記ニアアイ・ディスプレイ・デバイスを超えており、前記3D視野内に存在する、ステップと、
    前記ユーザの前記3D注目点へと伸びる前記の決定された3D距離ベクトルと、予め定められた低知覚基準と、に基づいて、前記3D視野を表す画像データの少なくとも一部が、前記低知覚基準を満たさない無損失優先画像データとして適しているかどうかを判定するステップと、
    前記の決定された3D距離ベクトルに基づいて、前記3D視野を表す前記画像データの他の少なくとも一部が、前記低知覚基準を満たす損失許容画像データとして適しているかどうかを判定するステップと、
    記画像データの他の少なくとも一部が損失許容画像データとして適していることに応じて、損失伝送を許容する1以上の通信技術を用いて、第1の更新データとして前記損失許容画像データを前記ニアアイ・ディスプレイ・デバイスに送信する第1送信ステップと、
    前記画像データの少なくとも一部が前記無損失優先画像データとして適していることに応じて、無損失伝送基準を満たす1以上の通信技術を用いて、第2の更新データとして前記無損失優先画像データを前記ニアアイ・ディスプレイ・デバイスに送信する第2送信ステップと、
    を含む、方法であって、
    前記無損失優先画像データを前記ニアアイ・ディスプレイ・デバイスに送信することは、
    無損失伝送基準を満たす1以上の通信技術を用いるコンピュータ・システムの使用を含み、
    前記方法は、
    無損失伝送基準を満たす1以上の誤り訂正技術を用いて、前記無損失優先画像データを符号化するステップ
    をさらに含み、
    損失伝送を許容する1以上の通信技術を用いて、前記コンピュータ・システムから前記ニアアイ・ディスプレイ・デバイスに前記損失許容画像データを送信することは、
    パケットの1以上のデータ完全性ヘッダ・ビットを設定し、損失伝送を許容するレベルの誤り訂正により、前記損失許容画像データの少なくとも一部のための冗長データを含めないことにより、前記損失許容画像データの前記少なくとも一部を符号化すること
    を含む、方法。
  2. 無損失伝送基準を満たす前記1以上の通信技術は、順方向誤り訂正(FEC)を含む、請求項記載の方法。
  3. 前記無損失優先画像データは、ユーザ焦点領域内に表示するためのユーザ焦点領域画像データを含み、
    前記損失許容画像データは、前記ユーザ焦点領域外に表示するための少なくとも何らかのセカンダリ画像データを含み、
    前記セカンダリ画像データは、前記ユーザ焦点領域画像データよりも低い画像解像度を有する、請求項1記載の方法。
  4. 前記セカンダリ画像データは、前記ユーザ焦点領域画像データとは異なるディスプレイ更新速度を有する、請求項記載の方法。
JP2015550679A 2012-12-27 2013-12-19 ニアアイ・ディスプレイのディスプレイ更新時間の低減 Active JP6444886B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/728,892 2012-12-27
US13/728,892 US10514541B2 (en) 2012-12-27 2012-12-27 Display update time reduction for a near-eye display
PCT/US2013/076705 WO2014105654A1 (en) 2012-12-27 2013-12-19 Display update time reduction for a near-eye display

Publications (3)

Publication Number Publication Date
JP2016510525A JP2016510525A (ja) 2016-04-07
JP2016510525A5 JP2016510525A5 (ja) 2017-01-19
JP6444886B2 true JP6444886B2 (ja) 2018-12-26

Family

ID=50023850

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015550679A Active JP6444886B2 (ja) 2012-12-27 2013-12-19 ニアアイ・ディスプレイのディスプレイ更新時間の低減

Country Status (6)

Country Link
US (1) US10514541B2 (ja)
EP (1) EP2939432B1 (ja)
JP (1) JP6444886B2 (ja)
KR (1) KR102192927B1 (ja)
CN (1) CN105340279A (ja)
WO (1) WO2014105654A1 (ja)

Families Citing this family (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104246864B (zh) * 2013-02-22 2016-06-29 索尼公司 头戴式显示器和图像显示装置
KR20150045637A (ko) * 2013-10-21 2015-04-29 삼성전자주식회사 사용자 인터페이스 운용 방법 및 그 전자 장치
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US9971153B2 (en) * 2014-03-29 2018-05-15 Frimory Technologies Ltd. Method and apparatus for displaying video data
US10852838B2 (en) 2014-06-14 2020-12-01 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
AU2015284303B2 (en) * 2014-07-02 2019-07-25 Covidien Lp System and method for detecting trachea
US9977495B2 (en) * 2014-09-19 2018-05-22 Utherverse Digital Inc. Immersive displays
US10061486B2 (en) * 2014-11-05 2018-08-28 Northrop Grumman Systems Corporation Area monitoring system implementing a virtual environment
US9804669B2 (en) * 2014-11-07 2017-10-31 Eye Labs, Inc. High resolution perception of content in a wide field of view of a head-mounted display
US10825069B2 (en) * 2014-11-14 2020-11-03 The Joan and Irwin Jacobs Technion-Cornell Institute System and method for intuitive content browsing
US10824987B2 (en) 2014-11-14 2020-11-03 The Joan and Irwin Jacobs Technion-Cornell Institute Techniques for embedding virtual points of sale in electronic media content
CN104469344B (zh) * 2014-12-03 2017-03-01 北京智谷技术服务有限公司 光场显示控制方法和装置、光场显示设备
WO2016090282A1 (en) 2014-12-05 2016-06-09 Cowbyt Technologies Llc Autonomous navigation system
US20160180762A1 (en) * 2014-12-22 2016-06-23 Elwha Llc Systems, methods, and devices for controlling screen refresh rates
US20220005587A1 (en) * 2015-03-17 2022-01-06 Raytrx, Llc System, method, and non-transitory computer-readable storage media related to correction of vision defects using a visual display
JP2018523147A (ja) 2015-05-08 2018-08-16 ビ−エイイ− システムズ パブリック リミテッド カンパニ−BAE SYSTEMS plc ディスプレイにおける、および、ディスプレイに関連する改良
DE102015213376A1 (de) 2015-07-16 2017-01-19 Robert Bosch Gmbh Projektionsvorrichtung für eine Datenbrille, Datenbrille und Verfahren zum Betreiben einer Projektionsvorrichtung für eine Datenbrille
US9900602B2 (en) * 2015-08-20 2018-02-20 Citrix Systems, Inc. Optimizing remote graphics delivery and presentation
US20170094227A1 (en) * 2015-09-25 2017-03-30 Northrop Grumman Systems Corporation Three-dimensional spatial-awareness vision system
US9880384B2 (en) * 2015-11-27 2018-01-30 Fove, Inc. Gaze detection system, gaze point detection method, and gaze point detection program
WO2017138458A1 (ja) 2016-02-09 2017-08-17 株式会社ソニー・インタラクティブエンタテインメント 映像表示システム
US10334224B2 (en) 2016-02-19 2019-06-25 Alcacruz Inc. Systems and method for GPU based virtual reality video streaming server
US10540007B2 (en) * 2016-03-04 2020-01-21 Rockwell Collins, Inc. Systems and methods for delivering imagery to head-worn display systems
CN108701227B (zh) * 2016-03-07 2022-01-14 奇跃公司 用于生物安全的蓝光调节
US10797977B2 (en) 2016-03-22 2020-10-06 Citrix Systems, Inc. Robust suspension and resumption of desktop virtualization
GB2548860A (en) 2016-03-31 2017-10-04 Nokia Technologies Oy Multi-camera image coding
US10460704B2 (en) * 2016-04-01 2019-10-29 Movidius Limited Systems and methods for head-mounted display adapted to human visual mechanism
EP3440495A1 (en) * 2016-04-08 2019-02-13 Google LLC Encoding image data at a head mounted display device based on pose information
US10134198B2 (en) 2016-04-19 2018-11-20 Adobe Systems Incorporated Image compensation for an occluding direct-view augmented reality system
JP6533761B2 (ja) * 2016-05-18 2019-06-19 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理システム、および情報処理方法
CN107404641A (zh) * 2016-05-18 2017-11-28 中兴通讯股份有限公司 视频处理方法、视频播放方法、机顶盒以及vr设备
JP6499993B2 (ja) * 2016-05-18 2019-04-10 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理システム、および情報処理方法
EP3472806A4 (en) 2016-06-17 2020-02-26 Immersive Robotics Pty Ltd IMAGE COMPRESSION METHOD AND DEVICE
KR101713492B1 (ko) 2016-06-27 2017-03-07 가천대학교 산학협력단 영상 복호화 방법, 영상 부호화 방법, 영상 복호화 장치, 및 영상 부호화 장치
US10373592B2 (en) 2016-08-01 2019-08-06 Facebook Technologies, Llc Adaptive parameters in image regions based on eye tracking information
US10042421B2 (en) * 2016-08-24 2018-08-07 Disney Enterprises, Inc. System and method of latency-aware rendering of a focal area of an animation
US10255714B2 (en) * 2016-08-24 2019-04-09 Disney Enterprises, Inc. System and method of gaze predictive rendering of a focal area of an animation
US10438318B2 (en) * 2016-08-30 2019-10-08 Intel IP Corporation Blind spot rendering optimizations for eye tracking head mounted displays
KR102650215B1 (ko) * 2016-10-18 2024-03-21 삼성전자주식회사 영상 처리 방법 및 장치
WO2018092147A1 (en) * 2016-11-21 2018-05-24 Karma Touch 2016 Ltd. Compressing and decompressing an image based on gaze point
EP3548987A4 (en) * 2016-12-01 2020-05-20 Shanghai Yunyinggu Technology Co., Ltd. ZONE-BASED DISPLAY DATA PROCESSING AND TRANSMISSION
US10120442B2 (en) * 2016-12-21 2018-11-06 Oculus Vr, Llc Eye tracking using a light field camera on a head-mounted display
US10121337B2 (en) * 2016-12-30 2018-11-06 Axis Ab Gaze controlled bit rate
EP3579941A4 (en) 2017-02-08 2020-10-28 Immersive Robotics Pty Ltd ANTENNA CONTROL FOR COMMUNICATION BETWEEN MOBILE DEVICES
CN106951153B (zh) * 2017-02-21 2020-11-20 联想(北京)有限公司 一种显示方法及电子设备
US20180262758A1 (en) * 2017-03-08 2018-09-13 Ostendo Technologies, Inc. Compression Methods and Systems for Near-Eye Displays
US10277943B2 (en) * 2017-03-27 2019-04-30 Microsoft Technology Licensing, Llc Selective rendering of sparse peripheral displays based on user movements
US10979685B1 (en) 2017-04-28 2021-04-13 Apple Inc. Focusing for virtual and augmented reality systems
CN116456097A (zh) 2017-04-28 2023-07-18 苹果公司 视频流水线
GB2562490A (en) * 2017-05-16 2018-11-21 Nokia Technologies Oy An apparatus, a method and a computer program for video coding and decoding
US10665209B2 (en) * 2017-05-18 2020-05-26 Synaptics Incorporated Display interface with foveal compression
US20200145696A1 (en) * 2017-06-05 2020-05-07 Immersive Robotics Pty Ltd Digital Content Stream Compression
US10477105B2 (en) * 2017-06-08 2019-11-12 Futurewei Technologies, Inc. Method and system for transmitting virtual reality (VR) content
CN107239144B (zh) 2017-06-09 2020-02-07 歌尔股份有限公司 一种设备的输入方法和装置
CN107333119A (zh) 2017-06-09 2017-11-07 歌尔股份有限公司 一种显示数据的处理方法和设备
GB2563832B (en) * 2017-06-23 2021-11-10 Sony Interactive Entertainment Inc Display method and apparatus
US10861142B2 (en) 2017-07-21 2020-12-08 Apple Inc. Gaze direction-based adaptive pre-filtering of video data
US10976811B2 (en) * 2017-08-11 2021-04-13 Microsoft Technology Licensing, Llc Eye-tracking with MEMS scanning and reflected light
CN107317987B (zh) * 2017-08-14 2020-07-03 歌尔股份有限公司 虚拟现实的显示数据压缩方法和设备、系统
GB201713843D0 (en) * 2017-08-30 2017-10-11 Nokia Technologies Oy A method, device and a system for enhanced field of view
AU2018372561B2 (en) 2017-11-21 2023-01-05 Immersive Robotics Pty Ltd Image compression for digital reality
US11553187B2 (en) 2017-11-21 2023-01-10 Immersive Robotics Pty Ltd Frequency component selection for image compression
US10949947B2 (en) 2017-12-29 2021-03-16 Intel Corporation Foveated image rendering for head-mounted display devices
US10770023B2 (en) 2018-05-29 2020-09-08 Synaptics Incorporated Dynamic overdrive for liquid crystal displays
US10916040B2 (en) * 2018-07-24 2021-02-09 Apical Ltd. Processing image data using different data reduction rates
US11048464B2 (en) * 2018-07-31 2021-06-29 Dell Products, L.P. Synchronization and streaming of workspace contents with audio for collaborative virtual, augmented, and mixed reality (xR) applications
US10930049B2 (en) * 2018-08-27 2021-02-23 Apple Inc. Rendering virtual objects with realistic surface properties that match the environment
WO2020044916A1 (ja) * 2018-08-29 2020-03-05 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US10762866B2 (en) * 2018-08-30 2020-09-01 Synaptics Incorporated Display rescan
JP7093418B2 (ja) * 2018-09-20 2022-06-29 富士フイルム株式会社 情報処理装置、情報処理システム、情報処理方法、及びプログラム
KR102055824B1 (ko) * 2018-10-25 2019-12-13 에스케이텔레콤 주식회사 증강현실 영상의 디스플레이 방법 및 이에 사용되는 장치
US10860104B2 (en) 2018-11-09 2020-12-08 Intel Corporation Augmented reality controllers and related methods
US11644940B1 (en) 2019-01-31 2023-05-09 Splunk Inc. Data visualization in an extended reality environment
US11853533B1 (en) * 2019-01-31 2023-12-26 Splunk Inc. Data visualization workspace in an extended reality environment
US20220417568A1 (en) * 2019-11-26 2022-12-29 Sony Group Corporation Image transmission apparatus and display apparatus
US20210327121A1 (en) * 2020-04-15 2021-10-21 Sirisilp Kongsilp Display based mixed-reality device
DE102020215285A1 (de) 2020-12-03 2022-06-09 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Parallaxeregelung und binokulare Datenbrille mit einer Recheneinheit zu einem Durchführen des Verfahrens
WO2022158611A1 (ko) * 2021-01-19 2022-07-28 주식회사 포에스텍 초음파 센서를 활용한 수중 환경 영상의 보정 방법
CN112791399B (zh) * 2021-02-08 2021-08-31 腾讯科技(深圳)有限公司 云游戏画面的显示方法及装置、系统、介质、电子设备

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0820933B2 (ja) 1990-04-20 1996-03-04 ダイキン工業株式会社 データ書き込み方法およびその装置
EP0863431B1 (en) 1992-06-02 2004-10-20 Canon Kabushiki Kaisha Optical apparatus for detecting rotation of an eyeball of an observer
JPH06284449A (ja) 1993-03-25 1994-10-07 Kyocera Corp 視差を利用した映像信号の帯域圧縮回路および画像符号化装置
JPH0846836A (ja) 1994-07-29 1996-02-16 Canon Inc 視線検出方法及び装置並びに撮像装置
JPH08234141A (ja) 1994-12-01 1996-09-13 Olympus Optical Co Ltd 頭部装着型映像表示装置
FI120711B (fi) 1995-02-06 2010-01-29 Adc Telecommunications Inc Monipiste-pisteeseen tietoliikennejärjestelmä
JPH09224267A (ja) 1996-02-16 1997-08-26 Olympus Optical Co Ltd 立体映像作成装置及び立体映像表示装置並びにシステム
CN1175373C (zh) 1998-03-20 2004-11-10 三菱电机株式会社 有损失/无损失感兴趣区域图像编码的方法和系统
SE521021C2 (sv) 1998-06-18 2003-09-23 Ericsson Telefon Ab L M Förfarande och anordning vid överförande av bilder
GB0000573D0 (en) 2000-01-12 2000-03-01 Nokia Mobile Phones Ltd Receiver based isochronous transmissions
US6975655B2 (en) * 2000-04-07 2005-12-13 Broadcom Corporation Method of controlling data sampling clocking of asynchronous network nodes in a frame-based communications network
US6603491B2 (en) * 2000-05-26 2003-08-05 Jerome H. Lemelson System and methods for controlling automatic scrolling of information on a display or screen
US7679622B2 (en) * 2000-07-28 2010-03-16 Alcatel-Lucent Usa Inc. Foveation-based error resilience algorithm
US6909753B2 (en) 2001-12-05 2005-06-21 Koninklijke Philips Electronics, N.V. Combined MPEG-4 FGS and modulation algorithm for wireless video transmission
US7010169B2 (en) 2002-04-15 2006-03-07 Sbc Technology Resources, Inc. Multi-point predictive foveation for bandwidth reduction of moving images
US7401920B1 (en) 2003-05-20 2008-07-22 Elbit Systems Ltd. Head mounted eye tracking and display system
US7492821B2 (en) 2005-02-08 2009-02-17 International Business Machines Corporation System and method for selective image capture, transmission and reconstruction
EP1720357A1 (de) 2005-05-04 2006-11-08 Swisscom Mobile AG Verfahren und Vorrichtung zur Übermittlung von Videodaten mit Komprimierung basierend auf Blickrichtung nach Augenverfolgungsverfahren
EP2168297A1 (en) * 2007-06-08 2010-03-31 QUALCOMM Incorporated Hierarchical modulation for communication channels in single-carrier frequency division multiple access
US7556377B2 (en) 2007-09-28 2009-07-07 International Business Machines Corporation System and method of detecting eye fixations using adaptive thresholds
US20090096927A1 (en) 2007-10-15 2009-04-16 Camp Jr William O System and method for video coding using variable compression and object motion tracking
US8786675B2 (en) 2008-01-23 2014-07-22 Michael F. Deering Systems using eye mounted displays
JP5415948B2 (ja) 2008-02-28 2014-02-12 パナソニック株式会社 視線検出装置及び視線検出方法
US9200901B2 (en) * 2008-06-19 2015-12-01 Microsoft Technology Licensing, Llc Predictive services for devices supporting dynamic direction information
JP5254122B2 (ja) 2009-04-24 2013-08-07 パナソニック株式会社 カメラ、映像送信装置、映像受信装置及び映像通信システム
US8884984B2 (en) 2010-10-15 2014-11-11 Microsoft Corporation Fusing virtual content into real content
US9304319B2 (en) 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
US9213405B2 (en) 2010-12-16 2015-12-15 Microsoft Technology Licensing, Llc Comprehension and intent-based content for augmented reality displays
US8983555B2 (en) 2011-01-07 2015-03-17 Microsoft Technology Licensing, Llc Wireless communication techniques
US10972680B2 (en) 2011-03-10 2021-04-06 Microsoft Technology Licensing, Llc Theme-based augmentation of photorepresentative view
US8184069B1 (en) 2011-06-20 2012-05-22 Google Inc. Systems and methods for adaptive transmission of data

Also Published As

Publication number Publication date
KR20150102026A (ko) 2015-09-04
EP2939432B1 (en) 2020-04-15
US20140184475A1 (en) 2014-07-03
US10514541B2 (en) 2019-12-24
CN105340279A (zh) 2016-02-17
JP2016510525A (ja) 2016-04-07
EP2939432A1 (en) 2015-11-04
KR102192927B1 (ko) 2020-12-18
WO2014105654A1 (en) 2014-07-03

Similar Documents

Publication Publication Date Title
JP6444886B2 (ja) ニアアイ・ディスプレイのディスプレイ更新時間の低減
US11838518B2 (en) Reprojecting holographic video to enhance streaming bandwidth/quality
US11061240B2 (en) Head-mountable apparatus and methods
US20200142480A1 (en) Immersive displays
US10643389B2 (en) Mechanism to give holographic objects saliency in multiple spaces
US9256987B2 (en) Tracking head movement when wearing mobile device
US9035970B2 (en) Constraint based information inference
US20140146394A1 (en) Peripheral display for a near-eye display device
JP2022502800A (ja) 拡張現実のためのシステムおよび方法
US11277603B2 (en) Head-mountable display system
KR20180038552A (ko) 가상 및 증강 현실 시스템들 및 방법들
US20140002495A1 (en) Multi-node poster location
US20230403386A1 (en) Image display within a three-dimensional environment
CN116941239A (zh) 三维环境内的图像显示

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161130

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181128

R150 Certificate of patent or registration of utility model

Ref document number: 6444886

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250