JP2018536883A - プリズムによる視線追跡 - Google Patents

プリズムによる視線追跡 Download PDF

Info

Publication number
JP2018536883A
JP2018536883A JP2018507532A JP2018507532A JP2018536883A JP 2018536883 A JP2018536883 A JP 2018536883A JP 2018507532 A JP2018507532 A JP 2018507532A JP 2018507532 A JP2018507532 A JP 2018507532A JP 2018536883 A JP2018536883 A JP 2018536883A
Authority
JP
Japan
Prior art keywords
eye
light
ray
hmd device
display panel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018507532A
Other languages
English (en)
Other versions
JP6494863B2 (ja
Inventor
チャン,ジビン
キャロッロ,ジェリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2018536883A publication Critical patent/JP2018536883A/ja
Application granted granted Critical
Publication of JP6494863B2 publication Critical patent/JP6494863B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/14Beam splitting or combining systems operating by reflection only
    • G02B27/149Beam splitting or combining systems operating by reflection only using crossed beamsplitting surfaces, e.g. cross-dichroic cubes or X-cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/14Beam splitting or combining systems operating by reflection only
    • G02B27/141Beam splitting or combining systems operating by reflection only using dichroic mirrors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Eye Examination Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

HMD装置(100、300)は、表示パネル(102、308、310)と、表示パネルと目(112)の予想位置との間の第1軸(202)に沿って配置されたXプリズムビームスプリッタ(104)とを備える。Xプリズムビームスプリッタは、表示パネルから目へ第1軸に沿って第1の光線(212)を第1方向に向け、第1軸に実質的に垂直な第2軸(208)沿って第2の光線(216)を第2方向に向け、第2軸に沿って第3の光線(222)を第2方向に向け、第2の光線は、第1の光線を表し、第3の光線は、目からの第1の光線の反射を表す。HMD装置は、さらに、第2の光線の表現と第3の光線の表現との結合体を含む合成画像(232)を撮影するための撮影カメラ(106)を備える。

Description

開示の分野
本開示は、全体的に、ヘッドマウントディスプレイシステムに関し、特に、ヘッドマウントディスプレイシステムにおける視線追跡に関する。
背景
ヘッドマウントディスプレイ(HMD)装置は、ユーザの両目の前に取り付けられた表示パネルを利用して、仮想現実(VR)コンテンツ、拡張現実(AR)コンテンツなどを含む、さまざまな種類のコンテンツを表示する。視線追跡は、フォービエイテッド(foveated)イメージング(眼球運動連動型(gaze−contingent)イメージングとしても知られている)、眼球運動によるユーザ入力またはインタラクションなど、さまざまな機能を容易にするためにHMDシステムに実装されることが多い。従来の視線追跡機構は、通常、レンズおよびミラーの複雑な配置を採用して目の画像を撮影し、この画像から目の視線方向を推定する。しかしながら、HMD装置メーカーは、フォームファクタを低減したHMD装置を提供しようと懸命に努力しており、従来のシステムが表示パネルを遮ることなくこの視線追跡機能を提供するために必要とされる、複雑な光学機構は、HMD装置のスモールフォームファクタの実現を妨げてしまうことが多い。また、従来の方法で撮影された目の画像に基づいて目の視線を推定するために実装されるアルゴリズムは、多くの演算を必要とすることが多いため、高価かつ電力を消耗する高性能コンピュータシステムを持たないHMD装置に実装するには実用的ではない。
添付の図面を参照することによって、本開示は当業者によって理解され、その数多くの特徴および利点が当業者に明らかになるであろう。異なる図面における同一の参照符号の使用は、同様または同一の項目を示す。
本開示の少なくとも1つの実施形態に係る、Xプリズムビームスプリッタを利用した視線追跡システムの構成要素の配置を示す図である。 本開示の少なくとも1つの実施形態に係る図1の視線追跡システムの断面図を示す図である。 本開示の少なくとも1つの実施形態に係る図1の視線追跡システムを実装するHMD装置の背面図を示す図である。 本開示の少なくとも1つの実施形態に係る図3のHMD装置の処理システムを示す図である。 本開示の少なくとも1つの実施形態に係る、視線追跡に使用する合成画像の2つの例を示す図である。
詳細な説明
以下の説明は、HMDによる視線追跡システムに関するいくつかの具体的な実施の形態および詳細を提供することによって、本開示の十分な理解を伝えるためのものである。しかしながら、本開示は、例示に過ぎないこれらの具体的な実施形態および詳細に限定されず、本開示の範囲は、以下の請求項およびその均等物によってのみ適宜限定されるものであることを理解されたい。説明するために、本明細書に記載の視線追跡システムは、HMDベースのシステムのみならず、その他のシステムにおいて利用されてもよい。当業者は、周知のシステムおよび方法に鑑みて、多くの代替的な実施形態における、具体的な設計およびその他の必要性に応じた、本開示の意図する目的および利益のための本開示の利用を理解するであろうことをさらに理解されたい。
図1〜図5は、HMD装置またはその他の同様の装置における視線追跡のための例示的な装置および技術を示す図である。少なくとも1つの実施形態において、表示パネルとユーザの目の予想位置との間の視線軸に沿ってXプリズムビームスプリッタが位置しており、視線軸と交差するXプリズムビームスプリッタの2つのポートに垂直なXプリズムビームスプリッタのポートに焦点を合わせるように視線追跡カメラが位置している。視線を追跡するために、表示パネルとの位置関係が固定されたIR光源のセットが起動または「点滅」させられて、Xプリズムビームスプリッタを通してユーザの目を照らす。Xプリズムビームスプリッタは、表示画面からの光およびIR光源のセットからのIR光の画像またはその他の表現を視線追跡カメラに投射させると同時に、ユーザの目からの光の反射および目の周囲の領域の画像またはその他の表現を視線追跡カメラに投射させる。視線追跡カメラは、このように、表示パネルおよびIR光源のイメージと、ユーザの目からの反射および周囲の領域のイメージとを含む合成画像を撮影することができる。その後、この合成画像は分析され、ユーザの目の現在位置、向き、または視線方向のうちの1つ以上が判断され得る。
図1は、少なくとも1つの実施形態に係る、ヘッドマウント装置(HMD)または同様のディスプレイシステムにおいて実装される視線追跡システム100を示す図である。図に示すように、視線追跡システム100は、表示パネル102と、Xプリズムビームスプリッタ104と、撮影カメラ106と、視線追跡処理サブシステム108とを備える。表示パネル102は、ユーザにイメージを表示するために使用される。いくつかの実施形態において、1つの表示パネル102は、横並びの別々の画像を共に表示するために使用され、ユーザの片目112に対して1つの画像を表示する。その他の実施形態において、片目112ずつに別の表示パネル102が使用される。さらに、いくつかの実施形態において、ユーザの両目が追跡される。この場合、片目112ずつに別の視線追跡カメラ106が実装される。別のXプリズムビームスプリッタ104も、同様に、片目ずつに実装される。または、ユーザの両目112を跨いで(つまり、表示パネル102の面と平行な方向に)延在する幅を有する1つのXプリズムビームスプリッタ104を使用してもよい。表示パネル102とXプリズムビームスプリッタ104との間、Xプリズムビームスプリッタ104と目112との間、または両方の位置において視線軸に沿って1つ以上の光学レンズ(図示せず)が位置してもよい。
Xプリズムビームスプリッタ104(以下、参照の便宜上、「Xプリズム104」)は、表示パネル102と目112の予想されるまたは予期される位置との間の視線軸(視線軸202、図2)に沿って位置する。Xプリズム104は、2つの部分反射面114、115を有する正六面体プリズムまたはその他の平行六面体プリズムから構成される。2つの部分反射面114、115は、互いに実質的に垂直(つまり、90°±10°)であり、視線軸に対して実質的に非垂直な角度である。図116に示すように、Xプリズム104は、4つの別々の直角三角形のプリズム117、118、119、120によって組み立てられてもよい。直角三角形のプリズム117〜120は、互いに接着されて、または機械で接合されて平行6面体ビームスプリッタを形成する。プリズム117〜120は、部分反射面114、115の各々に対して、入射光線を部分的に透過させ、部分的に反射させるように実装される。たとえば、プリズム117〜120は、(特定の波長に対して)透過性の、特定の波長に基づいた厚さを有する接着層を用いて互いに接着されてもよく、入射光線のうちのある割合(たとえば、50%)が入射角に対して90度の角度で反射され、入射光のうちの残りの割合(たとえば、50%)が、プリズム間の界面およびプリズム間の接着層の厚さによって生じる減衰全反射現象によって、実質的にその元の経路に沿ってXプリズム104を透過させられる。これに代えて、プリズム117〜120のうちのいくつかの向かい合った側面は、金属(たとえば、アルミニウム)またはその他の適した材料(たとえば、IR/可視光ダイクロイック材料)の薄いまたは不連続の被覆で覆われ、プリズム117〜120が互いに接合されてXプリズム104を形成するときに、薄い/不連続の被覆が部分反射面114、115を形成してもよい。たとえば、プリズム117の面121およびプリズム119の面122は、各々、適切な材料の薄いまたは不連続の被覆を受け、プリズム117〜120が互いに接合されたときに、面121、122の薄い/不連続の被覆が合わさって部分反射層115を形成してもよい。同様に、プリズム118の面123およびプリズム120の面124は、各々、材料の薄いまたは不連続の被覆を受け、プリズム117〜120が互いに接合されるときに、面123および124の薄い/不連続の被覆が合わさって部分反射面114を形成してもよい。
いくつかの実施形態において、赤外線(IR)光(より具体的には、近赤外線(NIR)光)など、可視スペクトル外の光は、視線を追跡するために目112を照らすために使用されると共に、視線追跡処理のための座標系基準点としての役割がある。説明すると、IR光源126、127、128、129など、1つ以上のIR光源からなるセットは、特定パターンで表示パネル102との位置関係が固定された状態で実装されてもよい。以下に説明するが、IR光源のセットの特定パターンおよびそれらの表示パネル102に対する固定関係は、基準座標系としての役割がある。いくつかの実施形態において、この固定位置関係は、図1に示すように、表示パネル102の四隅または表示パネル102の縁もしくは「コード(flex)」沿いなど、表示パネル102内にIR光源126〜129を取り付けることによって得られる。その他の実施形態において、IR光源は、1つ以上のレンズを介して表示パネル102上に「仮想的」に位置するようにカメラ空間の近くに物理的に位置決めすることによって、表示パネル102に関連して「仮想的」に埋め込むことができる。いずれの手法にせよ、IR光源および表示パネル102は、各々、固定されており、それらの相対位置は変わることはないため、IR光源と表示パネル102との間に固定の相対位置関係を確立する。たとえば、IR光源126〜129は、各々、IRを発する垂直共振器面発光レーザ(VECSEL)、IR発光ダイオード(LED)などから構成されてもよい。
視線追跡システム100の全体的な動作は、図2を参照するとより理解される。図2は、いくつかの実施形態に係る視線追跡システム100の断面図200を示す図である。図に示すように、Xプリズム104は、表示パネル102と目112との間の視線軸202に沿ってまたは視線軸202と位置合わせされて、表示パネル102とユーザの対応する目112の予想位置との間に位置する。よって、表示パネル102に面するポート203と、目112に面する反対側のポート205とを有する。表示パネル102とXプリズム104との間に配置される拡大レンズ204またはXプリズム104と目112との間に配置される拡大レンズ206など、1つ以上のレンズまたはその他の光学素子がこの視線軸202に沿って配置されてもよい。
撮影カメラ106(以下、「視線追跡カメラ106」)が光軸208(以下、「反射軸208」)に沿って配置される。光軸208は、概ね、視線軸202に実質的に垂直であり、Xプリズム104内の部分反射面114、115の交差点またはその近くにおいて視線軸202と交差する。つまり、視線追跡カメラ106は、ポート203に垂直なポート207に焦点が合わせられている。図2に示すように、視線追跡カメラ106は、イメージセンサ211に入射光を当てるために、1つ以上のレンズからなるレンズアセンブリ210を備える。本明細書に記載されるように、IR光は、目を照らすことおよび視線追跡のための基準点の生成に利用され得るため、イメージセンサ211は、アールジービー(RGB)−IRのデュアル機能を有するイメージセンサなど、IR光を感知可能またはIR光の中身を取り込み可能なイメージセンサから構成され得る。このようなセンサの例として、OmniVision Technologies,Incから入手可能な、OV4682 RGBIRイメージセンサがある。また、HMD装置に通常見られる比較的小さいフォームファクタによって、視線追跡カメラ106は、Xプリズム104のポート207に比較的近い可能性があるため、視線追跡カメラ106は、無限遠から過焦点距離までの間の適切な変調伝達関数(MTF)を用いて、Xプリズム104を通して目112および表示パネル102に過焦点距離で焦点を合わせられるように小さい絞り値(または「F値」)を有して実装されてもよい。
通常動作において(つまり、本明細書に記載の視線追跡処理を連動させない場合)、表示パネル102は、表示制御装置によって駆動され、表示パネル102から出射される可視光の形でイメージを表示する。この可視光は、視線軸202に沿ってXプリズム104のポート203へ透過させられる。可視光がポート203からXプリズム104を通過して反対側のポート205まで進むと、可視光は、部分反射面114、115に当たる。少なくとも1つの実施形態において、部分反射面114は、可視光スペクトルの光(約400〜700ナノメートル(nm))を実質的に透過させるように構成されているため、部分反射面114は、可視光が視線軸202に沿ってポート203からポート205へ、そのすぐ後に目112へ進む際に、可視光を過度に減衰させたり遮ったりしない。対照的に、少なくとも1つの実施形態において、部分反射面115は、可視光スペクトルの光を部分的に反射するように構成されているため、可視光の一部が部分反射面115によって反射されて、反射軸208に沿ってポート207に向かい、通過する。このように、Xプリズム104は、可視光がXプリズム104を通って目112に進む際に可視光に存在する強度または照度を減衰させる。たとえば、可視光に対する部分反射面114が100%透過比であり、部分反射面115が50%反射/50%透過比(図をわかりやすくするために、Xプリズム104内の損失は無視してもよいこととする)であると想定した場合、Xプリズム104を通って目112に到達している可視光の光度は、ポート203に入射する可視光の光度の50%であろう。通常のHMDの用途において、表示パネル102の光度容量は、この損失を補償するには十分すぎるほどであり、目112に満足な可視光強度を届けることができる。
視線追跡動作において、光源126〜129のセット(断面図200には、光源126および129のみを図示)は、起動させられるため、IR光を出射する。IR光は、表示パネル102から出射された可視光と結合されて、Xプリズム104のポート203に焦点が合わされた光線212(以下、「初期光線212」)を形成する。Xプリズム104を通過する際、初期光線212は、部分反射面114および部分反射面115の両方に当たる。部分反射面115は、IRおよび初期光線212の可視光の一部(たとえば、50%)を視線軸202に沿ってポート207まで引き続き透過させ、そこから透過光線214として目212まで透過させる一方、IRおよび初期光線212からの可視光の別の一部(たとえば、50%)は、直角で反射され、反射光線216として反射軸208に沿ってポート207に向かう。
上述したように、部分反射面114は、可視光を実質的に透過させるように構成され得るため、反射面114は、初期光線212の可視光の中身の透過に著しく強い影響を与えない。しかしながら、赤外スペクトルの光(たとえば、NIRの場合、約700nm〜850nm、フルスペクトルIRの場合、約700nm〜1000nm)については、部分反射面114は、IR光を、たとえば、50%透過/50%反射比で部分的に反射するように構成されてもよい。したがって、部分反射面114に当たると、初期光線212に存在するIR光の一部(たとえば、50%)は、ポート205へ透過させられて、次に、目112へ透過させられる一方、IR光の別の一部(たとえば、50%)は、反射され、反射軸208に沿ってポート207の反対側のポート209に向かう。したがって、たとえば、部分反射面114、115の各々によるIR光に対する反射比が50%、部分反射面114および部分反射面115による可視光に対する反射比がそれぞれ0%、50%であると想定した場合、透過光線214は、可視光の50%および初期光線212からのIR光の25%を含んでおり、反射光線216は、可視光の50%および初期光線212からのIR光の25%を含んでいるだろう。
透過光線214は、ポート205を通ってXプリズム104を離れ、目112に当たる。透過光線214に存在するIRおよび可視光の一部は、目112および周囲の領域によって反射され、視線軸202に沿って反射光線218としてポート205に返ってくる。反射光線218は、Xプリズム104を通過すると、部分反射面114、115に当たり、部分反射面114、115は、反射光線218に存在するIR光および可視光の対応する一部を、初期光線212を例に上述した方法と同様の方法で透過させたり反射したりするように動作する。したがって、部分反射面114、115は、反射光線218の一部を、透過光線220として、視線軸203に沿ってポート203へ透過させ、反射光線218の別の一部を、反射光線222として、ポート207に向けて反射する。反射光線218の別の一部はポート209に向けて反射されるが、この態様は、明確にするために、図2から省かれているということが理解されるだろう。
部分反射面114、115は、その部分反射率のために、反射光線218に存在するIR光の一部を反射軸208に沿ってポート207に向けて反射するように動作する。説明すると、部分反射面114、115の両方の反射比がIR光に対して50%であると想定した場合、反射光線218に存在するIR光のおよそ25%が、反射光線218から生成される反射光線222に存在する。さらに、部分反射面114は可視光を実質的に透過させる一方、部分反射面115は入射した可視光の少なくとも一部を反射するため、部分反射面115は、反射光線218に存在する可視光の一部を反射軸208に沿ってポート209に向かって反射するように動作する。たとえば、可視光に対する部分反射面114の反射比が0%、部分反射面または面の反射比が50%であると想定した場合、反射光線218に存在する可視光のおよそ50%が、反射光線218から生成される反射光線222に存在する。
視線追跡カメラ106がポート207に焦点を合わせていると、ポート207から出射した反射光線216、222がイメージセンサ211によって同時に取り込まれる。反射光線216は初期光線212の分割光表現であるので、反射光線216は、IR光点226、227、228、229としてのIR光源126〜129のセットから出射されたそれぞれのIR光と共に表示パネル102の画像224を表現する。同様に、反射光線222は、反射光線218の分割光表現であるため、目112および目112の周囲の領域からの表示パネル102およびIR光源126〜129のセットの反射の表現である。したがって、反射光線222は、目112の画像230、およびIR光源126〜129のセットからのIR光ならびに表示パネル102から出射された可視光によって照射された周囲の領域を表現する。このように、イメージセンサ21による反射光線216、222の同時取り込みによって、イメージセンサ211が画像224および230の合成または結合体である画像232を撮影することになる。したがって、画像232(以下、「合成画像232」)は、画像撮影時に表示パネル102に表示される可視光イメージと、IR光点226〜229の形のIR光源126〜129のセットから出射されたIR光と、ユーザの目112および周囲の領域から反射した可視光およびIR光と、たとえば、IR光点226、227、228、および229については、それぞれ反射点236、237、238、および239の形の目112からのIR光点226〜229の一部またはすべての反射とを含む。合成画像232から検出される目112の瞳孔、虹彩、角膜、または強膜のうちの1つ以上の位置から、視線追跡処理サブシステム108は、さまざまな視線追跡アルゴリズムのうちのいずれかを用いて、目112の視線角度または視線方向を判断することができる。さらに、IR光点226、227、228、および229の存在は、詳細は後述するが、表示パネル102の隅に紐づけられた基準座標系として作用することによって、目112の視線の位置をさらに正確に特定するのに役立つだろう。
図3は、少なくとも1つの実施形態に係る図1および図2の視線追跡システム100を実装するように構成された、例示的なHMD装置300を示す図である。HMD装置300は、ユーザの頭部110に装着されたまたは紐で固定された装置の使用によって、HMD装置300がユーザの顔の近傍に固定して位置されてユーザの動きに合わせて動くように、ユーザの頭部110に装着される。しかしながら、状況によっては、ユーザは、タブレットコンピュータまたはその他のハンドヘルド型装置をユーザの顔まで持ち上げ、ユーザの頭部110が動いたとしてもユーザの頭部に対するハンドヘルド型装置の向きが比較的固定されるように、ハンドヘルド型装置の動きを制限し得る。このような場合、このように操作されるハンドヘルド型装置も、物理的な締め具によってユーザの頭部110に「装着」されていないが、HMD装置300の実装とみなされてもよい。
HMD装置300は、筐体302から構成され、筐体302は、表面304と、フェイスガスケット306と、ユーザが筐体302の表面304に面するようにユーザの頭部110に筐体302を装着するためのストラップのセットまたはハーネス(明確にするために図3からは省略)とを有する。図に示す実施形態において、HMD装置300は、双眼用HMDであるため、表面304に配置された左目用ディスプレイ308と、右目用ディスプレイ310とを有する(ディスプレイ308、310は、表示パネル102の具体的表現をまとめてまたは別々に表す)。ディスプレイ308、310は、別々の表示パネル(つまり、別々のディスプレイ・ドライバ・ハードウェア・コンポーネントによって駆動される独立した表示アレイ)として実装されてもよく、ディスプレイ308、310は、1つの表示パネルの論理的に分けられた領域(たとえば、左と右「半分」とに論理的に分割された1つの表示アレイ)として実装されてもよい。筐体302は、さらに、左目用ディスプレイ308と位置合わせされた接眼レンズ312と、右目用ディスプレイ310と位置合わせされた接眼レンズ314とを備える。これに代えて、いくつかの実施形態において、HMD装置300は、1つの画像が、左目用接眼レンズ312および右目用接眼レンズ314のいずれかを通して、または、中間レンズなしで直接ユーザの両目に提示される、単眼用HMDとして実装されてもよい。
図に示す例において、HMD装置300は、さらに、片目ずつに視線追跡システム100の別々の実装を備えるため、左目用に、レンズ312とディスプレイ308との間に配置されたXプリズム316と、右目用に、レンズ314とディスプレイ310との間に配置されたXプリズム318とを備える(Xプリズム316、318は、Xプリズム104の具体的表現を構成する)。さらに、HMD装置300は、Xプリズム316の下方、またはXプリズム316の横もしくは上方に配置される視線追跡カメラ320と、Xプリズム318の下方、上方、または横に配置される視線追跡カメラ322(視線追跡カメラ320、322は、視線追跡カメラ106の具体的表現である)を備える。視線追跡カメラ320は、本明細書に記載の技術を用いて、Xプリズム316による反射光線を同時に取り込むことによってユーザの左目とディスプレイ308との合成画像を撮影するように動作する。同様に、視線追跡カメラ322は、同様の方法で、Xプリズム318を利用してユーザの右目とディスプレイ310との合成画像を撮影するように動作する。
図4は、いくつかの実施形態に係る図3のHMD装置300の例示的なハードウェア構成400および視線追跡処理を実装するためのハードウェア構成400の動作方法402を示す図である。ハードウェア構成400は、アプリケーションプロセッサ404と、システムメモリ406と、合成部408と、IR制御部410と、表示パネル102と、視線追跡カメラ106とを備える。ハードウェア構成400は、さらに、視線追跡カメラ106に連結された視線追跡モジュール412(図1の視線追跡処理サブシステム108の一具体的表現)を備える。図をわかりやすくするために、ハードウェア構成400は、片目を追跡するための構成として示されている。しかしながら、デュアル視線追跡の実装の場合、ハードウェア構成400は、さらに、第2の目用の第2視線追跡カメラ106、および、個々のディスプレイ構成によっては、上述のものと同じように動作する第2表示パネル102と、IR光源126〜129の第2のセットと、第2のIR制御部410とを備えるだろう。
視線追跡モジュール412は、ソフトウェア、つまり、システムメモリ406またはその他の記憶場所に格納された実行可能な命令のセット(つまり、「ソフトウェア」)を実行するアプリケーションプロセッサ404またはその他のプロセッサによって実装されてもよい。これに代えて、視線追跡モジュール412は、特定用途向け集積回路(ASIC)、プログラマブルロジックなどによって、ハードコードされたロジックとして実装されてもよい。さらに、いくつかの実施形態において、視線追跡モジュール412は、ソフトウェアとハードコードされたロジックとの組み合わせによって実装されてもよい。アプリケーションプロセッサ404は、1つ以上のCPU(central processing unit)およびGPU(graphics processing unit)、または1つ以上のCPUと1つ以上のGPUとの組み合わせから構成される。Qualcomm Incorporated製のSnapdragon(登録商標)810 MSM8994 SoC(system−on−a−chip)は、アプリケーションプロセッサ404の市販されている具体的表現の例である。合成部408は、たとえば、ASIC、プログラマブルロジック、1つ以上のGPU、またはそれらの組み合わせとして実装されてもよい。1つ以上のGPUは、当該1つ以上のGPUを操作して上述の機能を提供するソフトウェアを実行する。IR制御部410は、表示パネル102のIR光源126〜129のセットに連結されており、信号線414によって視線追跡カメラ106に連結されている。
動作中、アプリケーションプロセッサ404は、(たとえば、システムメモリ406に格納された)VR/ARアプリケーション416を実行してユーザにVR/AR機能を提供する。この処理の一部として、VR/ARアプリケーション416は、アプリケーションプロセッサ404または関係するプロセッサを操作して、VRまたはARシーンを表現する一連の画像をレンダリングし、表示パネル102に表示する。合成部408は、表示パネル102を駆動して一連の画像またはその表現を表示するように動作する。
これと平行して、視線追跡カメラ106、IR制御部410、および視線追跡モジュール412は、共働して、対応する目112の動き、位置、および/または視線方向を追跡する。方法402は、この処理の例を説明する。少なくとも1つの実施形態において、目112の視線方向、位置、または向きは、指定された頻度または速度で更新される。指定された頻度または速度は、表示パネル102に表示されているイメージのフレームレートまたは別の要因に基づき得る。したがって、更新の繰り返しを開始するために、ブロック422において、視線追跡カメラ106は、信号線414のアサートまたはその他の操作によって、IR制御部410に信号を送り、これに応答して、IR制御部410は、IR光源126〜129のセットを起動させて、目112および周囲の領域を照らすようにIR光を短い間出力(つまり、「点滅」)させる。説明すると、一実施形態において、視線追跡カメラ106は、対応する垂直同期(VSYNC)信号(アプリケーションプロセッサ404によって制御されるまたは表示パネル102用の垂直同期信号と同調させられる)によって起動されるグローバルシャッターを実装してもよい。したがって、グローバルシャッターを起動するためにVSYNC信号をアサートするたびに、信号線414も、同様に、IR制御部410によってIR光の点滅を起動するためにアサートされる。このように、IR光の点滅は、視線追跡カメラ106のグローバルシャッターと同調させることができる。
上述したように、表示パネル102から出射された光およびIR光源126〜129のセットからのIR光は、Xプリズム104を通過し、目112および目の周囲の領域に反射し、その結果、Xプリズム104によって視線追跡カメラ106に同時に投射されている、表示パネル102ならびにIR光源126〜129のセットの表現および目112ならびに周囲の領域の表現の両方をもたらす。したがって、ブロック424において、視線追跡カメラ106は、両方の表現の合成画像(たとえば、合成画像232、図2)を撮影し、視線追跡モジュール412に合成画像を処理のために提供する。ブロック426において、視線追跡モジュール412は、合成画像に画像解析処理を行い、目112の虹彩/瞳孔の現在位置または向きのうちの1つ以上を特定し、視線追跡モジュール412は、この情報から目112の現在の視線方向を判断し得る。この処理の例は、図5を参照して以下に説明する。
特定された虹彩/瞳孔の現在位置、虹彩/瞳孔の現在の向き、または目112の視線方向のうちの1つ以上を用いて、ブロック428において、視線追跡モジュール412は、ハードウェア構成400の1つ以上の構成要素の動作を適宜変更し得る。説明すると、いくつかの実施形態において、現在の視線方向を用いてフォービエイテッド表示を提供してもよいため、このような場合、視線追跡モジュール412は、目112の現在の焦点領域の解像度を向上させるために表示イメージのレンダリングを制御するように、VR/ARアプリケーション416または合成部408に、現在の視線方向を信号で送ってもよい。別の例として、いくつかの実施形態において、VR/ARアプリケーション416または別のソフトウェアアプリケーションは、ユーザの視線方向をユーザ入力として利用してもよい。たとえば、HMD装置300は、人間とコンピュータとの目によるインタラクションを提供してもよいため、視線追跡モジュール412は、現在の視線方向を、ユーザーインターフェース入力として、このアプリケーションに提供してもよい。つまり、仮想マウスとして、または目によるその他の「ジェスチャ」入力として提供してもよい。たとえば、この視線追跡情報のその他の用途として、(たとえば、眼球運動によってユーザを認証するまたは視線追跡によってユーザを特定するための)生体情報のために、視線追跡情報を用いてHMD装置300を起動させる/停止させることなどがある。
図5は、本開示の少なくとも1つの実施形態に係る、現在の目の視線方向を判断するために合成画像を処理する2つの例を説明する図である。第1の例において、表示パネル102と目112の現在位置との合成画像502を、上述の処理に従って撮影する。視線追跡モジュール412は、瞳孔504の現在位置を特定する。そして、IR光源126〜129のセットからのIR光点516、517、518、519のパターンと、IR光源126〜129の目112からの反射からのIR光点520、521、522、523のパターンとによって形成される基準座標系に対する瞳孔504の向きに基づいて、視線追跡モジュール412は、現在の目の視線が表示パネル102の左下象限の点524に向いていることを判断し得る。
第2の例において、表示パネル102と目112の現在位置との合成画像532が、上述の処理に従って撮影される。視線追跡モジュール412は、瞳孔504の現在位置を特定する。そして、IR光源126〜129のセットからのIR光点546、547、548、549のパターンと、IR光源126〜129の目112からの反射からのIR光点550、551、552、553のパターンとによって形成される基準座標系に対する瞳孔504の向きに基づいて、視線追跡モジュール412は、現在の目の視線が表示パネル102の右上象限の点554に向いていることを判断し得る。
合成画像において光源によって形成された基準座標系を考慮した適切な変更を行い、さまざまな視線追跡アルゴリズムのうちのいずれかを用いて合成画像532から目112の現在の視線方向を追跡してもよい。説明すると、シングル視線追跡カメラの実装において、IR光源は、点光源として作用してもよく、それらの相対的な強度に基づいて、目112までの距離が判断されてもよい。さらに、IR光源に代表される多くの点光源からの(距離を利用した)三角測量に基づいて、目112の3Dモデルが構築されてもよく、この3Dモデルから、光軸、つまり視線方向が判断されてもよい。デュアル視線追跡カメラの実装において、2つのカメラの使用によってもたらされる視差現象によって、目112の3Dモデルが構築されてもよい。さらに、この手法は、一般的に、周辺光を感知しないため、上述のIR光源の代わりに可視光源を用いて目112を照らしてもよい。
上記の本発明の機能の大半および本発明の原理の多くは、特定用途向けIC(ASIC)など、集積回路(IC)を用いてまたはIC内に実装することに十分適している。おそらくかなりの努力を要し、たとえば、利用可能な時間、現在の技術、および経済的な理由によって動機づけられる多くの設計事項にもかかわらず、当業者は、本明細書に開示する概念および原理を指針とした場合、このようなICを最低限の実験で容易に創造できることが予想される。そのため、本開示に係る原理および概念を簡潔にするために、および曖昧にしてしまうおそれを最低限に抑えるために、このようなソフトウェアおよびICのさらなる説明があるとすれば、好適な実施形態の範囲内の原理および概念の要旨に限定されるだろう。
いくつかの実施形態において、上述の技術のいくつかの態様は、ソフトウェアを実行する処理システムの1つ以上のプロセッサによって実装されてもよい。ソフトウェアは、非一時的なコンピュータ読取可能な記憶媒体に格納されるまたは有形に含まれる実行可能な命令の1つ以上のセットから構成される。ソフトウェアは、1つ以上のプロセッサによって実行された場合に1つ以上のプロセッサに上述の技術の1つ以上の態様を実行させる命令および特定のデータを含めることができる。非一時的なコンピュータ読取可能な記憶媒体は、たとえば、磁気または光ディスク記憶装置、フラッシュメモリ、キャッシュ、RAM(random access memory)、またはその他の1つまたは複数の非一時的なメモリ素子など、固体記憶装置を含めることができる。非一時的なコンピュータ読取可能な記憶媒体に格納された実行可能な命令は、ソースコード、アセンブリ言語コード、オブジェクトコード、または1つ以上のプロセッサによって解釈されるまたは実行可能なその他の命令形式で格納されてもよい。
本明細書において、第1の、第2の、などの関係語は、ある実体または動作と別の実体または動作とを、このような実体または動作同士の実際のこのような関係または順序を必ずしも必要としたり黙示したりすることなく、区別するためにのみ使用され得る。用語「備える/構成する(comprises)」、「備える/構成する(comprising)」、またはその他の語形変化は、非排他的包含を含むものとするため、列挙された構成要素を備える処理、方法、物品、または装置は、これらの構成要素のみを含むわけではなく、明示的には挙げられていないその他の構成要素、またはこのような処理、方法、物品、もしくは装置に固有なその他の構成要素を含み得る。「〜を備える(comprises…a)」に先行する構成要素は、当該構成要素を備える処理、方法、物品、または装置における、さらなる同一の構成要素の存在を、さらなる制約なしに排除しない。用語「別の(another)」は、本明細書で使用する場合、少なくとも第2のもの以上と定義される。用語「including」(含む)および/または「有する(having)」は、本明細書で使用する場合、備える(comprising)と定義される。用語「連結される(coupled)」は、電気光学技術に関連して本明細書で使用する場合、接続される(connected)と定義されるが、必ずしも直接接続されている必要はなく、必ずしも機械的に接続されている必要もない。用語「プログラム」は、本明細書で使用する場合、コンピュータシステム上で実行されるように設計された一連の命令として定義される。「アプリケーション」、または「ソフトウェア」は、サブルーチン、関数、プロシージャ、オブジェクトのメソッド、オブジェクの実装、実行可能アプリケーション、アプレット、サーブレット、ソースコード、オブジェクトコード、共有ライブラリ/ダイナミックロードライブラリ、および/またはコンピュータシステム上で実行されるように設計されたその他の一連の命令を含み得る。
明細書および図面は、一例にすぎないと考えられるべきであり、本開示の範囲は、以下の請求項およびその均等物によってのみ適宜限定されるものである。なお、全体的な説明に上述された活動または構成要素のすべてが必要であるわけではない。特定の活動または装置の一部を必要としなくてもよい。記載されたものに加えて、1つ以上のさらなる活動が実行されてもよく、1つ以上のさらなる構成要素が含まれてもよい。さらに、活動が挙げられている順番は、必ずしもそれらが実行される順番ではない。上に示したフローチャートのステップは、別段の定めがない限り、いかなる順番であってもよく、ステップは、実装によって、排除、繰り返し、および/または追加されてもよい。また、具体的な実施の形態を例に概念を説明した。しかしながら、当業者は、さまざまな変形、変更を、以下の請求項に記載の本開示の範囲から逸脱することなく行うことが可能であることがわかる。したがって、明細書および図面は、厳密ではなく、例示であるとみなされるべきであり、すべてのこのような変形は、本開示の範囲に含まれるものとする。
利益、その他の利点、および問題の解決策を、具体的な実施の形態を例に説明した。しかしながら、利益、利点、問題の解決策、およびいずれの利益、利点、または解決策を生じさせ得るまたはより顕著にさせ得るいかなる特徴は、いずれかまたはすべての請求項の重大な特徴、必要な特徴、または必須の特徴として解釈されないものとする。

Claims (20)

  1. イメージを表示するための表示パネル(102、308、310)と、
    前記表示パネルとユーザの目(112)の予想位置との間の第1軸(202)に沿って配置されたXプリズムビームスプリッタ(104)とを備え、前記Xプリズムビームスプリッタは、前記表示パネルから前記目へ前記第1軸に沿って第1の光線(212)を第1方向に向け、前記第1軸に実質的に垂直な第2軸(208)に沿って第2の光線(216)を第2方向に向け、前記第2軸に沿って第3の光線(222)を前記第2方向に向け、前記第2の光線は、前記第1の光線を表現し、前記第3の光線は、前記目からの前記第1の光線の反射を表現し、さらに、
    前記第2軸と位置合わせされた光軸を有する撮影カメラ(106)を備え、前記撮影カメラは、前記第2の光線の表現と前記第3の光線の表現との結合体を含む合成画像(232)を撮影する、ヘッドマウントディスプレイ(HMD)装置(100、300)。
  2. 前記表示パネルと関係付けて対応する位置に配置された1つ以上の赤外線(IR)光源(126、127、128、129)からなるセットをさらに備え、
    前記第1の光線は、前記1つ以上のIR光源からなるセットから出射されるIR光を含む、請求項1に記載のHMD装置。
  3. 前記撮影カメラは、グローバルシャッターを有するIRカメラを備え、
    前記1つ以上のIR光源からなるセットは、前記グローバルシャッターの垂直同期信号に基づいて起動される、請求項2に記載のHMD装置。
  4. 前記合成画像に基づいて、前記目の位置、前記目の向き、または前記目の視線方向のうちの少なくとも1つを判断する視線追跡モジュール(412)をさらに備える、請求項2に記載のHMD装置。
  5. 前記視線追跡モジュールは、前記合成画像に存在する前記1つ以上のIR光源からなるセットからの前記IR光を基準座標系として利用することに基づいて、前記目の位置、前記目の向き、または前記目の視線方向のうちの前記少なくとも1つを判断する、請求項4に記載のHMD装置。
  6. 前記Xプリズムビームスプリッタは、
    前記第1軸に対して第1角度で配置された第1の部分反射面(114)と、
    前記第1軸に対して第2角度で配置された第2の部分反射面(115)とを備え、前記第2角度は、前記第1角度に実質的に垂直であり、
    前記第1の部分反射面は、可視光およびIR光を部分的に反射し、前記第2の部分反射面は、IR光を部分的に反射し、可視光を実質的に透過させる、請求項2に記載のHMD装置。
  7. 前記1つ以上のIR光源からなるセットは、1つ以上の垂直共振器面発光レーザからなるセットを含む、請求項2に記載のHMD装置。
  8. 前記合成画像に基づいて、前記目の位置、前記目の向き、または前記目の視線方向のうちの少なくとも1つを判断する視線追跡モジュール(412)をさらに備える、請求項1に記載のHMD装置。
  9. 前記判断された目の位置、目の向き、または目の視線方向に基づいて、前記HMD装置の少なくとも1つの構成要素(404、408)が制御される、請求項8に記載のHMD装置。
  10. ヘッドマウントディスプレイ(HMD)装置(100、300)において、
    Xプリズムビームスプリッタ(104)を通して、第1の光線(212)を表示パネル(102、308、310)から第1軸(202)に沿ってユーザの目(112)に透過させるステップと、
    前記Xプリズムビームスプリッタからの第2の光線(216)を、前記第1軸に実質的に垂直な第2軸(208)に沿って撮影カメラ(106)に透過させるステップとを含み、前記第2の光線は、前記第1の光線の反射を表現しており、さらに、
    前記Xプリズムビームスプリッタからの第3の光線(222)を、前記第2軸に沿って前記撮影カメラに透過させるステップを含み、前記第3の光線は、前記ユーザの目からの前記第1の光線の反射を表現しており、さらに、
    前記撮影カメラにおいて、前記第2の光線の表現と前記第3の光線の表現との結合体を表現している合成画像(232)を撮影するステップを含む、方法。
  11. 前記第1の光線は、前記表示パネルと関係付けて対応する位置に配置された1つ以上のIR光源(126、127、128、129)からなるセットから出射されるIR光を含む、請求項10に記載の方法。
  12. 前記1つ以上のIR光源からなるセットを、前記撮影カメラのグローバルシャッターの垂直同期信号に基づいて起動するステップをさらに備える、請求項11に記載の方法。
  13. 前記HMD装置の処理モジュール(412)において、前記合成画像に基づいて、前記目の位置、前記目の向き、または前記目の視線方向のうちの少なくとも1つを判断するステップをさらに備える、請求項11に記載の方法。
  14. 前記目の位置、前記目の向き、または前記目の視線方向のうちの前記少なくとも1つを判断するステップは、前記合成画像に存在する前記1つ以上のIR光源からなるセットからの前記IR光を基準座標系としての利用ステップを含む、請求項13に記載の方法。
  15. 前記HMD装置の処理モジュール(412)において、前記合成画像に基づいて、前記目の位置、前記目の向き、または前記目の視線方向のうちの少なくとも1つを判断するステップをさらに備える、請求項11に記載の方法。
  16. 前記判断された目の位置、目の向き、または目の視線方向に基づいて、前記HMD装置の少なくとも1つの構成要素(404、408)の動作を制御するステップをさらに備える、請求項15に記載の方法。
  17. ヘッドマウントディスプレイ(HMD)装置(100、300)において、
    前記HMD装置の処理モジュール(412)において、前記HMD装置の撮影カメラ(106)からの合成画像(232)を受け付けるステップを含み、前記合成画像は、Xプリズムビームスプリッタ(104)のポート(207)から同時に受光される第1の光線(216)および第2の光線(222)を表現しており、前記第1の光線は、前記HMD装置の表示パネル(102、308、310)から出射される光線(212)の反射を表現しており、前記第2の光線は、前記表示パネルから出射される前記光線のユーザの目(112)からの反射を表現しており、さらに、
    前記処理モジュールにおいて、前記合成画像に基づいて、前記目の位置、前記目の向き、または前記目の視線方向のうちの少なくとも1つを判断するステップを含む、方法。
  18. 前記判断された目の位置、目の向き、または目の視線方向に基づいて、前記HMD装置の少なくとも1つの構成要素(404、408)の動作を制御するステップをさらに備える、請求項17に記載の方法。
  19. 前記表示パネルから出射される前記光線は、前記表示パネル上の対応する位置に配置された1つ以上のIR光源(126、127、128、129)からなるセットから出射される赤外線(IR)光を含む、請求項17に記載の方法。
  20. 前記目の位置、前記目の向き、または前記目の視線方向のうちの前記少なくとも1つを判断するステップは、前記合成画像に存在する前記1つ以上のIR光源からなるセットからの前記IR光を基準座標系としての利用ステップを含む、請求項19に記載の方法。
JP2018507532A 2015-11-25 2016-11-18 プリズムによる視線追跡 Active JP6494863B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562259761P 2015-11-25 2015-11-25
US62/259,761 2015-11-25
PCT/US2016/062896 WO2017091477A1 (en) 2015-11-25 2016-11-18 Prism-based eye tracking

Publications (2)

Publication Number Publication Date
JP2018536883A true JP2018536883A (ja) 2018-12-13
JP6494863B2 JP6494863B2 (ja) 2019-04-03

Family

ID=57472110

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018507532A Active JP6494863B2 (ja) 2015-11-25 2016-11-18 プリズムによる視線追跡

Country Status (10)

Country Link
US (1) US10303940B2 (ja)
EP (1) EP3380883B1 (ja)
JP (1) JP6494863B2 (ja)
KR (1) KR102078059B1 (ja)
CN (1) CN108885341B (ja)
AU (1) AU2016359149B2 (ja)
CA (1) CA2995746C (ja)
DE (1) DE112016005395T5 (ja)
GB (1) GB2556588A (ja)
WO (1) WO2017091477A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7408202B1 (ja) 2023-07-10 2024-01-05 株式会社近藤研究所 頭部装着型視認装置
JP7500217B2 (ja) 2020-02-19 2024-06-17 キヤノン株式会社 電子機器

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6539654B2 (ja) 2014-06-27 2019-07-03 フォーブ インコーポレーテッド 視線検知装置
US9885887B2 (en) * 2015-04-22 2018-02-06 Kurt Matthew Gardner Method of determining eyeglass frame measurements from an image by executing computer-executable instructions stored on a non-transitory computer-readable medium
EP3272277A1 (en) * 2016-07-19 2018-01-24 Stichting IMEC Nederland A method and a system for eye tracking
CN105954992B (zh) * 2016-07-22 2018-10-30 京东方科技集团股份有限公司 显示系统和显示方法
WO2018111860A1 (en) * 2016-12-12 2018-06-21 Princeton Identity, Inc. Systems and methods of biometric analysis
US10485420B2 (en) * 2017-02-17 2019-11-26 Analog Devices Global Unlimited Company Eye gaze tracking
CN106908951A (zh) * 2017-02-27 2017-06-30 阿里巴巴集团控股有限公司 虚拟现实头戴设备
US10585291B2 (en) * 2017-04-28 2020-03-10 Yonatan Gerlitz Eye safety system for lasers
US10420467B2 (en) * 2017-09-05 2019-09-24 eyeBrain Medical, Inc. Method and system for measuring binocular alignment
US10627627B2 (en) 2017-10-02 2020-04-21 Google Llc Eye tracking using light guide with faceted combiner
KR102465654B1 (ko) 2017-12-19 2022-11-09 텔레폰악티에볼라겟엘엠에릭슨(펍) 헤드 마운트 디스플레이 디바이스 및 그에 대한 방법
US10845594B1 (en) * 2017-12-21 2020-11-24 Facebook Technologies, Llc Prism based light redirection system for eye tracking systems
US10788892B2 (en) 2018-05-23 2020-09-29 Facebook Technologies, Llc In-field illumination and imaging for eye tracking
US11455031B1 (en) 2018-06-04 2022-09-27 Meta Platforms Technologies, Llc In-field illumination for eye tracking
US11327561B1 (en) 2018-09-27 2022-05-10 Apple Inc. Display system
WO2020123561A1 (en) * 2018-12-10 2020-06-18 Daqri, Llc Adaptive viewports for hypervocal viewport (hvp) displays
US11650426B2 (en) 2019-05-09 2023-05-16 Meta Platforms Technologies, Llc Holographic optical elements for eye-tracking illumination
CN114175630A (zh) * 2019-07-28 2022-03-11 谷歌有限责任公司 利用注视点网格渲染沉浸式视频内容的方法、系统和介质
KR20220049548A (ko) * 2019-08-30 2022-04-21 엘지전자 주식회사 머리에 착용할 수 있는 전자 디바이스
US11438991B2 (en) 2020-01-21 2022-09-06 Brightlogic, Inc. Light emitting diode package and electronic display
JP7387493B2 (ja) * 2020-03-06 2023-11-28 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、記憶媒体
CN111700586B (zh) * 2020-07-01 2023-09-29 业成科技(成都)有限公司 眼动追踪装置及应用其的电子装置
US20220122239A1 (en) * 2020-10-21 2022-04-21 Johnson & Johnson Surgical Vision, Inc. Visualizing an organ using multiple imaging modalities combined and displayed in virtual reality
KR20220111575A (ko) * 2021-02-02 2022-08-09 삼성전자주식회사 전자 장치 및 그의 사용자 시선을 추적하고 증강 현실 서비스를 제공하는 방법
EP4083567B1 (en) * 2021-04-30 2024-06-12 TRUMPF Photonic Components GmbH Laser sensor, system and method for self-mixing interferometry
CN113795783B (zh) * 2021-08-06 2024-02-06 香港应用科技研究院有限公司 用于头戴式显示器的与显示器集成的成像设备
US12019240B2 (en) * 2021-08-06 2024-06-25 Hong Kong Applied Science and Technology Research Institute Company Limited Imaging apparatus integrated with display for head-mounted display
KR20230174355A (ko) * 2022-06-20 2023-12-28 삼성디스플레이 주식회사 표시 장치 및 그 제어방법
EP4361704A1 (en) * 2022-10-27 2024-05-01 Pupil Labs GmbH Eye tracking module and head-wearable device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0850256A (ja) * 1994-08-05 1996-02-20 Canon Inc 視線検出系を有した表示装置
US20010009478A1 (en) * 1994-06-13 2001-07-26 Shoichi Yamazaki Head-up display device with rotationally asymmetric curved surface
JP2008511874A (ja) * 2004-09-01 2008-04-17 アプティカル リサーチ アソシエイツ 傾斜/偏心レンズ素子を有する小形ヘッド取付け表示装置
US20150049013A1 (en) * 2013-08-19 2015-02-19 Qualcomm Incorporated Automatic calibration of eye tracking for optical see-through head mounted display

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001117046A (ja) * 1999-10-22 2001-04-27 Shimadzu Corp 視線検出機能付ヘッドマウントディスプレイシステム
JP2001186442A (ja) * 1999-12-27 2001-07-06 Minolta Co Ltd 映像表示装置
JP2005025613A (ja) 2003-07-04 2005-01-27 Alps Electric Co Ltd 信号処理回路モジュール
ITPD20050137A1 (it) 2005-05-17 2006-11-18 Lino Manfrotto & Co Spa Supporto miniaturizzato per atttrezzature fotografiche quali video e fotocamere
TWI321946B (en) * 2006-07-24 2010-03-11 Young Optics Inc Camera module
US8604586B2 (en) * 2009-08-06 2013-12-10 Qualcomm Incorporated High breakdown voltage embedded MIM capacitor structure
TWI461824B (zh) * 2010-06-29 2014-11-21 Hon Hai Prec Ind Co Ltd 立體取像裝置
US8611015B2 (en) * 2011-11-22 2013-12-17 Google Inc. User interface
CN104204904B (zh) 2012-01-24 2018-05-18 亚利桑那大学评议会 紧凑式眼睛跟踪头戴式显示器
TWI468147B (zh) * 2012-03-21 2015-01-11 Optomed Oy 檢查儀器
US10477194B2 (en) * 2012-04-25 2019-11-12 3M Innovative Properties Company Two imager projection device
US9625723B2 (en) 2013-06-25 2017-04-18 Microsoft Technology Licensing, Llc Eye-tracking system using a freeform prism
JP6124717B2 (ja) * 2013-07-16 2017-05-10 オリンパス株式会社 撮像素子、焦点検出装置
US10345903B2 (en) * 2013-07-30 2019-07-09 Microsoft Technology Licensing, Llc Feedback for optic positioning in display devices
TWI505260B (zh) * 2013-07-30 2015-10-21 Univ Nat Chiao Tung 頭戴式人眼追蹤系統
US9360935B2 (en) * 2013-12-20 2016-06-07 Hong Kong Applied Science And Technology Research Institute Co. Ltd. Integrated bi-sensing optical structure for head mounted display
EP3119343A4 (en) 2014-03-19 2017-12-20 Intuitive Surgical Operations, Inc. Medical devices, systems, and methods integrating eye gaze tracking for stereo viewer
CN104656286B (zh) * 2014-10-27 2017-10-27 徐州旭海光电科技有限公司 微型同波长单芯双向光收发模块
US20160150219A1 (en) * 2014-11-20 2016-05-26 Mantisvision Ltd. Methods Circuits Devices Assemblies Systems and Functionally Associated Computer Executable Code for Image Acquisition With Depth Estimation
US11016276B2 (en) * 2014-12-18 2021-05-25 Fugro Roames Pty Limited Imaging system
US10061384B2 (en) * 2015-02-23 2018-08-28 Sony Corporation Information processing apparatus, information processing method, and program
DE102015103735A1 (de) * 2015-03-13 2016-09-15 Airbus Defence and Space GmbH Verfahren und Vorrichtung zum Testen eines in einem Luftfahrzeug zu bedienenden Geräts
US10460165B2 (en) * 2015-04-01 2019-10-29 Fove, Inc. Head mounted display
KR102421649B1 (ko) * 2015-06-30 2022-07-18 엘지전자 주식회사 의류처리장치
US10234686B2 (en) * 2015-11-16 2019-03-19 Microsoft Technology Licensing, Llc Rainbow removal in near-eye display using polarization-sensitive grating
US9984507B2 (en) * 2015-11-19 2018-05-29 Oculus Vr, Llc Eye tracking for mitigating vergence and accommodation conflicts

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010009478A1 (en) * 1994-06-13 2001-07-26 Shoichi Yamazaki Head-up display device with rotationally asymmetric curved surface
JPH0850256A (ja) * 1994-08-05 1996-02-20 Canon Inc 視線検出系を有した表示装置
JP2008511874A (ja) * 2004-09-01 2008-04-17 アプティカル リサーチ アソシエイツ 傾斜/偏心レンズ素子を有する小形ヘッド取付け表示装置
US20150049013A1 (en) * 2013-08-19 2015-02-19 Qualcomm Incorporated Automatic calibration of eye tracking for optical see-through head mounted display

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7500217B2 (ja) 2020-02-19 2024-06-17 キヤノン株式会社 電子機器
JP7408202B1 (ja) 2023-07-10 2024-01-05 株式会社近藤研究所 頭部装着型視認装置

Also Published As

Publication number Publication date
EP3380883B1 (en) 2020-10-28
EP3380883A1 (en) 2018-10-03
US10303940B2 (en) 2019-05-28
KR20180033222A (ko) 2018-04-02
CA2995746C (en) 2020-06-30
CA2995746A1 (en) 2017-06-01
JP6494863B2 (ja) 2019-04-03
AU2016359149A1 (en) 2018-03-08
WO2017091477A1 (en) 2017-06-01
KR102078059B1 (ko) 2020-02-17
CN108885341A (zh) 2018-11-23
DE112016005395T5 (de) 2018-08-02
GB2556588A (en) 2018-05-30
GB201802305D0 (en) 2018-03-28
CN108885341B (zh) 2021-03-09
US20170147859A1 (en) 2017-05-25
AU2016359149B2 (en) 2018-08-23

Similar Documents

Publication Publication Date Title
JP6494863B2 (ja) プリズムによる視線追跡
US10877556B2 (en) Eye tracking system
US10877281B2 (en) Compact optical system with MEMS scanners for image generation and object tracking
US11330241B2 (en) Focusing for virtual and augmented reality systems
TW201902212A (zh) 具有經由眼睛追蹤之延伸有效眼動範圍之近眼顯示器
US20080198459A1 (en) Conjugate optics projection display system and method having improved resolution
EP3371640A1 (en) Display of binocular overlapping images in a head mounted display
US11841502B2 (en) Reflective polarizer for augmented reality and virtual reality display
US10990062B2 (en) Display system
US10481739B2 (en) Optical steering of component wavelengths of a multi-wavelength beam to enable interactivity
US11536969B2 (en) Scene camera
CN114830621A (zh) 录制指示灯
JP2024024099A (ja) 後方散乱レーザスペックルパターンのオプティカルフローの追跡
US11327561B1 (en) Display system
CN108761794A (zh) 一种基于透明屏幕的ar成像系统
US20240192493A1 (en) Pupil-steering for three-dimensional (3d) resolution enhancement in single photon avalanche diode (spad) eye tracking (et)

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190305

R150 Certificate of patent or registration of utility model

Ref document number: 6494863

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250