JP2023123197A - 電子機器 - Google Patents
電子機器 Download PDFInfo
- Publication number
- JP2023123197A JP2023123197A JP2022027123A JP2022027123A JP2023123197A JP 2023123197 A JP2023123197 A JP 2023123197A JP 2022027123 A JP2022027123 A JP 2022027123A JP 2022027123 A JP2022027123 A JP 2022027123A JP 2023123197 A JP2023123197 A JP 2023123197A
- Authority
- JP
- Japan
- Prior art keywords
- user
- sight
- line
- distance
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003287 optical effect Effects 0.000 claims abstract description 33
- 210000001747 pupil Anatomy 0.000 claims description 55
- 210000003128 head Anatomy 0.000 claims description 49
- 238000003384 imaging method Methods 0.000 claims description 44
- 238000005259 measurement Methods 0.000 claims description 8
- 230000036544 posture Effects 0.000 claims 3
- 208000003164 Diplopia Diseases 0.000 abstract description 12
- 208000029444 double vision Diseases 0.000 abstract description 12
- 210000001508 eye Anatomy 0.000 description 186
- 238000001514 detection method Methods 0.000 description 82
- 238000000034 method Methods 0.000 description 40
- 210000005252 bulbus oculi Anatomy 0.000 description 28
- 238000010586 diagram Methods 0.000 description 24
- 210000004027 cell Anatomy 0.000 description 17
- 230000008569 process Effects 0.000 description 17
- 238000012545 processing Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 16
- 238000013527 convolutional neural network Methods 0.000 description 15
- 238000012937 correction Methods 0.000 description 13
- 210000002569 neuron Anatomy 0.000 description 13
- 230000010354 integration Effects 0.000 description 9
- 230000008859 change Effects 0.000 description 7
- 230000008878 coupling Effects 0.000 description 6
- 238000010168 coupling process Methods 0.000 description 6
- 238000005859 coupling reaction Methods 0.000 description 6
- 210000004087 cornea Anatomy 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 210000000608 photoreceptor cell Anatomy 0.000 description 3
- 108091008695 photoreceptors Proteins 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000004907 flux Effects 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000001179 pupillary effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
- G01C3/08—Use of electric radiation detectors
- G01C3/085—Use of electric radiation detectors with electronic parallax measurement
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/22—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0129—Head-up displays characterised by optical features comprising devices for correcting parallax
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
- G02B2027/0134—Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Electromagnetism (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Eyeglasses (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
【課題】光学シースルー方式の表示装置に表示した仮想物体の2重見えを抑制可能にする技術を提供する。【解決手段】本発明の電子機器は、光学シースルー方式の表示装置を頭部に装着したユーザの右眼の視線に関する右視線情報と、前記ユーザの左眼の視線に関する左視線情報とを取得する視線取得手段と、前記右視線情報と前記左視線情報とに基づいて、前記左眼の視線と前記右眼の視線との相関に関する相関情報を、個人差の情報として取得する相関取得手段とを有することを特徴とする。【選択図】図15
Description
本発明は、光学シースルー方式の表示装置を装着したユーザのHMD(ヘッドマウントディスプレイ)などの表示装置を制御する制御装置に関する。
に関する。
に関する。
近年、MR(Mixed Reality)やAR(Augmented Reality)を利用した眼鏡型デバイスなど、ユーザの視線を検出する機能を有するヘッドマウントディスプレイ(HMD)の自動化・インテリジェント化が進んでいる。
特許文献1では、光学シースルー方式の表示装置が提案されている。光学シースルー方式の表示装置を装着したユーザは、光学部材(レンズ)を通して外界を視認することができる。さらに、ユーザは、表示装置に表示された仮想物体を、外界に存在するように見ることができる。特許文献2では、片眼の視線検出のキャリブレーションが提案されている。特許文献3では、立体視可能な2つの撮像画像それぞれに、被写体距離に応じた視差をつけて仮想物体を描画することが提案されている。
しかしながら、特許文献1の表示装置では、ユーザが外界の物体を見ているときに、仮想物体が左右に分かれて、2重に見えてしまうことがある(2重見え)。特許文献2のキャリブレーション(片眼の視線検出のキャリブレーション)を行っても、2重見えの課題は解決できない。特許文献3の方法を用いても、ユーザに依存しない視差で仮想物体が描画されるため、ユーザに依っては2重見えが発生してしまう。
本発明は、光学シースルー方式の表示装置に表示した仮想物体の2重見えを抑制可能にする技術を提供することを目的とする。
本発明の第1の態様は、光学シースルー方式の表示装置を頭部に装着したユーザの右眼の視線に関する右視線情報と、前記ユーザの左眼の視線に関する左視線情報とを取得する視線取得手段と、前記右視線情報と前記左視線情報とに基づいて、前記左眼の視線と前記右眼の視線との相関に関する相関情報を、個人差の情報として取得する相関取得手段とを有することを特徴とする電子機器である。
本発明の第2の態様は、ユーザの頭部に対して着脱可能な光学シースルー方式の表示装置を制御する電子機器であって、前記ユーザが第1のユーザであり、且つ、前記ユーザから物体までの距離が第1の距離である第1の場合と、前記ユーザが前記第1のユーザであり、且つ、前記ユーザから前記物体までの前記距離が第2の距離である第2の場合と、前記ユーザが第2のユーザであり、且つ、前記ユーザから前記物体までの前記距離が前記第1の距離である第3の場合と、前記ユーザが前記第2のユーザであり、且つ、前記ユーザ
から前記物体までの前記距離が前記第2の距離である第4の場合とで、右眼と左眼に対して表示する、前記物体に対応する仮想物体の表示位置が異なり、前記第1の場合と前記第2の場合との間の前記表示位置の差異は、前記第3の場合と前記第4の場合との間の前記表示位置の差異と異なることを特徴とする電子機器である。
から前記物体までの前記距離が前記第2の距離である第4の場合とで、右眼と左眼に対して表示する、前記物体に対応する仮想物体の表示位置が異なり、前記第1の場合と前記第2の場合との間の前記表示位置の差異は、前記第3の場合と前記第4の場合との間の前記表示位置の差異と異なることを特徴とする電子機器である。
本発明の第3の態様は、光学シースルー方式の表示装置を頭部に装着したユーザの右眼の視線に関する右視線情報と、前記ユーザの左眼の視線に関する左視線情報とを取得するステップと、前記右視線情報と前記左視線情報とに基づいて、前記左眼の視線と前記右眼の視線との相関に関する相関情報を、個人差の情報として取得するステップとを有することを特徴とする電子機器の制御方法である。
本発明の第4の態様は、コンピュータを上記電子機器の各手段として機能させるためのプログラムである。本発明の第5の態様は、コンピュータを上記電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体である。
本発明によれば、光学シースルー方式の表示装置に表示した仮想物体の2重見えが抑制可能となる。
<<実施例1>>
本発明の実施例1について説明する。なお、以下では、光学シースルー方式の表示装置に本発明を適用した例を説明するが、本発明は、表示装置とは別体の電子機器、例えば表示装置と通信可能なコントローラやパーソナルコンピュータなどにも適用可能である。
本発明の実施例1について説明する。なお、以下では、光学シースルー方式の表示装置に本発明を適用した例を説明するが、本発明は、表示装置とは別体の電子機器、例えば表示装置と通信可能なコントローラやパーソナルコンピュータなどにも適用可能である。
<構成の説明>
図1(a),1(b)は、実施例1に係る表示装置100の外観を示す。図1(a)は正面斜視図であり、図1(b)は背面斜視図である。表示装置100は、光学シースルー方式の表示装置であり、頭部に対して着脱可能なヘッドマウントディスプレイ(HMD)の一種であり、MR(Mixed Reality)やAR(Augmented Reality)を利用した眼鏡型デバイスである。表示装置100は、表示装置100を頭部に装着したユーザの右眼の視線と左眼の視線とを個別に検出することができる。以後、表示装置100を頭部に装着したユーザのことを、単にユーザと称する。
図1(a),1(b)は、実施例1に係る表示装置100の外観を示す。図1(a)は正面斜視図であり、図1(b)は背面斜視図である。表示装置100は、光学シースルー方式の表示装置であり、頭部に対して着脱可能なヘッドマウントディスプレイ(HMD)の一種であり、MR(Mixed Reality)やAR(Augmented Reality)を利用した眼鏡型デバイスである。表示装置100は、表示装置100を頭部に装着したユーザの右眼の視線と左眼の視線とを個別に検出することができる。以後、表示装置100を頭部に装着したユーザのことを、単にユーザと称する。
レンズ10は、ユーザの眼に対向する光学部材である。ユーザは、レンズ10を通して外界を視認することができる。表示デバイス11は、後述するCPU2からの制御(表示制御)により、ユーザの両眼(右眼と左眼の両方)に対して、仮想物体(仮想物体の虚像)を表示する。ユーザは、表示された仮想物体を、外界に存在するように見ることができる。光源駆動回路12は、光源13a,13bを駆動する。光源13a,13bそれぞれは、ユーザの眼を照明する光源であり、例えばユーザに対して不感の赤外光を発する赤外発光ダイオードなどである。光源13a,13bから発せられてユーザの眼で反射した光の一部は、受光レンズ16によって、眼撮像素子17に集光する。これらの部材は、左眼と右眼のそれぞれについて設けられている。例えば、眼撮像素子17として、右眼を撮像する右撮像素子と、左眼を撮像する左撮像素子とが設けられている。
外界撮像ユニット20は、撮像素子を含み、ユーザが顔を向けている方向の外界の光景を撮像する。
図2は、表示装置100における電気的構成を示すブロック図である。CPU2は、表示装置100に内蔵されたマイクロコンピュータの中央処理部であり、表示装置100全体を制御する。CPU2には、表示デバイス11、光源駆動回路12、視線検出回路15、外界撮像ユニット20、距離検出回路201、頭部姿勢検出回路21、メモリ部3などが接続されている。
メモリ部3は、眼撮像素子17や外界撮像ユニット20からの映像信号の記憶機能と、後述する視線の個人差を補正する視線補正パラメータの記憶機能とを有する。
視線検出回路15は、眼撮像素子17上に眼の光学像が結像した状態での眼撮像素子17の出力(眼を撮像した眼画像)をA/D変換し、その結果をCPU2に送信する。CPU2は、後述する所定のアルゴリズムに従って眼画像から視線検出に必要な特徴点を抽出し、特徴点の位置からユーザの視線を検出する。例えば、CPU2は、右撮像素子によって得られた右眼画像に基づいて、右眼の視線に関する右視線情報を取得し、左撮像素子によって得られた左眼画像に基づいて、左眼の視線に関する左視線情報を取得する。
表示装置100は、視線検出の結果(視線情報、注視点情報)に応じて、ユーザが注視している現実物体に関係する情報などをUI(User Interface)として表示するように、表示デバイス11を制御することができる。現実物体は、外界(現実空間)に実在する物体であり、外界撮像ユニット20の被写体でもある。
距離検出回路201は、外界撮像ユニット20における撮像素子(CCD)の中に含まれる、位相差検出のための複数の検出素子(複数の画素)からの信号電圧をA/D変換し、CPU2に送る。CPU2は、複数の検出素子の信号から、各距離検出ポイントに対応する現実物体(被写体)までの距離を演算する。これはカメラにおける撮像面位相差AFとして知られる公知の技術である。実施例1では、一例として、図6(a)の視野(レンズ10を通してユーザが見ることのできる範囲、外界撮像ユニット20の撮像範囲)に示
す180か所に対応する撮像面上の180か所のそれぞれに、距離検出ポイントがあるとする。このように、CPU2は、距離検出回路201を制御して、ユーザ(表示装置100)から現実物体までの距離を測定(推定)する(距離測定)。
す180か所に対応する撮像面上の180か所のそれぞれに、距離検出ポイントがあるとする。このように、CPU2は、距離検出回路201を制御して、ユーザ(表示装置100)から現実物体までの距離を測定(推定)する(距離測定)。
図6(a)は、ユーザの視野を示す図であり、表示デバイス11が動作した状態を示す。図6(a)に示すように、ユーザの視野には、180個の部分領域601からなる距離検出領域600や、視野マスク602などがある。180個の部分領域601のそれぞれは、外界撮像ユニット20の撮像面上における距離検出ポイントに対応する部分である。また、表示デバイス11は、180個の部分領域601のうち、現在の注視点A(推定位置)に対応する部分領域に、枠などを表示する。注視点は、視線が注がれた位置、ユーザが見ている位置、視線位置、注視位置などと捉えることもできる。
頭部姿勢検出回路21は、加速度センサなどで構成され、検出信号をCPU2に送る。CPU2は、検出信号を解析し、ユーザの頭部の姿勢(例えば傾き量)を検出する。このように、CPU2は、頭部姿勢検出回路21を制御して、ユーザの頭部の姿勢(表示装置100の姿勢)を測定(推定)する(頭部測定)。
<視線検出動作の説明>
図3,4(a),4(b),5を用いて、視線検出方法について説明する。右眼の視線も左眼の視線も、以下の視線検出方法で検出される。図3は、視線検出方法の原理を説明するための図であり、視線検出を行うための光学系の概略図である。図4(a)は、眼撮像素子17で撮像された眼画像(眼撮像素子17に投影された光学像)の概略図であり、図4(b)は眼撮像素子17におけるCCDの出力強度を示す図である。図5は、視線検出動作の概略フローチャートを表す。
図3,4(a),4(b),5を用いて、視線検出方法について説明する。右眼の視線も左眼の視線も、以下の視線検出方法で検出される。図3は、視線検出方法の原理を説明するための図であり、視線検出を行うための光学系の概略図である。図4(a)は、眼撮像素子17で撮像された眼画像(眼撮像素子17に投影された光学像)の概略図であり、図4(b)は眼撮像素子17におけるCCDの出力強度を示す図である。図5は、視線検出動作の概略フローチャートを表す。
視線検出動作が開始すると、図5のステップS101で、CPU2は、光源13a,13bを制御して、ユーザの眼球14に向けて赤外光を発する。赤外光によって照明されたユーザの眼の光学像は、受光レンズ16を通して眼撮像素子17上に結像され、眼撮像素子17により光電変換される。これにより、処理可能な眼画像の電気信号が得られる。
ステップS102では、CPU2は、眼撮像素子17から視線検出回路15を介して眼画像(眼画像信号;眼画像の電気信号)を取得する。
ステップS103では、CPU2は、ステップS102で得られた眼画像から、光源13a,13bの角膜反射像Pd,Peと瞳孔中心cに対応する点の座標を検出する。
光源13a,13bより発せられた赤外光は、ユーザの眼球14の角膜142を照明する。このとき、角膜142の表面で反射した赤外光の一部により形成される角膜反射像Pd,Peは、受光レンズ16により集光され、眼撮像素子17上に結像して、眼画像における角膜反射像Pd’,Pe’となる。同様に瞳孔141の端部a,bからの光束も眼撮像素子17上に結像して、眼画像における瞳孔端像a’,b’となる。
図4(b)は、図4(a)の眼画像における領域αの輝度情報(輝度分布)を示す。図4(b)では、眼画像の水平方向をX軸方向、垂直方向をY軸方向とし、X軸方向の輝度分布が示されている。実施例1では、角膜反射像Pd’,Pe’のX軸方向(水平方向)の座標をXd,Xeとし、瞳孔端像a’,b’のX軸方向の座標をXa,Xbとする。図4(b)に示すように、角膜反射像Pd’,Pe’の座標Xd,Xeでは、極端に高いレベルの輝度が得られる。瞳孔141の領域(瞳孔141からの光束が眼撮像素子17上に結像して得られる瞳孔像の領域)に相当する、座標Xaから座標Xbまでの領域では、座標Xd,Xeを除いて、極端に低いレベルの輝度が得られる。そして、瞳孔141の外側
の光彩143の領域(光彩143からの光束が結像して得られる、瞳孔像の外側の光彩像の領域)では、上記2種の輝度の中間の輝度が得られる。具体的には、X座標(X軸方向の座標)が座標Xaより大きい領域と、X座標が座標Xbより小さい領域とで、上記2種の輝度の中間の輝度が得られる。
の光彩143の領域(光彩143からの光束が結像して得られる、瞳孔像の外側の光彩像の領域)では、上記2種の輝度の中間の輝度が得られる。具体的には、X座標(X軸方向の座標)が座標Xaより大きい領域と、X座標が座標Xbより小さい領域とで、上記2種の輝度の中間の輝度が得られる。
図4(b)に示すような輝度分布から、角膜反射像Pd’,Pe’のX座標Xd,Xeと、瞳孔端像a’,b’のX座標Xa,Xbを得ることができる。具体的には、輝度が極端に高い座標を角膜反射像Pd’,Pe’の座標として得ることができ、輝度が極端に低い座標を瞳孔端像a’,b’の座標として得ることができる。また、受光レンズ16の光軸に対する眼球14の光軸の回転角θxが小さい場合には、瞳孔中心cからの光束が眼撮像素子17上に結像して得られる瞳孔中心像c’(瞳孔像の中心)の座標Xcは、Xc≒(Xa+Xb)/2と表すことができる。つまり、瞳孔端像a’,b’のX座標Xa,Xbから、瞳孔中心像c’の座標Xcを算出できる。このようにして、角膜反射像Pd’,Pe’の座標と、瞳孔中心像c’の座標とを見積もることができる。
ステップS104では、CPU2は、眼画像の結像倍率βを算出する。結像倍率βは、受光レンズ16に対する眼球14の位置により決まる倍率で、角膜反射像Pd’,Pe’の間隔(Xd-Xe)の関数を用いて算出することができる。
ステップS105では、CPU2は、受光レンズ16の光軸に対する眼球14の光軸の回転角を算出する。角膜反射像Pdと角膜反射像Peの中点のX座標と角膜142の曲率中心OのX座標とはほぼ一致する。このため、角膜142の曲率中心Oから瞳孔141の中心cまでの標準的な距離をOcとすると、Z-X平面(Y軸に垂直な平面)内での眼球14の回転角θxは、以下の式1で算出できる。Z-Y平面(X軸に垂直な平面)内での眼球14の回転角θyも、回転角θxの算出方法と同様の方法で算出できる。
β×Oc×SINθx≒{(Xd+Xe)/2}-Xc ・・・(式1)
β×Oc×SINθx≒{(Xd+Xe)/2}-Xc ・・・(式1)
ステップS106では、CPU2は、ステップS105で算出した回転角θx,θyを用いて、レンズ10上でユーザの注視点を推定する。注視点の座標(Hx,Hy)が瞳孔中心cに対応する座標であるとすると、注視点の座標(Hx,Hy)は以下の式2,3で算出できる。
Hx=m×(Ax×θx+Bx) ・・・(式2)
Hy=m×(Ay×θy+By) ・・・(式3)
Hx=m×(Ax×θx+Bx) ・・・(式2)
Hy=m×(Ay×θy+By) ・・・(式3)
式2,3のパラメータmは、回転角θx,θyをレンズ10上での瞳孔中心cに対応する座標に変換する変換係数である。パラメータmは、予め決定されてメモリ部3に格納されるとする。パラメータAx,Bx,Ay,Byは、視線の個人差を補正する視線補正パラメータであり、後述するキャリブレーション作業を行うことで取得される。視線補正パラメータAx,Bx,Ay,Byは、視線検出動作が開始する前にメモリ部3に格納されるとする。
ステップS107では、CPU2は、注視点の座標(Hx,Hy)をメモリ部3に格納し、視線検出動作を終える。
なお、視線検出方法は上記方法に限られず、例えば眼画像から視線情報を取得する方法であれば、どのような方法であってもよい。最終的な視線情報として、注視点を示す情報
ではなく、視線の方向を示す情報が得られてもよい。例えば、注視点の座標(Hx,Hy)を得ずに、回転角(Ax×θx+BxやAy×θy+By)を得るまでの処理が行われてもよい。
ではなく、視線の方向を示す情報が得られてもよい。例えば、注視点の座標(Hx,Hy)を得ずに、回転角(Ax×θx+BxやAy×θy+By)を得るまでの処理が行われてもよい。
<キャリブレーション作業の必要性の説明>
前述のように、視線検出動作において眼画像から眼球14の回転角θx,θyを取得し、瞳孔中心cの位置をレンズ10上での位置に座標変換することで、注視点を推定できる。
前述のように、視線検出動作において眼画像から眼球14の回転角θx,θyを取得し、瞳孔中心cの位置をレンズ10上での位置に座標変換することで、注視点を推定できる。
しかし、人間の眼球の形状の個人差などの要因により、注視点を高精度に推定できないことがある。具体的には、視線補正パラメータAx,Ay,Bx,Byをユーザに適した値に調整しなければ、図6(b)に示すように、実際の注視点Bと推定された注視点Cとのずれが生じてしまう。図6(b)では、ユーザは人物を注視しているが、表示装置100は背景が注視されていると誤って推定してしまっている。
そこで、表示装置100の通常使用の前に、キャリブレーション作業を行い、ユーザに適した視線補正パラメータAx,Ay,Bx,Byを取得し、表示装置100に格納する必要がある。
従来より、キャリブレーション作業は、表示装置100の通常使用の前に図6(c)に示すような位置の異なる複数の指標を表示し、ユーザにその指標を見てもらうことで行われている。そして、各指標の注視時に視線検出動作を行い、算出された複数の注視点(推定位置)と、各指標の座標とから、ユーザに適した視線補正パラメータAx,Ay,Bx,Byを決定する技術が、公知の技術として知られている。
<仮想物体の見え方の説明>
上述したように、ユーザは、レンズ10を通して外界を視認することができると共に、表示デバイス11によって表示された仮想物体を、外界に存在するように見ることができる。その際の仮想物体の見え方について、図7(a)~7(c)を用いて説明する。
上述したように、ユーザは、レンズ10を通して外界を視認することができると共に、表示デバイス11によって表示された仮想物体を、外界に存在するように見ることができる。その際の仮想物体の見え方について、図7(a)~7(c)を用いて説明する。
図7(a)は、理想的な見えを示す。図7(a)では、ユーザは、外界の人物Pを視界中央に収めつつ、表示された箱状の仮想物体S1を人物Pが持っているように見ることができている。ユーザは、両眼で外界と仮想物体を視認しており、ユーザの脳内において、右眼と左眼で見える2つの光景が合成され、図7(a)に示すような1つの光景として認識される。
しかしながら、ユーザが注視している現実物体と、当該現実物体に重畳したい仮想物体との間で、奥行方向(図7(a)のZ’軸方向)の位置が異なると、ユーザは、仮想物体を高品位に見られないことがある。図7(b),7(c)を用いて、詳細に説明する。
仮想物体は、表示デバイス11に含まれる光学素子の位置や性能によって決まる所定の距離に虚像が結像することで、ユーザに視認される。図7(b)は、ユーザが人物Pを視認している様子を上から眺めた様子を示す模式図(鳥瞰図)である。図7(b)では、人物Pは、ユーザから距離Zr1の位置におり、仮想物体S1(虚像)は、ユーザから距離Zsの位置に結像されている。距離Zr1,Zsは、奥行方向(Z’軸方向)の距離である。ユーザが視認している現実物体は、必ずしも仮想物体が結像する距離Zsと同じ距離にいるわけではなく、図7(b)では、人物Pは距離Zsと異なる距離Zr1にいる。
ここで、人物Pと同様に、仮想物体S1をユーザの視界中央に配置する設定をしたとする。図7(b)はその状態を示す。そして、ユーザが、両眼で、距離Zr1にいる人物P
を注視したとする。その場合には、ユーザの両眼の視線が人物Pを向くように、両眼が視界中央へ向けて回転する。ユーザから仮想物体S1までの距離Zsは、ユーザから人物Pまでの距離Zr1よりも短い。そのため、仮想物体S1は、ユーザの左眼中心OL1と人物Pの位置Po1とを結ぶ直線(左眼の視線)にも、ユーザの右眼中心OR1と人物Pの位置Po1とを結ぶ直線(右眼の視線)にも乗らず、それらの直線の間に位置する。この状態では、図7(c)に示すように、両眼で人物Pを注視しているユーザには、人物Pに重畳されて見えるべき仮想物体S1が、左右の2つの物体S1’に分かれて、2重に見えてしまう(2重見え)。
を注視したとする。その場合には、ユーザの両眼の視線が人物Pを向くように、両眼が視界中央へ向けて回転する。ユーザから仮想物体S1までの距離Zsは、ユーザから人物Pまでの距離Zr1よりも短い。そのため、仮想物体S1は、ユーザの左眼中心OL1と人物Pの位置Po1とを結ぶ直線(左眼の視線)にも、ユーザの右眼中心OR1と人物Pの位置Po1とを結ぶ直線(右眼の視線)にも乗らず、それらの直線の間に位置する。この状態では、図7(c)に示すように、両眼で人物Pを注視しているユーザには、人物Pに重畳されて見えるべき仮想物体S1が、左右の2つの物体S1’に分かれて、2重に見えてしまう(2重見え)。
上述した2重見えは、人物Pと仮想物体S1の結像位置とが異なり、両眼の視線が人物Pを向いた際に、仮想物体S1が視線からずれることで生じる。このような状態では、ユーザの脳内において、右眼と左眼で見える2つの光景が合成された結果、両眼の視線が向けられた人物Pは1つの物体として認識され、両眼の視線からずれた仮想物体は左右2つの物体S1’に分かれて認識される。
なお、人物に持たせる箱状の仮想物体の例を説明したが、仮想物体はこれに限られない。例えば、仮想物体は、ユーザが見ている位置(注視点)に表示するポインタ(マーカー)であってもよい。ユーザは、現実物体を注視しているときに、注視点を示すポインタが2重に見えると、ポインタによる位置の指定操作などが行いにくい。
そこで、実施例1では、両眼の視線に乗るように、仮想物体を左右に分けて表示する。つまり、両眼に対して視差をつけて仮想物体を表示する。例えば、図8(a)に示すように、左眼中心OL1と人物Pの位置Po1とを結ぶ直線(左眼の視線)上の位置X1Lに、左眼に見せる仮想物体S1Lを表示する。同様に、右眼中心OR1と人物Pの位置Po1とを結ぶ直線(右眼の視線)上の位置X1Rに、右眼に見せる仮想物体S1Rを表示する。
このように仮想物体の表示位置を調整することにより、仮想物体の2重見えを抑制することができる。例えば、図8(b)に示すように、仮想物体S1が左右に分かれずに人物Pに重畳された光景をユーザに見せることができる。
<距離に応じた表示位置制御の必要性の説明>
仮想物体の表示位置は、ユーザから現実物体までの距離(奥行方向の距離)が変化した場合に、その変化に合わせて調整し直す必要がある。図9を用いて詳細に説明する。
仮想物体の表示位置は、ユーザから現実物体までの距離(奥行方向の距離)が変化した場合に、その変化に合わせて調整し直す必要がある。図9を用いて詳細に説明する。
図9に示すように、ユーザが距離Zr1にいる人物Pを注視する場合は、左眼中心OL1と人物Pの位置Po1とを結ぶ直線(左眼の視線)上の位置に、左眼に見せる仮想物体S1Lを表示すればよい。同様に、右眼中心OR1と人物Pの位置Po1とを結ぶ直線(右眼の視線)上の位置に、右眼に見せる仮想物体S1Rを表示すればよい。
しかし、人物Pが距離Zr1よりも遠い距離Zr2に移動すると、上述した仮想物体S1L,S1Rの表示では、仮想物体の2重見えが発生してしまう。その場合には、左眼中心OL1と人物Pの位置Po2とを結ぶ直線(左眼の視線)上の位置に、左眼に見せる仮想物体S2Lを表示すればよい。同様に、右眼中心OR1と人物Pの位置Po2とを結ぶ直線(右眼の視線)上の位置に、右眼に見せる仮想物体S2Rを表示すればよい。
このように、ユーザが注視する現実物体までの距離が長いほど、視界中央から離れた位置に仮想物体を結像する必要がある。そうすることで、現実物体までの距離が変わっても、仮想物体の2重見えが抑制された高品位な映像をユーザに見せることができる。
<両眼の視線の相関に応じた表示位置制御の必要性の説明>
仮想物体の表示位置は、両眼の視線の相関(右眼の視線と左眼の視線との相関)に応じても調整する必要がある。そのような相関には個人差があるため、個人ごとに仮想物体の表示位置を調整する必要がある。
仮想物体の表示位置は、両眼の視線の相関(右眼の視線と左眼の視線との相関)に応じても調整する必要がある。そのような相関には個人差があるため、個人ごとに仮想物体の表示位置を調整する必要がある。
例えば、右眼の視線と左眼の視線のなす角度(輻輳角)は、右眼と左眼の間隔に依存する。そのため、右眼と左眼の間隔に応じて、仮想物体の表示位置を調整する必要がある。図10を用いて詳細に説明する。
図10に示すように、左眼中心OL1かつ右眼中心OR1の場合は、左眼中心OL1と人物Pの位置Po1とを結ぶ直線(左眼の視線)上の位置に、左眼に見せる仮想物体S1Lを表示すればよい。同様に、右眼中心OR1と人物Pの位置Po1とを結ぶ直線(右眼の視線)上の位置に、右眼に見せる仮想物体S1Rを表示すればよい。
しかし、左眼中心OL2かつ右眼中心OR2の場合は、上述した仮想物体S1L,S1Rの表示では、仮想物体の2重見えが発生してしまう。その場合には、左眼中心OL2と人物Pの位置Po2とを結ぶ直線(左眼の視線)上の位置に、左眼に見せる仮想物体S2Lを表示すればよい。同様に、右眼中心OR2と人物Pの位置Po2とを結ぶ直線(右眼の視線)上の位置に、右眼に見せる仮想物体S2Rを表示すればよい。
このように、右眼と左眼の間隔に応じて、仮想物体の表示位置を調整する必要がある。そして、右眼と左眼の間隔には個人差があるため、個人ごとに仮想物体の表示位置を調整する必要がある。
また、輻輳角は、眼球の構造にも依存する。そのため、眼球の構造に応じて、仮想物体の表示位置を調整する必要がある。眼球の構造には個人差があるため、個人ごとに仮想物体の表示位置を調整する必要がある。図11,12を用いて詳細に説明する。
図11に示すように、眼球内における、光を検知する器官である視細胞は、眼球光軸からずれている。その結果、人間が正面(Z軸方向に平行な方向)を見ていても、眼球光軸とZ軸のなす角度は、眼球光軸からの視細胞のずれ量に対応するオフセット角で0度からずれる。
したがって、視細胞のずれ量に応じて、仮想物体の表示位置を調整する必要がある。右眼と左眼で視細胞のずれ量が異なることもある。その場合には、図12に示すように、仮想物体SL1,SL2の表示位置を左または右に偏らせる必要がある。そして、視細胞のずれ量には個人差があるため、個人ごとに仮想物体の表示位置を調整する必要がある。
また、輻輳角は、瞳孔直径(瞳孔の大きさ)にも依存する。そのため、瞳孔直径に応じて、仮想物体の表示位置を調整する必要がある。図13(a)~13(c)を用いて詳細に説明する。
例えば、ユーザが屋内から屋外に出て、周囲の明るさが変化すると、図13(a),13(b)に示すように、ユーザの瞳孔直径が変化する。そして、図13(c)に示すように、瞳孔直径が変化すると、上述したオフセット角などのパラメータも変化する。なお、図13(c)には、瞳孔直径の増加に対して、オフセット角が線形に増加する例を示しているが、瞳孔直径とオフセット角の対応関係(特性)はこれに限られない。例えば、瞳孔直径とオフセット角の対応関係は、瞳孔直径の増加に対してオフセット角が非線形に増加する部分を含んでもよい。瞳孔直径とオフセット角の対応関係は、瞳孔直径の増加に対応してオフセット角が減少する部分を含んでもよいし、瞳孔直径の増加に対応してオフセッ
ト角が変化しない部分を含んでもよい。
ト角が変化しない部分を含んでもよい。
したがって、瞳孔直径に応じて、仮想物体の表示位置を調整する必要がある。そして、瞳孔直径や、瞳孔直径に対応するオフセット角には個人差があるため、個人ごとに仮想物体の表示位置を調整する必要がある。
また、輻輳角は、人間の頭部の姿勢(傾き)にも依存する。そのため、頭部の姿勢に応じて、仮想物体の表示位置を調整する必要がある。図14(a),14(b)を用いて詳細に説明する。
図14(a)は、人物が直立した状態を示し、図14(b)は、当該人物が図14(a)の状態から角度θだけ頭部を傾けた状態を示す。図14(a)の状態から図14(b)の状態への変化があると、頭部が角度θだけ傾くことによって、表示装置100(および表示装置100のXYZ軸)も角度θだけ傾く。これに対し、人間の眼は、眼球光軸を中心として、頭部が傾く方向とは逆方向に回転(回旋運動)する。これにより、眼の水平方向は維持される。表示装置100(表示装置100のXYZ軸)から見ると、眼がZ軸を中心として回転する。その結果、表示装置100に対する視細胞の相対位置が変化し、上述したオフセット角が変化する。
したがって、頭部の姿勢に応じて、仮想物体の表示位置を調整する必要がある。そして、頭部の姿勢に対応するオフセット角には個人差があるため、個人ごとに仮想物体の表示位置を調整する必要がある。
<キャリブレーション動作の説明>
図15を用いて、キャリブレーション動作について説明する。図15は、キャリブレーション動作のフローチャートである。例えば、ユーザが表示装置100を装着し、表示装置100により表示されたメニュー画面などからキャリブレーションの開始を指示すると、図15のキャリブレーション動作が開始する。
図15を用いて、キャリブレーション動作について説明する。図15は、キャリブレーション動作のフローチャートである。例えば、ユーザが表示装置100を装着し、表示装置100により表示されたメニュー画面などからキャリブレーションの開始を指示すると、図15のキャリブレーション動作が開始する。
ステップS201では、CPU2は、表示デバイス11を制御して、キャリブレーション用の指標を含むキャリブレーション画面を、ユーザの両眼に対して表示する。例えば、図16(a)に示すように、指標C1,R1,L1(仮想物体)を表示する。ユーザから指標C1,R1,L1までの距離(奥行方向の距離、奥行距離)は、同じ(奥行距離Zr1)である。
ステップS202では、CPU2は、ユーザに対し、注視すべき箇所(指標)を通知する。例えば、CPU2は、図16(a)の指標C1,R1,L1のうち、注視すべき指標の形状、色、輝度などを変えて、当該指標を強調する。なお、注視すべき箇所の通知方法はこれに限られない。例えば、注視すべき箇所が示されればよく、注視すべき指標のみを表示してもよい。図16(c)に示すように、現実物体A1を示す枠C1’(仮想物体)の表示によって、現実物体A1の注視をユーザに促してもよい。
ステップS203では、CPU2は、ユーザが決定操作を行ったか否かを判定する。決定操作は、ユーザが指標の注視を表示装置100に知らせるために行われる。そのため、決定操作は、ユーザが注視すべき指標を見た状態で行われる。決定操作は、例えば、表示装置100に有線または無線で接続されたコントローラのボタン操作などである。なお、決定操作は特に限定されず、指標を所定時間よりも長く注視し続ける操作であってもよいし、音声操作などであってもよい。CPU2は、決定操作を待ち、決定操作が行われるとステップS204に処理を進める。
ステップS204では、CPU2は、図5の視線検出動作を行う。視線検出動作は、右眼と左眼のそれぞれに対して行われる。これにより、右視線情報(右眼についての視線検出動作の結果)と左視線情報(左眼についての視線検出動作の結果)が取得される(視線取得)。
ステップS205では、CPU2は、奥行距離が同じ全ての指標について視線検出動作を行ったか否かを判定する。例えば、CPU2は、図16(a)の指標C1,R1,L1の全てについて、視線検出動作を行ったか否かを判定する。CPU2は、視線検出動作を行っていない指標が残っている場合は、ステップS206に処理を進め、全ての指標について視線検出動作を行った場合は、ステップS207に処理を進める。
ステップS206では、CPU2は、注視すべき箇所(指標)の変更を通知する。図16(a)の指標C1,R1,L1のうち、指標C1,R1については視線検出動作が行われており、指標L1については視線検出動作が行われていない場合には、例えば、CPU2は指標L1を強調し、ステップS203に処理を進めて、決定操作を待つ。
ステップS207では、CPU2は、奥行距離が同じ全ての指標についての視線検出動作の結果から、上述した視線補正パラメータAx,Bx,Ay,Byを取得(決定)する。また、CPU2は、右視線情報(右眼についての視線検出動作の結果)と左視線情報(左眼についての視線検出動作の結果)とに基づいて、左眼の視線と右眼の視線との相関に関する相関情報(相関データ)を、個人差の情報として取得する(相関取得)。相関情報は、視線補正パラメータAx,Bx,Ay,Byを考慮して取得される。例えば、CPU2は、視線補正パラメータAx,Bx,Ay,Byを考慮した右眼と左眼の回転角(Ax×θx+BxやAy×θy+By)に基づいて、図8の角度θ1のような輻輳角を、相関情報として取得(算出)する。相関情報は、指標ごとに取得される。これにより、面内位置(奥行方向に垂直な面内での位置)と相関情報との対応関係が取得(決定)できる。
ステップS208では、CPU2は、ユーザが注視した箇所(指標)までの奥行距離を取得する。CPU2は、指標を表示した場合には、当該指標の想定距離を取得し、図16(c)に示すような表示でユーザに現実物体を注視させた場合には、距離検出回路201を用いて現実物体までの距離を検出する。
ステップS209では、CPU2は、想定している全ての奥行距離について相関情報を取得したか否かを判定する。CPU2は、相関情報を取得していない奥行距離が残っている場合は、ステップS210に処理を進め、全ての奥行距離について相関情報を取得した場合は、ステップS211に処理を進める。
ステップS210では、CPU2は、指標の奥行距離が変わるように、キャリブレーション画面を更新する。例えば、CPU2は、図16(a)の表示から図16(b)の表示に更新する。図16(a)の指標C1,R1,L1は奥行距離Zr1にあるが、図16(b)の指標C2,R2,L2は、奥行距離Zr1とは異なる奥行距離Zr2にある。その後、CPU2は、ステップS202に処理を進める。
なお、CPU2は、図16(c)のような表示を行っている場合は、ステップS210を省略して、ステップS202に処理を進める。ステップS202では、例えば、CPU2は、図16(c)の表示から図16(d)の表示に更新する。図16(c)では、奥行距離Zr1にある現実物体A1が枠C1’によって強調されるが、図16(d)では、奥行距離Zr2にある現実物体A2が枠C2’によって強調される。
このように、CPU2は、複数の奥行距離にある複数の指標(物体)それぞれをユーザ
が見るときに、複数の奥行距離にそれぞれ対応する複数の相関情報を取得する。例えば、CPU2は、図9の角度θ1,θ2(奥行距離Zr1にある物体を注視した場合の輻輳角、および奥行距離Zr2にある物体を注視した場合の輻輳角)を、相関情報として取得する。
が見るときに、複数の奥行距離にそれぞれ対応する複数の相関情報を取得する。例えば、CPU2は、図9の角度θ1,θ2(奥行距離Zr1にある物体を注視した場合の輻輳角、および奥行距離Zr2にある物体を注視した場合の輻輳角)を、相関情報として取得する。
ステップS211では、CPU2は、ユーザの右眼と左眼の間隔を測定(推定)する(間隔測定)。例えば、CPU2は、ステップS204の視線検出動作で検出した右眼の瞳孔中心と左眼の瞳孔中心との間隔を、右眼と左眼の間隔(眼球間距離)として算出する。右眼画像上での右眼の瞳孔中心の位置(画素位置)、左眼画像上での左眼の瞳孔中心の位置(画素位置)、眼撮像素子17の撮像倍率、および左右の眼撮像素子17の間隔から、眼球間距離を算出することができる。
ステップS212では、CPU2は、ユーザの瞳孔直径(瞳孔の大きさ)を測定(推定)する(瞳孔測定)。例えば、CPU2は、ステップS204の視線検出動作で検出した瞳孔の端部の位置から、瞳孔直径を算出する。
ステップS213では、CPU2は、ユーザの頭部姿勢(頭部の姿勢(傾き))を測定(推定)する(頭部測定)。例えば、CPU2は、頭部姿勢検出回路21を用いて、頭部姿勢を検出する。
ステップS214では、CPU2は、取得した奥行距離、眼球間距離、瞳孔直径、頭部姿勢、および相関情報に基づいて、それらの対応関係を示す相関テーブルを作成(生成)し、メモリ部3に格納する。キャリブレーション動作は複数回行うことが可能である。2回目以降のキャリブレーション動作では、メモリ部3に相関テーブルが格納済みであるため、CPU2は、取得した奥行距離、眼球間距離、瞳孔直径、頭部姿勢、および相関情報に基づいて、メモリ部3の相関テーブルを更新する。キャリブレーション動作を繰り返すことで、複数の眼球間距離にそれぞれ対応する複数の相関情報が取得される。複数の瞳孔直径にそれぞれ対応する複数の相関情報が取得される。複数の頭部姿勢にそれぞれ対応する複数の相関情報が取得される。相関テーブルは、例えば、奥行距離、眼球間距離、瞳孔直径、および頭部姿勢の組み合わせごとに、面内位置(奥行方向に垂直な面内での位置)と相関情報(輻輳角)との対応関係を示す。CPU2は、相関情報が取得済みの組み合わせについて、新たに相関情報を取得した場合には、相関テーブルが示す相関情報を、新たな相関情報で置き換えたり、平均化したりする。相関テーブルは個人ごとに格納されてもよい。
また、CPU2は、取得した視線補正パラメータAx,Bx,Ay,Byをメモリ部3に格納する。メモリ部3に格納された視線補正パラメータAx,Bx,Ay,Byは、メモリ部3に格納された相関テーブルと同様に、適宜更新(置換や平均化)される。視線補正パラメータAx,Bx,Ay,Byは、奥行距離、眼球間距離、瞳孔直径、および頭部姿勢の組み合わせごとのパラメータとして格納されてもよいし、奥行距離、眼球間距離、瞳孔直径、および頭部姿勢に依存しないパラメータとして格納されてもよい。視線補正パラメータAx,Bx,Ay,Byは、個人ごとに格納されてもよい。
<仮想物体表示動作の説明>
図17を用いて、図15のキャリブレーション動作が行われた後の仮想物体表示動作について説明する。図17は、仮想物体表示動作のフローチャートである。例えば、ユーザが表示装置100を装着し、表示装置100の電源をONすると、図17の仮想物体表示装置動作が開始する。
図17を用いて、図15のキャリブレーション動作が行われた後の仮想物体表示動作について説明する。図17は、仮想物体表示動作のフローチャートである。例えば、ユーザが表示装置100を装着し、表示装置100の電源をONすると、図17の仮想物体表示装置動作が開始する。
ステップS301では、CPU2は、外界撮像ユニット20を制御して、外界を撮像す
る。
る。
ステップS302では、CPU2は、図5の視線検出動作を行う。視線検出動作は、右眼と左眼のそれぞれに対して行われる。
ステップS303では、CPU2は、ユーザが注目している現実物体(注目物体)を推定する。例えば、CPU2は、外界撮像ユニット20によって撮像された外界画像から、ステップS302の視線検出動作で推定された注視点(注視位置)に対応する被写体(現実物体)を、注目物体として検出する。注目物体の推定方法はこれに限られず、例えば、距離検出回路201によって外界画像全体の距離マップが作成(生成)され、ユーザに最も近い被写体が注目物体として検出されてもよい。また、単純に外界画像の中央付近の被写体が注目物体として検出されてもよい。
ステップS304では、CPU2は、距離検出回路201を用いて、ステップS302で検出した注目物体までの奥行距離を測定する。
ステップS305では、CPU2は、図15のステップS211と同様の方法で、ユーザの眼球間距離を測定する。
ステップS306では、CPU2は、図15のステップS212と同様の方法で、ユーザの瞳孔直径を測定する。
ステップS307では、CPU2は、図15のステップS213と同様の方法で、ユーザの頭部姿勢を測定する。
ステップS308では、CPU2は、ステップS304~S307で取得した情報(奥行距離、眼球間距離、瞳孔直径、および頭部姿勢の組み合わせ)に対応する情報を、図15のキャリブレーション動作で作成された相関テーブルから抽出する。抽出される情報は、例えば、面内位置(奥行方向に垂直な面内での位置)と相関情報(輻輳角)との対応関係の情報である。なお、実施例1では、ユーザが特定されており、当該ユーザに対応する相関テーブルや、視線補正パラメータAx,Bx,Ay,Byが使用されるとする。
ステップS309では、CPU2は、ステップS308で抽出した情報に基づいて、仮想物体の表示位置を決定する。例えば、CPU2は、面内位置と輻輳角の対応関係から、ステップS302の視線検出動作で推定された注視点(面内位置)に対応する輻輳角を取得する。そして、CPU2は、取得した輻輳角に基づいて、右眼の視線上と左眼の視線上のそれぞれに仮想物体が乗るように、仮想物体の表示位置を決定する。
ステップS310では、CPU2は、表示デバイス11を制御して、ステップS309で決定した表示位置に従って、仮想物体を、ユーザの両眼に対して表示する。
ステップS301~S310の処理に依れば、仮想物体が注目物体に重畳されて視認されるように、ステップS304~S307で取得した情報に対応する相関情報(輻輳角)に基づく視差をつけて、右眼と左眼に対して仮想物体が表示される。なお、キャリブレーション動作でも仮想物体表示動作でも、奥行距離、眼球間距離、瞳孔直径、および頭部姿勢を取得するとしたが、それらの情報の少なくともいずれかが取得されなくてもよい。
ステップS311では、CPU2は、ユーザが表示装置100の電源OFFを指示したか否かを判定する。ユーザが表示装置100の電源OFFを指示した場合は、CPU2は、仮想物体表示動作を終了し、表示装置100の電源をOFFにする。ユーザが表示装置
100の電源OFFを指示していない場合は、CPU2は、所定時間の待機後、ステップS301に処理を進める。
100の電源OFFを指示していない場合は、CPU2は、所定時間の待機後、ステップS301に処理を進める。
<動作例の説明>
図17に示す方法で仮想物体が表示されている場合の動作例について説明する。図17に示す方法で仮想物体が表示されている場合は、注目物体までの奥行距離、ユーザの眼球間距離、ユーザの瞳孔直径、およびユーザの頭部姿勢に応じて、仮想物体の表示位置が変わる。そのため、図17に示す方法で仮想物体が表示されている場合には、具体的には以下に説明する動作がもたらされる。
図17に示す方法で仮想物体が表示されている場合の動作例について説明する。図17に示す方法で仮想物体が表示されている場合は、注目物体までの奥行距離、ユーザの眼球間距離、ユーザの瞳孔直径、およびユーザの頭部姿勢に応じて、仮想物体の表示位置が変わる。そのため、図17に示す方法で仮想物体が表示されている場合には、具体的には以下に説明する動作がもたらされる。
光学シースルー方式の表示装置を頭部に装着した2人の人物H1,H2に、第1の奥行距離にある物体O1を両眼で見るよう指示した後、第1の奥行距離とは異なる第2の奥行距離にある物体O2を両眼で見るよう指示する。この表示装置は、仮想物体がユーザの注目した物体に対応する(重畳される)ように、当該ユーザの両眼に対して仮想物体を表示する。
そして、以下の事項が満たされる場合には、奥行距離に応じて仮想物体の表示位置を変更する処理が個人ごとに異なると判断することができ、図17に示す方法が使用されていると判断することができる。
・人物H1が物体O1を見た第1の場合と、人物H1が物体O2を見た第2の場合と、人物H2が物体O1を見た第1の場合と、人物H2が物体O2を見た第2の場合との間で、仮想物体の表示位置が異なる。
・第1の場合と第2の場合との間の仮想物体の表示位置の差異(視差の差異、表示位置の偏りの差異)が、第3の場合と第4の場合との間の仮想物体の表示位置の差異と異なる。
・第1の場合と第2の場合との間の仮想物体の表示位置の差異(視差の差異、表示位置の偏りの差異)が、第3の場合と第4の場合との間の仮想物体の表示位置の差異と異なる。
人物H1,H2は実際の人物であってもよいし、疑似的な人物であってもよい。例えば、ガラスなどで作成された疑似眼球を有する頭部模型に表示装置を装着することで上述と同様の動作を再現することが可能である。。疑似眼球の角度を調整することにより、疑似眼球の視線の方向を調整することができる。
また、以下の事項の少なくともいずれかが満たされる場合も、図17に示す方法が使用されていると判断することができる。
・第1のユーザの場合と、眼球光軸に対する視細胞のずれ量が第1のユーザと異なる第2のユーザの場合とで、仮想物体の表示位置が異なる。
・第3のユーザの場合と、右眼と左眼の間隔が前記第3のユーザと異なる第4のユーザの場合とで、仮想物体の表示位置が異なる。
・ユーザの瞳孔の大きさが第1の大きさの場合と、第1の大きさとは異なる第2の大きさの場合とで、仮想物体の表示位置が異なる。
・ユーザの頭部の姿勢が第1の姿勢の場合と、第1の姿勢とは異なる第2の姿勢の場合とで、仮想物体の表示位置が異なる。
・第1のユーザの場合と、眼球光軸に対する視細胞のずれ量が第1のユーザと異なる第2のユーザの場合とで、仮想物体の表示位置が異なる。
・第3のユーザの場合と、右眼と左眼の間隔が前記第3のユーザと異なる第4のユーザの場合とで、仮想物体の表示位置が異なる。
・ユーザの瞳孔の大きさが第1の大きさの場合と、第1の大きさとは異なる第2の大きさの場合とで、仮想物体の表示位置が異なる。
・ユーザの頭部の姿勢が第1の姿勢の場合と、第1の姿勢とは異なる第2の姿勢の場合とで、仮想物体の表示位置が異なる。
<まとめ>
以上述べたように、実施例1によれば、左眼の視線と右眼の視線との相関に関する相関情報を、個人差の情報として取得することで、光学シースルー方式の表示装置に表示した仮想物体の2重見えが抑制可能となる。なお、相関情報として輻輳角(度)を用いる例を説明したが、これに限られず、例えば仮想物体の視差を用いてもよい。視差は、右眼に対する仮想物体の表示位置と、左眼に対する仮想物体の表示位置との水平(左右)方向のずれ量(画素数や長さ(mm))と捉えることもできる。相関情報として、右眼の視線と左
眼の視線との交点の水平方向における偏りを識別可能な情報を用いてもよい。例えば、相関情報は、輻輳角の内訳として、右眼の視線と奥行方向となす角度、および左眼の視線と奥行方向となす角度を示してもよい。
以上述べたように、実施例1によれば、左眼の視線と右眼の視線との相関に関する相関情報を、個人差の情報として取得することで、光学シースルー方式の表示装置に表示した仮想物体の2重見えが抑制可能となる。なお、相関情報として輻輳角(度)を用いる例を説明したが、これに限られず、例えば仮想物体の視差を用いてもよい。視差は、右眼に対する仮想物体の表示位置と、左眼に対する仮想物体の表示位置との水平(左右)方向のずれ量(画素数や長さ(mm))と捉えることもできる。相関情報として、右眼の視線と左
眼の視線との交点の水平方向における偏りを識別可能な情報を用いてもよい。例えば、相関情報は、輻輳角の内訳として、右眼の視線と奥行方向となす角度、および左眼の視線と奥行方向となす角度を示してもよい。
<<実施例2>>
本発明の実施例2について説明する。なお、以下では、実施例1と同じ点(構成や処理など)についての説明は省略し、実施例1と異なる点について説明する。実施例1では、左眼の視線と右眼の視線との相関に関する相関情報を取得し、仮想物体の表示に使用する例を説明した。相関情報には個人差があるため、当該相関情報を用いて個人識別を行うことができる。実施例2では、相関情報を個人識別に用いる例を説明する。
本発明の実施例2について説明する。なお、以下では、実施例1と同じ点(構成や処理など)についての説明は省略し、実施例1と異なる点について説明する。実施例1では、左眼の視線と右眼の視線との相関に関する相関情報を取得し、仮想物体の表示に使用する例を説明した。相関情報には個人差があるため、当該相関情報を用いて個人識別を行うことができる。実施例2では、相関情報を個人識別に用いる例を説明する。
<個人識別動作の説明>
図18を用いて、個人識別動作について説明する。図18は、個人識別動作のフローチャートである。例えば、ユーザが表示装置100を装着し、表示装置100の電源をONすると、図18の個人識別動作が開始する。実施例2では、スマートフォンやパーソナルコンピュータのログイン画面のようなロック画面(個人確認画面)を表示し、個人識別動作によってロックの解除/非解除を行うことを想定している。
図18を用いて、個人識別動作について説明する。図18は、個人識別動作のフローチャートである。例えば、ユーザが表示装置100を装着し、表示装置100の電源をONすると、図18の個人識別動作が開始する。実施例2では、スマートフォンやパーソナルコンピュータのログイン画面のようなロック画面(個人確認画面)を表示し、個人識別動作によってロックの解除/非解除を行うことを想定している。
ステップS401では、CPU2は、表示デバイス11を制御して、個人識別用の指標を含む個人確認画面を、ユーザの両眼に対して表示する。例えば、図19(a)に示すように、奥行距離の異なる指標1,2を表示する。なお、指標の数は特に限定されない。
ステップS402では、CPU2は、ユーザに対し、注視すべき指標を通知する。例えば、CPU2は、図19(a)の指標1を示す枠C1’の表示によって、指標1の注視を促す。
ステップS403では、CPU2は、ユーザが決定操作を行ったか否かを判定する。CPU2は、決定操作を待ち、決定操作が行われるとステップS404に処理を進める。
ステップS404では、CPU2は、図5の視線検出動作を行う。視線検出動作は、右眼と左眼のそれぞれに対して行われる。
ステップS405~ステップS411では、図20の相関情報取得部300の処理が行われる。図20は、個人識別動作を実現するための機能構成を示すブロック図である。相関情報取得部300は、ステップS404で得られた右視線情報(右眼についての視線検出動作の結果)と左視線情報(左眼についての視線検出動作の結果)から、左眼の視線と右眼の視線との相関に関する相関情報を取得する。さらに、相関情報取得部300は、取得した相関情報に関連した様々な情報を取得する。
ステップS405では、CPU2は、ユーザが注視した指標までの奥行距離を取得する。
ステップS406では、CPU2は、右視線情報と左視線情報に基づいて、左眼の視線と右眼の視線との相関に関する相関情報(例えば輻輳角)を、個人差の情報として取得する。
ステップS407では、CPU2は、全ての指標について視線検出動作を行ったか否かを判定する。例えば、CPU2は、図19(a)の指標1,2の両方について、視線検出動作を行ったか否かを判定する。CPU2は、視線検出動作を行っていない指標が残っている場合は、ステップS408に処理を進め、全ての指標について視線検出動作を行った
場合は、ステップS409に処理を進める。
場合は、ステップS409に処理を進める。
ステップS408では、CPU2は、注視すべき指標の変更を通知する。例えば、CPU2は、図19(a)の表示から図19(b)の表示に更新し、ステップS403に処理を進めて、決定操作を待つ。図19(a)では、奥行距離Zr1にある指標1が枠C1’によって強調されるが、図19(b)では、奥行距離Zr2にある指標2が枠C2’によって強調される。
ステップS409では、CPU2は、ユーザの眼球間距離を測定する。
ステップS410では、CPU2は、ユーザの瞳孔直径を測定する。
ステップS411では、CPU2は、ユーザの頭部姿勢を測定する。
このように、ステップS405~S411の処理により、指標(特定の面内位置)ごとに、奥行距離、眼球間距離、瞳孔直径、頭部姿勢、および相関情報の組み合わせ(相関情報群)が取得される。なお、奥行距離、眼球間距離、瞳孔直径、および頭部姿勢の少なくともいずれかは取得されなくてもよい。
ステップS412では、CPU2は、複数の人物の相関テーブルをメモリ部3から読み出し、人物ごとに、その人物の相関テーブルと、ステップS405~S411で取得した相関情報群との一致度(一致率)を評価(算出)する。一致度の評価方法は特に限定されないが、例えば、相関テーブルが、ステップS405~S411で取得した相関情報群と同等の相関情報群を含む場合には、一致度は高くなり、そうでない場合には、一致度は低くなる。ステップS412の処理は、図20の相関情報照合部305の処理に相当する。相関情報照合部305は、相関情報取得部300により取得された相関情報群と、相関情報記憶部301に予め格納された相関テーブルとを照合して、人物ごとの一致度を評価する。複数の人物の相関テーブルは、図15のキャリブレーション動作により取得される。
ステップS413では、CPU2は、ステップS404の視線検出動作で得られた右眼画像と左眼画像のそれぞれから特徴量を抽出する。右眼画像の特徴量は図20のCNN302Rにより抽出され、左眼画像の特徴量は図20のCNN302Lにより抽出される。これらCNN(畳み込みニューラルネットワーク)についての詳細は後述する。
ステップS414では、CPU2は、複数の人物の眼の特徴量をメモリ部3から読み出し、人物ごとに、その人物の眼の特徴量と、ステップS413で抽出した特徴量との一致度(一致率)を評価する。ステップS414の処理は、右眼と左眼のそれぞれについて行われる。右眼についての処理は、図20の特徴量照合部304Rの処理に相当し、左眼についての処理は、図20の特徴量照合部304Lの処理に相当する。特徴量照合部304Rは、CNN302Rにより抽出された右眼の特徴量と、特徴量記憶部303Rに予め格納された右眼の特徴量とを照合して、人物ごとの一致度を評価する。特徴量照合部304Lは、CNN302Lにより抽出された左眼の特徴量と、特徴量記憶部303Lに予め格納された左眼の特徴量とを照合して、人物ごとの一致度を評価する。
なお、人物ごとの相関テーブルと、人物ごとの眼の特徴量とは、個別に管理されてもよいし、図21に示すように、統合して管理されてもよい。
ステップS415では、CPU2は、人物ごとに、ステップS412,S414で得た3種の一致度(左眼の特徴量の一致度、右眼の特徴量の一致度、および相関情報の一致度)に基づいて、最終的な一致度を評価する。例えば、3種の一致度に所定の重み係数を乗
算して得られた値を合計することにより、最終的な一致度が算出される。そして、CPU2は、ユーザが最終的な一致度が最も高い人物であると判断する。ユーザが識別された後は、例えば、図17の仮想物体表示装置動作が開始する。なお、最終的な一致度が所定の閾値を超えなかった場合には、識別失敗としてもよい。ステップS415の処理は、一致度総合評価部310の処理に相当する。一致度総合評価部310は、特徴量照合部304L、特徴量照合部304R、および相関情報照合部305から得られた3種の一致度を総合評価して、人物を特定(識別)する。
算して得られた値を合計することにより、最終的な一致度が算出される。そして、CPU2は、ユーザが最終的な一致度が最も高い人物であると判断する。ユーザが識別された後は、例えば、図17の仮想物体表示装置動作が開始する。なお、最終的な一致度が所定の閾値を超えなかった場合には、識別失敗としてもよい。ステップS415の処理は、一致度総合評価部310の処理に相当する。一致度総合評価部310は、特徴量照合部304L、特徴量照合部304R、および相関情報照合部305から得られた3種の一致度を総合評価して、人物を特定(識別)する。
上記の方法によれば、左眼の特徴量と右眼の特徴量だけでなく、両眼の相関(左眼の視線と右眼の視線との相関)に関する相関情報を用いることで、識別精度が向上する。また、相関情報は、低解像度の撮像素子を用いても精度よく得ることができるため、個人識別装置のコスト増加を抑制しつつ、相関情報の追加による認証の高精度化(偽証の困難化)を達成することができる。
<CNNの説明>
CNN302L,302Rについて説明する。CNN302LとCNN302Rの構成は同様であるため、以下ではCNN302Lについて説明する。
CNN302L,302Rについて説明する。CNN302LとCNN302Rの構成は同様であるため、以下ではCNN302Lについて説明する。
図22は、CNN302Lの構成を示す。CNN302Lは、眼画像(左眼画像)と、眼球14(左眼)の3次元情報とを入力として、特徴量を出力する。CNN302Lは、特徴検出層(S層)と特徴統合層(C層)と呼ばれる2つの層をひとつのセットとし、階層的な複数のセットを有する。S層では、1つ前の階層で検出された特徴をもとに次の特徴が検出される。最初のS層では、眼画像と3次元情報をもとに特徴量が検出される。S層において検出した特徴は同じ階層のC層で統合され、その階層における検出結果として次の階層に送られる。S層は1つ以上の特徴検出細胞面からなり、特徴検出細胞面ごとに異なる特徴を検出する。また、C層は、1つ以上の特徴統合細胞面からなり、同じ階層の特徴検出細胞面での検出結果をプーリングする。以下では、特に区別する必要がない場合は、特徴検出細胞面および特徴統合細胞面を総称して特徴面と呼ぶ。ここでは、最終階層である出力層はC層を有さず、S層のみを有するとする。
特徴検出細胞面での特徴検出処理、および特徴統合細胞面での特徴統合処理の詳細について、図23を用いて説明する。特徴検出細胞面は、複数の特徴検出ニューロンにより構成され、特徴検出ニューロンは1つ前の階層のC層に所定の構造で結合している。また特徴統合細胞面は、複数の特徴統合ニューロンにより構成され、特徴統合ニューロンは同じ階層のS層に所定の構造で結合している。L階層目S層のM番目細胞面内において、位置(ξ,ζ)の特徴検出ニューロンの出力値をyM
LS(ξ,ζ)、L階層目C層のM番目細胞面内において、位置(ξ,ζ)の特徴統合ニューロンの出力値をyM
LC(ξ,ζ)と記載する。そして、各ニューロンの結合係数をwM
LS(n,u,v)、wM
LC(u,v)とすると、各出力値は以下の式4,5のように表すことができる。
式4のfは活性化関数であり、ロジスティック関数や双曲正接関数などのシグモイド関数であればよく、例えばtanh関数であってもよい。uM
LS(ξ,ζ)は、L階層目S層のM番目細胞面における、位置(ξ,ζ)の特徴検出ニューロンの内部状態である。式5では活性化関数を用いず単純な線形和が算出される。式5のように活性化関数を用いない場合は、ニューロンの内部状態uM
LC(ξ,ζ)と出力値yM
LC(ξ,ζ)は等しい。また、式4のyn
L-1C(ξ+u,ζ+v)、式5のyM
LS(ξ+u,ζ+v)をそれぞれ特徴検出ニューロンの結合先出力値、特徴統合ニューロンの結合先出力値と呼ぶ。
式4,5中のξ、ζ、u、v、nについて説明する。位置(ξ,ζ)は入力画像における位置座標に対応しており、例えばyM
LS(ξ,ζ)が高い出力値である場合は、入力画像の画素位置(ξ,ζ)に、L階層目S層M番目細胞面において検出する特徴が存在する可能性が高いことを意味する。式4において、nは、L-1階層目C層n番目細胞面を意味しており、統合先特徴番号と呼ぶ。基本的にL-1階層目C層に存在する全ての細胞面についての積和演算を行う。(u,v)は結合係数の相対位置座標であり、検出する特徴のサイズに応じて有限の範囲(u,v)において積和演算を行う。このような有限な(u,v)の範囲を受容野と呼ぶ。また受容野の大きさを、以下では受容野サイズと呼び、結合している範囲の横画素数×縦画素数で表す。
また、式4において、L=1つまり最初のS層の場合には、yn
L-1C(ξ+u,ζ+v)は、入力画像yin_image(ξ+u,ζ+v)または、入力位置マップyin_posi_map(ξ+u,ζ+v)となる。なお、ニューロンや画素の分布は離散的であり、結合先特徴番号も離散的であるため、ξ、ζ、u、v、nは連続な変数ではなく、離散的な値をとる。ここでは、ξとζは非負整数、nは自然数、uとvは整数とし、いずれも有限な範囲の値となる。
式4中のwM
LS(n,u,v)は、所定の特徴を検出するための結合係数分布であり、これを適切な値に調整することによって、所定の特徴を検出することが可能になる。この結合係数分布の調整が学習であり、CNN302Lの構築においては、さまざまなテストパターンを提示して、yM
LS(ξ,ζ)が適切な出力値になるように、結合係数を繰り返し徐々に修正していくことで結合係数の調整を行う。
式5中のwM
LC(u,v)は、2次元のガウシアン関数を用いて、以下の式6のように表すことができる。
ここでも、(u,v)は有限の範囲としてあるので、特徴検出ニューロンの説明と同様に、有限の範囲を受容野と呼び、範囲の大きさを受容野サイズと呼ぶ。この受容野サイズは、ここではL階層目S層M番目の特徴のサイズに応じて適当な値に設定すればよい。式6中のσは特徴サイズ因子であり、受容野サイズに応じて適当な定数に設定しておけばよい。具体的には、受容野の最も外側の値がほぼ0とみなせるような値になるようにσを設定するのがよい。
上述のような演算を各階層で行うことで、最終階層のS層において、ユーザの識別に使用する特徴量を得ることができる。
<まとめ>
以上述べたように、実施例2によれば、左眼の視線と右眼の視線との相関に関する相関情報を用いることで、簡易な構成で高精度にユーザ(人物)を識別(認証)することができる。
以上述べたように、実施例2によれば、左眼の視線と右眼の視線との相関に関する相関情報を用いることで、簡易な構成で高精度にユーザ(人物)を識別(認証)することができる。
なお、実施例1,2はあくまで一例であり、本発明の要旨の範囲内で実施例1,2の構成を適宜変形したり変更したりすることにより得られる構成も、本発明に含まれる。実施例1,2の構成を適宜組み合わせて得られる構成も、本発明に含まれる。
<<その他の実施例>>
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100:表示装置 2:CPU
Claims (19)
- 光学シースルー方式の表示装置を頭部に装着したユーザの右眼の視線に関する右視線情報と、前記ユーザの左眼の視線に関する左視線情報とを取得する視線取得手段と、
前記右視線情報と前記左視線情報とに基づいて、前記左眼の視線と前記右眼の視線との相関に関する相関情報を、個人差の情報として取得する相関取得手段と
を有することを特徴とする電子機器。 - 前記表示装置は、前記右眼を撮像する右撮像素子と、前記左眼を撮像する左撮像素子とを有し、
前記視線取得手段は、前記右撮像素子によって得られた右眼画像に基づいて前記右視線情報を取得し、前記左撮像素子によって得られた左眼画像に基づいて前記左視線情報を取得する
ことを特徴とする請求項1に記載の電子機器。 - 前記右眼と前記左眼に対して仮想物体を表示するように前記表示装置を制御する表示制御手段をさらに有する
ことを特徴とする請求項1または2に記載の電子機器。 - 前記相関取得手段は、前記ユーザからの複数の距離にある複数の物体それぞれを前記ユーザが見るときに、前記複数の距離にそれぞれ対応する複数の相関情報を取得する
ことを特徴とする請求項1~3のいずれか1項に記載の電子機器。 - 前記ユーザから物体までの距離を測定する距離測定手段をさらに有し、
前記複数の相関情報が取得された後に、前記表示装置は、仮想物体が前記物体に重なって視認されるように、前記距離測定手段によって測定された前記距離に対応する相関情報に基づく視差をつけて、前記右眼と前記左眼に対して前記仮想物体を表示する
ことを特徴とする請求項4に記載の電子機器。 - 前記相関取得手段は、前記右眼と前記左眼の複数の間隔にそれぞれ対応する複数の相関情報を取得する
ことを特徴とする請求項1~5のいずれか1項に記載の電子機器。 - 前記右眼と前記左眼の間隔を測定する間隔測定手段をさらに有し、
前記相関情報が取得された後に、前記表示装置は、前記間隔測定手段によって測定された間隔に対応する相関情報に基づく視差をつけて、前記右眼と前記左眼に対して仮想物体を表示する
ことを特徴とする請求項6に記載の電子機器。 - 前記相関取得手段は、前記ユーザの瞳孔の複数の大きさにそれぞれ対応する複数の相関情報を取得する
ことを特徴とする請求項1~7のいずれか1項に記載の電子機器。 - 前記瞳孔の大きさを測定する瞳孔測定手段をさらに有し、
前記相関情報が取得された後に、前記表示装置は、前記瞳孔測定手段によって測定された前記大きさに対応する相関情報に基づく視差をつけて、前記右眼と前記左眼に対して仮想物体を表示する
ことを特徴とする請求項8に記載の電子機器。 - 前記相関取得手段は、前記頭部の複数の姿勢にそれぞれ対応する複数の相関情報を取得
する
ことを特徴とする請求項1~9のいずれか1項に記載の電子機器。 - 前記頭部の姿勢を測定する頭部測定手段をさらに有し、
前記相関情報が取得された後に、前記表示装置は、前記頭部測定手段によって測定された前記姿勢に対応する相関情報に基づく視差をつけて、前記右眼と前記左眼に対して仮想物体を表示する
ことを特徴とする請求項10に記載の電子機器。 - 前記仮想物体は、前記ユーザが見ている位置に表示するポインタである
ことを特徴とする請求項3,5,7,9,11のいずれか1項に記載の電子機器。 - 前記相関情報は輻輳角である
ことを特徴とする請求項1~12のいずれか1項に記載の電子機器。 - 前記相関情報を用いて個人識別を行う識別手段をさらに有する
ことを特徴とする請求項1~13のいずれか1項に記載の電子機器。 - ユーザの頭部に対して着脱可能な光学シースルー方式の表示装置を制御する電子機器であって、
前記ユーザが第1のユーザであり、且つ、前記ユーザから物体までの距離が第1の距離である第1の場合と、
前記ユーザが前記第1のユーザであり、且つ、前記ユーザから前記物体までの前記距離が第2の距離である第2の場合と、
前記ユーザが第2のユーザであり、且つ、前記ユーザから前記物体までの前記距離が前記第1の距離である第3の場合と、
前記ユーザが前記第2のユーザであり、且つ、前記ユーザから前記物体までの前記距離が前記第2の距離である第4の場合とで、
右眼と左眼に対して表示する、前記物体に対応する仮想物体の表示位置が異なり、
前記第1の場合と前記第2の場合との間の前記表示位置の差異は、前記第3の場合と前記第4の場合との間の前記表示位置の差異と異なる
ことを特徴とする電子機器。 - 前記電子機器は前記表示装置である
ことを特徴とする請求項1~15のいずれか1項に記載の電子機器。 - 光学シースルー方式の表示装置を頭部に装着したユーザの右眼の視線に関する右視線情報と、前記ユーザの左眼の視線に関する左視線情報とを取得するステップと、
前記右視線情報と前記左視線情報とに基づいて、前記左眼の視線と前記右眼の視線との相関に関する相関情報を、個人差の情報として取得するステップと
を有することを特徴とする電子機器の制御方法。 - コンピュータを、請求項1~16のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。
- コンピュータを、請求項1~16のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022027123A JP2023123197A (ja) | 2022-02-24 | 2022-02-24 | 電子機器 |
US18/170,017 US20230266820A1 (en) | 2022-02-24 | 2023-02-16 | Electronic device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022027123A JP2023123197A (ja) | 2022-02-24 | 2022-02-24 | 電子機器 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023123197A true JP2023123197A (ja) | 2023-09-05 |
Family
ID=87573995
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022027123A Pending JP2023123197A (ja) | 2022-02-24 | 2022-02-24 | 電子機器 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20230266820A1 (ja) |
JP (1) | JP2023123197A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20240012472A1 (en) * | 2022-07-08 | 2024-01-11 | Tencent America LLC | Vergence based gaze matching for mixed-mode immersive telepresence application |
-
2022
- 2022-02-24 JP JP2022027123A patent/JP2023123197A/ja active Pending
-
2023
- 2023-02-16 US US18/170,017 patent/US20230266820A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20230266820A1 (en) | 2023-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7443332B2 (ja) | ユーザカテゴリ化による多深度平面ディスプレイシステムのための深度平面選択 | |
JP7415077B2 (ja) | ディスプレイとユーザの眼との間の位置合わせを決定するためのディスプレイシステムおよび方法 | |
EP3821289B1 (en) | Systems and methods for display binocular deformation compensation | |
US11188149B2 (en) | Image display device using retinal scanning display unit and method thereof | |
US11854171B2 (en) | Compensation for deformation in head mounted display systems | |
JP7456995B2 (ja) | 左および右ディスプレイとユーザの眼との間の垂直整合を決定するためのディスプレイシステムおよび方法 | |
JP6349660B2 (ja) | 画像表示装置、画像表示方法、および画像表示プログラム | |
JP2023504207A (ja) | ユーザ識別に基づいて頭部搭載型ディスプレイシステムを動作させるためのシステムおよび方法 | |
JP2022540675A (ja) | 1つ以上の眼追跡カメラを用いた眼回転中心の決定 | |
US11587254B2 (en) | Raycast calibration for artificial reality head-mounted displays | |
CN118112802A (zh) | 图像显示控制方法及头戴式显示设备 | |
JP2023123197A (ja) | 電子機器 | |
JP2017191546A (ja) | 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法 | |
CN115803585A (zh) | 用于生成多个线结构光特征的vcsel阵列 | |
JP2017091190A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2023179017A (ja) | 電子機器 | |
JP2024022726A (ja) | 電子機器 | |
JP2023040887A (ja) | 個人認証装置及び個人認証方法、プログラム | |
JP2023115808A (ja) | 電子機器、電子機器の制御方法、プログラム、および記録媒体 | |
JP6701693B2 (ja) | 頭部装着型表示装置およびコンピュータープログラム | |
JP2023178093A (ja) | 表示装置、制御方法及びプログラム | |
JP2023063760A (ja) | 識別装置 |