JP2023094539A - Inclination detector, visual line detector, retina projection display device, head attachment type display device, eye examination device, virtual reality display device, user state estimation device, drive support system, inclination detection method of solid object, and visual line detection method - Google Patents
Inclination detector, visual line detector, retina projection display device, head attachment type display device, eye examination device, virtual reality display device, user state estimation device, drive support system, inclination detection method of solid object, and visual line detection method Download PDFInfo
- Publication number
- JP2023094539A JP2023094539A JP2022170184A JP2022170184A JP2023094539A JP 2023094539 A JP2023094539 A JP 2023094539A JP 2022170184 A JP2022170184 A JP 2022170184A JP 2022170184 A JP2022170184 A JP 2022170184A JP 2023094539 A JP2023094539 A JP 2023094539A
- Authority
- JP
- Japan
- Prior art keywords
- light
- detection device
- line
- light emitting
- sight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 237
- 230000000007 visual effect Effects 0.000 title description 10
- 210000001525 retina Anatomy 0.000 title description 7
- 210000003128 head Anatomy 0.000 title description 2
- 239000007787 solid Substances 0.000 title description 2
- 210000005252 bulbus oculi Anatomy 0.000 claims description 131
- 210000001508 eye Anatomy 0.000 claims description 29
- 238000000034 method Methods 0.000 claims description 23
- 230000004270 retinal projection Effects 0.000 claims description 17
- 238000013459 approach Methods 0.000 claims description 8
- 238000012545 processing Methods 0.000 description 129
- 238000010586 diagram Methods 0.000 description 48
- 238000006243 chemical reaction Methods 0.000 description 24
- 238000004088 simulation Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 22
- 238000004364 calculation method Methods 0.000 description 21
- 230000000052 comparative effect Effects 0.000 description 18
- 238000003860 storage Methods 0.000 description 18
- 230000000694 effects Effects 0.000 description 17
- 210000004087 cornea Anatomy 0.000 description 16
- 238000009825 accumulation Methods 0.000 description 13
- 230000003287 optical effect Effects 0.000 description 12
- 206010016256 fatigue Diseases 0.000 description 10
- 230000004048 modification Effects 0.000 description 10
- 238000012986 modification Methods 0.000 description 10
- 230000008859 change Effects 0.000 description 9
- 238000010219 correlation analysis Methods 0.000 description 9
- 238000012360 testing method Methods 0.000 description 9
- 208000019914 Mental Fatigue Diseases 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 238000013041 optical simulation Methods 0.000 description 7
- 230000009466 transformation Effects 0.000 description 7
- 238000005259 measurement Methods 0.000 description 6
- 239000013598 vector Substances 0.000 description 6
- 238000004519 manufacturing process Methods 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000004438 eyesight Effects 0.000 description 4
- 210000001747 pupil Anatomy 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 230000004459 microsaccades Effects 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000002347 injection Methods 0.000 description 2
- 239000007924 injection Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 240000001973 Ficus microcarpa Species 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 210000001110 axial length eye Anatomy 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000000090 biomarker Substances 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000004410 intraocular pressure Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000000491 multivariate analysis Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000004304 visual acuity Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
- 239000013585 weight reducing agent Substances 0.000 description 1
Images
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Eye Examination Apparatus (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、傾き検出装置、視線検出装置、網膜投影表示装置、頭部装着型表示装置、検眼装置、仮想現実表示装置、ユーザ状態推定装置、運転支援システム、立体物の傾き検出方法および視線検出方法に関する。 The present invention provides a tilt detection device, a line-of-sight detection device, a retinal projection display device, a head-mounted display device, an eye examination device, a virtual reality display device, a user state estimation device, a driving support system, a three-dimensional object tilt detection method, and a line-of-sight detection. Regarding the method.
対象物に照射した光の反射光に基づき、対象物の傾きを検出する傾き検出装置が知られている。このような傾き検出装置は、対象物としての人の眼球の傾きから視線方向を検出する視線検出装置や、該視線検出装置を有する網膜投影表示装置、頭部装着型表示装置および検眼装置等の様々な用途において利用される。 2. Description of the Related Art Tilt detection devices are known that detect the tilt of an object based on reflected light of light irradiated to the object. Such a tilt detection device includes a line-of-sight detection device that detects the line-of-sight direction from the tilt of a person's eyeball as an object, a retinal projection display device having the line-of-sight detection device, a head-mounted display device, an optometric device, and the like. Used in various applications.
上記の傾き検出装置として、眼球の傾きを高精度に検出するために、眼球に照射したレーザ光をMEMS(Micro Electro Mechanical Systems)ミラーにより走査させ、走査される光の眼球による反射光を検出する構成が開示されている。 In order to detect the tilt of the eyeball with high accuracy, the above-mentioned tilt detection device scans the laser light irradiated to the eyeball with a MEMS (Micro Electro Mechanical Systems) mirror, and detects the reflected light of the scanned light from the eyeball. A configuration is disclosed.
傾き検出装置では、構成が簡素なものが求められる。 A tilt detection device is required to have a simple configuration.
本発明は、構成が簡素な傾き検出装置を提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide a tilt detection device having a simple configuration.
本発明の一態様に係る傾き検出装置は、複数の発光部と、前記複数の発光部により発光され、対象物により反射された光を受光し、受光した光の光強度に基づく電気信号を出力する受光手段と、前記受光手段から出力される前記電気信号に基づいて、前記対象物の傾きの検出結果を出力する出力手段と、を有し、前記受光手段は、前記対象物の傾きがほぼ同じである状態において、前記複数の発光部から発光され、前記対象物により反射された複数の光を受光する。 A tilt detection device according to an aspect of the present invention includes a plurality of light emitting units, light emitted by the plurality of light emitting units, receiving light reflected by an object, and outputting an electric signal based on the light intensity of the received light. and an output means for outputting a detection result of the tilt of the object based on the electrical signal output from the light receiving means, wherein the light receiving means detects that the tilt of the object is approximately In the same state, a plurality of lights emitted from the plurality of light emitting units and reflected by the object are received.
本発明によれば、構成が簡素な傾き検出装置を提供できる。 According to the present invention, it is possible to provide a tilt detection device with a simple configuration.
以下、図面を参照して発明を実施するための形態について説明する。各図面において、同一の構成部分には同一符号を付し、重複した説明を適宜省略する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments for carrying out the invention will be described with reference to the drawings. In each drawing, the same constituent parts are denoted by the same reference numerals, and overlapping descriptions are omitted as appropriate.
以下に示す実施形態は、本発明の技術思想を具体化するための傾き検出装置を例示するものであって、本発明を以下に示す実施形態に限定するものではない。以下に記載されている構成部品の形状、その相対的配置、パラメータの値等は特定的な記載がない限り、本発明の範囲をそれのみに限定する趣旨ではなく、例示することを意図したものである。また図面が示す部材の大きさや位置関係等は、説明を明確にするため、誇張している場合がある。 The embodiments shown below are examples of tilt detection devices for embodying the technical idea of the present invention, and the present invention is not limited to the embodiments shown below. The shapes of components, their relative positions, parameter values, etc. described below are intended to be illustrative rather than limiting the scope of the present invention, unless specifically stated otherwise. is. Also, the sizes and positional relationships of members shown in the drawings may be exaggerated for clarity of explanation.
以下に示す図においてX軸、Y軸及びZ軸により方向を示す場合があるが、X軸に沿うX方向は、実施形態に係る傾き検出装置が有する複数の発光部が発光面から光を発光する方向に沿う方向を示し、Y軸に沿うY方向は、上記発光面内における所定方向を示し、Z軸に沿うZ方向は、上記発光面内において所定方向と直交する方向を示すものとする。 In the diagrams shown below, directions may be indicated by the X-axis, Y-axis, and Z-axis. The Y direction along the Y axis indicates a predetermined direction in the light emitting surface, and the Z direction along the Z axis indicates a direction orthogonal to the predetermined direction in the light emitting surface. .
X方向で矢印が向いている方向を+X方向、+X方向の反対方向を-X方向と表記し、Y方向で矢印が向いている方向を+Y方向、+Y方向の反対方向を-Y方向と表記し、Z方向で矢印が向いている方向を+Z方向、+Z方向の反対方向を-Z方向と表記する。実施形態では、複数の発光部は一例として-X方向側に光を発するものとする。但し、これらのことは、傾き検出装置の使用時における向きを制限するものではなく、使用時における傾き検出装置の向きは任意である。 The direction in which the arrow points in the X direction is indicated as +X direction, the direction opposite to +X direction is indicated as -X direction, the direction in which the arrow points in Y direction is indicated as +Y direction, and the direction opposite to +Y direction is indicated as -Y direction. , and the direction in which the arrow points in the Z direction is denoted as +Z direction, and the direction opposite to +Z direction is denoted as -Z direction. In the embodiment, as an example, it is assumed that the plurality of light emitting units emit light in the -X direction. However, these do not limit the orientation of the tilt detection device during use, and the orientation of the tilt detection device during use is arbitrary.
実施形態に係る傾き検出装置は、複数の発光部と、該複数の発光部により発光され、対象物により反射された光を受光し、受光した光の光強度に基づく電気信号を出力する受光手段と、該受光手段から出力される電気信号に基づいて、対象物の傾きの検出結果を出力する出力手段と、を有する。受光手段は、前記対象物の傾きがほぼ同じである状態において、複数の発光部から発光され、対象物により反射された複数の光を受光する。 A tilt detection device according to an embodiment includes a plurality of light emitting units, and light receiving means for receiving light emitted by the plurality of light emitting units and reflected by an object, and for outputting an electric signal based on the light intensity of the received light. and output means for outputting the detection result of the inclination of the object based on the electric signal output from the light receiving means. The light receiving means receives a plurality of lights emitted from the plurality of light emitting parts and reflected by the object in a state where the inclination of the object is substantially the same.
実施形態に係る傾き検出装置は、複数の発光部により発光された光に基づいて対象物の傾きを検出するため、MEMS(Micro Electro Mechanical Systems)ミラー等の可動部、および該可動部を駆動させる駆動手段を用いずに対象物の傾きを検出でき、傾き検出装置の構成が簡素化する。また、傾き検出装置は、複数の発光部から発光され、対象物により反射された複数の光を受光するため、受光した光の光強度に基づく電気信号を出力するフォトダイオード等の受光手段を用いて対象物の動きを追尾できる。このような受光手段は、受光した光の位置に基づく電気信号を出力するPSD(Position Sensitive Detector)等の他の受光手段と比較して構成が簡素であり、且つ受光手段を駆動させる駆動手段の構成も簡素である。以上のようにして、本実施形態では、構成が簡素な傾き検出装置を提供する。 The tilt detection device according to the embodiment detects the tilt of an object based on the light emitted by a plurality of light emitting parts, so it includes a movable part such as a MEMS (Micro Electro Mechanical Systems) mirror and drives the movable part. The inclination of the object can be detected without using a driving means, and the configuration of the inclination detection device is simplified. Further, since the tilt detection device receives a plurality of lights emitted from a plurality of light emitting parts and reflected by an object, a light receiving means such as a photodiode is used to output an electric signal based on the light intensity of the received light. can track the movement of an object. Such a light receiving means has a simpler configuration than other light receiving means such as a PSD (Position Sensitive Detector) that outputs an electric signal based on the position of the received light, and the driving means for driving the light receiving means is simple. The configuration is also simple. As described above, the present embodiment provides a tilt detection device with a simple configuration.
対象物は、例えば人の眼球である。眼球は人間が視線を向けた方向に傾く。傾き検出装置は、例えば眼球の傾きの検出結果を人間の視線方向情報として出力する視線検出装置である。なお、眼球の傾き情報とは、直接、傾き角度を示す情報の他に、眼球の傾き角度以外に傾き角度に関する情報も含む。 The target object is, for example, a human eyeball. The eyeballs tilt in the direction the human gaze is directed. The tilt detection device is, for example, a line-of-sight detection device that outputs the detection result of the tilt of the eyeball as human line-of-sight direction information. Note that the eyeball tilt information includes not only information directly indicating the tilt angle, but also information related to the tilt angle in addition to the tilt angle of the eyeball.
視線検出装置から出力される視線方向情報は、例えばアイトラッキング装置または検眼装置等において利用される。あるいは該視線方向情報は、網膜投影表示装置又はHMD(ヘッドマウントディスプレイ;Head Mounted Display)等の頭部装着型表示装置において、網膜等に画像を投影する際に、視線方向に応じて投影画像の位置又は画像の内容を補正するため等に利用される。 The line-of-sight direction information output from the line-of-sight detection device is used in, for example, an eye tracking device or an optometry device. Alternatively, the line-of-sight direction information can be used to project an image onto the retina or the like in a retinal projection display device or a head-mounted display device such as an HMD (Head Mounted Display). It is used, for example, to correct the position or the content of the image.
以下、視線検出装置を傾き検出装置の一例として実施形態を説明する。眼球は対象物の一例であり、また立体物の一例である。なお、実施形態の図では、人間の右目の眼球を例示するが、左目の眼球であっても視線検出装置の機能および作用効果は同様である。また2つの視線検出装置を両目の眼球にそれぞれ適用する場合においても、視線検出装置の機能および作用効果は同様である。 Embodiments will be described below using the line-of-sight detection device as an example of the tilt detection device. An eyeball is an example of an object and an example of a three-dimensional object. In the drawings of the embodiments, the eyeball of the right eye of a human being is exemplified, but the functions and effects of the line-of-sight detection device are the same even for the eyeball of the left eye. Further, even when two sight line detection devices are applied to the eyeballs of both eyes, the functions and effects of the sight line detection devices are the same.
[実施形態]
<視線検出装置10の構成例>
(全体構成)
図1は、実施形態に係る視線検出装置10の全体構成の一例を説明する図である。図1に示すように、視線検出装置10は、VCSELアレイ1と、入射位置制御手段としてのレンズ2および凹面ミラー3と、検出手段としてのフォトダイオード4と、処理部100と、を有する。
[Embodiment]
<Configuration example of line-of-
(overall structure)
FIG. 1 is a diagram illustrating an example of the overall configuration of a line-of-
視線検出装置10は、処理部100から駆動信号DrをVCSELアレイ1に出力することにより、VCSELアレイ1からレーザ光L1を発光する。VCSEL1から発光されたレーザ光L1は、レンズ2により一旦集光された後、凹面ミラー3に近づくにつれて広がるレーザ光L2として凹面ミラー3に入射する。
The line-of-
凹面ミラー3に入射したレーザ光L2は、凹面ミラー3により眼球30に向けて反射された後、レーザ光L3として眼球30の角膜31に入射する。角膜31に入射したレーザ光L3は、角膜31により反射され、レーザ光L4としてフォトダイオード4に入射する。フォトダイオード4は、眼球30の角膜31により反射されたレーザ光L4を受光し、受光したレーザ光L4の光強度に基づく電気信号Seを処理部100に出力する。
The laser light L2 incident on the
処理部100は、フォトダイオード4から出力される電気信号Seに基づいて眼球30の傾きを検出し、検出結果としての視線方向情報Edを外部装置に出力する。なお、外部装置は、視線方向情報Edが利用されるアイトラッキング装置、検眼装置、網膜投影表示装置またはHMD等である。あるいは外部装置は、視線方向情報Edを記憶する記憶装置や、視線方向情報Edを表示する表示装置、視線方向情報Edを送信する送信装置等であってもよい。
The
レーザ光L1、L2、L3およびL4は、レーザ光が伝搬する光路の位置や、伝搬されるレーザ光の広がり角度等の状態が異なるが、視線検出のために使用されるレーザ光としての機能および性質は同じである。このため、これらを特に区別しない場合には、レーザ光Lと総称する。 The laser beams L1, L2, L3, and L4 differ in the position of the optical path along which the laser beam propagates and the spread angle of the propagated laser beam. the nature is the same. Therefore, they are collectively referred to as laser light L when they are not distinguished from each other.
VCSELアレイ1は、複数の発光部の一例である。例えばVCSELアレイ1は、VCSELアレイ1に含まれる発光面1Aに沿った2つの方向であるX方向およびY方向のそれぞれに沿って2次元配列された複数のVCSEL(垂直共振器面発光レーザ;Vertical Cavity Surface Emitting LASER)素子を含む。
The
VCSELアレイ1に含まれる複数のVCSEL素子は、それぞれ発光部に対応する。例えばVCSELアレイ1は、複数のVCSEL素子から、指向性と有限の広がり角を有するレーザ光L1を-X方向側に発光できる。
A plurality of VCSEL elements included in the
レーザ光L1は、発光部により発光された光に対応する。視線検出装置10は、処理部100からの駆動信号Drにより、VCSELアレイ1に含まれる複数のVCSEL素子それぞれを個別に独立駆動させ、VCSELアレイ1に含まれる複数のVCSEL素子から選択的にレーザ光L1を発光させる。
The laser light L1 corresponds to light emitted by the light emitting section. The line-of-
例えば、視線検出装置10は、VCSELアレイ1に含まれる複数のVCSEL素子からレーザ光L1を任意に発光させることができる。本実施形態では特に、視線検出装置10は、複数のVCSEL素子に含まれる複数のVCSEL素子により複数のレーザ光L1を発光させる。また、視線検出装置10は、複数のレーザ光L1のそれぞれを選択的に順次切り替える。
For example, the line-of-
レーザ光Lの波長は、視線を検出される人間の視覚が阻害されないように、非可視光である近赤外光であることが好ましい。例えば近赤外光の波長は、700[nm]以上で2500[nm]以下である。但し、レーザ光Lの波長は、非可視光に限定されず、可視光であってもよい。例えば可視光の波長は、360[nm]以上で830[nm]以下である。なお、VCSELアレイ1については、別途、図2を参照して詳述する。
The wavelength of the laser light L is preferably near-infrared light, which is non-visible light, so as not to impede the human's vision when the line of sight is detected. For example, the wavelength of near-infrared light is 700 [nm] or more and 2500 [nm] or less. However, the wavelength of the laser light L is not limited to invisible light, and may be visible light. For example, the wavelength of visible light is 360 [nm] or more and 830 [nm] or less. The
レンズ2および凹面ミラー3は、複数のVCSEL素子から発光されたレーザ光L1が眼球30により反射されたレーザ光L4のフォトダイオード4への入射位置を制御する入射位置制御手段としての機能を有する。レンズ2および凹面ミラー3は、レーザ光L1の広がり角を変換することにより、レーザ光L4がフォトダイオード4に入射する位置を制御する。
The
レンズ2は、正の屈折力を有する集光素子である。レンズ2は、レンズ2と凹面ミラー3との間にレンズ2の焦点が配置されるように設けられる。レンズ2を透過したレーザ光L2は、レンズ2の焦点位置において一旦集光された後、凹面ミラー3に近づくにつれて広がりながら凹面ミラー3に入射する。レンズ2は、凹面ミラー3内の広い領域にレーザ光L2を入射させ、凹面ミラー3により反射されたレーザ光L3を眼球30の広い領域に入射させることができ、視線検出装置10による視線方向の検出範囲を拡大することができる。レンズ2は、複数のVCSEL素子からのレーザ光L1を屈折させることにより、レーザ光L2の凹面ミラー3への入射位置を制御し、視線検出装置10による視線方向の検出範囲を拡大する。
The
但し、レーザ光Lの凹面ミラー3への入射位置は、VCSELアレイ1におけるVCSEL素子同士の位置関係を調節することによっても制御できる。VCSEL素子同士の位置関係の調節は、レンズ2を用いずにレーザ光Lの凹面ミラー3への入射位置を制御できるため、視線検出装置10を小型化すると共に、部品数を減らして視線検出装置10の構成を簡素化する点において好ましい。一方、レンズ2の使用は、レンズ2の焦点距離とレンズ2が配置される位置との調節により、レーザ光Lの凹面ミラー3への入射位置を制御可能とし、視線検出装置10の製作を簡単にする点において好ましい。
However, the incident position of the laser beam L on the
凹面ミラー3は、入射してきたレーザ光L2を反射し、反射したレーザ光L3を眼球30に近づくにつれて集束させる集束反射手段としての機能を有する。凹面ミラー3は、レーザ光L2が入射する側に曲率中心を有する。
The
レーザ光L3は、眼球30の角膜31付近に入射する。凹面ミラー3の曲率中心は、VCSELアレイ1と、凹面ミラー3と、の間におけるレーザ光Lの光軸から外れて位置する。この配置によりVCSEL1および凹面ミラー3は、いわゆる軸外し光学系を構成する。レーザ光Lの光軸は、換言するとレーザ光Lとしてのレーザビームの中心軸である。
The laser beam L3 is incident near the
本実施形態では、凹面ミラー3を例示するが、眼球30に近づくにつれてレーザ光Lを集束させるものであれば、凸面レンズと、平面ミラーと、を組み合わせた構成や、ホログラム等の波面制御素子、回折光学素子等が凹面ミラー3に代えて設けられてもよい。凹面ミラー3は、部品数を減らし、視線検出装置10を小型化できる点において好ましい。凹面ミラー3は、反射率が高いため、光量損失を低減できる点において好ましい。波面制御素子や回折光学素子は位置合わせが容易であるため、視線検出装置10の製作を簡単にする点において好ましい。
In this embodiment, the
凹面ミラー3の凹面がレーザ光L3の光軸に交差する直交2方向において曲率の異なるアナモフィックな非球面であると、フォトダイオード4の受光面におけるレーザ光L4の直径が微小化すると共に、レーザ光L4のビームが等方な状態に整形される。例えば、図1のY方向における凹面ミラー3の曲率半径がZ方向における凹面ミラー3の曲率半径よりも小さいと、等方なビームが整形される。なお、レーザ光L4は、対象物により反射された光の一例である。
If the concave surface of the
レーザ光L3の眼球30への入射角度は、眼球30が正視した場合に角膜31へ所定角度において入射するように調整される。レーザ光L3の眼球30への入射角度は、レーザ光L3の光軸と、レーザ光L3の光軸が眼球30の表面に交わる点を含む眼球30の接平面と、のなす角度である。
The angle of incidence of the laser beam L3 on the
レーザ光L3の眼球30への入射角度における所定角度は、視線検出される人間の視野に凹面ミラー3が含まれないように、大きいことが好ましい。視線検出される人間の鼻が位置する側における人間の視野角は、正視方向を0度、すなわち基準とすると、一般に略60度である。従って、視線検出装置10における眼球30へのレーザ光L3の入射角度は、正視方向を基準として略60度以上であることが好ましい。
It is preferable that the predetermined angle of incidence of the laser light L3 on the
VCSELアレイ1における複数のVCSEL素子それぞれから発光された複数のレーザ光Lのうちの少なくとも一部のレーザ光Lは、他のレーザ光Lに対し、眼球30の角膜31における異なる位置に異なる入射角度で入射する。
At least some laser beams L among the plurality of laser beams L emitted from each of the plurality of VCSEL elements in the
眼球30の角膜31の表面は、水分を含む透明体であり、約2[%]以上で4[%]以下の反射率を有するのが一般的である。眼球30の角膜31に入射したレーザ光L3は、眼球30の角膜31の表面で反射され、レーザ光L4としてフォトダイオード4に向けて伝搬する。
The surface of the
フォトダイオード4は、VCSELアレイ1により発光され、眼球30により反射されたレーザ光L4を受光し、レーザ光Lの光強度に基づく電気信号Seを出力する受光手段の一例である。フォトダイオード4には、可視光に対して高い感度を有するシリコンフォトダイオードが好ましい。フォトダイオード4には、PN型、PIN型、またはAPD(Avalanche photodiode)のいずれも適用可能である。視線検出装置10の構成を簡素化する観点では、PN型が特に好ましい。電気信号Seは、例えば電流信号であるが、電圧信号であってもよい。また、フォトダイオード4の構成は、例えばアノード電極とカソード電極をそれぞれ1つずつのみ有し、光強度に基づく電気信号を出力可能な構成であり、アノード電極を2つ、カソード電極を1つ有する構成や、アノード電極とカソード電極をそれぞれ2つ以上有する構成とすることで、光位置に基づく電気信号も出力可能な構成は含まない。このような光位置に基づく電気信号を出力可能な構成としては、PSDやCMOS(Complementary Metal Oxide Semiconductor)、CCD(Charge Coupled Device)といった撮像素子などが挙げられる。視線検出装置10の構成を簡素化する観点では、撮像素子と比べて消費電力の小さいフォトダイオードが特に望ましい。
The
本実施形態では特に、フォトダイオード4は、眼球30の傾きがほぼ同じである状態において、VCSELアレイ1に含まれる複数のVCSEL素子から発光され、眼球30により反射された複数のレーザ光L4を受光する。
Particularly in this embodiment, the
眼球30の傾きがほぼ同じである状態は、例えば眼球30の傾きが±3.0[度]以下の状態である。例えば、眼球30の傾きがほぼ同じである状態は、眼球30が微小振幅する固視微動状態であり、このとき眼球30は±略3.0[度]以内での微小振幅をする。
A state in which the tilts of the
処理部100は、フォトダイオード4から出力される電気信号Seに基づいて、眼球30の傾きの検出結果を出力する出力手段の一例である。処理部100の構成については、別途、図10および図11を参照して詳述する。
The
(VCSELアレイ1の構成例)
図2は、VCSELアレイ1の構成の一例を示す図である。図2は、VCSELアレイ1がレーザ光L1を発光する方向である-X方向側から視たVCSELアレイ1を示している。
(Configuration example of VCSEL array 1)
FIG. 2 is a diagram showing an example of the configuration of the
VCSELアレイ1は、VCSEL素子11から16を含む。VCSEL素子11は発光面11Aを有し、VCSEL素子12は発光面12Aを有し、VCSEL素子13は発光面13Aを有する。VCSEL素子14は発光面14Aを有し、VCSEL素子15は発光面15Aを有し、VCSEL素子16は発光面16Aを有する。発光面11Aから16Aのそれぞれは、レーザ光L1が発光される面である。VCSELアレイ1の発光面1Aは、発光面11Aから16Aの全てが含まれる面である。なお、レーザ光L1は、VCSEL素子11から16のそれぞれから発光されるレーザ光の総称表記である。
VCSEL素子11から16は、発光面1Aに沿った、異なる2つの方向に沿って並んで設けられる。発光面1Aに沿った異なる2つの方向は、図2では、Y方向およびZ方向である。VCSEL素子11から16は、Y方向およびZ方向のそれぞれに沿って2次元配列している。Y方向およびZ方向はいずれも、発光部に含まれる発光面に沿った所定方向の一例である。
The
本実施形態では特に、VCSEL素子11から16における隣り合うVCSEL素子同士のY方向およびZ方向に沿った間隔Dは、いずれも等しい。但し、この「等しい」は、一般に誤差と認められる程度の差異、例えば間隔Dの1/10以下の差異は許容するものである。この差異が含まれる場合にも、視線検出装置10の作用効果は得られる。
Especially in this embodiment, the distances D between adjacent VCSEL elements in the
VCSEL素子11から16の配列は、1次元配列であってもよいが、視線検出装置10による視線方向の検出範囲を拡大する点では、2次元配列が好ましい。
The array of the
複数の発光部は、VCSELアレイ1に限定されるものではなく、例えば発光部として、LD(半導体レーザ;Laser Diode)またはLED(発光ダイオード;Light Emitting Diode)等を複数含むものであってもよい。
The plurality of light emitting units are not limited to the
本実施形態では、複数の発光部としてVCSEL素子11から16を含むVCSELアレイ1を例示するが、複数の発光部のうち、少なくとも一部の発光部は、パルス状のレーザ光L1を発するパルスレーザ光源であってもよい。また、複数の発光部は、複数種類の光源をそれぞれ発光部として組み合わせることにより構成されてもよい。例えば、複数の発光部は、レーザ光L1を連続発光するLDと、レーザ光L1をパルス発光するパルスレーザ光源と、を組み合わせることにより構成でき、波長が異なるレーザ光L1を発する複数のLDを組合せることにより構成できる。
In this embodiment, the
VCSELアレイ1は、複数の発光部の面内集積化が容易であるため、視線検出装置10を小型化する観点において好ましい。またVCSELアレイ1は、小さい光量のレーザ光Lを発光する場合にもレーザ光Lの光量を安定させることができるため、眼球30へ入射するレーザ光Lの光量を抑えつつ、視線方向を高精度に検出できる点において好ましい。
The
VCSEL素子11から16により発光されたレーザ光L1のそれぞれは、VCSELアレイ1におけるVCSEL素子11から16それぞれの開口において回折することにより、レンズ2に近づくにつれて広がる光である。レーザ光L1の広がり角は、VCSEL素子11から16それぞれの開口形状によって制御できる。VCSEL素子11から16それぞれの開口面積は、消費電力を小さくできる点において小さい方が好ましい。
Each of the laser beams L1 emitted by the
VCSEL素子11から16同士の相対的な位置関係は予め定められており、処理部100により視線方向を検出する際に使用される推定モデルの作成にあたって参照される。視線検出装置10は、推定モデルを作成するにあたって使用した図2に示すVCSEL素子11から16同士の相対的な位置関係に基づいて視線方向を検出する。
A relative positional relationship between the
(フォトダイオード4へのレーザ光L4の入射例)
次に、図3および図4を参照して、フォトダイオード4へのレーザ光L4の入射について説明する。図3は、実施形態に係るフォトダイオード4へのレーザ光L4の入射の一例を示す図である。図4は、比較例に係るフォトダイオードへのレーザ光入射を示す図である。
(Example of incidence of laser light L4 on photodiode 4)
Next, the incidence of the laser light L4 on the
図3(a)に示すように、眼球の視線方向50が、正視方向であるとき、レーザ光L4は、フォトダイオード4の受光面41に入射する。レーザ光L4は、レーザ光L41と、レーザ光L42と、を含む。なお、レーザ光L4は、レーザ光L41およびレーザ光L42を特に区別しない場合の総称表記である。レーザ光L41およびL42はいずれも、受光手段に近づくにつれて広がる。図3(a)では、広がり角はφであり、広がったレーザ光L4の全てがフォトダイオード4の受光面41に入射している。ただし、受光面41に入射するレーザ光は、広がったレーザ光L4の全てでなくても良い。例えば、レーザ光L42の一部が、受光面41から-Y方向にはみ出していても良い。
As shown in FIG. 3( a ), the
レーザ光L41は、VCSEL素子11から16のうちの1つのVCSEL素子、例えばVCSEL素子11から発光され、レンズ2および凹面ミラー3を経た後、眼球30により反射されてフォトダイオード4の受光面41に入射する。レーザ光L42は、VCSEL素子11から16のうちの上記1つのVCSEL素子とは別のVCSEL素子、例えばVCSEL素子12から発光され、レンズ2および凹面ミラー3を経た後、眼球30により反射されてフォトダイオード4の受光面41に入射する。VCSELアレイ1は、レーザ光L41およびレーザ光L42を発光する。
Laser light L41 is emitted from one of
レーザ光L41およびレーザ光L42がフォトダイオード4の受光面に入射すると、フォトダイオード4は、受光した光強度に基づく電気信号を出力する。ここで図3(b)のように眼球の傾きが変化すると、レーザ光L41およびレーザ光L42が眼球表面に入射する位置及び角度が変化する。眼球への入射位置が変化することで、眼球より反射した光のフォトダイオード4への着地位置が変化する。例えば、図3(b)に示すように眼球が左に傾いた場合(視線方向50が、正視方向に対して左に傾いた場合)には、レーザ光L41およびレーザ光L42のフォトダイオード4への着地位置は-Y方向へシフトする。
When the laser light L41 and the laser light L42 are incident on the light receiving surface of the
着地位置の変化によって、フォトダイオード4の受光面に着地する光量が変化することで、フォトダイオード4が出力する電気信号の大きさが変化する。より具体的には、図3(b)ではフォトダイオード4への着地位置が変化することで、レーザ光L41およびレーザ光L42の一部がフォトダイオード4の受光面からはみ出している。そのため、電気信号P41およびP42は図3(a)の場合と比べて小さくなる。
A change in the landing position causes a change in the amount of light that lands on the light receiving surface of the
フォトダイオード4の受光面をYZ平面から見た場合のレーザL4の様子を図3(c)に示す。本実施形態では、レーザ光L41とレーザ光L42の中心間距離dは以下の式を満たす。
|h-w/2|≦d≦h+w/2
ただし、hはビーム半径であり、wは受光面の長さである。中心間距離dが上限を上回ると、複数のレーザ光がフォトダイオード4の受光面に入射しなくなるため、眼球の傾きを適切に推定することができない。一方で、下限を下回ると、眼球の傾きの変化に対してレーザ光L41およびL42に対する受光量の変化がなくなるため、この場合も適切な推定ができなくなる。
FIG. 3(c) shows the state of the laser L4 when the light receiving surface of the
|h−w/2|≦d≦h+w/2
However, h is the beam radius and w is the length of the light receiving surface. When the center-to-center distance d exceeds the upper limit, a plurality of laser beams do not enter the light receiving surface of the
本実施形態では、眼球の傾きと複数のレーザ光に基づくフォトダイオード4の出力信号強度との相関関係をモデル化することで、複数のレーザ光に基づくフォトダイオード4の信号強度から眼球の傾きを推定することができる。
In this embodiment, by modeling the correlation between the inclination of the eyeball and the output signal intensity of the
図4は比較例を示すものである。図3とは異なり、眼球の傾きが変化してもレーザL42に基づくフォトダイオード4の出力信号強度が変化しないので、眼球の傾きと複数のレーザ光に基づくフォトダイオード4の出力信号強度との相関を得ることができない。よって、この場合においては眼球の傾きを推定することができない。
FIG. 4 shows a comparative example. Unlike FIG. 3, even if the tilt of the eyeball changes, the output signal intensity of the
本実施形態では、VCSEL素子11から16における隣り合うVCSEL素子同士の間隔D(図2参照)の長さは、フォトダイオード4が眼球30によって反射されたレーザ光L4を受光する受光面41のY方向およびZ方向のそれぞれに沿った長さである幅wよりも短い。
In this embodiment, the distance D (see FIG. 2) between adjacent VCSEL elements in the
さらに、レーザ光L41およびL42同士は、少なくとも一部が受光面41上において重なる。図3における重複領域eは、レーザ光L41およびL42同士が受光面41上において重なる領域のY方向に沿った長さを表している。
Furthermore, at least a portion of the laser beams L41 and L42 overlap each other on the
視線検出装置10では、レーザ光L4が以上のような状態になるように、各VCSEL素子間の発光面1Aに沿った間隔、レンズ2の曲率半径および設置位置、並びに凹面ミラー3の曲率半径および設置位置が予め決定される。視線検出装置10は、このレーザ光L4をフォトダイオード4に入射させることにより、フォトダイオード4の受光面41上におけるレーザ光L4のビームサイズを大きくすることができる。これにより、フォトダイオード4は、VCSELアレイ1のVCSEL素子11および12から発光され、眼球30により反射されたレーザ光L41およびL42光を受光可能になる。
In the line-of-
フォトダイオード4の受光面41上におけるレーザ光L4のビーム径を大きくすると、眼球の傾きが変化したときに、レーザ光L4の一部が受光面から外れる確率が高くなり、結果として眼球の傾きとフォトダイオード4の出力信号値との相関が強くなる。そのため、フォトダイオード4の受光面41上におけるレーザ光L4のビーム径は大きい方が望ましい。レーザ光L4のビーム径がフォトダイオード4の受光面の所定方向に沿った長さ以上になると、眼球の傾きに対するフォトダイオード4の出力信号の変化量が大きくなるので好ましい。
If the beam diameter of the laser light L4 on the
但し、フォトダイオード4へのレーザ光L4の入射は、図3に示した状態に限定されるものではない。視線検出装置10は、レーザ光L4が図4に示した状態になるように、VCSELアレイ1における各VCSEL素子間の発光面1Aに沿った間隔、レンズ2の曲率半径および設置位置、並びに凹面ミラー3の曲率半径および設置位置を決定することもできる。
However, the incidence of the laser beam L4 on the
(処理部100のハードウェア構成)
次に、処理部100について説明する。図2は、処理部100のハードウェア構成の一例を説明するブロック図である。
(Hardware configuration of processing unit 100)
Next, the
図5に示すように、処理部100は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、SSD(Solid State Drive)104と、を有する。また処理部100は、光源駆動回路105と、I/V(Intensity of current/Volt)変換回路106と、A/D(Analog/Digital)変換回路107と、入出力I/F(Interface)108と、を有する。これらは、システムバスBを介して相互に通信可能に電気的に接続している。
As shown in FIG. 5, the
CPU101は、ROM102やSSD104等の記憶装置からプログラムやデータをRAM103上に読み出し、プログラムを実行することにより、処理部100全体の制御や後述する機能を実現する演算装置である。
The
ROM102は、電源を切ってもプログラムやデータを保持することが可能な不揮発性の半導体メモリ(記憶装置)である。ROM102は、処理部100の起動時に実行されるBIOS(Basic Input/Output System)、OS設定及びネットワーク設定等のプログラム、並びにデータを格納している。RAM103は、プログラムやデータを一時保持する揮発性の半導体メモリ(記憶装置)である。
The
SSD104は、処理部100による処理を実行するプログラムや各種データが記憶された不揮発性メモリである。なお、SSDはHDD(Hard Disk Drive)であってもよい。
The
光源駆動回路105は、VCSELアレイ1に電気的に接続し、制御信号に従ってVCSELアレイ1に駆動信号Drを出力することにより、VCSELアレイ1を発光駆動させる電気回路である。本実施形態では、光源駆動回路105は、駆動信号Drの出力先を切り替えるデマルチプレクサ回路を含んでいる。駆動信号Drは、電流信号であるが、電圧信号であってもよい。
The light
I/V変換回路106は、フォトダイオード4に電気的に接続し、フォトダイオード4から出力されるアナログの電気信号SeをI/V変換したアナログ電圧信号を出力する電気回路である。
The I/
A/D変換回路107は、I/V変換回路106から出力されるアナログ電圧信号をA/D変換したデジタル電圧信号を出力する電気回路である。
The A/
入出力I/F108は、外部装置と処理部100とを通信可能にするインターフェースである。
The input/output I/
(処理部100の機能構成)
図6は、処理部100の機能構成の一例を示すブロック図である。
(Functional configuration of processing unit 100)
FIG. 6 is a block diagram showing an example of the functional configuration of the
図6に示すように、処理部100は、選択部111と、光源駆動部112と、切替部113と、I/V変換部114と、A/D変換部115と、第1蓄積部116と、判定部117と、推定部118と、出力部119と、を有する。
As shown in FIG. 6, the
処理部100は、CPU101がROM102に格納された所定のプログラムを実行すること等により選択部111および推定部118の各機能を実現し、光源駆動回路105等により光源駆動部112および切替部113の各機能を実現する。また、処理部100は、I/V変換回路106およびA/D変換回路107等によりI/V変換部114およびA/D変換部115の各機能を実現し、RAM103等により第1蓄積部116の機能を実現し、入出力I/F等により出力部119の機能を実現する。
The
なお、処理部100は、上記の各機能の少なくとも一部をASIC(application specific integrated circuit)や、FPGA(Field-Programmable Gate Array)等の電子回路により実現してもよい。また処理部100は、上記の各機能の少なくとも一部を、複数の機能構成部の分散処理により実現してもよいし、外部装置を利用して実現してもよい。
Note that the
選択部111は、VCSELアレイ1に含まれるVCSEL素子11から16のうち、発光させるVCSEL素子を選択し、選択されたVCSEL素子を示す情報を切替部113に出力する。なお、VCSELアレイ1に含まれるVCSEL素子の個数である6つは一例である。VCSEL素子の数は、複数であれば任意の数であってもよい。
The
光源駆動部112は、VCSELアレイ1を発光させるための駆動信号Drを、選択部111により選択されたVCSEL素子へ切替部113を介して出力する。
The light
切替部113は、選択部111により選択されたVCSEL素子に対して光源駆動部112からの駆動信号Drが出力されるように切り替える。
The
I/V変換部114は、フォトダイオード4から出力される電気信号Seをアナログ電圧信号に変換し、変換後の電圧信号をA/D変換部115へ出力する。
The I/
A/D変換部115は、I/V変換部114から入力したアナログ電圧信号をデジタル電圧データDaに変換した後、第1蓄積部116に出力する。
The A/
第1蓄積部116は、A/D変換部115から入力したデジタル電圧データDaを、VCSEL素子の個数分、全て蓄積する。第1蓄積部116は、判定部117および推定部118による処理において参照可能に、デジタル電圧データDaとVCSEL素子11から16とを対応付けて蓄積できる。
The
判定部117は、VCSEL素子11から16の全てを発光させたか否かを判定する。例えば、判定部117は、第1蓄積部116に蓄積されたデジタル電圧データDaがVCSEL素子の個数分、全て蓄積されたか否かに基づき、VCSEL素子11から16の全てを発光させたか否かを判定できる。
The
推定部118は、第1蓄積部116に蓄積されたデジタル電圧データDaに基づき、予め作成された推定モデルを用いて、視線方向情報Edを算出する。推定部118は、算出した視線方向情報Edを、出力部119を介して外部装置に出力する。
Based on the digital voltage data Da accumulated in the
<処理部100による処理例>
図7は、処理部100による処理の一例を示すフローチャートである。処理部100aは、例えば視線検出装置10のユーザ(以下、単にユーザという)による開始操作入力信号に応じて図7の処理を開始する。
<Example of Processing by
FIG. 7 is a flowchart showing an example of processing by the
まず、ステップS71において、処理部100は、選択部111により、VCSEL素子11から16のうち、どのVCSEL素子を発光させるかを選択し、選択されたVCSEL素子を示す情報を切替部113に出力する。
First, in step S71, the
続いて、ステップS72において、処理部100は、光源駆動部112から切替部113を経由して、駆動信号Drを選択したVCSEL素子へ出力する。駆動信号Drが印加されたVCSEL素子は、駆動信号Drに応じてレーザ光L1を発光する。レーザ光L1は、レンズ2および凹面ミラー3を経た後、眼球30により反射されてレーザ光L4としてフォトダイオード4に入射する。フォトダイオード4は、受光したレーザ光L4の光強度に応じた電気信号Seを処理部100に出力する。
Subsequently, in step S72, the
続いて、ステップS73において、処理部100は、I/V変換部114により電気信号Seをアナログ電圧信号に変換し、その後、A/D変換部115により該アナログ電圧信号をデジタル電圧データDaに変換する。処理部100は、第1蓄積部116によって、発光したVCSEL素子に対応付けてデジタル電圧データDaを蓄積する。
Subsequently, in step S73, the
続いて、ステップS74において、処理部100は、判定部117により、VCSEL素子11から16の全てを発光させたか否かを判定する。
Subsequently, in step S74, the
ステップS74において、全てのVCSEL素子を発光させていないと判定された場合には(ステップS74、No)には、処理部100は、ステップS71以降の処理を再度行う。この場合には、処理部100は、まだ発光していないVCSEL素子を選択部111により選択し、このVCSEL素子を発光させる。
When it is determined in step S74 that all the VCSEL elements are not caused to emit light (step S74, No), the
一方、ステップS74において、全てのVCSEL素子を発光させたと判定された場合(ステップS74、Yes)には、ステップS75において、処理部100は、推定部118により、予めあらかじめ作成された推定モデルを用いて、第1蓄積部116に蓄積されたVCSEL素子11から16に対応する6つのデジタル電圧データDaに基づき、視線方向情報Edを演算により取得する。
On the other hand, when it is determined in step S74 that all the VCSEL elements have been caused to emit light (step S74, Yes), in step S75, the
続いて、ステップS76において、処理部100は、推定部118により取得された視線方向情報Edを、出力部119を介して外部装置に出力する。
Subsequently, in step S<b>76 , the
続いて、ステップS77において、処理部100は、処理を終了するか否かを判定する。例えば、処理部100は、ユーザによる終了操作入力信号等に応じて終了するか否かを判定できる。
Subsequently, in step S77, the
ステップS77において、終了すると判定された場合には(ステップS77、Yes)、処理部100は、処理を終了する。一方、終了しないと判定された場合には(ステップS77、No)、処理部100は、ステップS71以降の処理を再度行う。
In step S77, when it is determined to end (step S77, Yes), the
このようにして、処理部100は、眼球30の傾きに基づく視線方向情報Edを出力できる。
In this manner, the
(推定部118による推定モデル例)
次に、推定部118による推定演算において用いられる推定モデルについて説明する。推定モデルは、例えば、正準相関分析(Canonical Correlation Analysis)によって作成される(例えば、非特許文献「赤穂 昭太郎、日本神経回路学会誌, Vol.20, No.2 (2013),p62-72)」等を参照)。
(Example of estimation model by estimation unit 118)
Next, the estimation model used in the estimation calculation by the
正準相関分析は多変量解析の一種であり、二組の高次元データxおよびyから共通する成分を取り出す手法である。例えば、高次元データxを視線方向データ、高次元データyをデジタル電圧データDaとして、次の(1)式および(2)式のように表すことができる。
(1)式および(2)式において、θxは水平視線方向[度]であり、θzは垂直視線方向[度]である。またP1からP6は、各発光部に応じたデジタル電圧データDaである。xは2次元データであり、yは6次元データである。 In equations (1) and (2), θx is the horizontal viewing direction [degrees], and θz is the vertical viewing direction [degrees]. P1 to P6 are digital voltage data Da corresponding to each light emitting unit. x is two-dimensional data and y is six-dimensional data.
推定部118は、2つの高次元データx、yに対して、線形変換ベクトルaおよびbを内積演算することにより、次の(3)式により表されるスカラー量uおよびvを算出できる。なお、線形変換ベクトルaの次元数は、高次元データxの次元数に等しく、線形変換ベクトルbの次元数は、高次元データyの次元数に等しい。
(3)式において、スカラー量u、vの相関係数が大きくなるように線形変換ベクトルaおよびbが求められる。推定部118は、スカラー量uおよびvを、相関係数が最大のもの、次に大きいもの、3番目に大きいものというように、順番に求めることができる。なお、正準相関分析で求めることができるスカラー量uおよびvの組の最大数は、元の高次元データのうち、次元数が小さいデータの次元数に等しい。例えば、(1)式および(2)式により表される高次元データを正準相関分析によって分析した結果、取得されるスカラー量uおよびvの組は2組である。
In equation (3), linear transformation vectors a and b are obtained so that the correlation coefficients of the scalar quantities u and v are large. The estimating
正準相関分析によって得られたスカラー量uおよびvには強い相関関係があるため、スカラー量uおよびvの関係は、(4)式により表される線形曲線によって近似できる。
(4)式により表されるスカラー量uおよびvの組を、正準相関分析により2組求めることができれば、推定部118は、VCSEL素子それぞれに応じた高次元データyを以下の連立方程式に代入することにより視線方向の推定値を算出できる。
(5)式における各変数の下添え字は、それぞれ正準相関分析で求めた相関係数に対応した変数である。例えば、最も値の大きい相関変数に対応する線形変換ベクトルは、a1およびb1と表すことができ、スカラー量uおよびvの線形近似パラメータは、c1およびd1と表すことができる。 The subscript of each variable in equation (5) is a variable corresponding to the correlation coefficient obtained by the canonical correlation analysis. For example, the linear transformation vectors corresponding to the largest correlation variables can be denoted as a1 and b1, and the linear approximation parameters of the scalar quantities u and v can be denoted as c1 and d1.
また、2番目に大きい相関変数に対応する線形変換ベクトルは、a2およびb2と表すことができ、スカラー量uおよびvの線形近似パラメータは、c2およびd2と表すことができる。 Also, the linear transformation vectors corresponding to the second largest correlation variables can be denoted as a2 and b2, and the linear approximation parameters of the scalar quantities u and v can be denoted as c2 and d2.
(5)式は、推定モデルを表す数式である。高次元データyに対応するデジタル電圧データDaが得られた時、推定部118は、デジタル電圧データDaを(5)式に代入することにより、視線方向情報Edに対応する高次元データxを推定できる。
Expression (5) is a mathematical expression representing an estimation model. When the digital voltage data Da corresponding to the high-dimensional data y is obtained, the estimating
正準相関分析によって推定モデルを構築するために、視線方向の推定演算を実行する前に、予め高次元データxおよびyのサンプルデータが作成される。サンプルデータは、実験により取得されてもよいし、光学シミュレーションにより取得されてもよい。 In order to construct an estimation model by canonical correlation analysis, sample data of the high-dimensional data x and y are prepared in advance before performing the gaze direction estimation operation. The sample data may be obtained by experiments or may be obtained by optical simulations.
サンプルデータ数が多ければ多いほど、推定モデルによる推定精度が向上する。また、眼球30の個体差に対応するために、予め複数の推定モデルを作成しておき、最も精度が高いものを選択したり、眼球30ごとに推定モデルを作成したりすることにより、推定精度が向上する。
As the number of sample data increases, the estimation accuracy of the estimation model improves. Further, in order to deal with individual differences in the
<受光面41へのレーザ光L4の入射位置シミュレーション結果例>
次に、図8から図14を参照して、VCSELアレイ1から発光され、眼球30により反射されてフォトダイオード4の受光面41に入射するレーザ光L4の入射位置を、光学シミュレーションにより求めた結果について説明する。
<Example of simulation result of incident position of laser light L4 on light receiving
Next, referring to FIGS. 8 to 14, the incident position of the laser light L4 emitted from the
図8は、VCSELアレイ1に含まれるVCSEL素子11から16の全てから発光され、受光面41に入射したレーザ光L4の入射位置を示している。図9から図14は、VCSEL素子11から16のそれぞれに対応するレーザ光L4の入射位置を個別に示している。
FIG. 8 shows the incident positions of the laser beams L4 emitted from all of the
図9はVCSEL素子11、図10はVCSEL素子12、図11はVCSEL素子13、図12はVCSEL素子14、図13はVCSEL素子15、図14はVCSEL素子16、からそれぞれ発光され、受光面41に入射したレーザ光L4の入射位置を示している。
9 shows
図8から図14において、横軸はY方向に沿ったY方向位置[mm]示し、縦軸はZ方向に沿ったZ方向位置[mm]を表している。この光学シミュレーションでは、眼球30の視線方向は、正視方向、すなわちθx=0[度]、θz=0[度]とした。
8 to 14, the horizontal axis represents the Y-direction position [mm] along the Y-direction, and the vertical axis represents the Z-direction position [mm] along the Z-direction. In this optical simulation, the line-of-sight direction of the
四角枠により示したフォトダイオード4の受光面41の中心は、Y方向位置が0[mm]、Z方向位置が0[mm]に位置する。スポット411から416は、VCSEL素子11から16それぞれから発光され、受光面41近傍に到達したレーザ光L4のビームスポットを表している。
The center of the
スポット411はVCSEL素子11、スポット412はVCSEL素子12、スポット413はVCSEL素子13、スポット414はVCSEL素子14、スポット415はVCSEL素子15、スポット416はVCSEL素子16、それぞれから発光されたレーザ光Lに基づくビームスポットを表している。
The
図8から図14に示すように、スポット411から416それぞれの一部は、受光面41に入射する。このことから、視線検出装置10では、VCSELアレイ1に含まれるVCSEL素子11から16から発光され、眼球30により反射されたレーザ光L4は、受光面41に入射可能であることが分かった。
As shown in FIGS. 8-14, a portion of each of spots 411-416 is incident on light-receiving
なお、隣接するスポット間の距離dはすべて、以下の式を満たしている。
|h-w/2|≦d≦h+w/2
All the distances d between adjacent spots satisfy the following formula.
|h−w/2|≦d≦h+w/2
なお、ここでは、スポット411から416それぞれの一部が受光面41に入射した例を示すが、スポット411から416のうちの少なくとも1つのスポット全体が受光面41に入射しても、視線検出装置10の作用効果が得られる。また、スポット411から416の少なくとも2つ以上が受光面41に入射すれば、視線検出装置10の作用効果が得られる。
Here, an example in which a part of each of the
<視線方向検出のシミュレーション>
次に、視線検出装置10による視線方向検出のシミュレーション方法とその結果について説明する。
<Simulation of line-of-sight direction detection>
Next, a simulation method of sight line direction detection by the sight
(シミュレーション方法)
まず眼球30の傾き範囲を-4[度]≦θx≦4[度]、-4[度]≦θy≦4[度]とし、予め定めた視線方向を示す61個の視線データごとにおいて、VCSELアレイ1に含まれる各VCSEL素子に応じた光強度データのサンプルを取得した。そして、このサンプルに基づき、正準相関分析を用いて推定モデルを作成した。
(Simulation method)
First, the tilt range of the
次に、推定モデルの作成に使用していない60個の視線データごとでの光強度データを、作成した推定モデルに代入して、視線データの推定値を求めた。 Next, the estimated value of the line-of-sight data was obtained by substituting the light intensity data for each of the 60 pieces of line-of-sight data that were not used to create the estimation model into the created estimation model.
次に、推定値と、視線データの正解値と、を比較した。 Next, the estimated value and the correct value of the line-of-sight data were compared.
(シミュレーション結果)
図15および図16は、視線検出装置10による視線方向検出のシミュレーション結果を例示する図である。図15は、X方向、換言すると水平方向における視線方向θxのシミュレーション結果を示し、図16は、Z方向、換言すると鉛直方向における視線方向θzのシミュレーション結果を示している。図15および図16において、横軸は、視線方向の正解値を表し、縦軸は、推定部118による推定値を表している。
(simulation result)
15 and 16 are diagrams illustrating simulation results of sight line direction detection by the sight
図15および図16に示すように、正解値と推定値との間に相関関係があることが分かった。水平方向における視線方向推定結果の二乗平均平方根誤差(RMSE)Δθxは、0.8[度]、垂直方向における視線方向推定結果の二乗平均平方根誤差(RMSE)Δθzは、0.6[度]となった。 As shown in FIGS. 15 and 16, it was found that there is a correlation between the correct values and the estimated values. The root-mean-square error (RMSE) Δθx of the result of visual line direction estimation in the horizontal direction is 0.8 [degree], and the root-mean-square error (RMSE) Δθz of the result of visual line direction estimation in the vertical direction is 0.6 [degree]. became.
図15および図16のシミュレーション結果から、視線検出装置10が、フォトダイオード4から出力される電気信号Seに基づいて視線方向を推定し、視線方向情報Edを取得できることが分かった。
From the simulation results of FIGS. 15 and 16, it was found that the line-of-
<比較例、変形例>
(比較例)
図17は、比較例に係るVCSELアレイ1Xに含まれるVCSEL素子11Xから16Xの配置を示す図である。この比較例は、実施形態と比較して、VCSEL素子11Xから16Xの配置、およびフォトダイオード4に入射するレーザ光L4の広がり角がそれぞれ異なっている。
<Comparative example, modified example>
(Comparative example)
FIG. 17 is a diagram showing the arrangement of
具体的には、比較例では、図17に示すように、VCSEL素子11XとVCSEL素子12X、VCSEL素子12XとVCSEL素子13X、VCSEL素子14XとVCSEL素子15X、およびVCSEL素子15XとVCSEL素子16X、のそれぞれのY方向に沿った間隔は、間隔Dである。これに対し、VCSEL素子11XとVCSEL素子14X、VCSEL素子12XとVCSEL素子15X、およびVCSEL素子13XとVCSEL素子16X、のそれぞれのZ方向に沿った間隔は、間隔Dの2倍である。
Specifically, in the comparative example, as shown in FIG. 17,
また、比較例では、図17のVCSELアレイ1Xの配置において、フォトダイオード4に入射するレーザ光L4の広がり角が、実施形態に係る広がり角φよりも小さい。
Further, in the comparative example, in the arrangement of the
以上により、比較例では、各VCSEL素子から発光されたレーザ光Lのうち、1つのVCSEL素子から発光され、眼球30により反射された1つのレーザ光L4しか、受光面41に入射しない状態になっている。換言すると、比較例では、フォトダイオード4は、複数のVCSEL素子から発光され、眼球30により反射された複数のレーザ光L4を受光できない。
As described above, in the comparative example, of the laser beams L emitted from the respective VCSEL elements, only one laser beam L4 emitted from one VCSEL element and reflected by the
図18は、VCSELアレイ1Xに含まれるVCSEL素子11Xから16X全てから発光され、受光面41に入射したレーザ光L4の入射位置を、光学シミュレーションにより求めた結果を示す図である。
FIG. 18 is a diagram showing results obtained by optical simulation of the incident positions of the laser beams L4 emitted from all the
上述した図8と同様に、横軸はY方向に沿ったY方向位置[mm]示し、縦軸はZ方向に沿ったZ方向位置[mm]を表している。眼球30の視線方向は、正視方向、すなわちθx=0[度]、θz=0[度]とした。
As in FIG. 8 described above, the horizontal axis represents the Y-direction position [mm] along the Y-direction, and the vertical axis represents the Z-direction position [mm] along the Z-direction. The line-of-sight direction of the
図18において、四角枠により示したフォトダイオード4の受光面41の中心は、Y方向位置が0[mm]、Z方向位置が0[mm]に位置する。スポット411Xから416Xは、VCSEL素子11Xから16Xそれぞれから発光され、眼球30により反射された後、受光面41近傍に到達したレーザ光L4のビームスポットを表している。
In FIG. 18, the center of the
スポット411XはVCSEL素子11X、スポット412XはVCSEL素子12、スポット413XはVCSEL素子13、スポット414XはVCSEL素子14、スポット415XはVCSEL素子15、スポット416XはVCSEL素子16、それぞれから発光されたレーザ光Lに基づくビームスポットを表している。
図18に示すように、比較例に係る光学シミュレーションでは、スポット411Xから416Xのうちのスポット415Xしか受光面41に入射していない。
As shown in FIG. 18 , in the optical simulation according to the comparative example, only spot 415X among
図19および図20は、比較例に係る視線方向検出のシミュレーション結果を示す図である。図19は、X方向における視線方向θxのシミュレーション結果を示す図、図20は、Z方向における視線方向θzのシミュレーション結果を示す図である。 19 and 20 are diagrams showing simulation results of line-of-sight direction detection according to the comparative example. FIG. 19 is a diagram showing simulation results of the line-of-sight direction θx in the X direction, and FIG. 20 is a diagram showing simulation results of the line-of-sight direction θz in the Z direction.
図19および図20の見方は、上述した図15および図16と同様であり、シミュレーション方法も、上述した図15および図16を求めた方法と同様である。 The view of FIGS. 19 and 20 is the same as that of FIGS. 15 and 16 described above, and the simulation method is also the same as the method of obtaining FIGS. 15 and 16 described above.
図19および図20に示すように、比較例では、実施形態と比較して、正解値と推定値との間に高い相関関係が得られなかった。特に、図20のZ方向における視線方向θzでは、正解値と推定値との間の相関が低くなった。 As shown in FIGS. 19 and 20, in the comparative example, a high correlation between the correct value and the estimated value was not obtained as compared with the embodiment. In particular, in the viewing direction θz in the Z direction in FIG. 20, the correlation between the correct value and the estimated value was low.
図19および図20のシミュレーション結果から、比較例では、フォトダイオード4から出力される電気信号Seに基づいて視線方向を正確に推定できないことが分かった。
From the simulation results of FIGS. 19 and 20, it was found that the line-of-sight direction cannot be accurately estimated based on the electrical signal Se output from the
(変形例)
図21は、実施形態の変形例に係るVCSELアレイ1aに含まれるVCSEL素子11aから17aの配置の一例を示す図である。この変形例では、第1実施形態に係るVCSELアレイ1と比較して、VCSEL素子11aから17aの配置のみが異なっている。
(Modification)
FIG. 21 is a diagram showing an example of arrangement of
具体的には、変形例では、VCSEL素子11aから17aは、-X方向側から視た平面視において、六方最密状に配置されている。VCSEL素子11aから17aのうち、隣り合うVCSEL素子同士の間隔は、いずれも間隔Dである。
Specifically, in the modified example, the
このような変形例の配置においても、フォトダイオード4は、VCSEL素子11aから17aのうち、複数のVCSEL素子から発光され、眼球30により反射された複数のレーザ光L4を受光できる。
Even in the arrangement of such a modified example, the
図22は、VCSELアレイ1aに含まれるVCSEL素子11aから17a全てから発光され、受光面41に入射したレーザ光L4の入射位置を示す図である。図23から図29は、VCSEL素子11aから17aのそれぞれから発光され、受光面41に入射したレーザ光L4の入射位置をVCSEL素子ごとに個別に示す図である。
FIG. 22 is a diagram showing the incident positions of the laser beams L4 emitted from all the
図23はVCSEL素子11a、図24はVCSEL素子12a、図25はVCSEL素子13a、図26はVCSEL素子14a、図27はVCSEL素子15a、図28はVCSEL素子16a、図29はVCSEL素子17aからそれぞれ発光され、受光面41に入射したレーザ光L4の入射位置を示している。
23 shows
図22から図29において、横軸はY方向に沿ったY方向位置[mm]示し、縦軸はZ方向に沿ったZ方向位置[mm]を表している。この光学シミュレーションでは、眼球30の視線方向は、正視方向、すなわちθx=0[度]、θz=0[度]とした。
22 to 29, the horizontal axis indicates the Y-direction position [mm] along the Y-direction, and the vertical axis indicates the Z-direction position [mm] along the Z-direction. In this optical simulation, the line-of-sight direction of the
四角枠により示したフォトダイオード4の受光面41の中心は、Y方向位置が0[mm]、Z方向位置が0[mm]に位置する。スポット411aから417aは、VCSEL素子11から17それぞれから発光され、受光面41近傍に到達したレーザ光L4のビームスポットを表している。
The center of the
スポット411aはVCSEL素子11a、スポット412aはVCSEL素子12a、スポット413aはVCSEL素子13a、スポット414aはVCSEL素子14a、スポット415aはVCSEL素子15a、スポット416aはVCSEL素子16a、スポット417aはVCSEL素子17a、それぞれから発光されたレーザ光Lに基づくビームスポットを表している。
図22に示すように、変形例に係る光学シミュレーションでは、スポット411aから416aそれぞれの一部が全て受光面41に入射している。図23から図29では、スポット411aから417aそれぞれの一部が受光面41に入射している。
As shown in FIG. 22 , in the optical simulation according to the modification, all of the
図30および図31は、変形例に係る視線方向検出のシミュレーション結果を示す図である。図30は、X方向における視線方向θxのシミュレーション結果、図31は、Z方向における視線方向θzのシミュレーション結果、をそれぞれ示している。 30 and 31 are diagrams showing simulation results of line-of-sight direction detection according to the modification. FIG. 30 shows the simulation result of the line-of-sight direction θx in the X direction, and FIG. 31 shows the simulation result of the line-of-sight direction θz in the Z direction.
図30および図31の見方は、上述した図15および図16と同様であり、シミュレーション方法は、上述した図15および図16を求めた方法と同様である。 The view of FIGS. 30 and 31 is the same as that of FIGS. 15 and 16 described above, and the simulation method is the same as the method of obtaining FIGS. 15 and 16 described above.
図30および図31に示すように、変形例においても正解値と推定値との間に相関関係があることが分かった。水平方向における視線方向推定結果の二乗平均平方根誤差(RMSE)Δθxは、0.6[度]、垂直方向における視線方向推定結果の二乗平均平方根誤差(RMSE)Δθzは、0.3[度]となった。 As shown in FIGS. 30 and 31, it was found that there is a correlation between the correct value and the estimated value also in the modified example. The root-mean-square error (RMSE) Δθx of the result of visual line direction estimation in the horizontal direction is 0.6 [degrees], and the root-mean-square error (RMSE) Δθz of the result of visual line direction estimation in the vertical direction is 0.3 [degrees]. became.
図30および図31のシミュレーション結果から、変形例に係るVCSELアレイ1aを有する視線検出装置10は、フォトダイオード4から出力される電気信号Seに基づいて視線方向を推定し、視線方向情報Edを取得できることが分かった。
From the simulation results of FIGS. 30 and 31, the line-of-
<視線検出装置10の作用効果>
次に、視線検出装置10の作用効果について説明する。
<Action and effect of line-of-
Next, the effects of the line-of-
昨今、「拡張現実(AR)」や「仮想現実(VR)」にまつわる技術が注目を集めている。特にAR技術は、娯楽目的のみならず、製造現場や医療現場での作業支援など、幅広い分野での応用が期待できる。 Recently, technologies related to "augmented reality (AR)" and "virtual reality (VR)" are attracting attention. In particular, AR technology is expected to be applied not only for entertainment purposes but also in a wide range of fields such as work support at manufacturing sites and medical sites.
ARを表示する機器として、眼鏡型の映像表示装置が開発されている。中でも、網膜上に直接映像を投影する網膜投影型表示装置は、投影された映像に目の焦点を合わせる必要がないという利点がある。これによって、外界の物体に目の焦点を合わせつつ、常に鮮明なAR映像を観ることができる。さらに、ユーザの視線方向を追尾する視線検出(アイトラッキング)技術を組み合わせることにより、ディスプレイの高画角化や、視線による表示映像の操作が可能となる。 Glasses-type image display devices have been developed as devices for displaying AR. Among them, a retinal projection display device that projects an image directly onto the retina has the advantage that it is not necessary to focus the eye on the projected image. With this, you can always see a clear AR image while keeping your eyes focused on an object in the outside world. Furthermore, by combining eye-tracking technology that tracks the user's line-of-sight direction, it is possible to increase the angle of view of the display and to operate the displayed image by the line of sight.
眼鏡型の映像表示装置では、眼球の傾きを検出し、映像表示装置を装着した人間の視線方向を検出する視線検出装置が使用される。このような視線検出装置として、眼球の傾きを高精度に検出するために、眼球に照射したレーザ光をMEMSミラーにより走査させ、走査される光の眼球による反射光を検出する構成が開示されている。 The glasses-type image display device uses a line-of-sight detection device that detects the inclination of the eyeball and detects the line-of-sight direction of the person wearing the image display device. As such a line-of-sight detection device, in order to detect the inclination of the eyeball with high accuracy, a configuration is disclosed in which the eyeball is scanned with a laser beam irradiated by a MEMS mirror, and the reflected light of the scanned light from the eyeball is detected. there is
しかしながら、開示されている上記構成では、可動部であるMEMSミラーを用いるため、視線検出装置の構成が複雑になるうえに、MEMSミラーを安定して駆動させるための駆動回路等の構成も複雑になる。 However, since the disclosed configuration uses the MEMS mirror, which is a movable part, the configuration of the line-of-sight detection device is complicated, and the configuration of the driving circuit for stably driving the MEMS mirror is also complicated. Become.
本実施形態に係る視線検出装置10(傾き検出装置)は、VCSELアレイ1(複数の発光部)と、VCSELアレイ1により発光され、眼球30により反射されたレーザ光L4(対象物により反射された)を受光し、受光したレーザ光L4の光強度に基づく電気信号Seを出力するフォトダイオード(受光手段)と、を有する。また視線検出装置10は、フォトダイオード4から出力される電気信号Seに基づいて、眼球30の視線方向情報Ed(対象物の傾きの検出結果)を出力する処理部100(出力手段)を有する。
The line-of-sight detection device 10 (tilt detection device) according to the present embodiment includes a VCSEL array 1 (plurality of light emitting units), and a laser beam L4 emitted by the
フォトダイオード4は、眼球30(対象物)の傾きがほぼ同じである状態において、複数のVCSEL素子から発光され、眼球30により反射された複数のレーザ光L4(対象物に反射された複数の光)を受光する。
The
視線検出装置10は、VCSELアレイ1から発光された複数のレーザ光L1に基づいて眼球30の傾きを検出するため、MEMSミラー等の可動部、および該可動部を駆動させるための駆動回路を用いずに眼球30の傾きを検出できる。MEMSミラー等の可動部、および該可動部を駆動させるための駆動回路を用いないことにより、視線検出装置10の構成を簡素化できる。また、視線検出装置10の構成を簡素化することにより、視線検出装置10を小型化し、あるいは視線検出装置10の製作コストを低減することができる。
The line-of-
また、視線検出装置10は、複数のVCSEL素子から発光され、眼球30により反射された複数のレーザ光L4を受光するため、フォトダイオード4からの電気信号Seに基づいて眼球30の動きを追尾できる。視線検出装置10は、PSD等の他の受光手段を用いて眼球30の動きを追尾する場合と比較して、受光手段の構成を簡素化し、且つ受光手段を駆動させる駆動手段の構成を簡素化できる。
In addition, since the line-of-
以上のようにして、本実施形態では、構成が簡素な視線検出装置を提供できる。 As described above, the present embodiment can provide a line-of-sight detection device with a simple configuration.
また、本実施形態では、VCSELアレイ1は、VCSELアレイ1の発光面1Aに沿ったX方向およびY方向(所定方向)に沿って並んで設けられ、VCSELアレイ1における隣り合うVCSEL素子同士のX方向およびY方向に沿った間隔Dは、いずれも等しい。これにより、フォトダイオード4は、複数のVCSEL素子から発光され、眼球30により反射された複数のレーザ光L4を受光できる。この結果、視線検出装置10は上述した効果を得ることができる。
In the present embodiment, the
また、視線検出装置10は、VCSEL素子11から16がY方向およびZ方向(異なる2つの方向)それぞれに沿って並んで設けられているため、Y軸周りおよびZ軸周りの眼球30の動きを追尾できる。これにより、視線検出装置10は、眼球30の傾き検出範囲を拡大し、視線検出装置10による視線方向の検出範囲を拡大することができる。
In addition, since the
また、本実施形態では、VCSELアレイ1における複数のVCSEL素子から発光され、眼球30によって反射された複数のレーザ光L4同士は、少なくとも一部がフォトダイオード4の受光面41上において重なる。これにより、複数のレーザ光L4同士を受光面41上に密な間隔で入射させることができるため、フォトダイオード4は、複数のVCSEL素子から発光され、眼球30により反射された複数のレーザ光L4を受光しやすくなる。
Further, in this embodiment, at least a portion of the plurality of laser beams L4 emitted from the plurality of VCSEL elements in the
また、本実施形態では、VCSELアレイ1における隣り合うVCSEL素子同士のY方向およびZ方向に沿った間隔Dの長さは、フォトダイオード4の受光面41のY方向およびZ方向に沿った長さである幅wよりも短い。これにより、複数のレーザ光L4同士を受光面41上に密な間隔で入射させることができるため、フォトダイオード4は、複数のVCSEL素子から発光され、眼球30により反射された複数のレーザ光L4を受光しやすくなる。
In this embodiment, the length of the interval D along the Y and Z directions between adjacent VCSEL elements in the
また、本実施形態では、眼球30によって反射されたレーザ光L4は、フォトダイオード4に近づくにつれて広がる。これにより、レーザ光L4のスポットサイズを大きくできるため、フォトダイオード4は、複数のVCSEL素子から発光され、眼球30により反射された複数のレーザ光L4を受光しやすくなる。また、レーザ光L4のスポットサイズを大きくできるため、レーザ光L4の少なくとも一部を受光面41に入射させやすくなり、視線検出装置10は、視線方向検出の安定性を向上させることができる。
In addition, in this embodiment, the laser light L4 reflected by the
なお、本実施形態では、凹面ミラー3を用いて集束されるレーザ光L3が眼球30に照射される構成を例示したが、これに限定されるものではない。図32に示すように、視線検出装置10は、凹面ミラーを有さずに、レンズ2により集束されるレーザ光L2が眼球30に入射するように構成されてもよい。また、図33に示すように、視線検出装置10は、凹面ミラーおよびレンズを有さずに、VCSELアレイ1から発光されたレーザ光L1が直接、眼球30に入射するように構成されてもよい。例えば、図32は、凹面ミラーを有さずに、レンズ2により集束されるレーザ光L2が眼球30に入射するように構成される場合を示す。VCSELアレイ1から出射されるレーザ光を、凹面ミラーを介さずに眼球30に入射する構成となるため、光学素子の部品点数を減らすことができ、製作コストを低減することができる。一方で、凹面ミラーを有することは、フォトダイオード4を処理部の近傍に設置することが可能であるため、フォトダイオード4の出力信号のノイズを低減できる点で望ましい。
In this embodiment, the
[第2実施形態]
次に、第2実施形態に係る視線検出装置10aについて説明する。なお、第1実施形態と同一の構成部には、同一の符号を付し、重複する説明を適宜省略する。この点は、以降に示す他の実施形態の説明においても同様とする。
[Second embodiment]
Next, the line-of-
<処理部100aの機能構成例>
図34は、本実施形態に係る視線検出装置10aが有する処理部100aの機能構成の一例を示すブロック図である。図34に示すように、処理部100aは、符号化部120と、光源変調部121と、内積演算部122と、第2蓄積部123と、を有する。
<Functional Configuration Example of
FIG. 34 is a block diagram showing an example of the functional configuration of the
視線検出装置10aは、光源変調部121により、直交性を有する符号によって時間変調されたレーザ光Lを発するようにVCSELアレイ1による発光を制御する。また、視線検出装置10aは、処理部100aにより、フォトダイオード4から出力される電気信号Seに基づいて、複数の時間変調されたレーザ光L4を分離検出する。これにより、本実施形態では、処理部100aの処理時間および処理負荷を低減する。また、本実施形態では、眼球30に入射させるレーザ光L4の光強度が小さい場合にも背景光の影響を除去して視線検出精度を高く確保する。
The line-of-
処理部100aは、CPU101がROM102に格納された所定のプログラムを実行すること等により、符号化部120および内積演算部122の各機能を実現し、光源駆動回路105等により光源変調部121の機能を実現する。また処理部100aは、RAM103等により第2蓄積部123の機能を実現する。
The
符号化部120は、複数の符号化データを生成し、光源変調部121を介してVCSELアレイ1のVCSEL素子のそれぞれに符号化データを割り当てる。また、符号化部120は、内積演算部122による内積演算のために、VCSEL素子に割り当てた符号化データと同じデータを、参照データRfとして内積演算部122に出力する。
The
符号化データは、直交性を有する符号を含む。この符号は、例えばアダマール符号である。アダマール符号とは、信号の誤り検出訂正に使われる符号体系をいう。また、符号化データは、VCSELアレイ1におけるVCSEL素子の位置に応じて異なるものが作成され、SSD104等に記憶される。符号化部120は、SSD104等を参照してVCSEL素子の位置に応じて取得した符号化データを、対応するVCSEL素子に割り当てることができる。
The encoded data includes codes having orthogonality. This code is, for example, a Hadamard code. A Hadamard code is a code system used for error detection and correction of signals. Different encoded data are created according to the positions of the VCSEL elements in the
光源変調部121は、直交性を有する符号によって時間変調されたレーザ光L1を発するように、VCSELアレイ1による発光を制御する制御部の一例である。具体的には、光源変調部121は、符号化部120から入力した符号化データに基づいて電流変調された駆動信号Drを各VCSEL素子に出力することにより、レーザ光L1を時間変調しつつ、全てのVCSEL素子を並行して発光させる。なお、光源変調部121は1つに限らず、処理部100aは、VCSELアレイ1に含まれるVCSEL素子の個数分の光源変調部121を有してもよい。
The light
内積演算部122は、第1蓄積部116を参照して、第1蓄積部116に蓄積された所定の符号周期の1周期分のデジタル電圧データDaを取得し、このデジタル電圧データDaと、符号化部120から入力した参照データRfと、の内積演算を実行する。内積演算部122は、符号化に用いた全ての符号化データを用いて内積演算を行い、内積演算結果を第2蓄積部123に蓄積させる。内積演算部122は、全ての符号化データを用いて内積演算を行うことにより、符号化データの直交性を利用して、各VCSEL素子に応じたデジタル電圧データDaを分離検出できる。
The inner
<処理部100aによる処理例>
図35は、処理部100aによる処理の一例を示すフローチャートである。処理部100aは、例えばユーザによる開始操作入力信号に応じて、図35の処理を開始する。
<Example of Processing by
FIG. 35 is a flowchart showing an example of processing by the
まず、ステップS331において、処理部100aは、符号化部120により、複数の符号化データを生成し、光源変調部121を介してVCSELアレイ1のVCSEL素子それぞれに符号化データを割り当てる。また符号化部120は、内積演算部122に参照データRfを出力する。
First, in step S331, the
続いて、ステップS332において、処理部100aは、光源変調部121により、符号化データに基づいて時間変調した駆動信号DrをVCSELアレイ1へ出力する。駆動信号Drが印加されたVCSEL素子は、駆動信号Drに応じてレーザ光L1を発光する。レーザ光L1は、レンズ2および凹面ミラー3を経た後、眼球30により反射されてレーザ光L4としてフォトダイオード4に入射する。フォトダイオード4は、受光したレーザ光L4の光強度に応じた電気信号Seを処理部100aに出力する。
Subsequently, in step S332, the
続いて、ステップS333において、処理部100aは、フォトダイオード4からの電気信号SeをI/V変換部114によりアナログ電圧信号に変換し、その後、A/D変換部115によりデジタル電圧データDaに変換する。処理部100aは、第1蓄積部116により、発光したVCSEL素子に対応付けてデジタル電圧データDaを符号周期1周期分、蓄積する。
Subsequently, in step S333, the
続いて、ステップS334において、処理部100aは、内積演算部122により、第1蓄積部116を参照して、第1蓄積部116に蓄積された所定の符号周期の1周期分のデジタル電圧データDaを取得し、このデジタル電圧データDaと、符号化部120から入力した参照データRfと、の内積演算を実行する。内積演算部122は、符号化に用いた全ての符号化データを用いて内積演算を行い、内積演算結果を第2蓄積部123に蓄積させる。
Subsequently, in step S334, the
続いて、ステップS335において、処理部100aは、推定部118により、予めあらかじめ作成された推定モデルを用いて、第2蓄積部123に蓄積されたVCSEL素子11から16に対応する6つのデジタル電圧データDaに基づき、視線方向情報Edを算出する。
Subsequently, in step S335, the
続いて、ステップS336において、処理部100aは、推定部118により取得された視線方向情報Edを、出力部119を介して外部装置に出力する。
Subsequently, in step S<b>336 , the
続いて、ステップS337において、処理部100aは、処理を終了するか否かを判定する。例えば、処理部100aは、ユーザによる終了操作入力信号等に応じて終了するか否かを判定できる。
Subsequently, in step S337, the
ステップS337において、終了すると判定された場合には(ステップS337、Yes)、処理部100aは処理を終了する。一方、終了しないと判定された場合には(ステップS337、No)、処理部100aは、ステップS331以降の処理を再度行う。
In step S337, when it is determined to end (step S337, Yes), the
このようにして、処理部100aは、眼球30の傾きに基づく視線方向情報Edを出力できる。
In this manner, the
<視線検出装置10aの作用効果>
以上説明したように、視線検出装置10aは、直交性を有する符号によって時間変調されたレーザ光L1を発するようにVCSELアレイ1による発光を制御する光源変調部121(制御部)を有する。処理部100aは、フォトダイオード4から出力される電気信号Seに基づいて、複数の時間変調されたレーザ光L4を分離検出する。直交性を有する符号は、例えばアダマール符号である。
<Action and effect of line-of-
As described above, the line-of-
視線検出装置10aは、レーザ光L4を分離検出することにより、処理部100aの処理時間および処理負荷を低減できる。また、視線検出装置10aは、眼球30に入射させるレーザ光L4の光強度が小さい場合にも、レーザ光L4を分離検出することによって背景光の影響を除去できるため、視線検出精度を高く確保することができる。
The line-of-
上記以外の効果は、第1実施形態と同様である。 Effects other than the above are the same as those of the first embodiment.
[第3実施形態]
次に、第3実施形態に係る視線検出装置10bについて説明する。
[Third Embodiment]
Next, a line-of-
<処理部100bの機能構成例>
図36は、本実施形態に係る視線検出装置10bが有する処理部100bの機能構成の一例を示すブロック図である。図36に示すように、処理部100aは、選択部111bと、切替部113bを有する。
<Functional Configuration Example of
FIG. 36 is a block diagram showing an example of the functional configuration of the
本実施形態では、VCSELアレイ1に含まれる複数のVCSEL素子は、複数のグループにグループ化され、光源変調部121は、複数のグループのVCSEL素子がグループごとに発光するように、VCSELアレイ1による発光を制御する。これにより、視線検出装置10bは、並行して発光させるVCSEL素子の数を抑え、眼球30に入射するレーザ光Lの光量を抑制する。
In this embodiment, a plurality of VCSEL elements included in the
ここで、グループは、VCSELアレイ1に含まれる複数のVCSEL素子を集団にまとめたものである。例えば、VCSEL素子11から16を2つのグループにグループ化する場合には、1つ目のグループは、VCSEL素子11、13および15を含み、2つ目のグループは、VCSEL素子12、14および16を含む。また、VCSEL素子11から16を3つのグループにグループ化する場合には、3つのグループは、それぞれ2つのVCSEL素子を含む。なお、このグループを構成するVCSEL素子は1つ以上5つ以下であればよい。
Here, a group is a collection of a plurality of VCSEL elements included in the
符号化データは、各グループに含まれるVCSEL素子の個数分、用意されればよい。異なるグループに属するVCSEL素子同士は、分離検出しなくてもよいため、同じ符号化データが割り当てられてもよい。 Encoded data may be prepared for the number of VCSEL elements included in each group. Since VCSEL elements belonging to different groups do not need to be detected separately, they may be assigned the same encoded data.
視線検出装置10bにおけるグループの数、およびVCSEL素子11から16それぞれの所属グループは、予め定められている。
The number of groups in the line-of-
選択部111bは、VCSEL素子11から16の各グループの中から、発光させるグループを選択し、選択したグループを示す情報を切替部113bに出力する。
The
切替部113bは、選択されたグループに光源変調部121から駆動信号Drを出力するように、光源変調部121と各VCSEL素子との接続を切り替える。切替部113bは、第1蓄積部116にデジタル電圧データDaが蓄積された後、まだ発光を終えていない別のグループのVCSEL素子に駆動信号Drを出力するように切り替えることができる。
The
<処理部100bによる処理例>
図37は、処理部100bによる処理の一例を示すフローチャートである。処理部100bは、例えばユーザによる開始操作入力信号に応じて、図37の処理を開始する。
<Example of Processing by
FIG. 37 is a flowchart showing an example of processing by the
まず、ステップS351において、処理部100bは、選択部111bにより、VCSEL素子の各グループのうち、どのグループに属するVCSEL素子を発光させるかを選択し、選択されたグループを示す情報を切替部113bに出力する。
First, in step S351, the
続いて、ステップS352において、処理部100bは、符号化部120により、複数の符号化データを生成し、光源変調部121を介してVCSELアレイ1のVCSEL素子それぞれに符号化データを割り当てると共に、内積演算部122に参照データRfを出力する。
Subsequently, in step S352, the
続いて、ステップS353において、処理部100bは、光源変調部121により、符号化データに基づいて時間変調した駆動信号DrをVCSELアレイ1へ出力する。駆動信号Drが印加されたVCSEL素子は、駆動信号Drに応じてレーザ光L1を発光する。レーザ光L1は、レンズ2および凹面ミラー3を経た後、眼球30により反射されてレーザ光L4としてフォトダイオード4に入射する。フォトダイオード4は、受光したレーザ光L4の光強度に応じた電気信号Seを処理部100bに出力する。
Subsequently, in step S<b>353 , the
続いて、ステップS354において、処理部100bは、フォトダイオード4からの電気信号SeをI/V変換部114によりアナログ電圧信号に変換し、その後、A/D変換部115によりデジタル電圧データDaに変換する。処理部100aは、第1蓄積部116により、発光したVCSEL素子に対応付けて、デジタル電圧データDaを符号周期1周期分、蓄積する。
Subsequently, in step S354, the
続いて、ステップS355において、処理部100bは、内積演算部122により、第1蓄積部116を参照して、第1蓄積部116に蓄積された所定の符号周期の1周期分のデジタル電圧データDaを取得し、このデジタル電圧データDaと、符号化部120から入力した参照データRfと、の内積演算を実行する。内積演算部122は、符号化に用いた全ての符号化データを用いて内積演算を行い、内積演算結果を第2蓄積部123に蓄積させる。
Subsequently, in step S355, the
続いて、ステップS356において、処理部100bは、判定部117により、VCSEL素子11から16の全てを発光させたか否かを判定する。
Subsequently, in step S356, the
ステップS356において、全てのVCSEL素子を発光させていないと判定された場合には(ステップS356、No)には、処理部100bは、ステップS351以降の処理を再度行う。この場合には、処理部100bは、まだ発光していないVCSEL素子が属するグループを選択部111bにより選択し、該グループに属するVCSEL素子を発光させる。
When it is determined in step S356 that all the VCSEL elements are not caused to emit light (step S356, No), the
一方、ステップS356において、全てのVCSEL素子を発光させたと判定された場合(ステップS356、YES)には、ステップS357において、処理部100bは、推定部118により、予めあらかじめ作成された推定モデルを用いて、第2蓄積部123に蓄積されたVCSEL素子11から16に対応する6つのデジタル電圧データDaに基づき、視線方向情報Edを算出する。
On the other hand, if it is determined in step S356 that all the VCSEL elements are caused to emit light (step S356, YES), in step S357 the
続いて、ステップS358において、処理部100bは、推定部118により取得された視線方向情報Edを、出力部119を介して外部装置に出力する。
Subsequently, in step S<b>358 , the
続いて、ステップS359において、処理部100bは、処理を終了するか否かを判定する。例えば、処理部100bは、ユーザによる終了操作入力信号等に応じて終了するか否かを判定できる。
Subsequently, in step S359, the
ステップS359において、終了すると判定された場合には(ステップS359、Yes)、処理部100bは処理を終了する。一方、終了しないと判定された場合には(ステップS359、No)、処理部100bは、ステップS351以降の処理を再度行う。
In step S359, when it is determined to end (step S359, Yes), the
このようにして、処理部100bは、眼球30の傾きに基づく視線方向情報Edを出力できる。
In this manner, the
<視線検出装置10bの作用効果>
以上説明したように、本実施形態では、VCSELアレイ1に含まれる複数のVCSEL素子は、複数のグループにグループ化され、光源変調部121は、複数のグループのVCSEL素子がグループごとに発光するように、VCSELアレイ1による発光を制御する。
<Action and effect of line-of-
As described above, in the present embodiment, a plurality of VCSEL elements included in the
例えば、発光させるVCSEL素子の数が多いと、VCSELアレイ1から眼球30に入射するレーザ光L1の光量が増加し、安全性の観点から望ましくない場合がある。視線検出装置10bは、VCSELアレイ1に含まれる複数のVCSEL素子をグループごとに発光させるため、並行して発光させるVCSEL素子の数を抑え、眼球30に入射するレーザ光Lの光量を抑制できる。これにより、本実施形態では、安全性に優れた視線検出装置10bを提供できる。
For example, if the number of VCSEL elements to emit light is large, the amount of laser light L1 incident on the
上記以外の作用効果は、第1および第2実施形態と同様である。 Functions and effects other than the above are the same as those of the first and second embodiments.
[第4実施形態]
次に第4実施形態に係る網膜投影表示装置60について説明する。図38は、網膜投影表示装置60の構成の一例を説明する図である。
[Fourth Embodiment]
Next, a retinal
図38に示すように、網膜投影表示装置60は、RGB(Red、Green、Blue)レーザ光源61と、走査ミラー62と、平面ミラー63と、ハーフミラー64と、画像生成部65と、視線検出装置10と、を有する。
As shown in FIG. 38, the retinal
RGBレーザ光源61は、RGB3色のレーザ光を時間的に変調して出力する。走査ミラー62は、RGBレーザ光源61からの光を二次元的に走査する。走査ミラー62は、MEMSミラー等である。但し、これに限定されるものではなく、ポリゴンミラー、ガルバノミラー等、光を走査する反射部を有するものであれば良い。小型化・軽量化の点でMEMSミラーが有利となる。なお、MEMSミラーの駆動方式は、静電式、圧電式、電磁式等の何れであっても良い。
The RGB
平面ミラー63は、ハーフミラー64に向けて走査ミラー62による走査光を反射する。ハーフミラー64は、入射する光の一部を透過し、一部を眼球30に向けて反射する。ハーフミラー64は、凹型の曲面形状を有しており、反射した光を眼球30の角膜31の近傍に集束させ、網膜33の位置で結像させる。これにより、走査光で形成される画像を網膜33に投影する。図中破線で示されている光61aは、網膜33上に画像を形成する光を表している。なお、ハーフミラー64は、必ずしも反射光と透過光の光量が1対1にならなくてもよい。
The
視線検出装置10は、眼球30の傾き、つまり視線方向のフィードバック信号を画像生成部65に送信する。
The line-of-
画像生成部65は、走査ミラー62の振れ角制御機能と、RGBレーザ光源61の発光制御機能とを有している。また、画像生成部65は、視線検出装置10から視線方向のフィードバック信号を受信する。視線方向のフィードバック信号は、視線方向情報Edに対応する。視線検出装置10により検出された視線方向に応じて、走査ミラー62の振れ角と、RGBレーザ光源61の発光を制御し、画像の投影角度、又は画像内容を書き換える。これにより、視線方向の変化に追尾(アイトラッキング)した画像を、網膜33上に形成することができる。
The image generator 65 has a deflection angle control function of the
なお、本実施形態では、網膜投影表示装置60をウェアラブル端末であるヘッドマウントディスプレイとした一例を示したが、網膜投影表示装置60は、人の頭部に直接装着させるだけでなく、固定部等の部材を介して間接的に人の頭部に装着させるもの(頭部装着型表示装置)であってもよい。また、左右眼用に一対の網膜投影表示装置60を設けた両眼式の網膜投影表示装置としてもよい。
In this embodiment, an example of the retinal
また、本実施形態では、網膜投影表示装置60が視線検出装置10を備える構成を例示したが、網膜投影表示装置60は視線検出装置10aまたは10bを備えてもよい。
Further, in this embodiment, the retinal
以上、本発明の実施形態の例について記述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 Although examples of embodiments of the present invention have been described above, the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the invention described in the scope of the claims. Transformation and change are possible.
例えば、視線検出装置10は、仮想現実(VR)表示装置に利用することもできる。人間の視野は、高解像度で認識できる中心視野と、低解像度で認識する周辺視野に分類される。この性質を利用して、仮想現実画像の中心部を高解像度にしながら、周辺部を低解像度にすることで、仮想現実画像の描画負荷を軽減させる技術を中心窩レンダリングという。特に、視線検出装置と組み合わせることで、使用者の視線に合わせて高解像度の領域を動的に変化させることが可能であり、使用者の視線が動いたとしても、解像度の差による違和感なく仮想現実画像を認識できる。したがって視線検出装置10を有する仮想現実表示装置は、簡素な構成で中心窩レンダリング技術を実装できる。それによって、軽量かつ低消費電力な仮想現実表示装置を実現でき、使用者が負荷を感じることなく長時間にわたって仮想現実画像を楽しむことができる。
For example, the line-of-
対象物は、眼球30に限定されるものではなく、曲率を有する三次元物体である対象物であれば、本実施形態を適用可能である。例えば上述した実施形態では、眼球30の傾きを検出する装置を光学装置の一例として示したが、これに限定されるものではない。例えばロボットハンド等に光学装置を実装し、対象物の一例としてのロボットハンドの傾きを検出してもよい。
The target object is not limited to the
また 眼球の傾きや瞳孔位置(角膜)の検出する機能を有する検眼装置にも採用する事ができる。検眼装置とは、視力検査、眼屈折力検査、眼圧検査、眼軸長検査など種々の検査を行う事が出来る装置を指す。検眼装置は、眼球に非接触で検査可能な装置であって、被験者の顔を支持する支持部と、検眼窓と、検眼に際し被検者の眼球の向き(視線の向き)を一定にする表示を行う表示部と、制御部と、測定部とを有している。測定部の測定精度を上げるために眼球(視線)を動かさず一点を見つめる事が求められ、被検者は支持部に顔を固定し、検眼窓から表示部に表示される表示物を凝視する。このとき、眼球の傾き位置を検出する際に、本実施形態の眼球の傾き位置検知装置が利用可能である。眼球の傾き位置検知装置は測定の妨げにならないよう、測定部の側方に配置される。眼球の傾き位置検知装置で得られた眼球の傾き位置(視線)情報は、制御部にフィードバックする事が可能で、眼球の傾き位置情報に応じた測定をする事ができる。 It can also be applied to an optometry apparatus having a function of detecting the tilt of the eyeball and the position of the pupil (cornea). The optometry device refers to a device capable of performing various tests such as visual acuity test, eye refractive power test, intraocular pressure test, eye axial length test, and the like. The optometry apparatus is an apparatus capable of examining the eyeballs without contact, and includes a support for supporting the subject's face, an optometry window, and a display that keeps the direction of the subject's eyeballs (direction of the line of sight) constant during the optometry. It has a display unit for performing measurement, a control unit, and a measurement unit. In order to improve the measurement accuracy of the measurement unit, it is required to gaze at one point without moving the eyeball (line of sight). . At this time, the eyeball tilt position detection device of the present embodiment can be used when detecting the eyeball tilt position. The eyeball tilt position detection device is arranged on the side of the measuring section so as not to interfere with the measurement. Eyeball tilt position (line of sight) information obtained by the eyeball tilt position detection device can be fed back to the control unit, and measurement can be performed according to the eyeball tilt position information.
また、視線検出装置10は、教育環境で使用することもできる。例えば、筆記試験中のユーザの視線情報から、ユーザがどの試験問題に時間を費やしたかを知ることができる。その情報を基に、教師はユーザの試験結果に対して適切なフィードバックを実施することが可能となる。本発明によって簡素な構成の視線検出装置を提供することで、ユーザの負荷を軽減できる。また、ウェアラブル形態での視線検出が可能であるから、紙媒体の試験用紙、教材に対して上記のような効果を得ることができる。
The line-of-
また、視線検出装置10は、眼球の傾きや瞳孔位置(角膜)、または視線方向に関する情報に基づきユーザの状態を推定するユーザ状態推定装置にも採用することができる。ユーザ状態推定装置としては、例えば、ユーザの精神的疲労度を推定する疲労度推定装置が挙げられる。本実施形態の構成としては、視線検出装置10と、視線検出装置により検出された視線方向の情報に基づき精神的疲労度を推定する疲労度推定部と、を有する。疲労度推定部におけるユーザの精神的疲労度の推定方法としては、例えば、非特許文献(Tseng, V.WS., Valliappan, N., Ramachandran, V. et al. Digital biomarker of mental fatigue. npj Digit. Med. 4, 47 (2021))に記載されている方法が挙げられる。この方法によると、モニタに表示されるオブジェクトの軌跡を目で追いかけるタスクを数分行い、その時の視線の動きを測定することで、精神的疲労度を推定することが可能である。視線検出装置10を有する疲労度推定装置は、簡素な構成でユーザの精神的疲労度を推定することができる。また、本実施に係る疲労度推定装置は、推定された精神的疲労度に基づき、ユーザに例えば休憩を促す情報を通知する通知手段を有していてもよい。
The line-of-
また、その他のユーザ状態推定装置としては、例えば、ユーザの注意度を推定する注意度推定装置が挙げられる。本実施形態の構成としては、視線検出装置10と、視線検出装置により検出された視線方向の情報に基づきユーザの注意度を推定する注意度推定部と、を有する。注意度推定部におけるユーザの注意度の推定方法としては、例えば、マイクロサッカードと呼ばれる眼球の微振動を検出し、その発生頻度に基づいてユーザの注度を推定する方法が挙げられる。(非特許文献Pastukhov A, Braun J. Rare but precious: microsaccades are highly informative about attentional allocation. Vision Res. 2010 Jun 11;50(12):1173-84.)によれば、マイクロサッカードは、固視微動(人がある対象物を注視しているときに生じる、振幅±3.0度程度の眼球の微振動)の中でも比較的振幅の大きく、かつ高速な運動であり、人の注意力と相関があることが知られている。視線検出装置10は、眼球の傾きを高速かつ高精度に測定することができるため、従来の視線検出装置に比べ、マイクロサッカードを高精度に検出することができる。
従って、視線検出装置10を有する注意度推定装置は、簡素な構成でユーザの注意度を推定することができる。
Other user state estimation devices include, for example, attention level estimation devices that estimate a user's level of attention. The configuration of this embodiment includes a line-of-
Therefore, the attention level estimation device having the line-of-
また本実施形態に係る注度推定装置は、運転支援システムに採用することができる。本実施形態の運転システムの構成としては、上述の注意度推定装置と、注意度推定装置により推定された注意度に基づいて移動体の動作を制御する動作制御部と、を有する。例えば、注意度推定装置により推定されたユーザの注意度が基準より下回る場合、動作制御部は手動運転モードから自動運転モードとするよう移動体、例えば車両の動作モードを制御する。視線検出装置10を有する運転支援システムは簡素な構成で運転支援を行うことができる。
Further, the injection degree estimation device according to the present embodiment can be employed in a driving support system. The configuration of the driving system of this embodiment includes the attention level estimation device described above and an operation control section that controls the movement of the moving object based on the attention level estimated by the attention level estimation device. For example, when the user's attention level estimated by the attention level estimation device is lower than a reference, the operation control unit controls the operation mode of the moving object, for example, the vehicle, so as to switch from the manual operation mode to the automatic operation mode. A driving assistance system having the line-of-
また、本実施形態に係る注度推定装置は、教材や取扱説明書等の出版物の評価に使用することもできる。例えば、注視度推定装置により、ユーザが教材のどの箇所に注意を払い、集中しているかを評価することができる。その結果をもとに教材の内容やレイアウトを改善することができる。本発明によって簡素な構成の視線検出装置を提供することで、ユーザの負荷を軽減できる。また、ウェアラブル形態での視線検出が可能であるから、紙媒体の教材に対して上記のような効果を得ることができる。 In addition, the injection degree estimation device according to the present embodiment can also be used to evaluate publications such as educational materials and instruction manuals. For example, it is possible to evaluate which part of the teaching material the user pays attention to and concentrates on using the gaze estimation device. The results can be used to improve the content and layout of teaching materials. By providing a line-of-sight detection device with a simple configuration according to the present invention, the load on the user can be reduced. In addition, since line-of-sight detection is possible in a wearable form, it is possible to obtain the above-described effects with respect to paper-medium teaching materials.
また、これらの実施形態は、視線検出装置10で検出された眼球の傾きや瞳孔位置(角膜)、または視線方向に関する一つの情報を、2つ以上の画像生成部、推定部で利用する構成であってもよい。このような構成とすることで、簡素な構成、かつ小型化を実現することができる。
例えば、視線検出装置10により検出された眼球の傾きや瞳孔位置(角膜)、または視線方向に関する情報を、網膜投影表示装置の画像生成部にフィードバック信号として利用しつつ、疲労度推定装置の疲労度推定部での疲労度推定に利用してもよい。
このとき、画像生成部と疲労度推定部は同一の情報処理部に設けられてもよく、別で設けられてもよい。
Further, in these embodiments, one piece of information regarding the tilt of the eyeball, the pupil position (cornea), or the line-of-sight direction detected by the line-of-
For example, while using information about the eyeball tilt, pupil position (cornea), or line-of-sight direction detected by the line-of-
At this time, the image generation unit and the fatigue level estimation unit may be provided in the same information processing unit, or may be provided separately.
また、実施形態は、立体物の傾き検出方法を含む。例えば、立体物の傾き検出方法は、傾き検出装置による傾き検出方法であって、前記傾き検出装置が、複数の発光部により、発光し、受光手段により、前記複数の発光部により発光され、対象物により反射された光を受光し、受光した光の光強度に基づく電気信号を出力し、出力手段により、前記受光手段から出力される前記電気信号に基づいて、前記対象物の傾きの検出結果を出力し、前記受光手段は、前記複数の発光部から並行して発光され、前記対象物により反射された複数の光を受光する。このような立体物の傾き検出方法により、上述した視線検出装置と同様の効果を得ることができる。 Also, the embodiment includes a tilt detection method for a three-dimensional object. For example, the tilt detection method of a three-dimensional object is a tilt detection method using a tilt detection device, wherein the tilt detection device emits light from a plurality of light emitting units, light is emitted from the plurality of light emitting units by light receiving means, and the object light reflected by an object is received, an electric signal based on the light intensity of the received light is output, and an output means detects a tilt of the object based on the electric signal output from the light receiving means. and the light-receiving means receives a plurality of lights emitted in parallel from the plurality of light-emitting portions and reflected by the object. Such a three-dimensional object tilt detection method can provide the same effect as the line-of-sight detection device described above.
また、実施形態は、視線検出方法を含む。例えば視線検出方法は、視線検出装置による傾き検出方法であって、前記視線検出装置が、複数の発光部により、発光し、受光手段により、前記複数の発光部により発光され、対象物によって反射された光を受光し、受光した光の光強度に基づく電気信号を出力し、出力手段により、前記受光手段から出力される前記電気信号に基づいて、前記対象物の傾きの検出結果を出力し、前記受光手段は、前記複数の発光部から発光され、前記対象物により反射された複数の光を受光する。このような視線検出方法により、上述した視線検出装置と同様の効果を得ることができる。 Embodiments also include gaze detection methods. For example, the line-of-sight detection method is a tilt detection method using a line-of-sight detection device, wherein the line-of-sight detection device emits light from a plurality of light emitting units, emits light from the plurality of light emitting units by light receiving means, and is reflected by an object. outputting an electric signal based on the light intensity of the received light, outputting a detection result of the inclination of the object based on the electric signal output from the light receiving means, The light-receiving means receives a plurality of lights emitted from the plurality of light-emitting portions and reflected by the object. With such a line-of-sight detection method, the same effects as those of the line-of-sight detection device described above can be obtained.
また、上記で用いた序数、数量等の数字は、全て本発明の技術を具体的に説明するために例示するものであり、本発明は例示された数字に制限されない。また、構成要素間の接続関係は、本発明の技術を具体的に説明するために例示するものであり、本発明の機能を実現する接続関係はこれに限定されない。 In addition, all numbers such as ordinal numbers and numbers used above are examples for specifically describing the technology of the present invention, and the present invention is not limited to the numbers shown. Moreover, the connection relationship between the components is an example for specifically describing the technology of the present invention, and the connection relationship for realizing the function of the present invention is not limited to this.
また上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。 Also, each function of the embodiments described above can be realized by one or more processing circuits. Here, the "processing circuit" in this specification means a processor programmed by software to perform each function, such as a processor implemented by an electronic circuit, or a processor designed to perform each function described above. devices such as ASICs (Application Specific Integrated Circuits), DSPs (digital signal processors), FPGAs (field programmable gate arrays) and conventional circuit modules.
本発明の態様は、例えば、以下のとおりである。
<1> 複数の発光部と、前記複数の発光部により発光され、対象物により反射された光を受光し、受光した光の光強度に基づく電気信号を出力する受光手段と、前記受光手段から出力される前記電気信号に基づいて、前記対象物の傾きの検出結果を出力する出力手段と、を有し、前記受光手段は、前記対象物の傾きがほぼ同じである状態において、前記複数の発光部から発光され、前記対象物により反射された複数の光を受光する、傾き検出装置である。
<2> 前記複数の発光部は、複数の光を並行して発光する、前記<1>に記載の傾き検出装置である。
<3> 前記複数の発光部は、前記複数の発光部の発光面に沿った所定方向に沿って並んで設けられ、前記複数の発光部における隣り合う前記発光部同士の前記所定方向に沿った間隔は、いずれも等しい、前記<1>または前記<2>に記載の傾き検出装置である。
<4> 前記複数の発光部は、前記複数の発光部の発光面に沿った異なる2つの方向それぞれに沿って並んで設けられている、前記<1>から前記<3>のいずれか1つに記載の傾き検出装置である。
<5> 前記受光手段の受光面の幅をwとし、前記受光手段の受光面での隣接する光のビーム中心間距離をdとし、前記受光手段の受光面での光のビーム半径をhとした場合に、次式を満足する
|h-w/2|≦d≦h+w/2
前記<1>から前記<4>のいずれか1つに記載の傾き検出装置である。
<6> 前記複数の発光部は、前記複数の発光部の発光面に沿った所定方向に沿って並んで設けられ、前記複数の発光部における隣り合う前記発光部同士の前記所定方向に沿った間隔の長さは、前記受光手段の受光面の前記所定方向に沿った長さよりも短い前記<1>から前記<5>のいずれか1つに記載の傾き検出装置である。
<7> 前記対象物によって反射された光は、前記受光手段に近づくにつれて広がる、前記<1>から前記<6>のいずれか1つに記載の傾き検出装置である。
<8> 前記対象物によって反射された光のビーム直径は、前記受光手段の受光面上において、受光面の所定方向に沿った長さよりも長い、前記<1>から前記<7>のいずれか1つに記載の傾き検出装置である。
<9> 直交性を有する符号によって時間変調された光を発するように前記複数の発光部による発光を制御する制御部を有し、前記出力手段は、前記受光手段から出力される前記電気信号に基づいて、複数の前記時間変調された光を分離検出する、前記<1>から前記<8>のいずれか1つに記載の傾き検出装置である。
<10> 前記符号はアダマール符号である、前記<9>に記載の傾き検出装置である。
<11> 前記複数の発光部は、複数のグループにグループ化され、前記制御部は、前記複数のグループの前記発光部がグループごとに発光するように、前記複数の発光部による発光を制御する、前記<9>または前記<10>に記載の傾き検出装置である。
<12> 前記<1>から前記<11>の何れか1つに記載の傾き検出装置を有し、前記傾き検出装置による眼球の傾きの検出結果に基づいて視線を検出する、視線検出装置である。
<13> 前記<12>に記載の視線検出装置を有する網膜投影表示装置である。
<14> 前記<12>に記載の視線検出装置を有する頭部装着型表示装置である。
<15> 前記<12>に記載の視線検出装置を有する検眼装置である。
<16> 前記<12>に記載の視線検出装置を有する仮想現実表示装置である。
<17> 前記<12>に記載の視線検出装置と、前記視線検出装置により検出された視線方向の情報に基づき、前記ユーザの状態を推定する状態推定部と、を有するユーザ状態推定装置である。
<18> 前記推定部は、前記ユーザの眼球の微振動の発生頻度に基づいて前記ユーザの状態を推定する前記<17>に記載のユーザ状態推定装置である。
<19> 前記ユーザの状態は、前記ユーザの疲労度または注意度のうち少なくとも1つを含む前記<17>または前記<18>に記載のユーザ状態推定装置である。
<20> 前記<17>から前記<19>の何れか1つに記載のユーザ状態推定装置と、 前記ユーザ状態推定装置により推定された前記状態に基づき、前記ユーザの運転する移動体の動作を制御する動作制御部と、を有する運転支援システムである。
<21> 傾き検出装置による傾き検出方法であって、前記傾き検出装置が、複数の発光部により発光し、受光手段により、前記複数の発光部により発光され、対象物により反射された光を受光し、受光した光の光強度に基づく電気信号を出力し、出力手段により、前記受光手段から出力される前記電気信号に基づいて、前記対象物の傾きの検出結果を出力し、前記受光手段は、前記対象物の傾きがほぼ同じである状態において、前記複数の発光部から発光され、前記対象物により反射された複数の光を受光する、立体物の傾き検出方法である。
<22> 視線検出装置による視線検出方法であって、前記視線検出装置が、複数の発光部により発光し、受光手段により、前記複数の発光部により発光され、対象物によって反射された光を受光し、受光した光の光強度に基づく電気信号を出力し、出力手段により、前記受光手段から出力される前記電気信号に基づいて、前記対象物の傾きの検出結果を出力し、前記受光手段は、前記対象物の傾きがほぼ同じである状態において、前記複数の発光部から発光され、前記対象物により反射された複数の光を受光する、視線検出方法である。
Aspects of the present invention are, for example, as follows.
<1> a plurality of light emitting units, light receiving means for receiving the light emitted by the plurality of light emitting units and reflected by an object, and outputting an electrical signal based on the light intensity of the received light; and output means for outputting a detection result of the tilt of the object based on the output electrical signal, wherein the light receiving means detects the tilt of the object in a state where the tilt of the object is substantially the same. The tilt detection device receives a plurality of lights emitted from a light emitting part and reflected by the object.
<2> The tilt detection device according to <1>, wherein the plurality of light emitting units emit a plurality of lights in parallel.
<3> The plurality of light emitting portions are provided side by side along a predetermined direction along the light emitting surfaces of the plurality of light emitting portions, and the light emitting portions adjacent to each other in the plurality of light emitting portions are aligned along the predetermined direction. The tilt detection device according to <1> or <2>, wherein the intervals are equal.
<4> Any one of <1> to <3> above, wherein the plurality of light emitting units are arranged along two different directions along the light emitting surfaces of the plurality of light emitting units. 2. The tilt detection device according to
<5> Let w be the width of the light-receiving surface of the light-receiving means, d be the distance between adjacent light beam centers on the light-receiving surface of the light-receiving means, and h be the beam radius of the light on the light-receiving surface of the light-receiving means. |h−w/2|≤d≤h+w/2 that satisfies the following equation when
The tilt detection device according to any one of <1> to <4>.
<6> The plurality of light emitting portions are provided side by side along a predetermined direction along the light emitting surfaces of the plurality of light emitting portions, and the light emitting portions adjacent to each other in the plurality of light emitting portions are aligned along the predetermined direction. The tilt detection device according to any one of <1> to <5>, wherein the length of the interval is shorter than the length of the light receiving surface of the light receiving means along the predetermined direction.
<7> The tilt detection device according to any one of <1> to <6>, wherein the light reflected by the object spreads as it approaches the light receiving means.
<8> Any one of <1> to <7>, wherein the beam diameter of the light reflected by the object is longer than the length of the light receiving surface along the predetermined direction on the light receiving surface of the light receiving means. 1. A tilt detection device according to one.
<9> A control unit for controlling light emission by the plurality of light emitting units so as to emit light time-modulated by codes having orthogonality, wherein the output unit responds to the electrical signal output from the light receiving unit. The tilt detection device according to any one of <1> to <8>, wherein the plurality of time-modulated lights are separated and detected based on the above.
<10> The tilt detection device according to <9>, wherein the code is a Hadamard code.
<11> The plurality of light emitting units are grouped into a plurality of groups, and the control unit controls light emission by the plurality of light emitting units such that the light emitting units in the plurality of groups emit light for each group. , the tilt detection device according to <9> or <10>.
<12> A line-of-sight detection device including the tilt detection device according to any one of <1> to <11>, and detecting a line of sight based on a detection result of an eyeball tilt detected by the tilt detection device. be.
<13> A retinal projection display device including the line-of-sight detection device according to <12>.
<14> A head-mounted display device including the line-of-sight detection device according to <12>.
<15> An eye examination apparatus including the line-of-sight detection apparatus according to <12>.
<16> A virtual reality display device including the line-of-sight detection device according to <12>.
<17> A user state estimation device, comprising: the line-of-sight detection device according to <12>; .
<18> The user state estimation device according to <17>, wherein the estimating unit estimates the state of the user based on the frequency of occurrence of minute vibrations of the user's eyeballs.
<19> The user state estimation device according to <17> or <18>, wherein the state of the user includes at least one of fatigue level and caution level of the user.
<20> The user state estimation device according to any one of <17> to <19>; and a driving support system.
<21> A tilt detection method using a tilt detection device, wherein the tilt detection device emits light from a plurality of light emitting units, and a light receiving unit receives light emitted from the plurality of light emitting units and reflected by an object. and outputting an electric signal based on the light intensity of the received light, outputting a detection result of the inclination of the object based on the electric signal output from the light receiving means by the output means, and the light receiving means and receiving a plurality of lights emitted from the plurality of light emitting units and reflected by the object in a state in which the object has substantially the same inclination.
<22> A line-of-sight detection method by a line-of-sight detection device, wherein the line-of-sight detection device emits light from a plurality of light emitting units, and a light receiving unit receives light emitted by the plurality of light emitting units and reflected by an object. and outputting an electric signal based on the light intensity of the received light, outputting a detection result of the inclination of the object based on the electric signal output from the light receiving means by the output means, and the light receiving means and receiving a plurality of lights emitted from the plurality of light-emitting units and reflected by the object in a state where the inclination of the object is substantially the same.
1、1a VCSELアレイ(複数の発光部の一例)
2 レンズ
3 凹面ミラー
4 フォトダイオード(受光手段の一例)
41 受光面
411~416、411a~417a スポット
10 視線検出装置(傾き検出装置の一例)
11~16、11a~16a VCSEL素子
1A、11A~16A 発光面
30 眼球(対象物の一例)
31 角膜
100 処理部
101 CPU
102 ROM
103 RAM
104 SSD
105 光源駆動回路
106 I/V変換回路
107 A/D変換回路
108 入出力I/F
111 選択部
112 光源駆動部
113 切替部
114 I/V変換部
115 A/D変換部
116 第1蓄積部
117 判定部
118 推定部
119 出力部
120 符号化部
121 光源変調部
122 内積演算部
123 第2蓄積部
D 間隔
e 重複領域
w 幅
φ 広がり角
Da デジタル電圧データ
Dr 駆動信号
Ed 視線方向情報
Se 電気信号
L、L1、L2、L3、L4、L41、L41a、L42 レーザ光
Q 集光位置
Rf 参照データ
1, 1a VCSEL array (an example of multiple light emitting units)
2
41 Light-receiving
11 to 16, 11a to
31
102 ROMs
103 RAM
104 SSD
105 light source drive circuit 106 I/V conversion circuit 107 A/
111
Claims (22)
前記複数の発光部により発光され、対象物により反射された光を受光し、受光した光の光強度に基づく電気信号を出力する受光手段と、
前記受光手段から出力される前記電気信号に基づいて、前記対象物の傾きの検出結果を出力する出力手段と、を有し、
前記受光手段は、前記対象物の傾きがほぼ同じである状態において、前記複数の発光部から発光され、前記対象物により反射された複数の光を受光する、傾き検出装置。 a plurality of light emitting units;
a light-receiving means for receiving light emitted by the plurality of light-emitting portions and reflected by an object, and for outputting an electrical signal based on the light intensity of the received light;
output means for outputting a detection result of the inclination of the object based on the electrical signal output from the light receiving means;
The tilt detection device, wherein the light receiving unit receives a plurality of lights emitted from the plurality of light emitting units and reflected by the object when the object is tilted substantially at the same angle.
前記複数の発光部における隣り合う発光部同士の前記所定方向に沿った間隔は、いずれも等しい、請求項1または請求項2に記載の傾き検出装置。 The plurality of light emitting units are provided side by side along a predetermined direction along the light emitting surface of the plurality of light emitting units,
3. The tilt detection device according to claim 1, wherein the distances along the predetermined direction between adjacent light-emitting portions in the plurality of light-emitting portions are all equal.
前記受光手段の受光面での隣接する光のビーム中心間距離をdとし、
前記受光手段の受光面での光のビーム半径をhとした場合に、次式を満足する
|h-w/2|≦d≦h+w/2
請求項1または請求項2に記載の傾き検出装置。 Let w be the width of the light receiving surface of the light receiving means,
Let d be the distance between the beam centers of adjacent light beams on the light receiving surface of the light receiving means,
|h−w/2|≦d≦h+w/2 satisfying the following equation, where h is the beam radius of the light on the light receiving surface of the light receiving means.
The tilt detection device according to claim 1 or 2.
前記複数の発光部における隣り合う発光部同士の前記所定方向に沿った間隔の長さは、前記受光手段の受光面の前記所定方向に沿った長さよりも短い、請求項1または請求項2に記載の傾き検出装置。 The plurality of light emitting units are provided side by side along a predetermined direction along the light emitting surface of the plurality of light emitting units,
3. The method according to claim 1, wherein a length of an interval along said predetermined direction between adjacent light emitting portions in said plurality of light emitting portions is shorter than a length along said predetermined direction of a light receiving surface of said light receiving means. Tilt detection device as described.
前記出力手段は、前記受光手段から出力される前記電気信号に基づいて、複数の前記時間変調された光を分離検出する、請求項1または請求項2に記載の傾き検出装置。 a control unit for controlling light emission by the plurality of light emitting units so as to emit light time-modulated by codes having orthogonality;
3. The tilt detection device according to claim 1, wherein said output means separates and detects a plurality of said time-modulated lights based on said electrical signal output from said light receiving means.
前記制御部は、前記複数のグループの前記発光部がグループごとに発光するように、前記複数の発光部による発光を制御する、請求項9に記載の傾き検出装置。 The plurality of light emitting units are grouped into a plurality of groups,
10. The tilt detection device according to claim 9, wherein said control unit controls light emission by said plurality of light emitting units so that said light emitting units in said plurality of groups emit light for each group.
前記傾き検出装置による眼球の傾きの検出結果に基づいて視線を検出する、視線検出装置。 Having the tilt detection device according to claim 1 or claim 2,
A line-of-sight detection device that detects a line of sight based on a detection result of an inclination of an eyeball by the tilt detection device.
前記視線検出装置により検出された視線方向の情報に基づき、ユーザの状態を推定する状態推定部と、を有するユーザ状態推定装置。 A line-of-sight detection device according to claim 12;
A user state estimating device, comprising: a state estimating unit for estimating a state of a user based on information on the line-of-sight direction detected by the line-of-sight detection device.
前記ユーザ状態推定装置により推定された前記状態に基づき、前記ユーザの運転する移動体の動作を制御する動作制御部と、を有する運転支援システム。 A user state estimation device according to claim 17;
A driving support system comprising: an operation control unit that controls an operation of a mobile object driven by the user based on the state estimated by the user state estimation device.
前記傾き検出装置が、
複数の発光部により発光し、
受光手段により、前記複数の発光部により発光され、対象物により反射された光を受光し、受光した光の光強度に基づく電気信号を出力し、
出力手段により、前記受光手段から出力される前記電気信号に基づいて、前記対象物の傾きの検出結果を出力し、
前記受光手段は、前記対象物の傾きがほぼ同じである状態において、前記複数の発光部から発光され、前記対象物により反射された複数の光を受光する、立体物の傾き検出方法。 A tilt detection method using a tilt detection device,
The tilt detection device is
It emits light by a plurality of light emitting parts,
the light receiving means receives the light emitted by the plurality of light emitting units and reflected by the object, and outputs an electrical signal based on the light intensity of the received light;
outputting a detection result of the tilt of the object based on the electrical signal output from the light receiving means,
The tilt detection method of a three-dimensional object, wherein the light receiving means receives a plurality of lights emitted from the plurality of light emitting units and reflected by the target when the tilt of the target is substantially the same.
前記視線検出装置が、
複数の発光部により発光し、
受光手段により、前記複数の発光部により発光され、対象物によって反射された光を受光し、受光した光の光強度に基づく電気信号を出力し、
出力手段により、前記受光手段から出力される前記電気信号に基づいて、前記対象物の傾きの検出結果を出力し、
前記受光手段は、前記対象物の傾きがほぼ同じである状態において、前記複数の発光部から発光され、前記対象物により反射された複数の光を受光する、視線検出方法。 A line-of-sight detection method by a line-of-sight detection device,
The line-of-sight detection device is
It emits light by a plurality of light emitting parts,
the light receiving means receives the light emitted by the plurality of light emitting units and reflected by the object, and outputs an electrical signal based on the light intensity of the received light;
outputting a detection result of the tilt of the object based on the electrical signal output from the light receiving means,
The line-of-sight detection method, wherein the light receiving unit receives a plurality of lights emitted from the plurality of light emitting units and reflected by the object in a state where the inclination of the object is substantially the same.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/IB2022/061949 WO2023119040A1 (en) | 2021-12-23 | 2022-12-08 | Inclination detector, line-of-sight detection device, retinal projection display device, head-mounted display device, optometric device, virtual-reality display apparatus, user-condition estimation apparatus, driver-assistance system, method of detecting degree of inclination of three-dimensional object, and method of detecting line-of-sight |
EP22826443.8A EP4453636A1 (en) | 2021-12-23 | 2022-12-08 | Inclination detector, line-of-sight detection device, retinal projection display device, head-mounted display device, optometric device, virtual-reality display apparatus, user-condition estimation apparatus, driver-assistance system, method of detecting degree of inclination of three-dimensional object, and method of detecting line-of-sight |
CN202280079023.9A CN118369605A (en) | 2021-12-23 | 2022-12-08 | Inclination detector, visual line detection device, retina projection display device, head-mounted display device, optometry device, virtual reality display device, user state estimation device, driver assistance system, three-dimensional object inclination detection method, visual line detection method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021209644 | 2021-12-23 | ||
JP2021209644 | 2021-12-23 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023094539A true JP2023094539A (en) | 2023-07-05 |
Family
ID=87001277
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022170184A Pending JP2023094539A (en) | 2021-12-23 | 2022-10-24 | Inclination detector, visual line detector, retina projection display device, head attachment type display device, eye examination device, virtual reality display device, user state estimation device, drive support system, inclination detection method of solid object, and visual line detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023094539A (en) |
-
2022
- 2022-10-24 JP JP2022170184A patent/JP2023094539A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7559815B2 (en) | Eyeball tilt position detection device, display device, and eye examination device | |
KR102594058B1 (en) | Method and system for tracking eye movements with optical scanning projector | |
US9529191B2 (en) | Dynamic foveal vision display | |
JP2023543557A (en) | How to drive the near eye display light source | |
JP2021131546A (en) | Eye imaging with off-axis imager | |
JP7388507B2 (en) | Surface-emitting laser for pupil or cornea position detection device, light source device, and eyeball tilt position detection device | |
CN110192143B (en) | Image projection apparatus | |
JP2009122551A (en) | Retina projection display device | |
JP7302592B2 (en) | Information detection device, video projection device, information detection method, and video projection method | |
JP7052577B2 (en) | Optical equipment, video display equipment, and optometry equipment | |
US20220155599A1 (en) | Eye accommodation distance measuring device and method for head-mounted display, and head-mounted display | |
JP7464166B2 (en) | Pupil or cornea position detection device, retinal projection display device, head-mounted display device, and input device | |
JP2009122550A (en) | Retina projection display device | |
CN114815468A (en) | Multi-plane projection with laser beam scanning in augmented reality displays | |
JP7467623B2 (en) | Improved eye tracking for augmented or virtual reality display systems | |
US11914151B2 (en) | Optical device, method of detecting degree of inclination of three-dimensional object, and line-of-sight detection method | |
CN116997839A (en) | Optical device, retina projection display, and head-mounted display | |
JP2023094539A (en) | Inclination detector, visual line detector, retina projection display device, head attachment type display device, eye examination device, virtual reality display device, user state estimation device, drive support system, inclination detection method of solid object, and visual line detection method | |
JP7163230B2 (en) | Line-of-sight detection device, line-of-sight detection method, and display device | |
JP2021005072A (en) | Optical device, retinal projection display device, head-mounted display device, and optometric device | |
CN118369605A (en) | Inclination detector, visual line detection device, retina projection display device, head-mounted display device, optometry device, virtual reality display device, user state estimation device, driver assistance system, three-dimensional object inclination detection method, visual line detection method | |
WO2023119040A1 (en) | Inclination detector, line-of-sight detection device, retinal projection display device, head-mounted display device, optometric device, virtual-reality display apparatus, user-condition estimation apparatus, driver-assistance system, method of detecting degree of inclination of three-dimensional object, and method of detecting line-of-sight | |
US20220299762A1 (en) | Optical device, line-of-sight detection device, retinal projection display device, head-mounted display, optometric device, user-condition estimation apparatus, driver-assistance system, method of detecting degree of inclination of three-dimensional object, and line-of-sight detection method | |
RU2724442C1 (en) | Eye focusing distance determining device and method for head-end display device, head-end display device | |
JP2022142736A (en) | Optical device, visual line detection device, retina projection display device, head-mounted type display device, optometer, user state estimation device, operation support system, detection method for inclination of three-dimensional object, and visual line detection method |