JP2023094539A - Inclination detector, visual line detector, retina projection display device, head attachment type display device, eye examination device, virtual reality display device, user state estimation device, drive support system, inclination detection method of solid object, and visual line detection method - Google Patents

Inclination detector, visual line detector, retina projection display device, head attachment type display device, eye examination device, virtual reality display device, user state estimation device, drive support system, inclination detection method of solid object, and visual line detection method Download PDF

Info

Publication number
JP2023094539A
JP2023094539A JP2022170184A JP2022170184A JP2023094539A JP 2023094539 A JP2023094539 A JP 2023094539A JP 2022170184 A JP2022170184 A JP 2022170184A JP 2022170184 A JP2022170184 A JP 2022170184A JP 2023094539 A JP2023094539 A JP 2023094539A
Authority
JP
Japan
Prior art keywords
light
detection device
line
light emitting
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022170184A
Other languages
Japanese (ja)
Inventor
将人 吉川
Masato Yoshikawa
俊 三宮
Takashi Sannomiya
沙織 吉田
Saori Yoshida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to PCT/IB2022/061949 priority Critical patent/WO2023119040A1/en
Publication of JP2023094539A publication Critical patent/JP2023094539A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an inclination detector with a simple configuration.SOLUTION: An inclination detector in one embodiment comprises: a plurality of light emission parts; light reception means which is caused to emit light by the plurality of light emission parts, receiving light reflected by objects and outputting an electric signal based on the light intensity of the received light; and output means which outputs, on the basis of the electric signal output from the light reception means, a detection result of inclinations of the objects. The light reception means is caused to emit light by the plurality of light emission parts, in a state in which inclinations of objects are almost equal, and receives a plurality of pieces of light reflected by the objects.SELECTED DRAWING: Figure 1

Description

本発明は、傾き検出装置、視線検出装置、網膜投影表示装置、頭部装着型表示装置、検眼装置、仮想現実表示装置、ユーザ状態推定装置、運転支援システム、立体物の傾き検出方法および視線検出方法に関する。 The present invention provides a tilt detection device, a line-of-sight detection device, a retinal projection display device, a head-mounted display device, an eye examination device, a virtual reality display device, a user state estimation device, a driving support system, a three-dimensional object tilt detection method, and a line-of-sight detection. Regarding the method.

対象物に照射した光の反射光に基づき、対象物の傾きを検出する傾き検出装置が知られている。このような傾き検出装置は、対象物としての人の眼球の傾きから視線方向を検出する視線検出装置や、該視線検出装置を有する網膜投影表示装置、頭部装着型表示装置および検眼装置等の様々な用途において利用される。 2. Description of the Related Art Tilt detection devices are known that detect the tilt of an object based on reflected light of light irradiated to the object. Such a tilt detection device includes a line-of-sight detection device that detects the line-of-sight direction from the tilt of a person's eyeball as an object, a retinal projection display device having the line-of-sight detection device, a head-mounted display device, an optometric device, and the like. Used in various applications.

上記の傾き検出装置として、眼球の傾きを高精度に検出するために、眼球に照射したレーザ光をMEMS(Micro Electro Mechanical Systems)ミラーにより走査させ、走査される光の眼球による反射光を検出する構成が開示されている。 In order to detect the tilt of the eyeball with high accuracy, the above-mentioned tilt detection device scans the laser light irradiated to the eyeball with a MEMS (Micro Electro Mechanical Systems) mirror, and detects the reflected light of the scanned light from the eyeball. A configuration is disclosed.

傾き検出装置では、構成が簡素なものが求められる。 A tilt detection device is required to have a simple configuration.

本発明は、構成が簡素な傾き検出装置を提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide a tilt detection device having a simple configuration.

本発明の一態様に係る傾き検出装置は、複数の発光部と、前記複数の発光部により発光され、対象物により反射された光を受光し、受光した光の光強度に基づく電気信号を出力する受光手段と、前記受光手段から出力される前記電気信号に基づいて、前記対象物の傾きの検出結果を出力する出力手段と、を有し、前記受光手段は、前記対象物の傾きがほぼ同じである状態において、前記複数の発光部から発光され、前記対象物により反射された複数の光を受光する。 A tilt detection device according to an aspect of the present invention includes a plurality of light emitting units, light emitted by the plurality of light emitting units, receiving light reflected by an object, and outputting an electric signal based on the light intensity of the received light. and an output means for outputting a detection result of the tilt of the object based on the electrical signal output from the light receiving means, wherein the light receiving means detects that the tilt of the object is approximately In the same state, a plurality of lights emitted from the plurality of light emitting units and reflected by the object are received.

本発明によれば、構成が簡素な傾き検出装置を提供できる。 According to the present invention, it is possible to provide a tilt detection device with a simple configuration.

実施形態に係る視線検出装置の全体構成例を示す図である。It is a figure which shows the whole structural example of the sight line detection apparatus which concerns on embodiment. 第1実施形態に係るVCSELアレイの構成例を示す図である。1 is a diagram showing a configuration example of a VCSEL array according to a first embodiment; FIG. 実施形態に係るフォトダイオードへのレーザ光入射の一例を示す図である。It is a figure which shows an example of laser-beam incidence to the photodiode which concerns on embodiment. 比較例に係るフォトダイオードへのレーザ光入射を示す図である。It is a figure which shows the laser beam incidence to the photodiode based on a comparative example. 実施形態に係る処理部のハードウェア構成例のブロック図である。4 is a block diagram of a hardware configuration example of a processing unit according to the embodiment; FIG. 第1実施形態に係る処理部の機能構成例のブロック図である。3 is a block diagram of a functional configuration example of a processing unit according to the first embodiment; FIG. 第1実施形態に係る処理部による処理例のフローチャートである。4 is a flowchart of an example of processing by a processing unit according to the first embodiment; 図2のVCSELアレイからの光の眼球による反射光位置の第1図である。FIG. 3 is a first diagram of the position of reflected light by the eye of light from the VCSEL array of FIG. 2; 図2のVCSELアレイからの光の眼球による反射光位置の第2図である。FIG. 3 is a second diagram of the reflected light position by the eye of light from the VCSEL array of FIG. 2; 図2のVCSELアレイからの光の眼球による反射光位置の第3図である。FIG. 3 is a third diagram of the position of reflected light by the eye of light from the VCSEL array of FIG. 2; 図2のVCSELアレイからの光の眼球による反射光位置の第4図である。FIG. 4 is a 4th view of the reflected light position by the eye of light from the VCSEL array of FIG. 2; 図2のVCSELアレイからの光の眼球による反射光位置の第5図である。FIG. 5 is a fifth diagram of the reflected light position by the eye of light from the VCSEL array of FIG. 2; 図2のVCSELアレイからの光の眼球による反射光位置の第6図である。FIG. 6 is a diagram 6 of the reflected light position by the eye of light from the VCSEL array of FIG. 2; 図2のVCSELアレイからの光の眼球による反射光位置の第7図である。FIG. 7 is a diagram of the reflected light position by the eye of light from the VCSEL array of FIG. 2; 第1実施形態に係る視線方向検出のシミュレーション結果例の第1図である。FIG. 1 is a first diagram showing an example of a simulation result of line-of-sight direction detection according to the first embodiment; 第1実施形態に係る視線方向検出のシミュレーション結果例の第2図である。FIG. 2 is a second diagram showing an example of a simulation result of line-of-sight direction detection according to the first embodiment; 比較例に係るVCSELアレイの配置を示す図である。FIG. 10 is a diagram showing the arrangement of VCSEL arrays according to a comparative example; 図17のVCSELアレイからの光の眼球による反射光位置の図である。FIG. 18 is an eye-reflected light position diagram of light from the VCSEL array of FIG. 17; 比較例に係る視線方向検出のシミュレーション結果を示す第1図である。FIG. 1 is a first diagram showing a simulation result of line-of-sight direction detection according to a comparative example; 比較例に係る視線方向検出のシミュレーション結果を示す第2図である。FIG. 2 is a second diagram showing a simulation result of line-of-sight direction detection according to a comparative example; 変形例に係るVCSELアレイの配置例を示す図である。FIG. 11 is a diagram showing an arrangement example of a VCSEL array according to a modification; 図21のVCSELアレイからの光の眼球による反射光位置の第1図である。FIG. 22 is a first diagram of the reflected light position by the eye of light from the VCSEL array of FIG. 21; 図21のVCSELアレイからの光の眼球による反射光位置の第2図である。FIG. 22 is a second view of the reflected light position by the eye of light from the VCSEL array of FIG. 21; 図21のVCSELアレイからの光の眼球による反射光位置の第3図である。FIG. 22 is a third diagram of the position of reflected light by the eye of light from the VCSEL array of FIG. 21; 図21のVCSELアレイからの光の眼球による反射光位置の第4図である。FIG. 22 is a fourth diagram of the reflected light position by the eye of light from the VCSEL array of FIG. 21; 図21のVCSELアレイからの光の眼球による反射光位置の第5図である。FIG. 22 is a fifth diagram of the reflected light position by the eye of light from the VCSEL array of FIG. 21; 図21のVCSELアレイからの光の眼球による反射光位置の第6図である。FIG. 22 is a sixth diagram of the reflected light position by the eye of light from the VCSEL array of FIG. 21; 図21のVCSELアレイからの光の眼球による反射光位置の第7図である。FIG. 22 is a seventh diagram of the reflected light position by the eye of light from the VCSEL array of FIG. 21; 図21のVCSELアレイからの光の眼球による反射光位置の第8図である。FIG. 22 is an eighth diagram of the reflected light position by the eye of light from the VCSEL array of FIG. 21; 変形例に係る視線検出装置による検出結果例を示す第1図である。FIG. 1 is a first diagram showing an example of a detection result by a line-of-sight detection device according to a modification; 変形例に係る視線検出装置による検出結果例を示す第2図である。FIG. 2 is a second diagram showing an example of a detection result by the line-of-sight detection device according to the modification; 凹面ミラーを有さない構成例を示す図である。It is a figure which shows the structural example which does not have a concave-surface mirror. 凹面ミラーおよびレンズを有さない構成例を示す図である。It is a figure which shows the structural example which does not have a concave mirror and a lens. 第2実施形態に係る処理部の機能構成例のブロック図である。FIG. 10 is a block diagram of an example functional configuration of a processing unit according to the second embodiment; 第2実施形態に係る処理部による処理例のフローチャートである。9 is a flowchart of an example of processing by a processing unit according to the second embodiment; 第3実施形態に係る処理部の機能構成例のブロック図である。FIG. 11 is a block diagram of an example of the functional configuration of a processing unit according to the third embodiment; 第3実施形態に係る処理部による処理例のフローチャートである。10 is a flowchart of an example of processing by a processing unit according to the third embodiment; 第4実施形態に係る網膜投影表示装置の構成例を示す図である。FIG. 11 is a diagram showing a configuration example of a retinal projection display device according to a fourth embodiment;

以下、図面を参照して発明を実施するための形態について説明する。各図面において、同一の構成部分には同一符号を付し、重複した説明を適宜省略する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments for carrying out the invention will be described with reference to the drawings. In each drawing, the same constituent parts are denoted by the same reference numerals, and overlapping descriptions are omitted as appropriate.

以下に示す実施形態は、本発明の技術思想を具体化するための傾き検出装置を例示するものであって、本発明を以下に示す実施形態に限定するものではない。以下に記載されている構成部品の形状、その相対的配置、パラメータの値等は特定的な記載がない限り、本発明の範囲をそれのみに限定する趣旨ではなく、例示することを意図したものである。また図面が示す部材の大きさや位置関係等は、説明を明確にするため、誇張している場合がある。 The embodiments shown below are examples of tilt detection devices for embodying the technical idea of the present invention, and the present invention is not limited to the embodiments shown below. The shapes of components, their relative positions, parameter values, etc. described below are intended to be illustrative rather than limiting the scope of the present invention, unless specifically stated otherwise. is. Also, the sizes and positional relationships of members shown in the drawings may be exaggerated for clarity of explanation.

以下に示す図においてX軸、Y軸及びZ軸により方向を示す場合があるが、X軸に沿うX方向は、実施形態に係る傾き検出装置が有する複数の発光部が発光面から光を発光する方向に沿う方向を示し、Y軸に沿うY方向は、上記発光面内における所定方向を示し、Z軸に沿うZ方向は、上記発光面内において所定方向と直交する方向を示すものとする。 In the diagrams shown below, directions may be indicated by the X-axis, Y-axis, and Z-axis. The Y direction along the Y axis indicates a predetermined direction in the light emitting surface, and the Z direction along the Z axis indicates a direction orthogonal to the predetermined direction in the light emitting surface. .

X方向で矢印が向いている方向を+X方向、+X方向の反対方向を-X方向と表記し、Y方向で矢印が向いている方向を+Y方向、+Y方向の反対方向を-Y方向と表記し、Z方向で矢印が向いている方向を+Z方向、+Z方向の反対方向を-Z方向と表記する。実施形態では、複数の発光部は一例として-X方向側に光を発するものとする。但し、これらのことは、傾き検出装置の使用時における向きを制限するものではなく、使用時における傾き検出装置の向きは任意である。 The direction in which the arrow points in the X direction is indicated as +X direction, the direction opposite to +X direction is indicated as -X direction, the direction in which the arrow points in Y direction is indicated as +Y direction, and the direction opposite to +Y direction is indicated as -Y direction. , and the direction in which the arrow points in the Z direction is denoted as +Z direction, and the direction opposite to +Z direction is denoted as -Z direction. In the embodiment, as an example, it is assumed that the plurality of light emitting units emit light in the -X direction. However, these do not limit the orientation of the tilt detection device during use, and the orientation of the tilt detection device during use is arbitrary.

実施形態に係る傾き検出装置は、複数の発光部と、該複数の発光部により発光され、対象物により反射された光を受光し、受光した光の光強度に基づく電気信号を出力する受光手段と、該受光手段から出力される電気信号に基づいて、対象物の傾きの検出結果を出力する出力手段と、を有する。受光手段は、前記対象物の傾きがほぼ同じである状態において、複数の発光部から発光され、対象物により反射された複数の光を受光する。 A tilt detection device according to an embodiment includes a plurality of light emitting units, and light receiving means for receiving light emitted by the plurality of light emitting units and reflected by an object, and for outputting an electric signal based on the light intensity of the received light. and output means for outputting the detection result of the inclination of the object based on the electric signal output from the light receiving means. The light receiving means receives a plurality of lights emitted from the plurality of light emitting parts and reflected by the object in a state where the inclination of the object is substantially the same.

実施形態に係る傾き検出装置は、複数の発光部により発光された光に基づいて対象物の傾きを検出するため、MEMS(Micro Electro Mechanical Systems)ミラー等の可動部、および該可動部を駆動させる駆動手段を用いずに対象物の傾きを検出でき、傾き検出装置の構成が簡素化する。また、傾き検出装置は、複数の発光部から発光され、対象物により反射された複数の光を受光するため、受光した光の光強度に基づく電気信号を出力するフォトダイオード等の受光手段を用いて対象物の動きを追尾できる。このような受光手段は、受光した光の位置に基づく電気信号を出力するPSD(Position Sensitive Detector)等の他の受光手段と比較して構成が簡素であり、且つ受光手段を駆動させる駆動手段の構成も簡素である。以上のようにして、本実施形態では、構成が簡素な傾き検出装置を提供する。 The tilt detection device according to the embodiment detects the tilt of an object based on the light emitted by a plurality of light emitting parts, so it includes a movable part such as a MEMS (Micro Electro Mechanical Systems) mirror and drives the movable part. The inclination of the object can be detected without using a driving means, and the configuration of the inclination detection device is simplified. Further, since the tilt detection device receives a plurality of lights emitted from a plurality of light emitting parts and reflected by an object, a light receiving means such as a photodiode is used to output an electric signal based on the light intensity of the received light. can track the movement of an object. Such a light receiving means has a simpler configuration than other light receiving means such as a PSD (Position Sensitive Detector) that outputs an electric signal based on the position of the received light, and the driving means for driving the light receiving means is simple. The configuration is also simple. As described above, the present embodiment provides a tilt detection device with a simple configuration.

対象物は、例えば人の眼球である。眼球は人間が視線を向けた方向に傾く。傾き検出装置は、例えば眼球の傾きの検出結果を人間の視線方向情報として出力する視線検出装置である。なお、眼球の傾き情報とは、直接、傾き角度を示す情報の他に、眼球の傾き角度以外に傾き角度に関する情報も含む。 The target object is, for example, a human eyeball. The eyeballs tilt in the direction the human gaze is directed. The tilt detection device is, for example, a line-of-sight detection device that outputs the detection result of the tilt of the eyeball as human line-of-sight direction information. Note that the eyeball tilt information includes not only information directly indicating the tilt angle, but also information related to the tilt angle in addition to the tilt angle of the eyeball.

視線検出装置から出力される視線方向情報は、例えばアイトラッキング装置または検眼装置等において利用される。あるいは該視線方向情報は、網膜投影表示装置又はHMD(ヘッドマウントディスプレイ;Head Mounted Display)等の頭部装着型表示装置において、網膜等に画像を投影する際に、視線方向に応じて投影画像の位置又は画像の内容を補正するため等に利用される。 The line-of-sight direction information output from the line-of-sight detection device is used in, for example, an eye tracking device or an optometry device. Alternatively, the line-of-sight direction information can be used to project an image onto the retina or the like in a retinal projection display device or a head-mounted display device such as an HMD (Head Mounted Display). It is used, for example, to correct the position or the content of the image.

以下、視線検出装置を傾き検出装置の一例として実施形態を説明する。眼球は対象物の一例であり、また立体物の一例である。なお、実施形態の図では、人間の右目の眼球を例示するが、左目の眼球であっても視線検出装置の機能および作用効果は同様である。また2つの視線検出装置を両目の眼球にそれぞれ適用する場合においても、視線検出装置の機能および作用効果は同様である。 Embodiments will be described below using the line-of-sight detection device as an example of the tilt detection device. An eyeball is an example of an object and an example of a three-dimensional object. In the drawings of the embodiments, the eyeball of the right eye of a human being is exemplified, but the functions and effects of the line-of-sight detection device are the same even for the eyeball of the left eye. Further, even when two sight line detection devices are applied to the eyeballs of both eyes, the functions and effects of the sight line detection devices are the same.

[実施形態]
<視線検出装置10の構成例>
(全体構成)
図1は、実施形態に係る視線検出装置10の全体構成の一例を説明する図である。図1に示すように、視線検出装置10は、VCSELアレイ1と、入射位置制御手段としてのレンズ2および凹面ミラー3と、検出手段としてのフォトダイオード4と、処理部100と、を有する。
[Embodiment]
<Configuration example of line-of-sight detection device 10>
(overall structure)
FIG. 1 is a diagram illustrating an example of the overall configuration of a line-of-sight detection device 10 according to an embodiment. As shown in FIG. 1, the line-of-sight detection device 10 has a VCSEL array 1, a lens 2 and a concave mirror 3 as incident position control means, a photodiode 4 as detection means, and a processing section 100. FIG.

視線検出装置10は、処理部100から駆動信号DrをVCSELアレイ1に出力することにより、VCSELアレイ1からレーザ光L1を発光する。VCSEL1から発光されたレーザ光L1は、レンズ2により一旦集光された後、凹面ミラー3に近づくにつれて広がるレーザ光L2として凹面ミラー3に入射する。 The line-of-sight detection device 10 outputs the drive signal Dr from the processing unit 100 to the VCSEL array 1 to cause the VCSEL array 1 to emit laser light L1. A laser beam L1 emitted from the VCSEL 1 is once condensed by the lens 2 and then enters the concave mirror 3 as a laser beam L2 that spreads as it approaches the concave mirror 3 .

凹面ミラー3に入射したレーザ光L2は、凹面ミラー3により眼球30に向けて反射された後、レーザ光L3として眼球30の角膜31に入射する。角膜31に入射したレーザ光L3は、角膜31により反射され、レーザ光L4としてフォトダイオード4に入射する。フォトダイオード4は、眼球30の角膜31により反射されたレーザ光L4を受光し、受光したレーザ光L4の光強度に基づく電気信号Seを処理部100に出力する。 The laser light L2 incident on the concave mirror 3 is reflected by the concave mirror 3 toward the eyeball 30, and then enters the cornea 31 of the eyeball 30 as the laser light L3. The laser light L3 incident on the cornea 31 is reflected by the cornea 31 and enters the photodiode 4 as laser light L4. The photodiode 4 receives the laser beam L4 reflected by the cornea 31 of the eyeball 30 and outputs an electrical signal Se based on the light intensity of the received laser beam L4 to the processing unit 100 .

処理部100は、フォトダイオード4から出力される電気信号Seに基づいて眼球30の傾きを検出し、検出結果としての視線方向情報Edを外部装置に出力する。なお、外部装置は、視線方向情報Edが利用されるアイトラッキング装置、検眼装置、網膜投影表示装置またはHMD等である。あるいは外部装置は、視線方向情報Edを記憶する記憶装置や、視線方向情報Edを表示する表示装置、視線方向情報Edを送信する送信装置等であってもよい。 The processing unit 100 detects the inclination of the eyeball 30 based on the electrical signal Se output from the photodiode 4, and outputs line-of-sight direction information Ed as the detection result to an external device. Note that the external device is an eye tracking device, optometry device, retinal projection display device, HMD, or the like that uses the line-of-sight direction information Ed. Alternatively, the external device may be a storage device that stores the line-of-sight direction information Ed, a display device that displays the line-of-sight direction information Ed, a transmission device that transmits the line-of-sight direction information Ed, or the like.

レーザ光L1、L2、L3およびL4は、レーザ光が伝搬する光路の位置や、伝搬されるレーザ光の広がり角度等の状態が異なるが、視線検出のために使用されるレーザ光としての機能および性質は同じである。このため、これらを特に区別しない場合には、レーザ光Lと総称する。 The laser beams L1, L2, L3, and L4 differ in the position of the optical path along which the laser beam propagates and the spread angle of the propagated laser beam. the nature is the same. Therefore, they are collectively referred to as laser light L when they are not distinguished from each other.

VCSELアレイ1は、複数の発光部の一例である。例えばVCSELアレイ1は、VCSELアレイ1に含まれる発光面1Aに沿った2つの方向であるX方向およびY方向のそれぞれに沿って2次元配列された複数のVCSEL(垂直共振器面発光レーザ;Vertical Cavity Surface Emitting LASER)素子を含む。 The VCSEL array 1 is an example of multiple light emitting units. For example, the VCSEL array 1 includes a plurality of VCSELs (vertical cavity surface emitting lasers; Vertical Cavity Surface Emitting LASER) element.

VCSELアレイ1に含まれる複数のVCSEL素子は、それぞれ発光部に対応する。例えばVCSELアレイ1は、複数のVCSEL素子から、指向性と有限の広がり角を有するレーザ光L1を-X方向側に発光できる。 A plurality of VCSEL elements included in the VCSEL array 1 each correspond to a light emitting section. For example, the VCSEL array 1 can emit laser light L1 having directivity and a finite spread angle in the -X direction from a plurality of VCSEL elements.

レーザ光L1は、発光部により発光された光に対応する。視線検出装置10は、処理部100からの駆動信号Drにより、VCSELアレイ1に含まれる複数のVCSEL素子それぞれを個別に独立駆動させ、VCSELアレイ1に含まれる複数のVCSEL素子から選択的にレーザ光L1を発光させる。 The laser light L1 corresponds to light emitted by the light emitting section. The line-of-sight detection device 10 individually and independently drives the plurality of VCSEL elements included in the VCSEL array 1 according to the drive signal Dr from the processing unit 100, and selectively emits laser light from the plurality of VCSEL elements included in the VCSEL array 1. Illuminate L1.

例えば、視線検出装置10は、VCSELアレイ1に含まれる複数のVCSEL素子からレーザ光L1を任意に発光させることができる。本実施形態では特に、視線検出装置10は、複数のVCSEL素子に含まれる複数のVCSEL素子により複数のレーザ光L1を発光させる。また、視線検出装置10は、複数のレーザ光L1のそれぞれを選択的に順次切り替える。 For example, the line-of-sight detection device 10 can arbitrarily emit laser light L1 from a plurality of VCSEL elements included in the VCSEL array 1 . Especially in this embodiment, the line-of-sight detection device 10 emits a plurality of laser beams L1 from a plurality of VCSEL elements included in a plurality of VCSEL elements. Further, the line-of-sight detection device 10 selectively sequentially switches each of the plurality of laser beams L1.

レーザ光Lの波長は、視線を検出される人間の視覚が阻害されないように、非可視光である近赤外光であることが好ましい。例えば近赤外光の波長は、700[nm]以上で2500[nm]以下である。但し、レーザ光Lの波長は、非可視光に限定されず、可視光であってもよい。例えば可視光の波長は、360[nm]以上で830[nm]以下である。なお、VCSELアレイ1については、別途、図2を参照して詳述する。 The wavelength of the laser light L is preferably near-infrared light, which is non-visible light, so as not to impede the human's vision when the line of sight is detected. For example, the wavelength of near-infrared light is 700 [nm] or more and 2500 [nm] or less. However, the wavelength of the laser light L is not limited to invisible light, and may be visible light. For example, the wavelength of visible light is 360 [nm] or more and 830 [nm] or less. The VCSEL array 1 will be separately described in detail with reference to FIG.

レンズ2および凹面ミラー3は、複数のVCSEL素子から発光されたレーザ光L1が眼球30により反射されたレーザ光L4のフォトダイオード4への入射位置を制御する入射位置制御手段としての機能を有する。レンズ2および凹面ミラー3は、レーザ光L1の広がり角を変換することにより、レーザ光L4がフォトダイオード4に入射する位置を制御する。 The lens 2 and the concave mirror 3 function as incident position control means for controlling the incident position of the laser light L4, which is the laser light L1 emitted from the plurality of VCSEL elements and reflected by the eyeball 30, onto the photodiode 4. The lens 2 and the concave mirror 3 control the position at which the laser light L4 enters the photodiode 4 by changing the divergence angle of the laser light L1.

レンズ2は、正の屈折力を有する集光素子である。レンズ2は、レンズ2と凹面ミラー3との間にレンズ2の焦点が配置されるように設けられる。レンズ2を透過したレーザ光L2は、レンズ2の焦点位置において一旦集光された後、凹面ミラー3に近づくにつれて広がりながら凹面ミラー3に入射する。レンズ2は、凹面ミラー3内の広い領域にレーザ光L2を入射させ、凹面ミラー3により反射されたレーザ光L3を眼球30の広い領域に入射させることができ、視線検出装置10による視線方向の検出範囲を拡大することができる。レンズ2は、複数のVCSEL素子からのレーザ光L1を屈折させることにより、レーザ光L2の凹面ミラー3への入射位置を制御し、視線検出装置10による視線方向の検出範囲を拡大する。 The lens 2 is a condensing element with positive refractive power. Lens 2 is provided such that the focal point of lens 2 is located between lens 2 and concave mirror 3 . The laser light L2 transmitted through the lens 2 is once condensed at the focal position of the lens 2, and then enters the concave mirror 3 while spreading as it approaches the concave mirror 3. FIG. The lens 2 can cause the laser light L2 to enter a wide area within the concave mirror 3, and the laser light L3 reflected by the concave mirror 3 to enter a wide area of the eyeball 30. The detection range can be expanded. The lens 2 refracts the laser light L1 from the plurality of VCSEL elements to control the incident position of the laser light L2 on the concave mirror 3, thereby expanding the detection range of the line-of-sight direction by the line-of-sight detection device 10. FIG.

但し、レーザ光Lの凹面ミラー3への入射位置は、VCSELアレイ1におけるVCSEL素子同士の位置関係を調節することによっても制御できる。VCSEL素子同士の位置関係の調節は、レンズ2を用いずにレーザ光Lの凹面ミラー3への入射位置を制御できるため、視線検出装置10を小型化すると共に、部品数を減らして視線検出装置10の構成を簡素化する点において好ましい。一方、レンズ2の使用は、レンズ2の焦点距離とレンズ2が配置される位置との調節により、レーザ光Lの凹面ミラー3への入射位置を制御可能とし、視線検出装置10の製作を簡単にする点において好ましい。 However, the incident position of the laser beam L on the concave mirror 3 can also be controlled by adjusting the positional relationship between the VCSEL elements in the VCSEL array 1 . The adjustment of the positional relationship between the VCSEL elements can control the incident position of the laser light L on the concave mirror 3 without using the lens 2, so that the sight line detection device 10 can be downsized and the number of parts can be reduced. 10 is preferable in terms of simplifying the configuration. On the other hand, the use of the lens 2 makes it possible to control the incident position of the laser beam L on the concave mirror 3 by adjusting the focal length of the lens 2 and the position where the lens 2 is arranged, thereby simplifying the production of the line-of-sight detection device 10. It is preferable in terms of

凹面ミラー3は、入射してきたレーザ光L2を反射し、反射したレーザ光L3を眼球30に近づくにつれて集束させる集束反射手段としての機能を有する。凹面ミラー3は、レーザ光L2が入射する側に曲率中心を有する。 The concave mirror 3 has a function as converging reflecting means that reflects the incident laser beam L2 and converges the reflected laser beam L3 as it approaches the eyeball 30 . The concave mirror 3 has a center of curvature on the side on which the laser beam L2 is incident.

レーザ光L3は、眼球30の角膜31付近に入射する。凹面ミラー3の曲率中心は、VCSELアレイ1と、凹面ミラー3と、の間におけるレーザ光Lの光軸から外れて位置する。この配置によりVCSEL1および凹面ミラー3は、いわゆる軸外し光学系を構成する。レーザ光Lの光軸は、換言するとレーザ光Lとしてのレーザビームの中心軸である。 The laser beam L3 is incident near the cornea 31 of the eyeball 30 . The center of curvature of the concave mirror 3 is located off the optical axis of the laser light L between the VCSEL array 1 and the concave mirror 3 . With this arrangement, the VCSEL 1 and the concave mirror 3 form a so-called off-axis optical system. The optical axis of the laser light L is, in other words, the central axis of the laser beam as the laser light L. As shown in FIG.

本実施形態では、凹面ミラー3を例示するが、眼球30に近づくにつれてレーザ光Lを集束させるものであれば、凸面レンズと、平面ミラーと、を組み合わせた構成や、ホログラム等の波面制御素子、回折光学素子等が凹面ミラー3に代えて設けられてもよい。凹面ミラー3は、部品数を減らし、視線検出装置10を小型化できる点において好ましい。凹面ミラー3は、反射率が高いため、光量損失を低減できる点において好ましい。波面制御素子や回折光学素子は位置合わせが容易であるため、視線検出装置10の製作を簡単にする点において好ましい。 In this embodiment, the concave mirror 3 is exemplified. A diffractive optical element or the like may be provided instead of the concave mirror 3 . The concave mirror 3 is preferable in that the number of parts can be reduced and the line-of-sight detection device 10 can be miniaturized. Since the concave mirror 3 has a high reflectance, it is preferable in that the loss of light quantity can be reduced. Since the wavefront control element and the diffractive optical element are easy to align, they are preferable in terms of simplifying the manufacturing of the line-of-sight detection device 10 .

凹面ミラー3の凹面がレーザ光L3の光軸に交差する直交2方向において曲率の異なるアナモフィックな非球面であると、フォトダイオード4の受光面におけるレーザ光L4の直径が微小化すると共に、レーザ光L4のビームが等方な状態に整形される。例えば、図1のY方向における凹面ミラー3の曲率半径がZ方向における凹面ミラー3の曲率半径よりも小さいと、等方なビームが整形される。なお、レーザ光L4は、対象物により反射された光の一例である。 If the concave surface of the concave mirror 3 is an anamorphic aspherical surface with different curvatures in the two orthogonal directions that intersect the optical axis of the laser beam L3, the diameter of the laser beam L4 on the light receiving surface of the photodiode 4 is reduced and the laser beam The beam of L4 is shaped isotropically. For example, if the radius of curvature of the concave mirror 3 in the Y direction in FIG. 1 is smaller than the radius of curvature of the concave mirror 3 in the Z direction, an isotropic beam is shaped. Note that the laser beam L4 is an example of light reflected by the object.

レーザ光L3の眼球30への入射角度は、眼球30が正視した場合に角膜31へ所定角度において入射するように調整される。レーザ光L3の眼球30への入射角度は、レーザ光L3の光軸と、レーザ光L3の光軸が眼球30の表面に交わる点を含む眼球30の接平面と、のなす角度である。 The angle of incidence of the laser beam L3 on the eyeball 30 is adjusted so that the laser beam L3 is incident on the cornea 31 at a predetermined angle when the eyeball 30 is in normal vision. The angle of incidence of the laser beam L3 on the eyeball 30 is the angle between the optical axis of the laser beam L3 and the tangential plane of the eyeball 30 including the point where the optical axis of the laser beam L3 intersects the surface of the eyeball 30 .

レーザ光L3の眼球30への入射角度における所定角度は、視線検出される人間の視野に凹面ミラー3が含まれないように、大きいことが好ましい。視線検出される人間の鼻が位置する側における人間の視野角は、正視方向を0度、すなわち基準とすると、一般に略60度である。従って、視線検出装置10における眼球30へのレーザ光L3の入射角度は、正視方向を基準として略60度以上であることが好ましい。 It is preferable that the predetermined angle of incidence of the laser light L3 on the eyeball 30 is large so that the concave mirror 3 is not included in the human visual field whose line of sight is detected. The viewing angle of a person on the side where the nose of the person whose line of sight is detected is generally about 60 degrees, with the standard viewing direction being 0 degrees. Therefore, it is preferable that the angle of incidence of the laser light L3 on the eyeball 30 in the line-of-sight detection device 10 is approximately 60 degrees or more with respect to the normal vision direction.

VCSELアレイ1における複数のVCSEL素子それぞれから発光された複数のレーザ光Lのうちの少なくとも一部のレーザ光Lは、他のレーザ光Lに対し、眼球30の角膜31における異なる位置に異なる入射角度で入射する。 At least some laser beams L among the plurality of laser beams L emitted from each of the plurality of VCSEL elements in the VCSEL array 1 are incident at different positions on the cornea 31 of the eyeball 30 at different angles with respect to the other laser beams L. Incident at

眼球30の角膜31の表面は、水分を含む透明体であり、約2[%]以上で4[%]以下の反射率を有するのが一般的である。眼球30の角膜31に入射したレーザ光L3は、眼球30の角膜31の表面で反射され、レーザ光L4としてフォトダイオード4に向けて伝搬する。 The surface of the cornea 31 of the eyeball 30 is a transparent body containing water, and generally has a reflectance of about 2[%] or more and 4[%] or less. The laser light L3 incident on the cornea 31 of the eyeball 30 is reflected by the surface of the cornea 31 of the eyeball 30 and propagates toward the photodiode 4 as laser light L4.

フォトダイオード4は、VCSELアレイ1により発光され、眼球30により反射されたレーザ光L4を受光し、レーザ光Lの光強度に基づく電気信号Seを出力する受光手段の一例である。フォトダイオード4には、可視光に対して高い感度を有するシリコンフォトダイオードが好ましい。フォトダイオード4には、PN型、PIN型、またはAPD(Avalanche photodiode)のいずれも適用可能である。視線検出装置10の構成を簡素化する観点では、PN型が特に好ましい。電気信号Seは、例えば電流信号であるが、電圧信号であってもよい。また、フォトダイオード4の構成は、例えばアノード電極とカソード電極をそれぞれ1つずつのみ有し、光強度に基づく電気信号を出力可能な構成であり、アノード電極を2つ、カソード電極を1つ有する構成や、アノード電極とカソード電極をそれぞれ2つ以上有する構成とすることで、光位置に基づく電気信号も出力可能な構成は含まない。このような光位置に基づく電気信号を出力可能な構成としては、PSDやCMOS(Complementary Metal Oxide Semiconductor)、CCD(Charge Coupled Device)といった撮像素子などが挙げられる。視線検出装置10の構成を簡素化する観点では、撮像素子と比べて消費電力の小さいフォトダイオードが特に望ましい。 The photodiode 4 is an example of light receiving means for receiving the laser light L4 emitted by the VCSEL array 1 and reflected by the eyeball 30 and for outputting an electric signal Se based on the light intensity of the laser light L. FIG. Photodiode 4 is preferably a silicon photodiode, which has high sensitivity to visible light. A PN type, a PIN type, or an APD (Avalanche photodiode) can be applied to the photodiode 4 . From the viewpoint of simplifying the configuration of the line-of-sight detection device 10, the PN type is particularly preferable. The electrical signal Se is, for example, a current signal, but may be a voltage signal. The photodiode 4 has, for example, only one anode electrode and one cathode electrode, and is capable of outputting an electrical signal based on light intensity, and has two anode electrodes and one cathode electrode. It does not include a configuration in which an electrical signal based on the light position can be output by a configuration having two or more anode electrodes and two or more cathode electrodes. Image sensors such as PSD, CMOS (Complementary Metal Oxide Semiconductor), CCD (Charge Coupled Device), and the like are examples of configurations capable of outputting electrical signals based on such light positions. From the viewpoint of simplifying the configuration of the line-of-sight detection device 10, a photodiode that consumes less power than an imaging element is particularly desirable.

本実施形態では特に、フォトダイオード4は、眼球30の傾きがほぼ同じである状態において、VCSELアレイ1に含まれる複数のVCSEL素子から発光され、眼球30により反射された複数のレーザ光L4を受光する。 Particularly in this embodiment, the photodiode 4 receives a plurality of laser beams L4 emitted from the plurality of VCSEL elements included in the VCSEL array 1 and reflected by the eyeball 30 in a state where the inclination of the eyeball 30 is substantially the same. do.

眼球30の傾きがほぼ同じである状態は、例えば眼球30の傾きが±3.0[度]以下の状態である。例えば、眼球30の傾きがほぼ同じである状態は、眼球30が微小振幅する固視微動状態であり、このとき眼球30は±略3.0[度]以内での微小振幅をする。 A state in which the tilts of the eyeballs 30 are substantially the same is, for example, a state in which the tilts of the eyeballs 30 are ±3.0 degrees or less. For example, a state in which the tilt of the eyeball 30 is almost the same is a state of a fixational eye movement in which the eyeball 30 has a minute amplitude.

処理部100は、フォトダイオード4から出力される電気信号Seに基づいて、眼球30の傾きの検出結果を出力する出力手段の一例である。処理部100の構成については、別途、図10および図11を参照して詳述する。 The processing unit 100 is an example of output means for outputting the detection result of the tilt of the eyeball 30 based on the electrical signal Se output from the photodiode 4 . The configuration of the processing unit 100 will be separately described in detail with reference to FIGS. 10 and 11. FIG.

(VCSELアレイ1の構成例)
図2は、VCSELアレイ1の構成の一例を示す図である。図2は、VCSELアレイ1がレーザ光L1を発光する方向である-X方向側から視たVCSELアレイ1を示している。
(Configuration example of VCSEL array 1)
FIG. 2 is a diagram showing an example of the configuration of the VCSEL array 1. As shown in FIG. FIG. 2 shows the VCSEL array 1 viewed from the -X direction side, which is the direction in which the VCSEL array 1 emits laser light L1.

VCSELアレイ1は、VCSEL素子11から16を含む。VCSEL素子11は発光面11Aを有し、VCSEL素子12は発光面12Aを有し、VCSEL素子13は発光面13Aを有する。VCSEL素子14は発光面14Aを有し、VCSEL素子15は発光面15Aを有し、VCSEL素子16は発光面16Aを有する。発光面11Aから16Aのそれぞれは、レーザ光L1が発光される面である。VCSELアレイ1の発光面1Aは、発光面11Aから16Aの全てが含まれる面である。なお、レーザ光L1は、VCSEL素子11から16のそれぞれから発光されるレーザ光の総称表記である。 VCSEL array 1 includes VCSEL elements 11-16. VCSEL element 11 has a light emitting surface 11A, VCSEL element 12 has a light emitting surface 12A, and VCSEL element 13 has a light emitting surface 13A. VCSEL element 14 has a light emitting surface 14A, VCSEL element 15 has a light emitting surface 15A, and VCSEL element 16 has a light emitting surface 16A. Each of the light emitting surfaces 11A to 16A is a surface from which the laser light L1 is emitted. The light emitting surface 1A of the VCSEL array 1 is a surface including all of the light emitting surfaces 11A to 16A. Note that the laser light L1 is a generic term for laser light emitted from each of the VCSEL elements 11 to 16. FIG.

VCSEL素子11から16は、発光面1Aに沿った、異なる2つの方向に沿って並んで設けられる。発光面1Aに沿った異なる2つの方向は、図2では、Y方向およびZ方向である。VCSEL素子11から16は、Y方向およびZ方向のそれぞれに沿って2次元配列している。Y方向およびZ方向はいずれも、発光部に含まれる発光面に沿った所定方向の一例である。 The VCSEL elements 11 to 16 are arranged side by side along two different directions along the light emitting surface 1A. The two different directions along the light emitting surface 1A are the Y direction and the Z direction in FIG. The VCSEL elements 11 to 16 are two-dimensionally arranged along each of the Y and Z directions. Both the Y direction and the Z direction are examples of predetermined directions along the light emitting surface included in the light emitting section.

本実施形態では特に、VCSEL素子11から16における隣り合うVCSEL素子同士のY方向およびZ方向に沿った間隔Dは、いずれも等しい。但し、この「等しい」は、一般に誤差と認められる程度の差異、例えば間隔Dの1/10以下の差異は許容するものである。この差異が含まれる場合にも、視線検出装置10の作用効果は得られる。 Especially in this embodiment, the distances D between adjacent VCSEL elements in the VCSEL elements 11 to 16 along the Y direction and the Z direction are all equal. However, this "equal" allows a difference that is generally recognized as an error, for example, a difference of 1/10 or less of the interval D. Even when this difference is included, the effects of the line-of-sight detection device 10 can be obtained.

VCSEL素子11から16の配列は、1次元配列であってもよいが、視線検出装置10による視線方向の検出範囲を拡大する点では、2次元配列が好ましい。 The array of the VCSEL elements 11 to 16 may be a one-dimensional array, but a two-dimensional array is preferable in terms of expanding the detection range of the line-of-sight direction by the line-of-sight detection device 10 .

複数の発光部は、VCSELアレイ1に限定されるものではなく、例えば発光部として、LD(半導体レーザ;Laser Diode)またはLED(発光ダイオード;Light Emitting Diode)等を複数含むものであってもよい。 The plurality of light emitting units are not limited to the VCSEL array 1, and may include, for example, a plurality of LDs (semiconductor lasers; Laser Diodes) or LEDs (Light Emitting Diodes). .

本実施形態では、複数の発光部としてVCSEL素子11から16を含むVCSELアレイ1を例示するが、複数の発光部のうち、少なくとも一部の発光部は、パルス状のレーザ光L1を発するパルスレーザ光源であってもよい。また、複数の発光部は、複数種類の光源をそれぞれ発光部として組み合わせることにより構成されてもよい。例えば、複数の発光部は、レーザ光L1を連続発光するLDと、レーザ光L1をパルス発光するパルスレーザ光源と、を組み合わせることにより構成でき、波長が異なるレーザ光L1を発する複数のLDを組合せることにより構成できる。 In this embodiment, the VCSEL array 1 including the VCSEL elements 11 to 16 is exemplified as the plurality of light emitting units. It may be a light source. Also, the plurality of light emitting units may be configured by combining a plurality of types of light sources as light emitting units. For example, the plurality of light emitting units can be configured by combining an LD that continuously emits the laser light L1 and a pulsed laser light source that emits the laser light L1 in pulses. It can be configured by

VCSELアレイ1は、複数の発光部の面内集積化が容易であるため、視線検出装置10を小型化する観点において好ましい。またVCSELアレイ1は、小さい光量のレーザ光Lを発光する場合にもレーザ光Lの光量を安定させることができるため、眼球30へ入射するレーザ光Lの光量を抑えつつ、視線方向を高精度に検出できる点において好ましい。 The VCSEL array 1 is preferable from the viewpoint of downsizing the line-of-sight detection device 10 because it facilitates in-plane integration of a plurality of light emitting units. In addition, since the VCSEL array 1 can stabilize the light amount of the laser light L even when the light amount of the laser light L is small, the light amount of the laser light L incident on the eyeball 30 is suppressed, and the line-of-sight direction can be accurately determined. It is preferable in that it can be detected in

VCSEL素子11から16により発光されたレーザ光L1のそれぞれは、VCSELアレイ1におけるVCSEL素子11から16それぞれの開口において回折することにより、レンズ2に近づくにつれて広がる光である。レーザ光L1の広がり角は、VCSEL素子11から16それぞれの開口形状によって制御できる。VCSEL素子11から16それぞれの開口面積は、消費電力を小さくできる点において小さい方が好ましい。 Each of the laser beams L1 emitted by the VCSEL elements 11 to 16 is diffracted at the respective apertures of the VCSEL elements 11 to 16 in the VCSEL array 1 and spreads as it approaches the lens 2 . The spread angle of the laser light L1 can be controlled by the aperture shapes of the VCSEL elements 11 to 16, respectively. The smaller the opening area of each of the VCSEL elements 11 to 16, the smaller the power consumption.

VCSEL素子11から16同士の相対的な位置関係は予め定められており、処理部100により視線方向を検出する際に使用される推定モデルの作成にあたって参照される。視線検出装置10は、推定モデルを作成するにあたって使用した図2に示すVCSEL素子11から16同士の相対的な位置関係に基づいて視線方向を検出する。 A relative positional relationship between the VCSEL elements 11 to 16 is determined in advance, and is referred to when creating an estimation model used when detecting the line-of-sight direction by the processing unit 100 . The line-of-sight detection device 10 detects the line-of-sight direction based on the relative positional relationship between the VCSEL elements 11 to 16 shown in FIG. 2 used to create the estimation model.

(フォトダイオード4へのレーザ光L4の入射例)
次に、図3および図4を参照して、フォトダイオード4へのレーザ光L4の入射について説明する。図3は、実施形態に係るフォトダイオード4へのレーザ光L4の入射の一例を示す図である。図4は、比較例に係るフォトダイオードへのレーザ光入射を示す図である。
(Example of incidence of laser light L4 on photodiode 4)
Next, the incidence of the laser light L4 on the photodiode 4 will be described with reference to FIGS. 3 and 4. FIG. FIG. 3 is a diagram showing an example of incidence of the laser light L4 on the photodiode 4 according to the embodiment. FIG. 4 is a diagram showing laser light incident on a photodiode according to a comparative example.

図3(a)に示すように、眼球の視線方向50が、正視方向であるとき、レーザ光L4は、フォトダイオード4の受光面41に入射する。レーザ光L4は、レーザ光L41と、レーザ光L42と、を含む。なお、レーザ光L4は、レーザ光L41およびレーザ光L42を特に区別しない場合の総称表記である。レーザ光L41およびL42はいずれも、受光手段に近づくにつれて広がる。図3(a)では、広がり角はφであり、広がったレーザ光L4の全てがフォトダイオード4の受光面41に入射している。ただし、受光面41に入射するレーザ光は、広がったレーザ光L4の全てでなくても良い。例えば、レーザ光L42の一部が、受光面41から-Y方向にはみ出していても良い。 As shown in FIG. 3( a ), the laser light L 4 is incident on the light receiving surface 41 of the photodiode 4 when the line-of-sight direction 50 of the eyeball is the normal viewing direction. The laser beam L4 includes a laser beam L41 and a laser beam L42. In addition, the laser beam L4 is a generic notation when the laser beam L41 and the laser beam L42 are not particularly distinguished. Both laser beams L41 and L42 diverge as they approach the light receiving means. In FIG. 3A, the spread angle is φ, and all of the spread laser light L4 is incident on the light receiving surface 41 of the photodiode 4. In FIG. However, the laser light incident on the light-receiving surface 41 may not be all of the spread laser light L4. For example, part of the laser beam L42 may protrude from the light receiving surface 41 in the -Y direction.

レーザ光L41は、VCSEL素子11から16のうちの1つのVCSEL素子、例えばVCSEL素子11から発光され、レンズ2および凹面ミラー3を経た後、眼球30により反射されてフォトダイオード4の受光面41に入射する。レーザ光L42は、VCSEL素子11から16のうちの上記1つのVCSEL素子とは別のVCSEL素子、例えばVCSEL素子12から発光され、レンズ2および凹面ミラー3を経た後、眼球30により反射されてフォトダイオード4の受光面41に入射する。VCSELアレイ1は、レーザ光L41およびレーザ光L42を発光する。 Laser light L41 is emitted from one of VCSEL elements 11 to 16, for example, VCSEL element 11, passes through lens 2 and concave mirror 3, and is reflected by eyeball 30 to light receiving surface 41 of photodiode 4. Incident. Laser light L42 is emitted from a VCSEL element other than the one VCSEL element among VCSEL elements 11 to 16, for example, VCSEL element 12, passes through lens 2 and concave mirror 3, is reflected by eyeball 30, and becomes a photo. It is incident on the light receiving surface 41 of the diode 4 . The VCSEL array 1 emits laser light L41 and laser light L42.

レーザ光L41およびレーザ光L42がフォトダイオード4の受光面に入射すると、フォトダイオード4は、受光した光強度に基づく電気信号を出力する。ここで図3(b)のように眼球の傾きが変化すると、レーザ光L41およびレーザ光L42が眼球表面に入射する位置及び角度が変化する。眼球への入射位置が変化することで、眼球より反射した光のフォトダイオード4への着地位置が変化する。例えば、図3(b)に示すように眼球が左に傾いた場合(視線方向50が、正視方向に対して左に傾いた場合)には、レーザ光L41およびレーザ光L42のフォトダイオード4への着地位置は-Y方向へシフトする。 When the laser light L41 and the laser light L42 are incident on the light receiving surface of the photodiode 4, the photodiode 4 outputs an electrical signal based on the received light intensity. Here, when the tilt of the eyeball changes as shown in FIG. 3B, the positions and angles at which the laser light L41 and the laser light L42 enter the surface of the eyeball change. By changing the incident position on the eyeball, the landing position of the light reflected from the eyeball on the photodiode 4 changes. For example, when the eyeball tilts to the left as shown in FIG. 's landing position shifts in the -Y direction.

着地位置の変化によって、フォトダイオード4の受光面に着地する光量が変化することで、フォトダイオード4が出力する電気信号の大きさが変化する。より具体的には、図3(b)ではフォトダイオード4への着地位置が変化することで、レーザ光L41およびレーザ光L42の一部がフォトダイオード4の受光面からはみ出している。そのため、電気信号P41およびP42は図3(a)の場合と比べて小さくなる。 A change in the landing position causes a change in the amount of light that lands on the light receiving surface of the photodiode 4 , thereby changing the magnitude of the electrical signal output by the photodiode 4 . More specifically, in FIG. 3B, part of the laser beam L41 and the laser beam L42 protrudes from the light receiving surface of the photodiode 4 because the landing position on the photodiode 4 is changed. Therefore, the electrical signals P41 and P42 are smaller than in the case of FIG. 3(a).

フォトダイオード4の受光面をYZ平面から見た場合のレーザL4の様子を図3(c)に示す。本実施形態では、レーザ光L41とレーザ光L42の中心間距離dは以下の式を満たす。
|h-w/2|≦d≦h+w/2
ただし、hはビーム半径であり、wは受光面の長さである。中心間距離dが上限を上回ると、複数のレーザ光がフォトダイオード4の受光面に入射しなくなるため、眼球の傾きを適切に推定することができない。一方で、下限を下回ると、眼球の傾きの変化に対してレーザ光L41およびL42に対する受光量の変化がなくなるため、この場合も適切な推定ができなくなる。
FIG. 3(c) shows the state of the laser L4 when the light receiving surface of the photodiode 4 is viewed from the YZ plane. In this embodiment, the center-to-center distance d between the laser beams L41 and L42 satisfies the following equation.
|h−w/2|≦d≦h+w/2
However, h is the beam radius and w is the length of the light receiving surface. When the center-to-center distance d exceeds the upper limit, a plurality of laser beams do not enter the light receiving surface of the photodiode 4, so the tilt of the eyeball cannot be properly estimated. On the other hand, when the lower limit is not reached, there is no change in the amount of received light for the laser beams L41 and L42 with respect to the change in the inclination of the eyeball, and in this case also appropriate estimation cannot be performed.

本実施形態では、眼球の傾きと複数のレーザ光に基づくフォトダイオード4の出力信号強度との相関関係をモデル化することで、複数のレーザ光に基づくフォトダイオード4の信号強度から眼球の傾きを推定することができる。 In this embodiment, by modeling the correlation between the inclination of the eyeball and the output signal intensity of the photodiode 4 based on a plurality of laser beams, the inclination of the eyeball can be determined from the signal intensity of the photodiode 4 based on the plurality of laser beams. can be estimated.

図4は比較例を示すものである。図3とは異なり、眼球の傾きが変化してもレーザL42に基づくフォトダイオード4の出力信号強度が変化しないので、眼球の傾きと複数のレーザ光に基づくフォトダイオード4の出力信号強度との相関を得ることができない。よって、この場合においては眼球の傾きを推定することができない。 FIG. 4 shows a comparative example. Unlike FIG. 3, even if the tilt of the eyeball changes, the output signal intensity of the photodiode 4 based on the laser L42 does not change. can't get Therefore, in this case, the tilt of the eyeball cannot be estimated.

本実施形態では、VCSEL素子11から16における隣り合うVCSEL素子同士の間隔D(図2参照)の長さは、フォトダイオード4が眼球30によって反射されたレーザ光L4を受光する受光面41のY方向およびZ方向のそれぞれに沿った長さである幅wよりも短い。 In this embodiment, the distance D (see FIG. 2) between adjacent VCSEL elements in the VCSEL elements 11 to 16 is Y It is shorter than the width w, which is the length along each of the direction and the Z direction.

さらに、レーザ光L41およびL42同士は、少なくとも一部が受光面41上において重なる。図3における重複領域eは、レーザ光L41およびL42同士が受光面41上において重なる領域のY方向に沿った長さを表している。 Furthermore, at least a portion of the laser beams L41 and L42 overlap each other on the light receiving surface 41. FIG. An overlap region e in FIG. 3 represents the length along the Y direction of the region where the laser beams L41 and L42 overlap each other on the light receiving surface 41. FIG.

視線検出装置10では、レーザ光L4が以上のような状態になるように、各VCSEL素子間の発光面1Aに沿った間隔、レンズ2の曲率半径および設置位置、並びに凹面ミラー3の曲率半径および設置位置が予め決定される。視線検出装置10は、このレーザ光L4をフォトダイオード4に入射させることにより、フォトダイオード4の受光面41上におけるレーザ光L4のビームサイズを大きくすることができる。これにより、フォトダイオード4は、VCSELアレイ1のVCSEL素子11および12から発光され、眼球30により反射されたレーザ光L41およびL42光を受光可能になる。 In the line-of-sight detection device 10, the distance along the light emitting surface 1A between the VCSEL elements, the curvature radius and installation position of the lens 2, and the curvature radius and An installation position is predetermined. The line-of-sight detection device 10 can increase the beam size of the laser light L4 on the light receiving surface 41 of the photodiode 4 by making the laser light L4 incident on the photodiode 4 . As a result, the photodiode 4 can receive the laser beams L41 and L42 emitted from the VCSEL elements 11 and 12 of the VCSEL array 1 and reflected by the eyeball 30 .

フォトダイオード4の受光面41上におけるレーザ光L4のビーム径を大きくすると、眼球の傾きが変化したときに、レーザ光L4の一部が受光面から外れる確率が高くなり、結果として眼球の傾きとフォトダイオード4の出力信号値との相関が強くなる。そのため、フォトダイオード4の受光面41上におけるレーザ光L4のビーム径は大きい方が望ましい。レーザ光L4のビーム径がフォトダイオード4の受光面の所定方向に沿った長さ以上になると、眼球の傾きに対するフォトダイオード4の出力信号の変化量が大きくなるので好ましい。 If the beam diameter of the laser light L4 on the light receiving surface 41 of the photodiode 4 is increased, there is a high probability that a part of the laser light L4 will deviate from the light receiving surface when the tilt of the eyeball changes. The correlation with the output signal value of the photodiode 4 is strengthened. Therefore, it is desirable that the beam diameter of the laser light L4 on the light receiving surface 41 of the photodiode 4 is large. If the beam diameter of the laser light L4 is equal to or greater than the length along the predetermined direction of the light receiving surface of the photodiode 4, the amount of change in the output signal of the photodiode 4 with respect to the inclination of the eyeball is increased, which is preferable.

但し、フォトダイオード4へのレーザ光L4の入射は、図3に示した状態に限定されるものではない。視線検出装置10は、レーザ光L4が図4に示した状態になるように、VCSELアレイ1における各VCSEL素子間の発光面1Aに沿った間隔、レンズ2の曲率半径および設置位置、並びに凹面ミラー3の曲率半径および設置位置を決定することもできる。 However, the incidence of the laser beam L4 on the photodiode 4 is not limited to the state shown in FIG. The line-of-sight detection device 10 is configured so that the laser light L4 is in the state shown in FIG. 3 radius of curvature and installation position can also be determined.

(処理部100のハードウェア構成)
次に、処理部100について説明する。図2は、処理部100のハードウェア構成の一例を説明するブロック図である。
(Hardware configuration of processing unit 100)
Next, the processing unit 100 will be described. FIG. 2 is a block diagram illustrating an example of the hardware configuration of the processing unit 100. As illustrated in FIG.

図5に示すように、処理部100は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、SSD(Solid State Drive)104と、を有する。また処理部100は、光源駆動回路105と、I/V(Intensity of current/Volt)変換回路106と、A/D(Analog/Digital)変換回路107と、入出力I/F(Interface)108と、を有する。これらは、システムバスBを介して相互に通信可能に電気的に接続している。 As shown in FIG. 5, the processing unit 100 includes a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, and an SSD (Solid State Drive) 104. . The processing unit 100 also includes a light source driving circuit 105, an I/V (Intensity of current/Volt) conversion circuit 106, an A/D (Analog/Digital) conversion circuit 107, an input/output I/F (Interface) 108, and , has These are electrically connected via a system bus B so as to be able to communicate with each other.

CPU101は、ROM102やSSD104等の記憶装置からプログラムやデータをRAM103上に読み出し、プログラムを実行することにより、処理部100全体の制御や後述する機能を実現する演算装置である。 The CPU 101 is an arithmetic device that reads out programs and data from a storage device such as the ROM 102 and the SSD 104 onto the RAM 103 and executes the programs, thereby controlling the entire processing unit 100 and realizing functions described later.

ROM102は、電源を切ってもプログラムやデータを保持することが可能な不揮発性の半導体メモリ(記憶装置)である。ROM102は、処理部100の起動時に実行されるBIOS(Basic Input/Output System)、OS設定及びネットワーク設定等のプログラム、並びにデータを格納している。RAM103は、プログラムやデータを一時保持する揮発性の半導体メモリ(記憶装置)である。 The ROM 102 is a non-volatile semiconductor memory (storage device) capable of retaining programs and data even when power is turned off. The ROM 102 stores a BIOS (Basic Input/Output System) executed when the processing unit 100 is started, programs such as OS settings and network settings, and data. A RAM 103 is a volatile semiconductor memory (storage device) that temporarily holds programs and data.

SSD104は、処理部100による処理を実行するプログラムや各種データが記憶された不揮発性メモリである。なお、SSDはHDD(Hard Disk Drive)であってもよい。 The SSD 104 is a nonvolatile memory that stores programs for executing processing by the processing unit 100 and various data. Note that the SSD may be an HDD (Hard Disk Drive).

光源駆動回路105は、VCSELアレイ1に電気的に接続し、制御信号に従ってVCSELアレイ1に駆動信号Drを出力することにより、VCSELアレイ1を発光駆動させる電気回路である。本実施形態では、光源駆動回路105は、駆動信号Drの出力先を切り替えるデマルチプレクサ回路を含んでいる。駆動信号Drは、電流信号であるが、電圧信号であってもよい。 The light source drive circuit 105 is an electric circuit that is electrically connected to the VCSEL array 1 and outputs a drive signal Dr to the VCSEL array 1 according to a control signal to drive the VCSEL array 1 to emit light. In this embodiment, the light source drive circuit 105 includes a demultiplexer circuit that switches the output destination of the drive signal Dr. The drive signal Dr is a current signal, but may be a voltage signal.

I/V変換回路106は、フォトダイオード4に電気的に接続し、フォトダイオード4から出力されるアナログの電気信号SeをI/V変換したアナログ電圧信号を出力する電気回路である。 The I/V conversion circuit 106 is an electric circuit that is electrically connected to the photodiode 4 and outputs an analog voltage signal obtained by I/V converting the analog electric signal Se output from the photodiode 4 .

A/D変換回路107は、I/V変換回路106から出力されるアナログ電圧信号をA/D変換したデジタル電圧信号を出力する電気回路である。 The A/D conversion circuit 107 is an electric circuit that outputs a digital voltage signal obtained by A/D converting the analog voltage signal output from the I/V conversion circuit 106 .

入出力I/F108は、外部装置と処理部100とを通信可能にするインターフェースである。 The input/output I/F 108 is an interface that enables communication between an external device and the processing unit 100 .

(処理部100の機能構成)
図6は、処理部100の機能構成の一例を示すブロック図である。
(Functional configuration of processing unit 100)
FIG. 6 is a block diagram showing an example of the functional configuration of the processing unit 100. As shown in FIG.

図6に示すように、処理部100は、選択部111と、光源駆動部112と、切替部113と、I/V変換部114と、A/D変換部115と、第1蓄積部116と、判定部117と、推定部118と、出力部119と、を有する。 As shown in FIG. 6, the processing unit 100 includes a selection unit 111, a light source driving unit 112, a switching unit 113, an I/V conversion unit 114, an A/D conversion unit 115, and a first storage unit 116. , a determination unit 117 , an estimation unit 118 , and an output unit 119 .

処理部100は、CPU101がROM102に格納された所定のプログラムを実行すること等により選択部111および推定部118の各機能を実現し、光源駆動回路105等により光源駆動部112および切替部113の各機能を実現する。また、処理部100は、I/V変換回路106およびA/D変換回路107等によりI/V変換部114およびA/D変換部115の各機能を実現し、RAM103等により第1蓄積部116の機能を実現し、入出力I/F等により出力部119の機能を実現する。 The processing unit 100 realizes the functions of the selection unit 111 and the estimation unit 118 by executing a predetermined program stored in the ROM 102 by the CPU 101, and selects the light source driving unit 112 and the switching unit 113 by the light source driving circuit 105 and the like. Realize each function. Further, the processing unit 100 realizes each function of the I/V conversion unit 114 and the A/D conversion unit 115 by the I/V conversion circuit 106, the A/D conversion circuit 107, etc., and the first accumulation unit 116 by the RAM 103, etc. , and the function of the output unit 119 is realized by an input/output I/F or the like.

なお、処理部100は、上記の各機能の少なくとも一部をASIC(application specific integrated circuit)や、FPGA(Field-Programmable Gate Array)等の電子回路により実現してもよい。また処理部100は、上記の各機能の少なくとも一部を、複数の機能構成部の分散処理により実現してもよいし、外部装置を利用して実現してもよい。 Note that the processing unit 100 may realize at least part of each of the functions described above by an electronic circuit such as an ASIC (application specific integrated circuit) or an FPGA (Field-Programmable Gate Array). In addition, the processing unit 100 may implement at least part of each of the functions described above by distributed processing of a plurality of functional configuration units, or by using an external device.

選択部111は、VCSELアレイ1に含まれるVCSEL素子11から16のうち、発光させるVCSEL素子を選択し、選択されたVCSEL素子を示す情報を切替部113に出力する。なお、VCSELアレイ1に含まれるVCSEL素子の個数である6つは一例である。VCSEL素子の数は、複数であれば任意の数であってもよい。 The selection unit 111 selects a VCSEL element to emit light from among the VCSEL elements 11 to 16 included in the VCSEL array 1 and outputs information indicating the selected VCSEL element to the switching unit 113 . Note that the number of 6 VCSEL elements included in the VCSEL array 1 is an example. The number of VCSEL elements may be any number as long as it is plural.

光源駆動部112は、VCSELアレイ1を発光させるための駆動信号Drを、選択部111により選択されたVCSEL素子へ切替部113を介して出力する。 The light source driving section 112 outputs a driving signal Dr for causing the VCSEL array 1 to emit light to the VCSEL element selected by the selecting section 111 via the switching section 113 .

切替部113は、選択部111により選択されたVCSEL素子に対して光源駆動部112からの駆動信号Drが出力されるように切り替える。 The switching unit 113 switches such that the driving signal Dr from the light source driving unit 112 is output to the VCSEL element selected by the selecting unit 111 .

I/V変換部114は、フォトダイオード4から出力される電気信号Seをアナログ電圧信号に変換し、変換後の電圧信号をA/D変換部115へ出力する。 The I/V converter 114 converts the electrical signal Se output from the photodiode 4 into an analog voltage signal, and outputs the converted voltage signal to the A/D converter 115 .

A/D変換部115は、I/V変換部114から入力したアナログ電圧信号をデジタル電圧データDaに変換した後、第1蓄積部116に出力する。 The A/D conversion unit 115 converts the analog voltage signal input from the I/V conversion unit 114 into digital voltage data Da, and then outputs the digital voltage data Da to the first storage unit 116 .

第1蓄積部116は、A/D変換部115から入力したデジタル電圧データDaを、VCSEL素子の個数分、全て蓄積する。第1蓄積部116は、判定部117および推定部118による処理において参照可能に、デジタル電圧データDaとVCSEL素子11から16とを対応付けて蓄積できる。 The first accumulation unit 116 accumulates all the digital voltage data Da input from the A/D conversion unit 115 for the number of VCSEL elements. The first storage unit 116 can store the digital voltage data Da and the VCSEL elements 11 to 16 in association so that they can be referenced in the processing by the determination unit 117 and the estimation unit 118 .

判定部117は、VCSEL素子11から16の全てを発光させたか否かを判定する。例えば、判定部117は、第1蓄積部116に蓄積されたデジタル電圧データDaがVCSEL素子の個数分、全て蓄積されたか否かに基づき、VCSEL素子11から16の全てを発光させたか否かを判定できる。 The determination unit 117 determines whether or not all of the VCSEL elements 11 to 16 are caused to emit light. For example, the determination unit 117 determines whether or not all the VCSEL elements 11 to 16 have been caused to emit light based on whether or not all the digital voltage data Da accumulated in the first accumulation unit 116 have been accumulated for the number of VCSEL elements. I can judge.

推定部118は、第1蓄積部116に蓄積されたデジタル電圧データDaに基づき、予め作成された推定モデルを用いて、視線方向情報Edを算出する。推定部118は、算出した視線方向情報Edを、出力部119を介して外部装置に出力する。 Based on the digital voltage data Da accumulated in the first accumulation unit 116, the estimation unit 118 uses an estimation model created in advance to calculate line-of-sight direction information Ed. The estimation unit 118 outputs the calculated line-of-sight direction information Ed to an external device via the output unit 119 .

<処理部100による処理例>
図7は、処理部100による処理の一例を示すフローチャートである。処理部100aは、例えば視線検出装置10のユーザ(以下、単にユーザという)による開始操作入力信号に応じて図7の処理を開始する。
<Example of Processing by Processing Unit 100>
FIG. 7 is a flowchart showing an example of processing by the processing unit 100. As shown in FIG. The processing unit 100a starts the processing of FIG. 7, for example, in response to a start operation input signal by the user of the line-of-sight detection device 10 (hereinafter simply referred to as the user).

まず、ステップS71において、処理部100は、選択部111により、VCSEL素子11から16のうち、どのVCSEL素子を発光させるかを選択し、選択されたVCSEL素子を示す情報を切替部113に出力する。 First, in step S71, the processing unit 100 selects which of the VCSEL elements 11 to 16 is to emit light by the selection unit 111, and outputs information indicating the selected VCSEL element to the switching unit 113. .

続いて、ステップS72において、処理部100は、光源駆動部112から切替部113を経由して、駆動信号Drを選択したVCSEL素子へ出力する。駆動信号Drが印加されたVCSEL素子は、駆動信号Drに応じてレーザ光L1を発光する。レーザ光L1は、レンズ2および凹面ミラー3を経た後、眼球30により反射されてレーザ光L4としてフォトダイオード4に入射する。フォトダイオード4は、受光したレーザ光L4の光強度に応じた電気信号Seを処理部100に出力する。 Subsequently, in step S72, the processing unit 100 outputs the driving signal Dr from the light source driving unit 112 via the switching unit 113 to the selected VCSEL element. The VCSEL element to which the drive signal Dr is applied emits laser light L1 according to the drive signal Dr. After passing through the lens 2 and the concave mirror 3, the laser beam L1 is reflected by the eyeball 30 and enters the photodiode 4 as the laser beam L4. The photodiode 4 outputs an electric signal Se to the processing unit 100 according to the light intensity of the received laser light L4.

続いて、ステップS73において、処理部100は、I/V変換部114により電気信号Seをアナログ電圧信号に変換し、その後、A/D変換部115により該アナログ電圧信号をデジタル電圧データDaに変換する。処理部100は、第1蓄積部116によって、発光したVCSEL素子に対応付けてデジタル電圧データDaを蓄積する。 Subsequently, in step S73, the processing unit 100 causes the I/V conversion unit 114 to convert the electrical signal Se into an analog voltage signal, and then the A/D conversion unit 115 converts the analog voltage signal into digital voltage data Da. do. The processing unit 100 causes the first storage unit 116 to store the digital voltage data Da in association with the VCSEL element that emits light.

続いて、ステップS74において、処理部100は、判定部117により、VCSEL素子11から16の全てを発光させたか否かを判定する。 Subsequently, in step S74, the processing unit 100 causes the determination unit 117 to determine whether or not all the VCSEL elements 11 to 16 have been caused to emit light.

ステップS74において、全てのVCSEL素子を発光させていないと判定された場合には(ステップS74、No)には、処理部100は、ステップS71以降の処理を再度行う。この場合には、処理部100は、まだ発光していないVCSEL素子を選択部111により選択し、このVCSEL素子を発光させる。 When it is determined in step S74 that all the VCSEL elements are not caused to emit light (step S74, No), the processing unit 100 performs the processing after step S71 again. In this case, the processing unit 100 selects a VCSEL element that has not yet emitted light using the selection unit 111, and causes this VCSEL element to emit light.

一方、ステップS74において、全てのVCSEL素子を発光させたと判定された場合(ステップS74、Yes)には、ステップS75において、処理部100は、推定部118により、予めあらかじめ作成された推定モデルを用いて、第1蓄積部116に蓄積されたVCSEL素子11から16に対応する6つのデジタル電圧データDaに基づき、視線方向情報Edを演算により取得する。 On the other hand, when it is determined in step S74 that all the VCSEL elements have been caused to emit light (step S74, Yes), in step S75, the processing unit 100 causes the estimation unit 118 to use an estimation model created in advance. Then, based on the six digital voltage data Da corresponding to the VCSEL elements 11 to 16 accumulated in the first accumulation unit 116, the line-of-sight direction information Ed is obtained by calculation.

続いて、ステップS76において、処理部100は、推定部118により取得された視線方向情報Edを、出力部119を介して外部装置に出力する。 Subsequently, in step S<b>76 , the processing unit 100 outputs the line-of-sight direction information Ed acquired by the estimation unit 118 to the external device via the output unit 119 .

続いて、ステップS77において、処理部100は、処理を終了するか否かを判定する。例えば、処理部100は、ユーザによる終了操作入力信号等に応じて終了するか否かを判定できる。 Subsequently, in step S77, the processing section 100 determines whether or not to end the processing. For example, the processing unit 100 can determine whether or not to end according to a user's end operation input signal or the like.

ステップS77において、終了すると判定された場合には(ステップS77、Yes)、処理部100は、処理を終了する。一方、終了しないと判定された場合には(ステップS77、No)、処理部100は、ステップS71以降の処理を再度行う。 In step S77, when it is determined to end (step S77, Yes), the processing unit 100 ends the process. On the other hand, when it is determined not to end (step S77, No), the processing section 100 performs the processing after step S71 again.

このようにして、処理部100は、眼球30の傾きに基づく視線方向情報Edを出力できる。 In this manner, the processing unit 100 can output line-of-sight direction information Ed based on the tilt of the eyeball 30 .

(推定部118による推定モデル例)
次に、推定部118による推定演算において用いられる推定モデルについて説明する。推定モデルは、例えば、正準相関分析(Canonical Correlation Analysis)によって作成される(例えば、非特許文献「赤穂 昭太郎、日本神経回路学会誌, Vol.20, No.2 (2013),p62-72)」等を参照)。
(Example of estimation model by estimation unit 118)
Next, the estimation model used in the estimation calculation by the estimation unit 118 will be described. The estimation model is created by, for example, Canonical Correlation Analysis (for example, non-patent document "Shotaro Ako, Journal of Japanese Neural Network Society, Vol.20, No.2 (2013), p62-72) ”, etc.).

正準相関分析は多変量解析の一種であり、二組の高次元データxおよびyから共通する成分を取り出す手法である。例えば、高次元データxを視線方向データ、高次元データyをデジタル電圧データDaとして、次の(1)式および(2)式のように表すことができる。

Figure 2023094539000002
Figure 2023094539000003
Canonical correlation analysis is a kind of multivariate analysis, and is a method of extracting common components from two sets of high-dimensional data x and y. For example, it is possible to express the following equations (1) and (2), where high-dimensional data x is line-of-sight direction data and high-dimensional data y is digital voltage data Da.
Figure 2023094539000002
Figure 2023094539000003

(1)式および(2)式において、θxは水平視線方向[度]であり、θzは垂直視線方向[度]である。またP1からP6は、各発光部に応じたデジタル電圧データDaである。xは2次元データであり、yは6次元データである。 In equations (1) and (2), θx is the horizontal viewing direction [degrees], and θz is the vertical viewing direction [degrees]. P1 to P6 are digital voltage data Da corresponding to each light emitting unit. x is two-dimensional data and y is six-dimensional data.

推定部118は、2つの高次元データx、yに対して、線形変換ベクトルaおよびbを内積演算することにより、次の(3)式により表されるスカラー量uおよびvを算出できる。なお、線形変換ベクトルaの次元数は、高次元データxの次元数に等しく、線形変換ベクトルbの次元数は、高次元データyの次元数に等しい。

Figure 2023094539000004
The estimating unit 118 can calculate scalar quantities u and v represented by the following equation (3) by calculating the inner product of the linear transformation vectors a and b for the two high-dimensional data x and y. The number of dimensions of the linear transformation vector a is equal to the number of dimensions of the high-dimensional data x, and the number of dimensions of the linear transformation vector b is equal to the number of dimensions of the high-dimensional data y.
Figure 2023094539000004

(3)式において、スカラー量u、vの相関係数が大きくなるように線形変換ベクトルaおよびbが求められる。推定部118は、スカラー量uおよびvを、相関係数が最大のもの、次に大きいもの、3番目に大きいものというように、順番に求めることができる。なお、正準相関分析で求めることができるスカラー量uおよびvの組の最大数は、元の高次元データのうち、次元数が小さいデータの次元数に等しい。例えば、(1)式および(2)式により表される高次元データを正準相関分析によって分析した結果、取得されるスカラー量uおよびvの組は2組である。 In equation (3), linear transformation vectors a and b are obtained so that the correlation coefficients of the scalar quantities u and v are large. The estimating unit 118 can obtain the scalar quantities u and v in order of the largest correlation coefficient, the next largest correlation coefficient, the third largest correlation coefficient, and so on. Note that the maximum number of pairs of scalar quantities u and v that can be obtained by the canonical correlation analysis is equal to the number of dimensions of data with a small number of dimensions among the original high-dimensional data. For example, as a result of analyzing the high-dimensional data represented by equations (1) and (2) by canonical correlation analysis, two sets of scalar quantities u and v are obtained.

正準相関分析によって得られたスカラー量uおよびvには強い相関関係があるため、スカラー量uおよびvの関係は、(4)式により表される線形曲線によって近似できる。

Figure 2023094539000005
(4)式における係数cおよびdは、例えば最小二乗法で求めることができる。 Since there is a strong correlation between the scalar quantities u and v obtained by the canonical correlation analysis, the relationship between the scalar quantities u and v can be approximated by a linear curve represented by Equation (4).
Figure 2023094539000005
The coefficients c and d in the equation (4) can be obtained, for example, by the method of least squares.

(4)式により表されるスカラー量uおよびvの組を、正準相関分析により2組求めることができれば、推定部118は、VCSEL素子それぞれに応じた高次元データyを以下の連立方程式に代入することにより視線方向の推定値を算出できる。

Figure 2023094539000006
If two pairs of scalar quantities u and v represented by equation (4) can be obtained by canonical correlation analysis, the estimation unit 118 converts the high-dimensional data y corresponding to each VCSEL element into the following simultaneous equations: By substituting, the estimated value of the line-of-sight direction can be calculated.
Figure 2023094539000006

(5)式における各変数の下添え字は、それぞれ正準相関分析で求めた相関係数に対応した変数である。例えば、最も値の大きい相関変数に対応する線形変換ベクトルは、a1およびb1と表すことができ、スカラー量uおよびvの線形近似パラメータは、c1およびd1と表すことができる。 The subscript of each variable in equation (5) is a variable corresponding to the correlation coefficient obtained by the canonical correlation analysis. For example, the linear transformation vectors corresponding to the largest correlation variables can be denoted as a1 and b1, and the linear approximation parameters of the scalar quantities u and v can be denoted as c1 and d1.

また、2番目に大きい相関変数に対応する線形変換ベクトルは、a2およびb2と表すことができ、スカラー量uおよびvの線形近似パラメータは、c2およびd2と表すことができる。 Also, the linear transformation vectors corresponding to the second largest correlation variables can be denoted as a2 and b2, and the linear approximation parameters of the scalar quantities u and v can be denoted as c2 and d2.

(5)式は、推定モデルを表す数式である。高次元データyに対応するデジタル電圧データDaが得られた時、推定部118は、デジタル電圧データDaを(5)式に代入することにより、視線方向情報Edに対応する高次元データxを推定できる。 Expression (5) is a mathematical expression representing an estimation model. When the digital voltage data Da corresponding to the high-dimensional data y is obtained, the estimating unit 118 substitutes the digital voltage data Da into Equation (5) to estimate the high-dimensional data x corresponding to the line-of-sight direction information Ed. can.

正準相関分析によって推定モデルを構築するために、視線方向の推定演算を実行する前に、予め高次元データxおよびyのサンプルデータが作成される。サンプルデータは、実験により取得されてもよいし、光学シミュレーションにより取得されてもよい。 In order to construct an estimation model by canonical correlation analysis, sample data of the high-dimensional data x and y are prepared in advance before performing the gaze direction estimation operation. The sample data may be obtained by experiments or may be obtained by optical simulations.

サンプルデータ数が多ければ多いほど、推定モデルによる推定精度が向上する。また、眼球30の個体差に対応するために、予め複数の推定モデルを作成しておき、最も精度が高いものを選択したり、眼球30ごとに推定モデルを作成したりすることにより、推定精度が向上する。 As the number of sample data increases, the estimation accuracy of the estimation model improves. Further, in order to deal with individual differences in the eyeballs 30, a plurality of estimation models are created in advance, and the model with the highest accuracy is selected, or an estimation model is created for each eyeball 30, thereby improving the estimation accuracy. improves.

<受光面41へのレーザ光L4の入射位置シミュレーション結果例>
次に、図8から図14を参照して、VCSELアレイ1から発光され、眼球30により反射されてフォトダイオード4の受光面41に入射するレーザ光L4の入射位置を、光学シミュレーションにより求めた結果について説明する。
<Example of simulation result of incident position of laser light L4 on light receiving surface 41>
Next, referring to FIGS. 8 to 14, the incident position of the laser light L4 emitted from the VCSEL array 1, reflected by the eyeball 30, and incident on the light receiving surface 41 of the photodiode 4 is determined by optical simulation. will be explained.

図8は、VCSELアレイ1に含まれるVCSEL素子11から16の全てから発光され、受光面41に入射したレーザ光L4の入射位置を示している。図9から図14は、VCSEL素子11から16のそれぞれに対応するレーザ光L4の入射位置を個別に示している。 FIG. 8 shows the incident positions of the laser beams L4 emitted from all of the VCSEL elements 11 to 16 included in the VCSEL array 1 and incident on the light receiving surface 41. FIG. 9 to 14 individually show the incident positions of the laser light L4 corresponding to the VCSEL elements 11 to 16, respectively.

図9はVCSEL素子11、図10はVCSEL素子12、図11はVCSEL素子13、図12はVCSEL素子14、図13はVCSEL素子15、図14はVCSEL素子16、からそれぞれ発光され、受光面41に入射したレーザ光L4の入射位置を示している。 9 shows VCSEL element 11, FIG. 10 shows VCSEL element 12, FIG. 11 shows VCSEL element 13, FIG. 12 shows VCSEL element 14, FIG. 13 shows VCSEL element 15, and FIG. shows the incident position of the laser beam L4 incident on .

図8から図14において、横軸はY方向に沿ったY方向位置[mm]示し、縦軸はZ方向に沿ったZ方向位置[mm]を表している。この光学シミュレーションでは、眼球30の視線方向は、正視方向、すなわちθx=0[度]、θz=0[度]とした。 8 to 14, the horizontal axis represents the Y-direction position [mm] along the Y-direction, and the vertical axis represents the Z-direction position [mm] along the Z-direction. In this optical simulation, the line-of-sight direction of the eyeball 30 is the stereoscopic direction, that is, θx=0 [degree] and θz=0 [degree].

四角枠により示したフォトダイオード4の受光面41の中心は、Y方向位置が0[mm]、Z方向位置が0[mm]に位置する。スポット411から416は、VCSEL素子11から16それぞれから発光され、受光面41近傍に到達したレーザ光L4のビームスポットを表している。 The center of the light receiving surface 41 of the photodiode 4 indicated by the rectangular frame is located at 0 [mm] in the Y direction and 0 [mm] in the Z direction. Spots 411 to 416 represent beam spots of the laser light L4 emitted from the VCSEL elements 11 to 16 and reaching the vicinity of the light receiving surface 41 .

スポット411はVCSEL素子11、スポット412はVCSEL素子12、スポット413はVCSEL素子13、スポット414はVCSEL素子14、スポット415はVCSEL素子15、スポット416はVCSEL素子16、それぞれから発光されたレーザ光Lに基づくビームスポットを表している。 The spot 411 is the VCSEL element 11, the spot 412 is the VCSEL element 12, the spot 413 is the VCSEL element 13, the spot 414 is the VCSEL element 14, the spot 415 is the VCSEL element 15, and the spot 416 is the VCSEL element 16. , representing the beam spot based on

図8から図14に示すように、スポット411から416それぞれの一部は、受光面41に入射する。このことから、視線検出装置10では、VCSELアレイ1に含まれるVCSEL素子11から16から発光され、眼球30により反射されたレーザ光L4は、受光面41に入射可能であることが分かった。 As shown in FIGS. 8-14, a portion of each of spots 411-416 is incident on light-receiving surface 41. FIG. From this, it was found that in the line-of-sight detection device 10 , the laser light L 4 emitted from the VCSEL elements 11 to 16 included in the VCSEL array 1 and reflected by the eyeball 30 can enter the light receiving surface 41 .

なお、隣接するスポット間の距離dはすべて、以下の式を満たしている。
|h-w/2|≦d≦h+w/2
All the distances d between adjacent spots satisfy the following formula.
|h−w/2|≦d≦h+w/2

なお、ここでは、スポット411から416それぞれの一部が受光面41に入射した例を示すが、スポット411から416のうちの少なくとも1つのスポット全体が受光面41に入射しても、視線検出装置10の作用効果が得られる。また、スポット411から416の少なくとも2つ以上が受光面41に入射すれば、視線検出装置10の作用効果が得られる。 Here, an example in which a part of each of the spots 411 to 416 is incident on the light receiving surface 41 is shown. 10 effects are obtained. Moreover, if at least two or more of the spots 411 to 416 are incident on the light receiving surface 41, the effects of the line-of-sight detection device 10 can be obtained.

<視線方向検出のシミュレーション>
次に、視線検出装置10による視線方向検出のシミュレーション方法とその結果について説明する。
<Simulation of line-of-sight direction detection>
Next, a simulation method of sight line direction detection by the sight line detection device 10 and its results will be described.

(シミュレーション方法)
まず眼球30の傾き範囲を-4[度]≦θx≦4[度]、-4[度]≦θy≦4[度]とし、予め定めた視線方向を示す61個の視線データごとにおいて、VCSELアレイ1に含まれる各VCSEL素子に応じた光強度データのサンプルを取得した。そして、このサンプルに基づき、正準相関分析を用いて推定モデルを作成した。
(Simulation method)
First, the tilt range of the eyeball 30 is set to −4 [degrees]≦θx≦4 [degrees] and −4 [degrees]≦θy≦4 [degrees]. A sample of light intensity data was acquired for each VCSEL element in array 1 . Based on this sample, an estimation model was created using canonical correlation analysis.

次に、推定モデルの作成に使用していない60個の視線データごとでの光強度データを、作成した推定モデルに代入して、視線データの推定値を求めた。 Next, the estimated value of the line-of-sight data was obtained by substituting the light intensity data for each of the 60 pieces of line-of-sight data that were not used to create the estimation model into the created estimation model.

次に、推定値と、視線データの正解値と、を比較した。 Next, the estimated value and the correct value of the line-of-sight data were compared.

(シミュレーション結果)
図15および図16は、視線検出装置10による視線方向検出のシミュレーション結果を例示する図である。図15は、X方向、換言すると水平方向における視線方向θxのシミュレーション結果を示し、図16は、Z方向、換言すると鉛直方向における視線方向θzのシミュレーション結果を示している。図15および図16において、横軸は、視線方向の正解値を表し、縦軸は、推定部118による推定値を表している。
(simulation result)
15 and 16 are diagrams illustrating simulation results of sight line direction detection by the sight line detection device 10. FIG. FIG. 15 shows the simulation result of the line-of-sight direction θx in the X direction, in other words, the horizontal direction, and FIG. 16 shows the simulation result of the line-of-sight direction θz in the Z direction, in other words, the vertical direction. In FIGS. 15 and 16 , the horizontal axis represents the correct value of the line-of-sight direction, and the vertical axis represents the estimated value by the estimation unit 118 .

図15および図16に示すように、正解値と推定値との間に相関関係があることが分かった。水平方向における視線方向推定結果の二乗平均平方根誤差(RMSE)Δθxは、0.8[度]、垂直方向における視線方向推定結果の二乗平均平方根誤差(RMSE)Δθzは、0.6[度]となった。 As shown in FIGS. 15 and 16, it was found that there is a correlation between the correct values and the estimated values. The root-mean-square error (RMSE) Δθx of the result of visual line direction estimation in the horizontal direction is 0.8 [degree], and the root-mean-square error (RMSE) Δθz of the result of visual line direction estimation in the vertical direction is 0.6 [degree]. became.

図15および図16のシミュレーション結果から、視線検出装置10が、フォトダイオード4から出力される電気信号Seに基づいて視線方向を推定し、視線方向情報Edを取得できることが分かった。 From the simulation results of FIGS. 15 and 16, it was found that the line-of-sight detection device 10 can estimate the line-of-sight direction based on the electrical signal Se output from the photodiode 4 and obtain the line-of-sight direction information Ed.

<比較例、変形例>
(比較例)
図17は、比較例に係るVCSELアレイ1Xに含まれるVCSEL素子11Xから16Xの配置を示す図である。この比較例は、実施形態と比較して、VCSEL素子11Xから16Xの配置、およびフォトダイオード4に入射するレーザ光L4の広がり角がそれぞれ異なっている。
<Comparative example, modified example>
(Comparative example)
FIG. 17 is a diagram showing the arrangement of VCSEL elements 11X to 16X included in a VCSEL array 1X according to a comparative example. This comparative example differs from the embodiment in the arrangement of the VCSEL elements 11X to 16X and the divergence angle of the laser light L4 incident on the photodiode 4, respectively.

具体的には、比較例では、図17に示すように、VCSEL素子11XとVCSEL素子12X、VCSEL素子12XとVCSEL素子13X、VCSEL素子14XとVCSEL素子15X、およびVCSEL素子15XとVCSEL素子16X、のそれぞれのY方向に沿った間隔は、間隔Dである。これに対し、VCSEL素子11XとVCSEL素子14X、VCSEL素子12XとVCSEL素子15X、およびVCSEL素子13XとVCSEL素子16X、のそれぞれのZ方向に沿った間隔は、間隔Dの2倍である。 Specifically, in the comparative example, as shown in FIG. 17, VCSEL element 11X and VCSEL element 12X, VCSEL element 12X and VCSEL element 13X, VCSEL element 14X and VCSEL element 15X, and VCSEL element 15X and VCSEL element 16X The distance along each Y direction is the distance D. FIG. On the other hand, the distances in the Z direction between VCSEL elements 11X and 14X, between VCSEL elements 12X and 15X, and between VCSEL elements 13X and 16X are twice the distance D.

また、比較例では、図17のVCSELアレイ1Xの配置において、フォトダイオード4に入射するレーザ光L4の広がり角が、実施形態に係る広がり角φよりも小さい。 Further, in the comparative example, in the arrangement of the VCSEL array 1X in FIG. 17, the spread angle of the laser light L4 incident on the photodiode 4 is smaller than the spread angle φ according to the embodiment.

以上により、比較例では、各VCSEL素子から発光されたレーザ光Lのうち、1つのVCSEL素子から発光され、眼球30により反射された1つのレーザ光L4しか、受光面41に入射しない状態になっている。換言すると、比較例では、フォトダイオード4は、複数のVCSEL素子から発光され、眼球30により反射された複数のレーザ光L4を受光できない。 As described above, in the comparative example, of the laser beams L emitted from the respective VCSEL elements, only one laser beam L4 emitted from one VCSEL element and reflected by the eyeball 30 enters the light receiving surface 41. ing. In other words, in the comparative example, the photodiode 4 cannot receive the multiple laser beams L4 emitted from the multiple VCSEL elements and reflected by the eyeball 30 .

図18は、VCSELアレイ1Xに含まれるVCSEL素子11Xから16X全てから発光され、受光面41に入射したレーザ光L4の入射位置を、光学シミュレーションにより求めた結果を示す図である。 FIG. 18 is a diagram showing results obtained by optical simulation of the incident positions of the laser beams L4 emitted from all the VCSEL elements 11X to 16X included in the VCSEL array 1X and incident on the light receiving surface 41. FIG.

上述した図8と同様に、横軸はY方向に沿ったY方向位置[mm]示し、縦軸はZ方向に沿ったZ方向位置[mm]を表している。眼球30の視線方向は、正視方向、すなわちθx=0[度]、θz=0[度]とした。 As in FIG. 8 described above, the horizontal axis represents the Y-direction position [mm] along the Y-direction, and the vertical axis represents the Z-direction position [mm] along the Z-direction. The line-of-sight direction of the eyeball 30 is the stereoscopic direction, that is, θx=0 [degree] and θz=0 [degree].

図18において、四角枠により示したフォトダイオード4の受光面41の中心は、Y方向位置が0[mm]、Z方向位置が0[mm]に位置する。スポット411Xから416Xは、VCSEL素子11Xから16Xそれぞれから発光され、眼球30により反射された後、受光面41近傍に到達したレーザ光L4のビームスポットを表している。 In FIG. 18, the center of the light receiving surface 41 of the photodiode 4 indicated by the rectangular frame is positioned at 0 [mm] in the Y direction and 0 [mm] in the Z direction. Spots 411X to 416X represent beam spots of laser light L4 that is emitted from the VCSEL elements 11X to 16X, reflected by the eyeball 30, and reaches the vicinity of the light receiving surface 41. FIG.

スポット411XはVCSEL素子11X、スポット412XはVCSEL素子12、スポット413XはVCSEL素子13、スポット414XはVCSEL素子14、スポット415XはVCSEL素子15、スポット416XはVCSEL素子16、それぞれから発光されたレーザ光Lに基づくビームスポットを表している。 Spot 411X is the VCSEL element 11X, spot 412X is the VCSEL element 12, spot 413X is the VCSEL element 13, spot 414X is the VCSEL element 14, spot 415X is the VCSEL element 15, and spot 416X is the VCSEL element 16. , representing the beam spot based on

図18に示すように、比較例に係る光学シミュレーションでは、スポット411Xから416Xのうちのスポット415Xしか受光面41に入射していない。 As shown in FIG. 18 , in the optical simulation according to the comparative example, only spot 415X among spots 411X to 416X is incident on light receiving surface 41 .

図19および図20は、比較例に係る視線方向検出のシミュレーション結果を示す図である。図19は、X方向における視線方向θxのシミュレーション結果を示す図、図20は、Z方向における視線方向θzのシミュレーション結果を示す図である。 19 and 20 are diagrams showing simulation results of line-of-sight direction detection according to the comparative example. FIG. 19 is a diagram showing simulation results of the line-of-sight direction θx in the X direction, and FIG. 20 is a diagram showing simulation results of the line-of-sight direction θz in the Z direction.

図19および図20の見方は、上述した図15および図16と同様であり、シミュレーション方法も、上述した図15および図16を求めた方法と同様である。 The view of FIGS. 19 and 20 is the same as that of FIGS. 15 and 16 described above, and the simulation method is also the same as the method of obtaining FIGS. 15 and 16 described above.

図19および図20に示すように、比較例では、実施形態と比較して、正解値と推定値との間に高い相関関係が得られなかった。特に、図20のZ方向における視線方向θzでは、正解値と推定値との間の相関が低くなった。 As shown in FIGS. 19 and 20, in the comparative example, a high correlation between the correct value and the estimated value was not obtained as compared with the embodiment. In particular, in the viewing direction θz in the Z direction in FIG. 20, the correlation between the correct value and the estimated value was low.

図19および図20のシミュレーション結果から、比較例では、フォトダイオード4から出力される電気信号Seに基づいて視線方向を正確に推定できないことが分かった。 From the simulation results of FIGS. 19 and 20, it was found that the line-of-sight direction cannot be accurately estimated based on the electrical signal Se output from the photodiode 4 in the comparative example.

(変形例)
図21は、実施形態の変形例に係るVCSELアレイ1aに含まれるVCSEL素子11aから17aの配置の一例を示す図である。この変形例では、第1実施形態に係るVCSELアレイ1と比較して、VCSEL素子11aから17aの配置のみが異なっている。
(Modification)
FIG. 21 is a diagram showing an example of arrangement of VCSEL elements 11a to 17a included in a VCSEL array 1a according to a modification of the embodiment. This modification differs from the VCSEL array 1 according to the first embodiment only in the arrangement of the VCSEL elements 11a to 17a.

具体的には、変形例では、VCSEL素子11aから17aは、-X方向側から視た平面視において、六方最密状に配置されている。VCSEL素子11aから17aのうち、隣り合うVCSEL素子同士の間隔は、いずれも間隔Dである。 Specifically, in the modified example, the VCSEL elements 11a to 17a are arranged in a hexagonal close-packed manner in a plan view viewed from the -X direction side. The interval between adjacent VCSEL elements among the VCSEL elements 11a to 17a is the interval D in each case.

このような変形例の配置においても、フォトダイオード4は、VCSEL素子11aから17aのうち、複数のVCSEL素子から発光され、眼球30により反射された複数のレーザ光L4を受光できる。 Even in the arrangement of such a modified example, the photodiode 4 can receive a plurality of laser beams L4 emitted from a plurality of VCSEL elements among the VCSEL elements 11a to 17a and reflected by the eyeball 30. FIG.

図22は、VCSELアレイ1aに含まれるVCSEL素子11aから17a全てから発光され、受光面41に入射したレーザ光L4の入射位置を示す図である。図23から図29は、VCSEL素子11aから17aのそれぞれから発光され、受光面41に入射したレーザ光L4の入射位置をVCSEL素子ごとに個別に示す図である。 FIG. 22 is a diagram showing the incident positions of the laser beams L4 emitted from all the VCSEL elements 11a to 17a included in the VCSEL array 1a and incident on the light receiving surface 41. FIG. 23 to 29 are diagrams showing incident positions of the laser beams L4 emitted from the VCSEL elements 11a to 17a and incident on the light receiving surface 41 for each VCSEL element.

図23はVCSEL素子11a、図24はVCSEL素子12a、図25はVCSEL素子13a、図26はVCSEL素子14a、図27はVCSEL素子15a、図28はVCSEL素子16a、図29はVCSEL素子17aからそれぞれ発光され、受光面41に入射したレーザ光L4の入射位置を示している。 23 shows VCSEL element 11a, FIG. 24 shows VCSEL element 12a, FIG. 25 shows VCSEL element 13a, FIG. 26 shows VCSEL element 14a, FIG. 27 shows VCSEL element 15a, FIG. 28 shows VCSEL element 16a, and FIG. The incident position of the laser beam L4 emitted and incident on the light receiving surface 41 is shown.

図22から図29において、横軸はY方向に沿ったY方向位置[mm]示し、縦軸はZ方向に沿ったZ方向位置[mm]を表している。この光学シミュレーションでは、眼球30の視線方向は、正視方向、すなわちθx=0[度]、θz=0[度]とした。 22 to 29, the horizontal axis indicates the Y-direction position [mm] along the Y-direction, and the vertical axis indicates the Z-direction position [mm] along the Z-direction. In this optical simulation, the line-of-sight direction of the eyeball 30 is the stereoscopic direction, that is, θx=0 [degree] and θz=0 [degree].

四角枠により示したフォトダイオード4の受光面41の中心は、Y方向位置が0[mm]、Z方向位置が0[mm]に位置する。スポット411aから417aは、VCSEL素子11から17それぞれから発光され、受光面41近傍に到達したレーザ光L4のビームスポットを表している。 The center of the light receiving surface 41 of the photodiode 4 indicated by the rectangular frame is located at 0 [mm] in the Y direction and 0 [mm] in the Z direction. Spots 411 a to 417 a represent beam spots of laser light L 4 emitted from the VCSEL elements 11 to 17 and reaching the vicinity of the light receiving surface 41 .

スポット411aはVCSEL素子11a、スポット412aはVCSEL素子12a、スポット413aはVCSEL素子13a、スポット414aはVCSEL素子14a、スポット415aはVCSEL素子15a、スポット416aはVCSEL素子16a、スポット417aはVCSEL素子17a、それぞれから発光されたレーザ光Lに基づくビームスポットを表している。 Spot 411a is for VCSEL element 11a, spot 412a is for VCSEL element 12a, spot 413a is for VCSEL element 13a, spot 414a is for VCSEL element 14a, spot 415a is for VCSEL element 15a, spot 416a is for VCSEL element 16a, and spot 417a is for VCSEL element 17a. A beam spot based on laser light L emitted from .

図22に示すように、変形例に係る光学シミュレーションでは、スポット411aから416aそれぞれの一部が全て受光面41に入射している。図23から図29では、スポット411aから417aそれぞれの一部が受光面41に入射している。 As shown in FIG. 22 , in the optical simulation according to the modification, all of the spots 411 a to 416 a are partially incident on the light receiving surface 41 . 23 to 29, a portion of each of the spots 411a to 417a is incident on the light receiving surface 41. In FIGS.

図30および図31は、変形例に係る視線方向検出のシミュレーション結果を示す図である。図30は、X方向における視線方向θxのシミュレーション結果、図31は、Z方向における視線方向θzのシミュレーション結果、をそれぞれ示している。 30 and 31 are diagrams showing simulation results of line-of-sight direction detection according to the modification. FIG. 30 shows the simulation result of the line-of-sight direction θx in the X direction, and FIG. 31 shows the simulation result of the line-of-sight direction θz in the Z direction.

図30および図31の見方は、上述した図15および図16と同様であり、シミュレーション方法は、上述した図15および図16を求めた方法と同様である。 The view of FIGS. 30 and 31 is the same as that of FIGS. 15 and 16 described above, and the simulation method is the same as the method of obtaining FIGS. 15 and 16 described above.

図30および図31に示すように、変形例においても正解値と推定値との間に相関関係があることが分かった。水平方向における視線方向推定結果の二乗平均平方根誤差(RMSE)Δθxは、0.6[度]、垂直方向における視線方向推定結果の二乗平均平方根誤差(RMSE)Δθzは、0.3[度]となった。 As shown in FIGS. 30 and 31, it was found that there is a correlation between the correct value and the estimated value also in the modified example. The root-mean-square error (RMSE) Δθx of the result of visual line direction estimation in the horizontal direction is 0.6 [degrees], and the root-mean-square error (RMSE) Δθz of the result of visual line direction estimation in the vertical direction is 0.3 [degrees]. became.

図30および図31のシミュレーション結果から、変形例に係るVCSELアレイ1aを有する視線検出装置10は、フォトダイオード4から出力される電気信号Seに基づいて視線方向を推定し、視線方向情報Edを取得できることが分かった。 From the simulation results of FIGS. 30 and 31, the line-of-sight detection device 10 having the VCSEL array 1a according to the modification estimates the line-of-sight direction based on the electrical signal Se output from the photodiode 4, and obtains the line-of-sight direction information Ed. I found it possible.

<視線検出装置10の作用効果>
次に、視線検出装置10の作用効果について説明する。
<Action and effect of line-of-sight detection device 10>
Next, the effects of the line-of-sight detection device 10 will be described.

昨今、「拡張現実(AR)」や「仮想現実(VR)」にまつわる技術が注目を集めている。特にAR技術は、娯楽目的のみならず、製造現場や医療現場での作業支援など、幅広い分野での応用が期待できる。 Recently, technologies related to "augmented reality (AR)" and "virtual reality (VR)" are attracting attention. In particular, AR technology is expected to be applied not only for entertainment purposes but also in a wide range of fields such as work support at manufacturing sites and medical sites.

ARを表示する機器として、眼鏡型の映像表示装置が開発されている。中でも、網膜上に直接映像を投影する網膜投影型表示装置は、投影された映像に目の焦点を合わせる必要がないという利点がある。これによって、外界の物体に目の焦点を合わせつつ、常に鮮明なAR映像を観ることができる。さらに、ユーザの視線方向を追尾する視線検出(アイトラッキング)技術を組み合わせることにより、ディスプレイの高画角化や、視線による表示映像の操作が可能となる。 Glasses-type image display devices have been developed as devices for displaying AR. Among them, a retinal projection display device that projects an image directly onto the retina has the advantage that it is not necessary to focus the eye on the projected image. With this, you can always see a clear AR image while keeping your eyes focused on an object in the outside world. Furthermore, by combining eye-tracking technology that tracks the user's line-of-sight direction, it is possible to increase the angle of view of the display and to operate the displayed image by the line of sight.

眼鏡型の映像表示装置では、眼球の傾きを検出し、映像表示装置を装着した人間の視線方向を検出する視線検出装置が使用される。このような視線検出装置として、眼球の傾きを高精度に検出するために、眼球に照射したレーザ光をMEMSミラーにより走査させ、走査される光の眼球による反射光を検出する構成が開示されている。 The glasses-type image display device uses a line-of-sight detection device that detects the inclination of the eyeball and detects the line-of-sight direction of the person wearing the image display device. As such a line-of-sight detection device, in order to detect the inclination of the eyeball with high accuracy, a configuration is disclosed in which the eyeball is scanned with a laser beam irradiated by a MEMS mirror, and the reflected light of the scanned light from the eyeball is detected. there is

しかしながら、開示されている上記構成では、可動部であるMEMSミラーを用いるため、視線検出装置の構成が複雑になるうえに、MEMSミラーを安定して駆動させるための駆動回路等の構成も複雑になる。 However, since the disclosed configuration uses the MEMS mirror, which is a movable part, the configuration of the line-of-sight detection device is complicated, and the configuration of the driving circuit for stably driving the MEMS mirror is also complicated. Become.

本実施形態に係る視線検出装置10(傾き検出装置)は、VCSELアレイ1(複数の発光部)と、VCSELアレイ1により発光され、眼球30により反射されたレーザ光L4(対象物により反射された)を受光し、受光したレーザ光L4の光強度に基づく電気信号Seを出力するフォトダイオード(受光手段)と、を有する。また視線検出装置10は、フォトダイオード4から出力される電気信号Seに基づいて、眼球30の視線方向情報Ed(対象物の傾きの検出結果)を出力する処理部100(出力手段)を有する。 The line-of-sight detection device 10 (tilt detection device) according to the present embodiment includes a VCSEL array 1 (plurality of light emitting units), and a laser beam L4 emitted by the VCSEL array 1 and reflected by the eyeball 30 (reflected by the object). ) and outputs an electric signal Se based on the light intensity of the received laser light L4. The line-of-sight detection device 10 also has a processing unit 100 (output means) that outputs line-of-sight direction information Ed (detection result of the inclination of the object) of the eyeball 30 based on the electrical signal Se output from the photodiode 4 .

フォトダイオード4は、眼球30(対象物)の傾きがほぼ同じである状態において、複数のVCSEL素子から発光され、眼球30により反射された複数のレーザ光L4(対象物に反射された複数の光)を受光する。 The photodiode 4 emits light from a plurality of VCSEL elements in a state in which the inclination of the eyeball 30 (object) is substantially the same, and emits a plurality of laser beams L4 reflected by the eyeball 30 (a plurality of light beams reflected by the object). ).

視線検出装置10は、VCSELアレイ1から発光された複数のレーザ光L1に基づいて眼球30の傾きを検出するため、MEMSミラー等の可動部、および該可動部を駆動させるための駆動回路を用いずに眼球30の傾きを検出できる。MEMSミラー等の可動部、および該可動部を駆動させるための駆動回路を用いないことにより、視線検出装置10の構成を簡素化できる。また、視線検出装置10の構成を簡素化することにより、視線検出装置10を小型化し、あるいは視線検出装置10の製作コストを低減することができる。 The line-of-sight detection device 10 detects the inclination of the eyeball 30 based on the plurality of laser beams L1 emitted from the VCSEL array 1, and therefore uses a movable part such as a MEMS mirror and a drive circuit for driving the movable part. The tilt of the eyeball 30 can be detected without any need. By not using a movable part such as a MEMS mirror and a drive circuit for driving the movable part, the configuration of the line-of-sight detection device 10 can be simplified. In addition, by simplifying the configuration of the line-of-sight detection device 10, the line-of-sight detection device 10 can be made smaller, or the manufacturing cost of the line-of-sight detection device 10 can be reduced.

また、視線検出装置10は、複数のVCSEL素子から発光され、眼球30により反射された複数のレーザ光L4を受光するため、フォトダイオード4からの電気信号Seに基づいて眼球30の動きを追尾できる。視線検出装置10は、PSD等の他の受光手段を用いて眼球30の動きを追尾する場合と比較して、受光手段の構成を簡素化し、且つ受光手段を駆動させる駆動手段の構成を簡素化できる。 In addition, since the line-of-sight detection device 10 receives a plurality of laser beams L4 emitted from a plurality of VCSEL elements and reflected by the eyeball 30, the movement of the eyeball 30 can be tracked based on the electrical signal Se from the photodiode 4. . The line-of-sight detection device 10 simplifies the configuration of the light receiving means and the configuration of the driving means for driving the light receiving means, compared to the case of tracking the movement of the eyeball 30 using other light receiving means such as PSD. can.

以上のようにして、本実施形態では、構成が簡素な視線検出装置を提供できる。 As described above, the present embodiment can provide a line-of-sight detection device with a simple configuration.

また、本実施形態では、VCSELアレイ1は、VCSELアレイ1の発光面1Aに沿ったX方向およびY方向(所定方向)に沿って並んで設けられ、VCSELアレイ1における隣り合うVCSEL素子同士のX方向およびY方向に沿った間隔Dは、いずれも等しい。これにより、フォトダイオード4は、複数のVCSEL素子から発光され、眼球30により反射された複数のレーザ光L4を受光できる。この結果、視線検出装置10は上述した効果を得ることができる。 In the present embodiment, the VCSEL array 1 is provided side by side along the X direction and the Y direction (predetermined direction) along the light emitting surface 1A of the VCSEL array 1. The spacing D along both the direction and the Y direction are equal. Thereby, the photodiode 4 can receive a plurality of laser beams L4 emitted from the plurality of VCSEL elements and reflected by the eyeball 30. FIG. As a result, the line-of-sight detection device 10 can obtain the effects described above.

また、視線検出装置10は、VCSEL素子11から16がY方向およびZ方向(異なる2つの方向)それぞれに沿って並んで設けられているため、Y軸周りおよびZ軸周りの眼球30の動きを追尾できる。これにより、視線検出装置10は、眼球30の傾き検出範囲を拡大し、視線検出装置10による視線方向の検出範囲を拡大することができる。 In addition, since the VCSEL elements 11 to 16 are arranged in the line-of-sight detection device 10 along the Y direction and the Z direction (two different directions), the line of sight detection device 10 detects the movement of the eyeball 30 around the Y axis and the Z axis. can be tracked. Thereby, the line-of-sight detection device 10 can expand the tilt detection range of the eyeball 30 and the detection range of the line-of-sight direction by the line-of-sight detection device 10 .

また、本実施形態では、VCSELアレイ1における複数のVCSEL素子から発光され、眼球30によって反射された複数のレーザ光L4同士は、少なくとも一部がフォトダイオード4の受光面41上において重なる。これにより、複数のレーザ光L4同士を受光面41上に密な間隔で入射させることができるため、フォトダイオード4は、複数のVCSEL素子から発光され、眼球30により反射された複数のレーザ光L4を受光しやすくなる。 Further, in this embodiment, at least a portion of the plurality of laser beams L4 emitted from the plurality of VCSEL elements in the VCSEL array 1 and reflected by the eyeball 30 overlap on the light receiving surface 41 of the photodiode 4 . As a result, the plurality of laser beams L4 can be incident on the light receiving surface 41 at close intervals. is easier to receive.

また、本実施形態では、VCSELアレイ1における隣り合うVCSEL素子同士のY方向およびZ方向に沿った間隔Dの長さは、フォトダイオード4の受光面41のY方向およびZ方向に沿った長さである幅wよりも短い。これにより、複数のレーザ光L4同士を受光面41上に密な間隔で入射させることができるため、フォトダイオード4は、複数のVCSEL素子から発光され、眼球30により反射された複数のレーザ光L4を受光しやすくなる。 In this embodiment, the length of the interval D along the Y and Z directions between adjacent VCSEL elements in the VCSEL array 1 is the length of the light receiving surface 41 of the photodiode 4 along the Y and Z directions. is shorter than the width w. As a result, the plurality of laser beams L4 can be incident on the light receiving surface 41 at close intervals. is easier to receive.

また、本実施形態では、眼球30によって反射されたレーザ光L4は、フォトダイオード4に近づくにつれて広がる。これにより、レーザ光L4のスポットサイズを大きくできるため、フォトダイオード4は、複数のVCSEL素子から発光され、眼球30により反射された複数のレーザ光L4を受光しやすくなる。また、レーザ光L4のスポットサイズを大きくできるため、レーザ光L4の少なくとも一部を受光面41に入射させやすくなり、視線検出装置10は、視線方向検出の安定性を向上させることができる。 In addition, in this embodiment, the laser light L4 reflected by the eyeball 30 spreads as it approaches the photodiode 4 . As a result, the spot size of the laser beam L4 can be increased, so that the photodiode 4 can easily receive the multiple laser beams L4 emitted from the multiple VCSEL elements and reflected by the eyeball 30 . In addition, since the spot size of the laser beam L4 can be increased, at least part of the laser beam L4 can be easily incident on the light receiving surface 41, and the sight line detection device 10 can improve the stability of sight line direction detection.

なお、本実施形態では、凹面ミラー3を用いて集束されるレーザ光L3が眼球30に照射される構成を例示したが、これに限定されるものではない。図32に示すように、視線検出装置10は、凹面ミラーを有さずに、レンズ2により集束されるレーザ光L2が眼球30に入射するように構成されてもよい。また、図33に示すように、視線検出装置10は、凹面ミラーおよびレンズを有さずに、VCSELアレイ1から発光されたレーザ光L1が直接、眼球30に入射するように構成されてもよい。例えば、図32は、凹面ミラーを有さずに、レンズ2により集束されるレーザ光L2が眼球30に入射するように構成される場合を示す。VCSELアレイ1から出射されるレーザ光を、凹面ミラーを介さずに眼球30に入射する構成となるため、光学素子の部品点数を減らすことができ、製作コストを低減することができる。一方で、凹面ミラーを有することは、フォトダイオード4を処理部の近傍に設置することが可能であるため、フォトダイオード4の出力信号のノイズを低減できる点で望ましい。 In this embodiment, the eyeball 30 is irradiated with the laser beam L3 converged using the concave mirror 3, but the present invention is not limited to this. As shown in FIG. 32 , the line-of-sight detection device 10 may be configured such that the laser light L2 converged by the lens 2 is incident on the eyeball 30 without having a concave mirror. Alternatively, as shown in FIG. 33, the line-of-sight detection device 10 may be configured such that the laser light L1 emitted from the VCSEL array 1 is directly incident on the eyeball 30 without having a concave mirror and lens. . For example, FIG. 32 shows a case where laser light L2 focused by lens 2 is configured to enter eyeball 30 without a concave mirror. Since the laser light emitted from the VCSEL array 1 is configured to enter the eyeball 30 without passing through the concave mirror, the number of optical elements can be reduced, and the manufacturing cost can be reduced. On the other hand, having a concave mirror is desirable in that noise in the output signal of the photodiode 4 can be reduced because the photodiode 4 can be installed in the vicinity of the processing section.

[第2実施形態]
次に、第2実施形態に係る視線検出装置10aについて説明する。なお、第1実施形態と同一の構成部には、同一の符号を付し、重複する説明を適宜省略する。この点は、以降に示す他の実施形態の説明においても同様とする。
[Second embodiment]
Next, the line-of-sight detection device 10a according to the second embodiment will be described. In addition, the same code|symbol is attached|subjected to the structure part same as 1st Embodiment, and the overlapping description is abbreviate|omitted suitably. This point also applies to the description of other embodiments shown below.

<処理部100aの機能構成例>
図34は、本実施形態に係る視線検出装置10aが有する処理部100aの機能構成の一例を示すブロック図である。図34に示すように、処理部100aは、符号化部120と、光源変調部121と、内積演算部122と、第2蓄積部123と、を有する。
<Functional Configuration Example of Processing Unit 100a>
FIG. 34 is a block diagram showing an example of the functional configuration of the processing unit 100a included in the line-of-sight detection device 10a according to this embodiment. As shown in FIG. 34, the processing unit 100a includes an encoding unit 120, a light source modulation unit 121, an inner product calculation unit 122, and a second accumulation unit 123.

視線検出装置10aは、光源変調部121により、直交性を有する符号によって時間変調されたレーザ光Lを発するようにVCSELアレイ1による発光を制御する。また、視線検出装置10aは、処理部100aにより、フォトダイオード4から出力される電気信号Seに基づいて、複数の時間変調されたレーザ光L4を分離検出する。これにより、本実施形態では、処理部100aの処理時間および処理負荷を低減する。また、本実施形態では、眼球30に入射させるレーザ光L4の光強度が小さい場合にも背景光の影響を除去して視線検出精度を高く確保する。 The line-of-sight detection device 10a controls light emission by the VCSEL array 1 so that the light source modulation unit 121 emits the laser light L time-modulated by codes having orthogonality. Further, the line-of-sight detection device 10a separates and detects a plurality of time-modulated laser beams L4 based on the electrical signal Se output from the photodiode 4 by the processing unit 100a. Thereby, in this embodiment, the processing time and processing load of the processing unit 100a are reduced. Further, in the present embodiment, even when the light intensity of the laser beam L4 incident on the eyeball 30 is low, the effect of background light is removed to ensure high line-of-sight detection accuracy.

処理部100aは、CPU101がROM102に格納された所定のプログラムを実行すること等により、符号化部120および内積演算部122の各機能を実現し、光源駆動回路105等により光源変調部121の機能を実現する。また処理部100aは、RAM103等により第2蓄積部123の機能を実現する。 The processing unit 100a realizes the functions of the encoding unit 120 and the inner product calculation unit 122 by executing a predetermined program stored in the ROM 102 by the CPU 101, and the functions of the light source modulation unit 121 by the light source driving circuit 105 and the like. Realize Also, the processing unit 100a realizes the function of the second storage unit 123 using the RAM 103 and the like.

符号化部120は、複数の符号化データを生成し、光源変調部121を介してVCSELアレイ1のVCSEL素子のそれぞれに符号化データを割り当てる。また、符号化部120は、内積演算部122による内積演算のために、VCSEL素子に割り当てた符号化データと同じデータを、参照データRfとして内積演算部122に出力する。 The encoder 120 generates a plurality of encoded data and assigns the encoded data to each VCSEL element of the VCSEL array 1 via the light source modulator 121 . In addition, for the inner product operation by the inner product operation unit 122, the encoding unit 120 outputs the same data as the encoded data assigned to the VCSEL element to the inner product operation unit 122 as the reference data Rf.

符号化データは、直交性を有する符号を含む。この符号は、例えばアダマール符号である。アダマール符号とは、信号の誤り検出訂正に使われる符号体系をいう。また、符号化データは、VCSELアレイ1におけるVCSEL素子の位置に応じて異なるものが作成され、SSD104等に記憶される。符号化部120は、SSD104等を参照してVCSEL素子の位置に応じて取得した符号化データを、対応するVCSEL素子に割り当てることができる。 The encoded data includes codes having orthogonality. This code is, for example, a Hadamard code. A Hadamard code is a code system used for error detection and correction of signals. Different encoded data are created according to the positions of the VCSEL elements in the VCSEL array 1 and stored in the SSD 104 or the like. The encoding unit 120 can allocate the encoded data acquired according to the position of the VCSEL element to the corresponding VCSEL element by referring to the SSD 104 or the like.

光源変調部121は、直交性を有する符号によって時間変調されたレーザ光L1を発するように、VCSELアレイ1による発光を制御する制御部の一例である。具体的には、光源変調部121は、符号化部120から入力した符号化データに基づいて電流変調された駆動信号Drを各VCSEL素子に出力することにより、レーザ光L1を時間変調しつつ、全てのVCSEL素子を並行して発光させる。なお、光源変調部121は1つに限らず、処理部100aは、VCSELアレイ1に含まれるVCSEL素子の個数分の光源変調部121を有してもよい。 The light source modulation unit 121 is an example of a control unit that controls light emission by the VCSEL array 1 so as to emit laser light L1 time-modulated by codes having orthogonality. Specifically, the light source modulation unit 121 outputs a current-modulated drive signal Dr to each VCSEL element based on the encoded data input from the encoding unit 120, thereby temporally modulating the laser light L1. All VCSEL elements are made to emit light in parallel. The number of light source modulation units 121 is not limited to one, and the processing unit 100 a may have as many light source modulation units 121 as the number of VCSEL elements included in the VCSEL array 1 .

内積演算部122は、第1蓄積部116を参照して、第1蓄積部116に蓄積された所定の符号周期の1周期分のデジタル電圧データDaを取得し、このデジタル電圧データDaと、符号化部120から入力した参照データRfと、の内積演算を実行する。内積演算部122は、符号化に用いた全ての符号化データを用いて内積演算を行い、内積演算結果を第2蓄積部123に蓄積させる。内積演算部122は、全ての符号化データを用いて内積演算を行うことにより、符号化データの直交性を利用して、各VCSEL素子に応じたデジタル電圧データDaを分離検出できる。 The inner product calculation unit 122 refers to the first storage unit 116 to acquire the digital voltage data Da for one cycle of the predetermined code cycle stored in the first storage unit 116, and obtains the digital voltage data Da and the code and the reference data Rf input from the transforming unit 120 are calculated. The inner product calculation unit 122 performs inner product calculation using all encoded data used for encoding, and causes the second accumulation unit 123 to accumulate the inner product calculation results. The inner product calculation unit 122 can separate and detect the digital voltage data Da corresponding to each VCSEL element by using the orthogonality of the encoded data by performing the inner product calculation using all the encoded data.

<処理部100aによる処理例>
図35は、処理部100aによる処理の一例を示すフローチャートである。処理部100aは、例えばユーザによる開始操作入力信号に応じて、図35の処理を開始する。
<Example of Processing by Processing Unit 100a>
FIG. 35 is a flowchart showing an example of processing by the processing unit 100a. The processing unit 100a starts the processing of FIG. 35, for example, in response to a user's start operation input signal.

まず、ステップS331において、処理部100aは、符号化部120により、複数の符号化データを生成し、光源変調部121を介してVCSELアレイ1のVCSEL素子それぞれに符号化データを割り当てる。また符号化部120は、内積演算部122に参照データRfを出力する。 First, in step S331, the processing unit 100a causes the encoding unit 120 to generate a plurality of encoded data, and assigns the encoded data to each VCSEL element of the VCSEL array 1 via the light source modulation unit 121. The encoding unit 120 also outputs the reference data Rf to the inner product calculation unit 122 .

続いて、ステップS332において、処理部100aは、光源変調部121により、符号化データに基づいて時間変調した駆動信号DrをVCSELアレイ1へ出力する。駆動信号Drが印加されたVCSEL素子は、駆動信号Drに応じてレーザ光L1を発光する。レーザ光L1は、レンズ2および凹面ミラー3を経た後、眼球30により反射されてレーザ光L4としてフォトダイオード4に入射する。フォトダイオード4は、受光したレーザ光L4の光強度に応じた電気信号Seを処理部100aに出力する。 Subsequently, in step S332, the processing unit 100a outputs the drive signal Dr time-modulated based on the encoded data to the VCSEL array 1 by the light source modulation unit 121. FIG. The VCSEL element to which the drive signal Dr is applied emits laser light L1 according to the drive signal Dr. After passing through the lens 2 and the concave mirror 3, the laser beam L1 is reflected by the eyeball 30 and enters the photodiode 4 as the laser beam L4. The photodiode 4 outputs an electrical signal Se corresponding to the light intensity of the received laser beam L4 to the processing unit 100a.

続いて、ステップS333において、処理部100aは、フォトダイオード4からの電気信号SeをI/V変換部114によりアナログ電圧信号に変換し、その後、A/D変換部115によりデジタル電圧データDaに変換する。処理部100aは、第1蓄積部116により、発光したVCSEL素子に対応付けてデジタル電圧データDaを符号周期1周期分、蓄積する。 Subsequently, in step S333, the processing unit 100a causes the I/V conversion unit 114 to convert the electrical signal Se from the photodiode 4 into an analog voltage signal, and then the A/D conversion unit 115 to convert it into digital voltage data Da. do. The processing unit 100a causes the first storage unit 116 to store the digital voltage data Da for one code cycle in association with the VCSEL element that emits light.

続いて、ステップS334において、処理部100aは、内積演算部122により、第1蓄積部116を参照して、第1蓄積部116に蓄積された所定の符号周期の1周期分のデジタル電圧データDaを取得し、このデジタル電圧データDaと、符号化部120から入力した参照データRfと、の内積演算を実行する。内積演算部122は、符号化に用いた全ての符号化データを用いて内積演算を行い、内積演算結果を第2蓄積部123に蓄積させる。 Subsequently, in step S334, the processing unit 100a causes the inner product calculation unit 122 to refer to the first storage unit 116 and obtain the digital voltage data Da for one cycle of the predetermined code cycle stored in the first storage unit 116. is acquired, and the inner product operation of this digital voltage data Da and the reference data Rf input from the encoding unit 120 is executed. The inner product calculation unit 122 performs inner product calculation using all encoded data used for encoding, and causes the second accumulation unit 123 to accumulate the inner product calculation results.

続いて、ステップS335において、処理部100aは、推定部118により、予めあらかじめ作成された推定モデルを用いて、第2蓄積部123に蓄積されたVCSEL素子11から16に対応する6つのデジタル電圧データDaに基づき、視線方向情報Edを算出する。 Subsequently, in step S335, the processing unit 100a causes the estimating unit 118 to generate six digital voltage data corresponding to the VCSEL elements 11 to 16 stored in the second storage unit 123 using an estimation model created in advance. Based on Da, line-of-sight direction information Ed is calculated.

続いて、ステップS336において、処理部100aは、推定部118により取得された視線方向情報Edを、出力部119を介して外部装置に出力する。 Subsequently, in step S<b>336 , the processing unit 100 a outputs the line-of-sight direction information Ed acquired by the estimation unit 118 to the external device via the output unit 119 .

続いて、ステップS337において、処理部100aは、処理を終了するか否かを判定する。例えば、処理部100aは、ユーザによる終了操作入力信号等に応じて終了するか否かを判定できる。 Subsequently, in step S337, the processing unit 100a determines whether or not to end the processing. For example, the processing unit 100a can determine whether or not to end according to a user's end operation input signal or the like.

ステップS337において、終了すると判定された場合には(ステップS337、Yes)、処理部100aは処理を終了する。一方、終了しないと判定された場合には(ステップS337、No)、処理部100aは、ステップS331以降の処理を再度行う。 In step S337, when it is determined to end (step S337, Yes), the processing unit 100a ends the process. On the other hand, when it is determined not to end (step S337, No), the processing unit 100a performs the processes after step S331 again.

このようにして、処理部100aは、眼球30の傾きに基づく視線方向情報Edを出力できる。 In this manner, the processing unit 100a can output line-of-sight direction information Ed based on the tilt of the eyeball 30. FIG.

<視線検出装置10aの作用効果>
以上説明したように、視線検出装置10aは、直交性を有する符号によって時間変調されたレーザ光L1を発するようにVCSELアレイ1による発光を制御する光源変調部121(制御部)を有する。処理部100aは、フォトダイオード4から出力される電気信号Seに基づいて、複数の時間変調されたレーザ光L4を分離検出する。直交性を有する符号は、例えばアダマール符号である。
<Action and effect of line-of-sight detection device 10a>
As described above, the line-of-sight detection device 10a has the light source modulation section 121 (control section) that controls the light emission of the VCSEL array 1 so as to emit the laser light L1 time-modulated by codes having orthogonality. Based on the electrical signal Se output from the photodiode 4, the processing unit 100a separates and detects a plurality of time-modulated laser beams L4. Codes having orthogonality are, for example, Hadamard codes.

視線検出装置10aは、レーザ光L4を分離検出することにより、処理部100aの処理時間および処理負荷を低減できる。また、視線検出装置10aは、眼球30に入射させるレーザ光L4の光強度が小さい場合にも、レーザ光L4を分離検出することによって背景光の影響を除去できるため、視線検出精度を高く確保することができる。 The line-of-sight detection device 10a can reduce the processing time and processing load of the processing unit 100a by separating and detecting the laser beam L4. Further, even when the light intensity of the laser light L4 incident on the eyeball 30 is low, the line-of-sight detection device 10a can remove the influence of the background light by separating and detecting the laser light L4, thereby ensuring high line-of-sight detection accuracy. be able to.

上記以外の効果は、第1実施形態と同様である。 Effects other than the above are the same as those of the first embodiment.

[第3実施形態]
次に、第3実施形態に係る視線検出装置10bについて説明する。
[Third Embodiment]
Next, a line-of-sight detection device 10b according to a third embodiment will be described.

<処理部100bの機能構成例>
図36は、本実施形態に係る視線検出装置10bが有する処理部100bの機能構成の一例を示すブロック図である。図36に示すように、処理部100aは、選択部111bと、切替部113bを有する。
<Functional Configuration Example of Processing Unit 100b>
FIG. 36 is a block diagram showing an example of the functional configuration of the processing unit 100b included in the line-of-sight detection device 10b according to this embodiment. As shown in FIG. 36, the processing unit 100a has a selection unit 111b and a switching unit 113b.

本実施形態では、VCSELアレイ1に含まれる複数のVCSEL素子は、複数のグループにグループ化され、光源変調部121は、複数のグループのVCSEL素子がグループごとに発光するように、VCSELアレイ1による発光を制御する。これにより、視線検出装置10bは、並行して発光させるVCSEL素子の数を抑え、眼球30に入射するレーザ光Lの光量を抑制する。 In this embodiment, a plurality of VCSEL elements included in the VCSEL array 1 are grouped into a plurality of groups, and the light source modulation unit 121 causes the VCSEL array 1 to emit light from the VCSEL elements of the plurality of groups so that each group emits light. Control light emission. As a result, the line-of-sight detection device 10 b reduces the number of VCSEL elements that emit light in parallel, and reduces the amount of laser light L that enters the eyeball 30 .

ここで、グループは、VCSELアレイ1に含まれる複数のVCSEL素子を集団にまとめたものである。例えば、VCSEL素子11から16を2つのグループにグループ化する場合には、1つ目のグループは、VCSEL素子11、13および15を含み、2つ目のグループは、VCSEL素子12、14および16を含む。また、VCSEL素子11から16を3つのグループにグループ化する場合には、3つのグループは、それぞれ2つのVCSEL素子を含む。なお、このグループを構成するVCSEL素子は1つ以上5つ以下であればよい。 Here, a group is a collection of a plurality of VCSEL elements included in the VCSEL array 1 . For example, if VCSEL elements 11 through 16 are grouped into two groups, the first group includes VCSEL elements 11, 13 and 15 and the second group includes VCSEL elements 12, 14 and 16. including. Also, if the VCSEL elements 11 to 16 are grouped into three groups, each of the three groups includes two VCSEL elements. Note that the number of VCSEL elements forming this group may be one or more and five or less.

符号化データは、各グループに含まれるVCSEL素子の個数分、用意されればよい。異なるグループに属するVCSEL素子同士は、分離検出しなくてもよいため、同じ符号化データが割り当てられてもよい。 Encoded data may be prepared for the number of VCSEL elements included in each group. Since VCSEL elements belonging to different groups do not need to be detected separately, they may be assigned the same encoded data.

視線検出装置10bにおけるグループの数、およびVCSEL素子11から16それぞれの所属グループは、予め定められている。 The number of groups in the line-of-sight detection device 10b and the groups to which the VCSEL elements 11 to 16 belong are predetermined.

選択部111bは、VCSEL素子11から16の各グループの中から、発光させるグループを選択し、選択したグループを示す情報を切替部113bに出力する。 The selection unit 111b selects a group to emit light from among the groups of the VCSEL elements 11 to 16, and outputs information indicating the selected group to the switching unit 113b.

切替部113bは、選択されたグループに光源変調部121から駆動信号Drを出力するように、光源変調部121と各VCSEL素子との接続を切り替える。切替部113bは、第1蓄積部116にデジタル電圧データDaが蓄積された後、まだ発光を終えていない別のグループのVCSEL素子に駆動信号Drを出力するように切り替えることができる。 The switching unit 113b switches connection between the light source modulation unit 121 and each VCSEL element so that the light source modulation unit 121 outputs the drive signal Dr to the selected group. After the digital voltage data Da is stored in the first storage unit 116, the switching unit 113b can switch to output the drive signal Dr to the VCSEL elements of another group that have not yet finished emitting light.

<処理部100bによる処理例>
図37は、処理部100bによる処理の一例を示すフローチャートである。処理部100bは、例えばユーザによる開始操作入力信号に応じて、図37の処理を開始する。
<Example of Processing by Processing Unit 100b>
FIG. 37 is a flowchart showing an example of processing by the processing unit 100b. The processing unit 100b starts the processing of FIG. 37, for example, in response to a start operation input signal by the user.

まず、ステップS351において、処理部100bは、選択部111bにより、VCSEL素子の各グループのうち、どのグループに属するVCSEL素子を発光させるかを選択し、選択されたグループを示す情報を切替部113bに出力する。 First, in step S351, the processing unit 100b causes the selection unit 111b to select which group of VCSEL elements to emit light from among the groups of VCSEL elements, and transmits information indicating the selected group to the switching unit 113b. Output.

続いて、ステップS352において、処理部100bは、符号化部120により、複数の符号化データを生成し、光源変調部121を介してVCSELアレイ1のVCSEL素子それぞれに符号化データを割り当てると共に、内積演算部122に参照データRfを出力する。 Subsequently, in step S352, the processing unit 100b causes the encoding unit 120 to generate a plurality of encoded data, assigns the encoded data to each VCSEL element of the VCSEL array 1 via the light source modulation unit 121, The reference data Rf is output to the calculation unit 122 .

続いて、ステップS353において、処理部100bは、光源変調部121により、符号化データに基づいて時間変調した駆動信号DrをVCSELアレイ1へ出力する。駆動信号Drが印加されたVCSEL素子は、駆動信号Drに応じてレーザ光L1を発光する。レーザ光L1は、レンズ2および凹面ミラー3を経た後、眼球30により反射されてレーザ光L4としてフォトダイオード4に入射する。フォトダイオード4は、受光したレーザ光L4の光強度に応じた電気信号Seを処理部100bに出力する。 Subsequently, in step S<b>353 , the processing unit 100 b outputs the drive signal Dr time-modulated based on the encoded data to the VCSEL array 1 by the light source modulation unit 121 . The VCSEL element to which the drive signal Dr is applied emits laser light L1 according to the drive signal Dr. After passing through the lens 2 and the concave mirror 3, the laser beam L1 is reflected by the eyeball 30 and enters the photodiode 4 as the laser beam L4. The photodiode 4 outputs an electric signal Se corresponding to the light intensity of the received laser light L4 to the processing section 100b.

続いて、ステップS354において、処理部100bは、フォトダイオード4からの電気信号SeをI/V変換部114によりアナログ電圧信号に変換し、その後、A/D変換部115によりデジタル電圧データDaに変換する。処理部100aは、第1蓄積部116により、発光したVCSEL素子に対応付けて、デジタル電圧データDaを符号周期1周期分、蓄積する。 Subsequently, in step S354, the processing unit 100b causes the I/V conversion unit 114 to convert the electric signal Se from the photodiode 4 into an analog voltage signal, and then the A/D conversion unit 115 to convert it into digital voltage data Da. do. The processing unit 100a causes the first storage unit 116 to store the digital voltage data Da for one code cycle in association with the VCSEL element that emits light.

続いて、ステップS355において、処理部100bは、内積演算部122により、第1蓄積部116を参照して、第1蓄積部116に蓄積された所定の符号周期の1周期分のデジタル電圧データDaを取得し、このデジタル電圧データDaと、符号化部120から入力した参照データRfと、の内積演算を実行する。内積演算部122は、符号化に用いた全ての符号化データを用いて内積演算を行い、内積演算結果を第2蓄積部123に蓄積させる。 Subsequently, in step S355, the processing unit 100b causes the inner product calculation unit 122 to refer to the first accumulation unit 116 and obtain the digital voltage data Da for one period of the predetermined code period accumulated in the first accumulation unit 116. is acquired, and the inner product operation of this digital voltage data Da and the reference data Rf input from the encoding unit 120 is executed. The inner product calculation unit 122 performs inner product calculation using all encoded data used for encoding, and causes the second accumulation unit 123 to accumulate the inner product calculation results.

続いて、ステップS356において、処理部100bは、判定部117により、VCSEL素子11から16の全てを発光させたか否かを判定する。 Subsequently, in step S356, the processing unit 100b causes the determination unit 117 to determine whether or not all the VCSEL elements 11 to 16 have been caused to emit light.

ステップS356において、全てのVCSEL素子を発光させていないと判定された場合には(ステップS356、No)には、処理部100bは、ステップS351以降の処理を再度行う。この場合には、処理部100bは、まだ発光していないVCSEL素子が属するグループを選択部111bにより選択し、該グループに属するVCSEL素子を発光させる。 When it is determined in step S356 that all the VCSEL elements are not caused to emit light (step S356, No), the processing section 100b performs the processing from step S351 onward again. In this case, the processing unit 100b selects the group to which the VCSEL elements that have not emitted light yet belong by the selection unit 111b, and causes the VCSEL elements belonging to the group to emit light.

一方、ステップS356において、全てのVCSEL素子を発光させたと判定された場合(ステップS356、YES)には、ステップS357において、処理部100bは、推定部118により、予めあらかじめ作成された推定モデルを用いて、第2蓄積部123に蓄積されたVCSEL素子11から16に対応する6つのデジタル電圧データDaに基づき、視線方向情報Edを算出する。 On the other hand, if it is determined in step S356 that all the VCSEL elements are caused to emit light (step S356, YES), in step S357 the processing unit 100b causes the estimation unit 118 to use an estimation model created in advance. Then, based on the six digital voltage data Da corresponding to the VCSEL elements 11 to 16 accumulated in the second accumulation unit 123, the line-of-sight direction information Ed is calculated.

続いて、ステップS358において、処理部100bは、推定部118により取得された視線方向情報Edを、出力部119を介して外部装置に出力する。 Subsequently, in step S<b>358 , the processing unit 100 b outputs the line-of-sight direction information Ed acquired by the estimation unit 118 to the external device via the output unit 119 .

続いて、ステップS359において、処理部100bは、処理を終了するか否かを判定する。例えば、処理部100bは、ユーザによる終了操作入力信号等に応じて終了するか否かを判定できる。 Subsequently, in step S359, the processing unit 100b determines whether or not to end the processing. For example, the processing unit 100b can determine whether or not to end according to a user's end operation input signal or the like.

ステップS359において、終了すると判定された場合には(ステップS359、Yes)、処理部100bは処理を終了する。一方、終了しないと判定された場合には(ステップS359、No)、処理部100bは、ステップS351以降の処理を再度行う。 In step S359, when it is determined to end (step S359, Yes), the processing unit 100b ends the process. On the other hand, when it is determined not to end (step S359, No), the processing unit 100b performs the processes after step S351 again.

このようにして、処理部100bは、眼球30の傾きに基づく視線方向情報Edを出力できる。 In this manner, the processing unit 100b can output line-of-sight direction information Ed based on the tilt of the eyeball 30. FIG.

<視線検出装置10bの作用効果>
以上説明したように、本実施形態では、VCSELアレイ1に含まれる複数のVCSEL素子は、複数のグループにグループ化され、光源変調部121は、複数のグループのVCSEL素子がグループごとに発光するように、VCSELアレイ1による発光を制御する。
<Action and effect of line-of-sight detection device 10b>
As described above, in the present embodiment, a plurality of VCSEL elements included in the VCSEL array 1 are grouped into a plurality of groups, and the light source modulation unit 121 controls the VCSEL elements of the plurality of groups to emit light for each group. Secondly, light emission by the VCSEL array 1 is controlled.

例えば、発光させるVCSEL素子の数が多いと、VCSELアレイ1から眼球30に入射するレーザ光L1の光量が増加し、安全性の観点から望ましくない場合がある。視線検出装置10bは、VCSELアレイ1に含まれる複数のVCSEL素子をグループごとに発光させるため、並行して発光させるVCSEL素子の数を抑え、眼球30に入射するレーザ光Lの光量を抑制できる。これにより、本実施形態では、安全性に優れた視線検出装置10bを提供できる。 For example, if the number of VCSEL elements to emit light is large, the amount of laser light L1 incident on the eyeball 30 from the VCSEL array 1 increases, which may be undesirable from the standpoint of safety. Since the line-of-sight detection device 10b causes the plurality of VCSEL elements included in the VCSEL array 1 to emit light for each group, the number of VCSEL elements that emit light in parallel can be reduced, and the amount of laser light L incident on the eyeball 30 can be reduced. Thereby, in this embodiment, the line-of-sight detection device 10b with excellent safety can be provided.

上記以外の作用効果は、第1および第2実施形態と同様である。 Functions and effects other than the above are the same as those of the first and second embodiments.

[第4実施形態]
次に第4実施形態に係る網膜投影表示装置60について説明する。図38は、網膜投影表示装置60の構成の一例を説明する図である。
[Fourth Embodiment]
Next, a retinal projection display device 60 according to a fourth embodiment will be described. FIG. 38 is a diagram illustrating an example of the configuration of the retinal projection display device 60. As shown in FIG.

図38に示すように、網膜投影表示装置60は、RGB(Red、Green、Blue)レーザ光源61と、走査ミラー62と、平面ミラー63と、ハーフミラー64と、画像生成部65と、視線検出装置10と、を有する。 As shown in FIG. 38, the retinal projection display device 60 includes an RGB (Red, Green, Blue) laser light source 61, a scanning mirror 62, a plane mirror 63, a half mirror 64, an image generator 65, and a line-of-sight detector. a device 10;

RGBレーザ光源61は、RGB3色のレーザ光を時間的に変調して出力する。走査ミラー62は、RGBレーザ光源61からの光を二次元的に走査する。走査ミラー62は、MEMSミラー等である。但し、これに限定されるものではなく、ポリゴンミラー、ガルバノミラー等、光を走査する反射部を有するものであれば良い。小型化・軽量化の点でMEMSミラーが有利となる。なお、MEMSミラーの駆動方式は、静電式、圧電式、電磁式等の何れであっても良い。 The RGB laser light source 61 temporally modulates and outputs three colors of RGB laser light. The scanning mirror 62 two-dimensionally scans the light from the RGB laser light source 61 . The scanning mirror 62 is a MEMS mirror or the like. However, the present invention is not limited to this, as long as it has a reflecting portion for scanning light, such as a polygon mirror or a galvanomirror. MEMS mirrors are advantageous in terms of miniaturization and weight reduction. Incidentally, the driving method of the MEMS mirror may be any of an electrostatic method, a piezoelectric method, an electromagnetic method, and the like.

平面ミラー63は、ハーフミラー64に向けて走査ミラー62による走査光を反射する。ハーフミラー64は、入射する光の一部を透過し、一部を眼球30に向けて反射する。ハーフミラー64は、凹型の曲面形状を有しており、反射した光を眼球30の角膜31の近傍に集束させ、網膜33の位置で結像させる。これにより、走査光で形成される画像を網膜33に投影する。図中破線で示されている光61aは、網膜33上に画像を形成する光を表している。なお、ハーフミラー64は、必ずしも反射光と透過光の光量が1対1にならなくてもよい。 The plane mirror 63 reflects the scanning light from the scanning mirror 62 toward the half mirror 64 . Half mirror 64 transmits part of the incident light and reflects part of it toward eyeball 30 . The half mirror 64 has a concave curved shape, focuses the reflected light near the cornea 31 of the eyeball 30 , and forms an image at the position of the retina 33 . Thereby, an image formed by the scanning light is projected onto the retina 33 . Light 61 a indicated by a dashed line in the drawing represents light forming an image on the retina 33 . In the half mirror 64, the light amount of reflected light and transmitted light does not necessarily have to be one to one.

視線検出装置10は、眼球30の傾き、つまり視線方向のフィードバック信号を画像生成部65に送信する。 The line-of-sight detection device 10 transmits a feedback signal of the tilt of the eyeball 30 , that is, the line-of-sight direction to the image generator 65 .

画像生成部65は、走査ミラー62の振れ角制御機能と、RGBレーザ光源61の発光制御機能とを有している。また、画像生成部65は、視線検出装置10から視線方向のフィードバック信号を受信する。視線方向のフィードバック信号は、視線方向情報Edに対応する。視線検出装置10により検出された視線方向に応じて、走査ミラー62の振れ角と、RGBレーザ光源61の発光を制御し、画像の投影角度、又は画像内容を書き換える。これにより、視線方向の変化に追尾(アイトラッキング)した画像を、網膜33上に形成することができる。 The image generator 65 has a deflection angle control function of the scanning mirror 62 and a light emission control function of the RGB laser light source 61 . In addition, the image generator 65 receives a feedback signal of the line-of-sight direction from the line-of-sight detection device 10 . The line-of-sight direction feedback signal corresponds to the line-of-sight direction information Ed. The deflection angle of the scanning mirror 62 and the light emission of the RGB laser light source 61 are controlled according to the line-of-sight direction detected by the line-of-sight detection device 10 to rewrite the projection angle of the image or the content of the image. As a result, it is possible to form an image on the retina 33 that tracks changes in the line-of-sight direction (eye tracking).

なお、本実施形態では、網膜投影表示装置60をウェアラブル端末であるヘッドマウントディスプレイとした一例を示したが、網膜投影表示装置60は、人の頭部に直接装着させるだけでなく、固定部等の部材を介して間接的に人の頭部に装着させるもの(頭部装着型表示装置)であってもよい。また、左右眼用に一対の網膜投影表示装置60を設けた両眼式の網膜投影表示装置としてもよい。 In this embodiment, an example of the retinal projection display device 60 as a head-mounted display, which is a wearable terminal, is shown. It may be a device (a head-mounted display device) that is indirectly worn on a person's head via a member. Further, a binocular retinal projection display device having a pair of retinal projection display devices 60 for left and right eyes may be used.

また、本実施形態では、網膜投影表示装置60が視線検出装置10を備える構成を例示したが、網膜投影表示装置60は視線検出装置10aまたは10bを備えてもよい。 Further, in this embodiment, the retinal projection display device 60 includes the line-of-sight detection device 10, but the retinal projection display device 60 may include the line-of-sight detection device 10a or 10b.

以上、本発明の実施形態の例について記述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 Although examples of embodiments of the present invention have been described above, the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the invention described in the scope of the claims. Transformation and change are possible.

例えば、視線検出装置10は、仮想現実(VR)表示装置に利用することもできる。人間の視野は、高解像度で認識できる中心視野と、低解像度で認識する周辺視野に分類される。この性質を利用して、仮想現実画像の中心部を高解像度にしながら、周辺部を低解像度にすることで、仮想現実画像の描画負荷を軽減させる技術を中心窩レンダリングという。特に、視線検出装置と組み合わせることで、使用者の視線に合わせて高解像度の領域を動的に変化させることが可能であり、使用者の視線が動いたとしても、解像度の差による違和感なく仮想現実画像を認識できる。したがって視線検出装置10を有する仮想現実表示装置は、簡素な構成で中心窩レンダリング技術を実装できる。それによって、軽量かつ低消費電力な仮想現実表示装置を実現でき、使用者が負荷を感じることなく長時間にわたって仮想現実画像を楽しむことができる。 For example, the line-of-sight detection device 10 can also be used in a virtual reality (VR) display device. The human visual field is classified into a high-resolution central visual field and a low-resolution peripheral visual field. A technology that uses this property to reduce the rendering load of a virtual reality image by increasing the resolution of the central portion of the virtual reality image while reducing the resolution of the peripheral portion is called fovea rendering. In particular, when combined with a line-of-sight detection device, it is possible to dynamically change the high-resolution area according to the user's line of sight. Real image can be recognized. Therefore, a virtual reality display device having the line-of-sight detection device 10 can implement fovea rendering technology with a simple configuration. As a result, a lightweight and low power consumption virtual reality display device can be realized, and the user can enjoy virtual reality images for a long time without feeling burdened.

対象物は、眼球30に限定されるものではなく、曲率を有する三次元物体である対象物であれば、本実施形態を適用可能である。例えば上述した実施形態では、眼球30の傾きを検出する装置を光学装置の一例として示したが、これに限定されるものではない。例えばロボットハンド等に光学装置を実装し、対象物の一例としてのロボットハンドの傾きを検出してもよい。 The target object is not limited to the eyeball 30, and the present embodiment can be applied to any target object that is a three-dimensional object having curvature. For example, in the above-described embodiments, the device for detecting the tilt of the eyeball 30 is shown as an example of an optical device, but the present invention is not limited to this. For example, an optical device may be mounted on a robot hand or the like to detect the inclination of the robot hand as an example of the object.

また 眼球の傾きや瞳孔位置(角膜)の検出する機能を有する検眼装置にも採用する事ができる。検眼装置とは、視力検査、眼屈折力検査、眼圧検査、眼軸長検査など種々の検査を行う事が出来る装置を指す。検眼装置は、眼球に非接触で検査可能な装置であって、被験者の顔を支持する支持部と、検眼窓と、検眼に際し被検者の眼球の向き(視線の向き)を一定にする表示を行う表示部と、制御部と、測定部とを有している。測定部の測定精度を上げるために眼球(視線)を動かさず一点を見つめる事が求められ、被検者は支持部に顔を固定し、検眼窓から表示部に表示される表示物を凝視する。このとき、眼球の傾き位置を検出する際に、本実施形態の眼球の傾き位置検知装置が利用可能である。眼球の傾き位置検知装置は測定の妨げにならないよう、測定部の側方に配置される。眼球の傾き位置検知装置で得られた眼球の傾き位置(視線)情報は、制御部にフィードバックする事が可能で、眼球の傾き位置情報に応じた測定をする事ができる。 It can also be applied to an optometry apparatus having a function of detecting the tilt of the eyeball and the position of the pupil (cornea). The optometry device refers to a device capable of performing various tests such as visual acuity test, eye refractive power test, intraocular pressure test, eye axial length test, and the like. The optometry apparatus is an apparatus capable of examining the eyeballs without contact, and includes a support for supporting the subject's face, an optometry window, and a display that keeps the direction of the subject's eyeballs (direction of the line of sight) constant during the optometry. It has a display unit for performing measurement, a control unit, and a measurement unit. In order to improve the measurement accuracy of the measurement unit, it is required to gaze at one point without moving the eyeball (line of sight). . At this time, the eyeball tilt position detection device of the present embodiment can be used when detecting the eyeball tilt position. The eyeball tilt position detection device is arranged on the side of the measuring section so as not to interfere with the measurement. Eyeball tilt position (line of sight) information obtained by the eyeball tilt position detection device can be fed back to the control unit, and measurement can be performed according to the eyeball tilt position information.

また、視線検出装置10は、教育環境で使用することもできる。例えば、筆記試験中のユーザの視線情報から、ユーザがどの試験問題に時間を費やしたかを知ることができる。その情報を基に、教師はユーザの試験結果に対して適切なフィードバックを実施することが可能となる。本発明によって簡素な構成の視線検出装置を提供することで、ユーザの負荷を軽減できる。また、ウェアラブル形態での視線検出が可能であるから、紙媒体の試験用紙、教材に対して上記のような効果を得ることができる。 The line-of-sight detection device 10 can also be used in an educational environment. For example, from the user's line-of-sight information during a written test, it is possible to know which test questions the user spent time on. Based on that information, the teacher can provide appropriate feedback on the user's test results. By providing a line-of-sight detection device with a simple configuration according to the present invention, the load on the user can be reduced. In addition, since line-of-sight detection is possible in a wearable form, it is possible to obtain the above-described effects for test sheets and teaching materials on paper media.

また、視線検出装置10は、眼球の傾きや瞳孔位置(角膜)、または視線方向に関する情報に基づきユーザの状態を推定するユーザ状態推定装置にも採用することができる。ユーザ状態推定装置としては、例えば、ユーザの精神的疲労度を推定する疲労度推定装置が挙げられる。本実施形態の構成としては、視線検出装置10と、視線検出装置により検出された視線方向の情報に基づき精神的疲労度を推定する疲労度推定部と、を有する。疲労度推定部におけるユーザの精神的疲労度の推定方法としては、例えば、非特許文献(Tseng, V.WS., Valliappan, N., Ramachandran, V. et al. Digital biomarker of mental fatigue. npj Digit. Med. 4, 47 (2021))に記載されている方法が挙げられる。この方法によると、モニタに表示されるオブジェクトの軌跡を目で追いかけるタスクを数分行い、その時の視線の動きを測定することで、精神的疲労度を推定することが可能である。視線検出装置10を有する疲労度推定装置は、簡素な構成でユーザの精神的疲労度を推定することができる。また、本実施に係る疲労度推定装置は、推定された精神的疲労度に基づき、ユーザに例えば休憩を促す情報を通知する通知手段を有していてもよい。 The line-of-sight detection device 10 can also be employed as a user state estimation device that estimates the user's state based on information about the tilt of the eyeball, the position of the pupil (cornea), or the line-of-sight direction. As the user state estimation device, for example, there is a fatigue level estimation device for estimating the mental fatigue level of the user. The configuration of the present embodiment includes a line-of-sight detection device 10 and a fatigue degree estimation unit that estimates a degree of mental fatigue based on information on the line-of-sight direction detected by the line-of-sight detection device. As a method of estimating the user's mental fatigue level in the fatigue level estimation unit, for example, non-patent literature (Tseng, V.WS., Valliappan, N., Ramachandran, V. et al. Digital biomarker of mental fatigue. npj Digit Med. 4, 47 (2021)). According to this method, it is possible to estimate the degree of mental fatigue by performing a task of following the trajectory of an object displayed on the monitor with the eye for several minutes and measuring the movement of the line of sight at that time. A fatigue degree estimation device having the line-of-sight detection device 10 can estimate a user's mental fatigue degree with a simple configuration. Further, the fatigue level estimation device according to the present embodiment may have notification means for notifying the user of information for prompting him/her to take a break, for example, based on the estimated mental fatigue level.

また、その他のユーザ状態推定装置としては、例えば、ユーザの注意度を推定する注意度推定装置が挙げられる。本実施形態の構成としては、視線検出装置10と、視線検出装置により検出された視線方向の情報に基づきユーザの注意度を推定する注意度推定部と、を有する。注意度推定部におけるユーザの注意度の推定方法としては、例えば、マイクロサッカードと呼ばれる眼球の微振動を検出し、その発生頻度に基づいてユーザの注度を推定する方法が挙げられる。(非特許文献Pastukhov A, Braun J. Rare but precious: microsaccades are highly informative about attentional allocation. Vision Res. 2010 Jun 11;50(12):1173-84.)によれば、マイクロサッカードは、固視微動(人がある対象物を注視しているときに生じる、振幅±3.0度程度の眼球の微振動)の中でも比較的振幅の大きく、かつ高速な運動であり、人の注意力と相関があることが知られている。視線検出装置10は、眼球の傾きを高速かつ高精度に測定することができるため、従来の視線検出装置に比べ、マイクロサッカードを高精度に検出することができる。
従って、視線検出装置10を有する注意度推定装置は、簡素な構成でユーザの注意度を推定することができる。
Other user state estimation devices include, for example, attention level estimation devices that estimate a user's level of attention. The configuration of this embodiment includes a line-of-sight detection device 10 and an attention level estimation unit that estimates the user's level of attention based on information on the line-of-sight direction detected by the line-of-sight detection device. As a method of estimating the user's attention level in the attention level estimation unit, for example, there is a method of detecting minute eyeball vibrations called microsaccades and estimating the user's attention level based on the occurrence frequency. (Pastukhov A, Braun J. Rare but precious: microsaccades are highly informative about attentional allocation. Vision Res. 2010 Jun 11;50(12):1173-84.) Among the microtremors (small vibrations of the eyeball with an amplitude of about ±3.0 degrees that occur when a person is gazing at an object), it is a relatively large-amplitude and high-speed movement, and correlates with human attention. is known to exist. Since the line-of-sight detection device 10 can measure the inclination of the eyeball at high speed and with high accuracy, it can detect microsaccades with high precision compared to conventional line-of-sight detection devices.
Therefore, the attention level estimation device having the line-of-sight detection device 10 can estimate the user's attention level with a simple configuration.

また本実施形態に係る注度推定装置は、運転支援システムに採用することができる。本実施形態の運転システムの構成としては、上述の注意度推定装置と、注意度推定装置により推定された注意度に基づいて移動体の動作を制御する動作制御部と、を有する。例えば、注意度推定装置により推定されたユーザの注意度が基準より下回る場合、動作制御部は手動運転モードから自動運転モードとするよう移動体、例えば車両の動作モードを制御する。視線検出装置10を有する運転支援システムは簡素な構成で運転支援を行うことができる。 Further, the injection degree estimation device according to the present embodiment can be employed in a driving support system. The configuration of the driving system of this embodiment includes the attention level estimation device described above and an operation control section that controls the movement of the moving object based on the attention level estimated by the attention level estimation device. For example, when the user's attention level estimated by the attention level estimation device is lower than a reference, the operation control unit controls the operation mode of the moving object, for example, the vehicle, so as to switch from the manual operation mode to the automatic operation mode. A driving assistance system having the line-of-sight detection device 10 can perform driving assistance with a simple configuration.

また、本実施形態に係る注度推定装置は、教材や取扱説明書等の出版物の評価に使用することもできる。例えば、注視度推定装置により、ユーザが教材のどの箇所に注意を払い、集中しているかを評価することができる。その結果をもとに教材の内容やレイアウトを改善することができる。本発明によって簡素な構成の視線検出装置を提供することで、ユーザの負荷を軽減できる。また、ウェアラブル形態での視線検出が可能であるから、紙媒体の教材に対して上記のような効果を得ることができる。 In addition, the injection degree estimation device according to the present embodiment can also be used to evaluate publications such as educational materials and instruction manuals. For example, it is possible to evaluate which part of the teaching material the user pays attention to and concentrates on using the gaze estimation device. The results can be used to improve the content and layout of teaching materials. By providing a line-of-sight detection device with a simple configuration according to the present invention, the load on the user can be reduced. In addition, since line-of-sight detection is possible in a wearable form, it is possible to obtain the above-described effects with respect to paper-medium teaching materials.

また、これらの実施形態は、視線検出装置10で検出された眼球の傾きや瞳孔位置(角膜)、または視線方向に関する一つの情報を、2つ以上の画像生成部、推定部で利用する構成であってもよい。このような構成とすることで、簡素な構成、かつ小型化を実現することができる。
例えば、視線検出装置10により検出された眼球の傾きや瞳孔位置(角膜)、または視線方向に関する情報を、網膜投影表示装置の画像生成部にフィードバック信号として利用しつつ、疲労度推定装置の疲労度推定部での疲労度推定に利用してもよい。
このとき、画像生成部と疲労度推定部は同一の情報処理部に設けられてもよく、別で設けられてもよい。
Further, in these embodiments, one piece of information regarding the tilt of the eyeball, the pupil position (cornea), or the line-of-sight direction detected by the line-of-sight detection device 10 is used by two or more image generation units and estimation units. There may be. By adopting such a configuration, it is possible to realize a simple configuration and downsizing.
For example, while using information about the eyeball tilt, pupil position (cornea), or line-of-sight direction detected by the line-of-sight detection device 10 as a feedback signal to the image generation unit of the retinal projection display device, the degree of fatigue of the fatigue level estimation device It may be used for fatigue level estimation in the estimation unit.
At this time, the image generation unit and the fatigue level estimation unit may be provided in the same information processing unit, or may be provided separately.

また、実施形態は、立体物の傾き検出方法を含む。例えば、立体物の傾き検出方法は、傾き検出装置による傾き検出方法であって、前記傾き検出装置が、複数の発光部により、発光し、受光手段により、前記複数の発光部により発光され、対象物により反射された光を受光し、受光した光の光強度に基づく電気信号を出力し、出力手段により、前記受光手段から出力される前記電気信号に基づいて、前記対象物の傾きの検出結果を出力し、前記受光手段は、前記複数の発光部から並行して発光され、前記対象物により反射された複数の光を受光する。このような立体物の傾き検出方法により、上述した視線検出装置と同様の効果を得ることができる。 Also, the embodiment includes a tilt detection method for a three-dimensional object. For example, the tilt detection method of a three-dimensional object is a tilt detection method using a tilt detection device, wherein the tilt detection device emits light from a plurality of light emitting units, light is emitted from the plurality of light emitting units by light receiving means, and the object light reflected by an object is received, an electric signal based on the light intensity of the received light is output, and an output means detects a tilt of the object based on the electric signal output from the light receiving means. and the light-receiving means receives a plurality of lights emitted in parallel from the plurality of light-emitting portions and reflected by the object. Such a three-dimensional object tilt detection method can provide the same effect as the line-of-sight detection device described above.

また、実施形態は、視線検出方法を含む。例えば視線検出方法は、視線検出装置による傾き検出方法であって、前記視線検出装置が、複数の発光部により、発光し、受光手段により、前記複数の発光部により発光され、対象物によって反射された光を受光し、受光した光の光強度に基づく電気信号を出力し、出力手段により、前記受光手段から出力される前記電気信号に基づいて、前記対象物の傾きの検出結果を出力し、前記受光手段は、前記複数の発光部から発光され、前記対象物により反射された複数の光を受光する。このような視線検出方法により、上述した視線検出装置と同様の効果を得ることができる。 Embodiments also include gaze detection methods. For example, the line-of-sight detection method is a tilt detection method using a line-of-sight detection device, wherein the line-of-sight detection device emits light from a plurality of light emitting units, emits light from the plurality of light emitting units by light receiving means, and is reflected by an object. outputting an electric signal based on the light intensity of the received light, outputting a detection result of the inclination of the object based on the electric signal output from the light receiving means, The light-receiving means receives a plurality of lights emitted from the plurality of light-emitting portions and reflected by the object. With such a line-of-sight detection method, the same effects as those of the line-of-sight detection device described above can be obtained.

また、上記で用いた序数、数量等の数字は、全て本発明の技術を具体的に説明するために例示するものであり、本発明は例示された数字に制限されない。また、構成要素間の接続関係は、本発明の技術を具体的に説明するために例示するものであり、本発明の機能を実現する接続関係はこれに限定されない。 In addition, all numbers such as ordinal numbers and numbers used above are examples for specifically describing the technology of the present invention, and the present invention is not limited to the numbers shown. Moreover, the connection relationship between the components is an example for specifically describing the technology of the present invention, and the connection relationship for realizing the function of the present invention is not limited to this.

また上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。 Also, each function of the embodiments described above can be realized by one or more processing circuits. Here, the "processing circuit" in this specification means a processor programmed by software to perform each function, such as a processor implemented by an electronic circuit, or a processor designed to perform each function described above. devices such as ASICs (Application Specific Integrated Circuits), DSPs (digital signal processors), FPGAs (field programmable gate arrays) and conventional circuit modules.

本発明の態様は、例えば、以下のとおりである。
<1> 複数の発光部と、前記複数の発光部により発光され、対象物により反射された光を受光し、受光した光の光強度に基づく電気信号を出力する受光手段と、前記受光手段から出力される前記電気信号に基づいて、前記対象物の傾きの検出結果を出力する出力手段と、を有し、前記受光手段は、前記対象物の傾きがほぼ同じである状態において、前記複数の発光部から発光され、前記対象物により反射された複数の光を受光する、傾き検出装置である。
<2> 前記複数の発光部は、複数の光を並行して発光する、前記<1>に記載の傾き検出装置である。
<3> 前記複数の発光部は、前記複数の発光部の発光面に沿った所定方向に沿って並んで設けられ、前記複数の発光部における隣り合う前記発光部同士の前記所定方向に沿った間隔は、いずれも等しい、前記<1>または前記<2>に記載の傾き検出装置である。
<4> 前記複数の発光部は、前記複数の発光部の発光面に沿った異なる2つの方向それぞれに沿って並んで設けられている、前記<1>から前記<3>のいずれか1つに記載の傾き検出装置である。
<5> 前記受光手段の受光面の幅をwとし、前記受光手段の受光面での隣接する光のビーム中心間距離をdとし、前記受光手段の受光面での光のビーム半径をhとした場合に、次式を満足する
|h-w/2|≦d≦h+w/2
前記<1>から前記<4>のいずれか1つに記載の傾き検出装置である。
<6> 前記複数の発光部は、前記複数の発光部の発光面に沿った所定方向に沿って並んで設けられ、前記複数の発光部における隣り合う前記発光部同士の前記所定方向に沿った間隔の長さは、前記受光手段の受光面の前記所定方向に沿った長さよりも短い前記<1>から前記<5>のいずれか1つに記載の傾き検出装置である。
<7> 前記対象物によって反射された光は、前記受光手段に近づくにつれて広がる、前記<1>から前記<6>のいずれか1つに記載の傾き検出装置である。
<8> 前記対象物によって反射された光のビーム直径は、前記受光手段の受光面上において、受光面の所定方向に沿った長さよりも長い、前記<1>から前記<7>のいずれか1つに記載の傾き検出装置である。
<9> 直交性を有する符号によって時間変調された光を発するように前記複数の発光部による発光を制御する制御部を有し、前記出力手段は、前記受光手段から出力される前記電気信号に基づいて、複数の前記時間変調された光を分離検出する、前記<1>から前記<8>のいずれか1つに記載の傾き検出装置である。
<10> 前記符号はアダマール符号である、前記<9>に記載の傾き検出装置である。
<11> 前記複数の発光部は、複数のグループにグループ化され、前記制御部は、前記複数のグループの前記発光部がグループごとに発光するように、前記複数の発光部による発光を制御する、前記<9>または前記<10>に記載の傾き検出装置である。
<12> 前記<1>から前記<11>の何れか1つに記載の傾き検出装置を有し、前記傾き検出装置による眼球の傾きの検出結果に基づいて視線を検出する、視線検出装置である。
<13> 前記<12>に記載の視線検出装置を有する網膜投影表示装置である。
<14> 前記<12>に記載の視線検出装置を有する頭部装着型表示装置である。
<15> 前記<12>に記載の視線検出装置を有する検眼装置である。
<16> 前記<12>に記載の視線検出装置を有する仮想現実表示装置である。
<17> 前記<12>に記載の視線検出装置と、前記視線検出装置により検出された視線方向の情報に基づき、前記ユーザの状態を推定する状態推定部と、を有するユーザ状態推定装置である。
<18> 前記推定部は、前記ユーザの眼球の微振動の発生頻度に基づいて前記ユーザの状態を推定する前記<17>に記載のユーザ状態推定装置である。
<19> 前記ユーザの状態は、前記ユーザの疲労度または注意度のうち少なくとも1つを含む前記<17>または前記<18>に記載のユーザ状態推定装置である。
<20> 前記<17>から前記<19>の何れか1つに記載のユーザ状態推定装置と、 前記ユーザ状態推定装置により推定された前記状態に基づき、前記ユーザの運転する移動体の動作を制御する動作制御部と、を有する運転支援システムである。
<21> 傾き検出装置による傾き検出方法であって、前記傾き検出装置が、複数の発光部により発光し、受光手段により、前記複数の発光部により発光され、対象物により反射された光を受光し、受光した光の光強度に基づく電気信号を出力し、出力手段により、前記受光手段から出力される前記電気信号に基づいて、前記対象物の傾きの検出結果を出力し、前記受光手段は、前記対象物の傾きがほぼ同じである状態において、前記複数の発光部から発光され、前記対象物により反射された複数の光を受光する、立体物の傾き検出方法である。
<22> 視線検出装置による視線検出方法であって、前記視線検出装置が、複数の発光部により発光し、受光手段により、前記複数の発光部により発光され、対象物によって反射された光を受光し、受光した光の光強度に基づく電気信号を出力し、出力手段により、前記受光手段から出力される前記電気信号に基づいて、前記対象物の傾きの検出結果を出力し、前記受光手段は、前記対象物の傾きがほぼ同じである状態において、前記複数の発光部から発光され、前記対象物により反射された複数の光を受光する、視線検出方法である。
Aspects of the present invention are, for example, as follows.
<1> a plurality of light emitting units, light receiving means for receiving the light emitted by the plurality of light emitting units and reflected by an object, and outputting an electrical signal based on the light intensity of the received light; and output means for outputting a detection result of the tilt of the object based on the output electrical signal, wherein the light receiving means detects the tilt of the object in a state where the tilt of the object is substantially the same. The tilt detection device receives a plurality of lights emitted from a light emitting part and reflected by the object.
<2> The tilt detection device according to <1>, wherein the plurality of light emitting units emit a plurality of lights in parallel.
<3> The plurality of light emitting portions are provided side by side along a predetermined direction along the light emitting surfaces of the plurality of light emitting portions, and the light emitting portions adjacent to each other in the plurality of light emitting portions are aligned along the predetermined direction. The tilt detection device according to <1> or <2>, wherein the intervals are equal.
<4> Any one of <1> to <3> above, wherein the plurality of light emitting units are arranged along two different directions along the light emitting surfaces of the plurality of light emitting units. 2. The tilt detection device according to claim 1.
<5> Let w be the width of the light-receiving surface of the light-receiving means, d be the distance between adjacent light beam centers on the light-receiving surface of the light-receiving means, and h be the beam radius of the light on the light-receiving surface of the light-receiving means. |h−w/2|≤d≤h+w/2 that satisfies the following equation when
The tilt detection device according to any one of <1> to <4>.
<6> The plurality of light emitting portions are provided side by side along a predetermined direction along the light emitting surfaces of the plurality of light emitting portions, and the light emitting portions adjacent to each other in the plurality of light emitting portions are aligned along the predetermined direction. The tilt detection device according to any one of <1> to <5>, wherein the length of the interval is shorter than the length of the light receiving surface of the light receiving means along the predetermined direction.
<7> The tilt detection device according to any one of <1> to <6>, wherein the light reflected by the object spreads as it approaches the light receiving means.
<8> Any one of <1> to <7>, wherein the beam diameter of the light reflected by the object is longer than the length of the light receiving surface along the predetermined direction on the light receiving surface of the light receiving means. 1. A tilt detection device according to one.
<9> A control unit for controlling light emission by the plurality of light emitting units so as to emit light time-modulated by codes having orthogonality, wherein the output unit responds to the electrical signal output from the light receiving unit. The tilt detection device according to any one of <1> to <8>, wherein the plurality of time-modulated lights are separated and detected based on the above.
<10> The tilt detection device according to <9>, wherein the code is a Hadamard code.
<11> The plurality of light emitting units are grouped into a plurality of groups, and the control unit controls light emission by the plurality of light emitting units such that the light emitting units in the plurality of groups emit light for each group. , the tilt detection device according to <9> or <10>.
<12> A line-of-sight detection device including the tilt detection device according to any one of <1> to <11>, and detecting a line of sight based on a detection result of an eyeball tilt detected by the tilt detection device. be.
<13> A retinal projection display device including the line-of-sight detection device according to <12>.
<14> A head-mounted display device including the line-of-sight detection device according to <12>.
<15> An eye examination apparatus including the line-of-sight detection apparatus according to <12>.
<16> A virtual reality display device including the line-of-sight detection device according to <12>.
<17> A user state estimation device, comprising: the line-of-sight detection device according to <12>; .
<18> The user state estimation device according to <17>, wherein the estimating unit estimates the state of the user based on the frequency of occurrence of minute vibrations of the user's eyeballs.
<19> The user state estimation device according to <17> or <18>, wherein the state of the user includes at least one of fatigue level and caution level of the user.
<20> The user state estimation device according to any one of <17> to <19>; and a driving support system.
<21> A tilt detection method using a tilt detection device, wherein the tilt detection device emits light from a plurality of light emitting units, and a light receiving unit receives light emitted from the plurality of light emitting units and reflected by an object. and outputting an electric signal based on the light intensity of the received light, outputting a detection result of the inclination of the object based on the electric signal output from the light receiving means by the output means, and the light receiving means and receiving a plurality of lights emitted from the plurality of light emitting units and reflected by the object in a state in which the object has substantially the same inclination.
<22> A line-of-sight detection method by a line-of-sight detection device, wherein the line-of-sight detection device emits light from a plurality of light emitting units, and a light receiving unit receives light emitted by the plurality of light emitting units and reflected by an object. and outputting an electric signal based on the light intensity of the received light, outputting a detection result of the inclination of the object based on the electric signal output from the light receiving means by the output means, and the light receiving means and receiving a plurality of lights emitted from the plurality of light-emitting units and reflected by the object in a state where the inclination of the object is substantially the same.

1、1a VCSELアレイ(複数の発光部の一例)
2 レンズ
3 凹面ミラー
4 フォトダイオード(受光手段の一例)
41 受光面
411~416、411a~417a スポット
10 視線検出装置(傾き検出装置の一例)
11~16、11a~16a VCSEL素子
1A、11A~16A 発光面
30 眼球(対象物の一例)
31 角膜
100 処理部
101 CPU
102 ROM
103 RAM
104 SSD
105 光源駆動回路
106 I/V変換回路
107 A/D変換回路
108 入出力I/F
111 選択部
112 光源駆動部
113 切替部
114 I/V変換部
115 A/D変換部
116 第1蓄積部
117 判定部
118 推定部
119 出力部
120 符号化部
121 光源変調部
122 内積演算部
123 第2蓄積部
D 間隔
e 重複領域
w 幅
φ 広がり角
Da デジタル電圧データ
Dr 駆動信号
Ed 視線方向情報
Se 電気信号
L、L1、L2、L3、L4、L41、L41a、L42 レーザ光
Q 集光位置
Rf 参照データ
1, 1a VCSEL array (an example of multiple light emitting units)
2 lens 3 concave mirror 4 photodiode (an example of light receiving means)
41 Light-receiving surfaces 411 to 416, 411a to 417a Spot 10 Line-of-sight detection device (an example of a tilt detection device)
11 to 16, 11a to 16a VCSEL elements 1A, 11A to 16A light emitting surface 30 eyeball (an example of an object)
31 cornea 100 processing unit 101 CPU
102 ROMs
103 RAM
104 SSD
105 light source drive circuit 106 I/V conversion circuit 107 A/D conversion circuit 108 input/output I/F
111 selection unit 112 light source driving unit 113 switching unit 114 I/V conversion unit 115 A/D conversion unit 116 first accumulation unit 117 determination unit 118 estimation unit 119 output unit 120 encoding unit 121 light source modulation unit 122 inner product calculation unit 123 2 storage unit D interval e overlap region w width φ spread angle Da digital voltage data Dr drive signal Ed line-of-sight direction information Se electrical signals L, L1, L2, L3, L4, L41, L41a, L42 laser light Q converging position Rf Reference data

米国特許第10213105号明細書U.S. Patent No. 10213105

Claims (22)

複数の発光部と、
前記複数の発光部により発光され、対象物により反射された光を受光し、受光した光の光強度に基づく電気信号を出力する受光手段と、
前記受光手段から出力される前記電気信号に基づいて、前記対象物の傾きの検出結果を出力する出力手段と、を有し、
前記受光手段は、前記対象物の傾きがほぼ同じである状態において、前記複数の発光部から発光され、前記対象物により反射された複数の光を受光する、傾き検出装置。
a plurality of light emitting units;
a light-receiving means for receiving light emitted by the plurality of light-emitting portions and reflected by an object, and for outputting an electrical signal based on the light intensity of the received light;
output means for outputting a detection result of the inclination of the object based on the electrical signal output from the light receiving means;
The tilt detection device, wherein the light receiving unit receives a plurality of lights emitted from the plurality of light emitting units and reflected by the object when the object is tilted substantially at the same angle.
前記複数の発光部は、複数の光を並行して発光する、請求項1に記載の傾き検出装置。 2. The tilt detection device according to claim 1, wherein said plurality of light emitting units emit a plurality of lights in parallel. 前記複数の発光部は、前記複数の発光部の発光面に沿った所定方向に沿って並んで設けられ、
前記複数の発光部における隣り合う発光部同士の前記所定方向に沿った間隔は、いずれも等しい、請求項1または請求項2に記載の傾き検出装置。
The plurality of light emitting units are provided side by side along a predetermined direction along the light emitting surface of the plurality of light emitting units,
3. The tilt detection device according to claim 1, wherein the distances along the predetermined direction between adjacent light-emitting portions in the plurality of light-emitting portions are all equal.
前記複数の発光部は、前記複数の発光部の発光面に沿った異なる2つの方向それぞれに沿って並んで設けられている、請求項1または請求項2に記載の傾き検出装置。 3. The tilt detection device according to claim 1, wherein said plurality of light emitting portions are provided side by side along two different directions along the light emitting surfaces of said plurality of light emitting portions. 前記受光手段の受光面の幅をwとし、
前記受光手段の受光面での隣接する光のビーム中心間距離をdとし、
前記受光手段の受光面での光のビーム半径をhとした場合に、次式を満足する
|h-w/2|≦d≦h+w/2
請求項1または請求項2に記載の傾き検出装置。
Let w be the width of the light receiving surface of the light receiving means,
Let d be the distance between the beam centers of adjacent light beams on the light receiving surface of the light receiving means,
|h−w/2|≦d≦h+w/2 satisfying the following equation, where h is the beam radius of the light on the light receiving surface of the light receiving means.
The tilt detection device according to claim 1 or 2.
前記複数の発光部は、前記複数の発光部の発光面に沿った所定方向に沿って並んで設けられ、
前記複数の発光部における隣り合う発光部同士の前記所定方向に沿った間隔の長さは、前記受光手段の受光面の前記所定方向に沿った長さよりも短い、請求項1または請求項2に記載の傾き検出装置。
The plurality of light emitting units are provided side by side along a predetermined direction along the light emitting surface of the plurality of light emitting units,
3. The method according to claim 1, wherein a length of an interval along said predetermined direction between adjacent light emitting portions in said plurality of light emitting portions is shorter than a length along said predetermined direction of a light receiving surface of said light receiving means. Tilt detection device as described.
前記対象物によって反射された光は、前記受光手段に近づくにつれて広がる、請求項1または請求項2に記載の傾き検出装置。 3. The tilt detection device according to claim 1, wherein the light reflected by said object spreads as it approaches said light receiving means. 前記対象物によって反射された光のビーム直径は、前記受光手段の受光面上において、受光面の所定方向に沿った長さよりも長い、請求項1または請求項2に記載の傾き検出装置。 3. The tilt detection device according to claim 1, wherein the beam diameter of the light reflected by the object is longer on the light receiving surface of the light receiving means than the length along the predetermined direction of the light receiving surface. 直交性を有する符号によって時間変調された光を発するように前記複数の発光部による発光を制御する制御部を有し、
前記出力手段は、前記受光手段から出力される前記電気信号に基づいて、複数の前記時間変調された光を分離検出する、請求項1または請求項2に記載の傾き検出装置。
a control unit for controlling light emission by the plurality of light emitting units so as to emit light time-modulated by codes having orthogonality;
3. The tilt detection device according to claim 1, wherein said output means separates and detects a plurality of said time-modulated lights based on said electrical signal output from said light receiving means.
前記符号はアダマール符号である、請求項9に記載の傾き検出装置。 10. The tilt detection device according to claim 9, wherein the code is a Hadamard code. 前記複数の発光部は、複数のグループにグループ化され、
前記制御部は、前記複数のグループの前記発光部がグループごとに発光するように、前記複数の発光部による発光を制御する、請求項9に記載の傾き検出装置。
The plurality of light emitting units are grouped into a plurality of groups,
10. The tilt detection device according to claim 9, wherein said control unit controls light emission by said plurality of light emitting units so that said light emitting units in said plurality of groups emit light for each group.
請求項1または請求項2に記載の傾き検出装置を有し、
前記傾き検出装置による眼球の傾きの検出結果に基づいて視線を検出する、視線検出装置。
Having the tilt detection device according to claim 1 or claim 2,
A line-of-sight detection device that detects a line of sight based on a detection result of an inclination of an eyeball by the tilt detection device.
請求項12に記載の視線検出装置を有する網膜投影表示装置。 A retinal projection display device comprising the line-of-sight detection device according to claim 12 . 請求項12に記載の視線検出装置を有する頭部装着型表示装置。 A head-mounted display device comprising the line-of-sight detection device according to claim 12 . 請求項12に記載の視線検出装置を有する検眼装置。 An eye examination apparatus comprising the line-of-sight detection apparatus according to claim 12 . 請求項12に記載の視線検出装置を有する仮想現実表示装置。 A virtual reality display device comprising the line-of-sight detection device according to claim 12 . 請求項12に記載の視線検出装置と、
前記視線検出装置により検出された視線方向の情報に基づき、ユーザの状態を推定する状態推定部と、を有するユーザ状態推定装置。
A line-of-sight detection device according to claim 12;
A user state estimating device, comprising: a state estimating unit for estimating a state of a user based on information on the line-of-sight direction detected by the line-of-sight detection device.
前記状態推定部は、前記ユーザの眼球の微振動の発生頻度に基づいて前記ユーザの状態を推定する請求項17に記載のユーザ状態推定装置。 The user state estimation device according to claim 17, wherein the state estimation unit estimates the state of the user based on the frequency of occurrence of minute vibrations of the user's eyeballs. 前記ユーザの状態は、前記ユーザの疲労度または注意度のうち少なくとも1つを含む請求項17に記載のユーザ状態推定装置。 18. The user state estimation device according to claim 17, wherein the state of the user includes at least one of fatigue level and caution level of the user. 請求項17に記載のユーザ状態推定装置と、
前記ユーザ状態推定装置により推定された前記状態に基づき、前記ユーザの運転する移動体の動作を制御する動作制御部と、を有する運転支援システム。
A user state estimation device according to claim 17;
A driving support system comprising: an operation control unit that controls an operation of a mobile object driven by the user based on the state estimated by the user state estimation device.
傾き検出装置による傾き検出方法であって、
前記傾き検出装置が、
複数の発光部により発光し、
受光手段により、前記複数の発光部により発光され、対象物により反射された光を受光し、受光した光の光強度に基づく電気信号を出力し、
出力手段により、前記受光手段から出力される前記電気信号に基づいて、前記対象物の傾きの検出結果を出力し、
前記受光手段は、前記対象物の傾きがほぼ同じである状態において、前記複数の発光部から発光され、前記対象物により反射された複数の光を受光する、立体物の傾き検出方法。
A tilt detection method using a tilt detection device,
The tilt detection device is
It emits light by a plurality of light emitting parts,
the light receiving means receives the light emitted by the plurality of light emitting units and reflected by the object, and outputs an electrical signal based on the light intensity of the received light;
outputting a detection result of the tilt of the object based on the electrical signal output from the light receiving means,
The tilt detection method of a three-dimensional object, wherein the light receiving means receives a plurality of lights emitted from the plurality of light emitting units and reflected by the target when the tilt of the target is substantially the same.
視線検出装置による視線検出方法であって、
前記視線検出装置が、
複数の発光部により発光し、
受光手段により、前記複数の発光部により発光され、対象物によって反射された光を受光し、受光した光の光強度に基づく電気信号を出力し、
出力手段により、前記受光手段から出力される前記電気信号に基づいて、前記対象物の傾きの検出結果を出力し、
前記受光手段は、前記対象物の傾きがほぼ同じである状態において、前記複数の発光部から発光され、前記対象物により反射された複数の光を受光する、視線検出方法。
A line-of-sight detection method by a line-of-sight detection device,
The line-of-sight detection device is
It emits light by a plurality of light emitting parts,
the light receiving means receives the light emitted by the plurality of light emitting units and reflected by the object, and outputs an electrical signal based on the light intensity of the received light;
outputting a detection result of the tilt of the object based on the electrical signal output from the light receiving means,
The line-of-sight detection method, wherein the light receiving unit receives a plurality of lights emitted from the plurality of light emitting units and reflected by the object in a state where the inclination of the object is substantially the same.
JP2022170184A 2021-12-23 2022-10-24 Inclination detector, visual line detector, retina projection display device, head attachment type display device, eye examination device, virtual reality display device, user state estimation device, drive support system, inclination detection method of solid object, and visual line detection method Pending JP2023094539A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/IB2022/061949 WO2023119040A1 (en) 2021-12-23 2022-12-08 Inclination detector, line-of-sight detection device, retinal projection display device, head-mounted display device, optometric device, virtual-reality display apparatus, user-condition estimation apparatus, driver-assistance system, method of detecting degree of inclination of three-dimensional object, and method of detecting line-of-sight

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021209644 2021-12-23
JP2021209644 2021-12-23

Publications (1)

Publication Number Publication Date
JP2023094539A true JP2023094539A (en) 2023-07-05

Family

ID=87001277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022170184A Pending JP2023094539A (en) 2021-12-23 2022-10-24 Inclination detector, visual line detector, retina projection display device, head attachment type display device, eye examination device, virtual reality display device, user state estimation device, drive support system, inclination detection method of solid object, and visual line detection method

Country Status (1)

Country Link
JP (1) JP2023094539A (en)

Similar Documents

Publication Publication Date Title
JP2019154815A (en) Device for detecting inclination position of eyeball, display device and optometry device
KR102594058B1 (en) Method and system for tracking eye movements with optical scanning projector
JP2023543557A (en) How to drive the near eye display light source
JP2021131546A (en) Eye imaging with off-axis imager
JP5887026B2 (en) Head mounted system and method for computing and rendering a stream of digital images using the head mounted system
US20120105310A1 (en) Dynamic foveal vision display
JP7388507B2 (en) Surface-emitting laser for pupil or cornea position detection device, light source device, and eyeball tilt position detection device
JP7423659B2 (en) Systems and techniques for estimating eye pose
CN110192143B (en) Image projection apparatus
JP2022523021A (en) Eye tracking using images with different exposure times
US20220155599A1 (en) Eye accommodation distance measuring device and method for head-mounted display, and head-mounted display
JP2018063436A (en) Image projector and image projection system
CN115202037A (en) Optical device, retina projection display device, and head-mounted display device
JP7464166B2 (en) Pupil or cornea position detection device, retinal projection display device, head-mounted display device, and input device
WO2019187958A1 (en) Information detection device, image projection device, information detection method, and image projection method
JP2021519945A (en) How to make a waveguide with integrated optics and the same thing
JP2009122550A (en) Retina projection display device
JP2024045580A (en) Improved eye tracking for augmented or virtual reality display systems
CN114815468A (en) Multi-plane projection with laser beam scanning in augmented reality displays
JP7424099B2 (en) Optical devices, retinal projection display devices, head-mounted display devices, and optometry devices
JP2023094539A (en) Inclination detector, visual line detector, retina projection display device, head attachment type display device, eye examination device, virtual reality display device, user state estimation device, drive support system, inclination detection method of solid object, and visual line detection method
CN216485801U (en) Optical imaging system, image display device and augmented reality display equipment
WO2023119040A1 (en) Inclination detector, line-of-sight detection device, retinal projection display device, head-mounted display device, optometric device, virtual-reality display apparatus, user-condition estimation apparatus, driver-assistance system, method of detecting degree of inclination of three-dimensional object, and method of detecting line-of-sight
JP7163230B2 (en) Line-of-sight detection device, line-of-sight detection method, and display device
JP2022142736A (en) Optical device, visual line detection device, retina projection display device, head-mounted type display device, optometer, user state estimation device, operation support system, detection method for inclination of three-dimensional object, and visual line detection method