JPWO2015012280A1 - Gaze detection device - Google Patents

Gaze detection device Download PDF

Info

Publication number
JPWO2015012280A1
JPWO2015012280A1 JP2015528297A JP2015528297A JPWO2015012280A1 JP WO2015012280 A1 JPWO2015012280 A1 JP WO2015012280A1 JP 2015528297 A JP2015528297 A JP 2015528297A JP 2015528297 A JP2015528297 A JP 2015528297A JP WO2015012280 A1 JPWO2015012280 A1 JP WO2015012280A1
Authority
JP
Japan
Prior art keywords
light
line
user
eye
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015528297A
Other languages
Japanese (ja)
Inventor
高山 淳
淳 高山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Publication of JPWO2015012280A1 publication Critical patent/JPWO2015012280A1/en
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording

Abstract

【課題】ユーザーの眼の瞳孔の位置が正確に検出される視線検出装置を提供する。【解決手段】視線検出装置1は、受光手段22と、導光手段30と、測定手段25と、算出手段25とを有する。受光手段22は、ユーザーの眼UEからの光を受光し、当該光の強度に応じた受光信号を生成する。導光手段30は、上記眼からの光を受光手段22に導く。測定手段25は、上記受光信号に基づいて、導光手段30と上記眼の瞳孔PUまたは虹彩IRとの間の位置関係を測定する。算出手段25は、上記位置関係に基づいて、上記ユーザーの瞳孔PUの位置を算出する。【選択図】図1A gaze detection device capable of accurately detecting the position of a pupil of a user's eye is provided. A line-of-sight detection apparatus includes a light receiving unit, a light guiding unit, a measuring unit, and a calculating unit. The light receiving unit 22 receives light from the user's eye UE and generates a light reception signal corresponding to the intensity of the light. The light guiding unit 30 guides the light from the eye to the light receiving unit 22. The measuring unit 25 measures the positional relationship between the light guiding unit 30 and the pupil PU or iris IR of the eye based on the light reception signal. The calculating means 25 calculates the position of the user's pupil PU based on the positional relationship. [Selection] Figure 1

Description

本発明は、視線検出装置に関する。   The present invention relates to a line-of-sight detection device.

現実世界の像である外界像にコンピューターグラフィックスなどで作成した仮想世界の映像である仮想映像を重ね合せてディスプレイに表示する技術が一般に知られている。この技術では、ユーザーは、あたかも仮想映像が外界像と一体となってディスプレイに表示されているように知覚する。上記外界像は、透明なガラスや樹脂などを通してユーザーが直接見ることができる現実世界の像であってもよいし、あらかじめカメラなどの撮像装置で外界を撮像した映像を再生したものであってもよい。   A technique is generally known in which a virtual image that is a virtual world image created by computer graphics or the like is superimposed on an external image that is an image of the real world and displayed on a display. In this technique, the user perceives as if the virtual image is displayed on the display together with the external image. The external image may be a real-world image that can be directly viewed by the user through transparent glass, resin, or the like, or may be an image obtained by capturing an image of the external environment with an imaging device such as a camera in advance. Good.

また、近年では、たとえば、ユーザーの手足や眼などの身体の位置や挙動を検知することにより、ユーザーが仮想映像や機器に対して働きかけることを可能にする技術についても研究が進められている。とくに、ユーザーの眼の瞳孔の位置に基づいて視線を検出することによって、現実世界や映像におけるユーザーの視線の先にある対象を判別する技術が注目されており、様々な分野における応用が期待されている。たとえば、パーソナル・コンピューターを操作する方法として、従来のキーボード、マウスなどによる操作に加えて、ユーザーの視線によって操作する技術も開発されている。   In recent years, for example, a technique for enabling a user to work on virtual images and devices by detecting the position and behavior of the body such as the user's limbs and eyes has been studied. In particular, the technology that distinguishes the object ahead of the user's line of sight in the real world or video by detecting the line of sight based on the position of the pupil of the user's eye is attracting attention, and is expected to be applied in various fields. ing. For example, as a method of operating a personal computer, a technique of operating by a user's line of sight has been developed in addition to a conventional operation using a keyboard, a mouse, or the like.

視線を検出する方法としては、カメラにより撮像したユーザーの眼の映像から瞳孔の位置を検出し、当該瞳孔の位置に基づいて視線を検出する方法が従来から知られている(たとえば、下記特許文献1を参照)。特許文献1の技術では、眼鏡型のヘッドマウントディスプレイをユーザーが装着し、当該ヘッドマウントディスプレイのシースルー部材(眼鏡のレンズに相当する部分)を通してユーザーの眼の像が撮像される。そして、眼の映像から瞳孔の位置が検出され、当該瞳孔の位置に基づいて視線の方向が検出される。   As a method for detecting the line of sight, a method for detecting the position of the pupil from the image of the user's eye imaged by the camera and detecting the line of sight based on the position of the pupil has been conventionally known (for example, the following patent document). 1). In the technique of Patent Literature 1, a user wears a spectacle-type head-mounted display, and an image of the user's eye is captured through a see-through member of the head-mounted display (a part corresponding to a spectacle lens). Then, the position of the pupil is detected from the image of the eye, and the direction of the line of sight is detected based on the position of the pupil.

しかしながら、特許文献1の技術では、ヘッドマウントディスプレイのシースルー部材とユーザーの眼との間の距離が考慮されていないため、ヘッドマウントディスプレイの装着状態が変化すると、ユーザーの眼の瞳孔の位置が正確に検出されないという問題がある。また、ユーザーの眼の瞳孔の位置が正確に検出されないので、ユーザーの視線の方向も正確に検出されないという問題もある。   However, since the distance between the see-through member of the head-mounted display and the user's eye is not considered in the technique of Patent Document 1, the position of the pupil of the user's eye is accurately determined when the mounting state of the head-mounted display changes. There is a problem of not being detected. In addition, since the position of the pupil of the user's eye is not accurately detected, there is also a problem that the direction of the user's line of sight is not accurately detected.

特開2010−102215号公報JP 2010-102215 A

本発明は、上記問題に鑑みてなされたものである。したがって、本発明の目的は、ユーザーの眼の瞳孔の位置が正確に検出される視線検出装置を提供することである。   The present invention has been made in view of the above problems. Accordingly, an object of the present invention is to provide a gaze detection device that can accurately detect the position of the pupil of the user's eye.

本発明の上記目的は、下記によって達成される。   The above object of the present invention is achieved by the following.

(1)ユーザーの眼からの光を受光し、当該光の強度に応じた受光信号を生成する受光手段と、前記眼からの光を前記受光手段に導く導光手段と、前記受光信号に基づいて、前記導光手段と前記眼の瞳孔または虹彩との間の位置関係を測定する測定手段と、前記位置関係に基づいて、前記ユーザーの瞳孔の位置を算出する算出手段と、を有する、視線検出装置。   (1) Light receiving means for receiving light from the user's eyes and generating a light receiving signal corresponding to the intensity of the light, light guiding means for guiding light from the eyes to the light receiving means, and based on the light receiving signal And a measuring means for measuring a positional relationship between the light guide means and the pupil or iris of the eye, and a calculating means for calculating the position of the user's pupil based on the positional relationship. Detection device.

(2)前記測定手段は、前記位置関係として前記導光手段の接眼面と前記虹彩との距離を測定し、前記算出手段は、前記距離に基づいて前記接眼面を基準とする前記瞳孔の位置および前記瞳孔の向きを算出し、前記瞳孔の向きに基づいて視線方向を算出することを特徴とする上記(1)に記載の視線検出装置。   (2) The measurement unit measures a distance between the eyepiece surface of the light guide unit and the iris as the positional relationship, and the calculation unit calculates the position of the pupil with reference to the eyepiece surface based on the distance. And the direction of the pupil is calculated, and the line-of-sight direction is calculated based on the direction of the pupil.

(3)前記導光手段は、前記眼からの光を回折させることにより進路を変えて、前記受光手段に導くことを特徴とする上記(1)または(2)に記載の視線検出装置。   (3) The line-of-sight detection device according to (1) or (2), wherein the light guiding unit changes the course by diffracting light from the eye and guides the light to the light receiving unit.

(4)前記受光手段は、複眼撮像装置を有し、前記受光信号としての画像信号を生成し、前記測定手段は、前記画像信号に基づいて、前記距離を測定することを特徴とする上記(2)または(3)に記載の視線検出装置。   (4) The light receiving unit includes a compound eye imaging device, generates an image signal as the light reception signal, and the measurement unit measures the distance based on the image signal. The line-of-sight detection device according to 2) or (3).

(5)前記受光手段は、複眼撮像装置としてステレオカメラを有し、前記受光信号としての画像信号を生成し、前記測定手段は、前記画像信号に基づいて、前記距離を測定することを特徴とする上記(2)または(3)に記載の視線検出装置。   (5) The light receiving means includes a stereo camera as a compound eye imaging device, generates an image signal as the light reception signal, and the measuring means measures the distance based on the image signal. The visual line detection device according to (2) or (3).

(6)前記受光手段は、複眼撮像装置としてアレイカメラを有し、前記受光信号としての画像信号を生成し、前記測定手段は、前記画像信号に基づいて前記距離を測定することを特徴とする上記(2)または(3)に記載の視線検出装置。   (6) The light receiving unit includes an array camera as a compound eye imaging device, generates an image signal as the light reception signal, and the measuring unit measures the distance based on the image signal. The line-of-sight detection device according to (2) or (3) above.

(7)前記ユーザーの眼に照射光を照射する照明手段をさらに有することを特徴とする上記(1)〜(6)のいずれか1つに記載の視線検出装置。   (7) The line-of-sight detection device according to any one of (1) to (6), further including an illumination unit that irradiates the user's eyes with irradiation light.

(8)前記ユーザーの眼に照射光を照射する照明手段をさらに有し、前記照明手段は、前記照射光としてパルス光を照射し、前記受光手段は、TOFカメラを有し、前記眼から反射された反射光を当該TOFカメラで受光し、前記パルス光に対する反射光の遅延時間を前記受光信号に基づいて算出し、当該遅延時間に基づいて前記距離を測定することを特徴とする上記(1)〜(3)のいずれか1つに記載の視線検出装置。   (8) It further includes an illuminating unit that irradiates the user's eyes with irradiation light, the illuminating unit irradiates pulse light as the irradiation light, and the light receiving unit includes a TOF camera and reflects from the eye. The reflected light received by the TOF camera, a delay time of the reflected light with respect to the pulsed light is calculated based on the received light signal, and the distance is measured based on the delay time (1) The line-of-sight detection device according to any one of (1) to (3).

(9)前記導光手段は、ホログラフィック光学素子を有し、前記照射光を当該ホログラフィック光学素子で回折させることにより進路を変えて、前記眼に導くとともに、前記眼によって反射された反射光を前記受光手段に導くことを特徴とする上記(7)に記載の視線検出装置。   (9) The light guide means includes a holographic optical element, and changes the course by diffracting the irradiation light with the holographic optical element, guides it to the eye, and reflects the reflected light by the eye. The line-of-sight detection device according to (7) above, wherein

(10)前記導光手段は、透明板を有し、当該透明板は前記接眼面を含むことを特徴とする上記(1)〜(9)のいずれか1つに記載の視線検出装置。   (10) The line-of-sight detection device according to any one of (1) to (9), wherein the light guide unit includes a transparent plate, and the transparent plate includes the eyepiece surface.

(11)前記ユーザーの頭部に装着されるように構成されていることを特徴とする上記(1)〜(10)のいずれか1つに記載の視線検出装置。   (11) The line-of-sight detection device according to any one of (1) to (10), which is configured to be worn on the head of the user.

(12)前記照射光は、赤外光であることを特徴とする上記(7)に記載の視線検出装置。   (12) The line-of-sight detection device according to (7), wherein the irradiation light is infrared light.

(13)外界の被写体を撮像する被写体用撮像手段と、前記算出手段で算出された前記視線方向に基づいて、前記被写体用撮像手段で撮像された映像における前記ユーザーの視線の先にある対象を特定する特定手段と、をさらに有することを特徴とする上記(2)〜(12)のいずれか1つに記載の視線検出装置。   (13) A subject imaging unit that captures an external subject, and a target ahead of the user's line of sight in the video imaged by the subject imaging unit based on the line-of-sight direction calculated by the calculation unit. The line-of-sight detection device according to any one of (2) to (12), further including: a specifying unit that specifies.

(14)前記ユーザーの視線の先にある対象を特定する特定手段に基づいて、前記ユーザーの視線の先にある対象に関する情報を表示部に表示することを特徴とする上記(13)に記載の視線検出装置。   (14) The information on the object ahead of the user's line of sight is displayed on a display unit based on a specifying unit that identifies the object ahead of the user's line of sight. Gaze detection device.

本発明の第1の実施形態における視線検出装置の主要部を示す外観図である。It is an external view which shows the principal part of the gaze detection apparatus in the 1st Embodiment of this invention. 図1に示す視線検出装置の検出部の概略ブロック図である。It is a schematic block diagram of the detection part of the gaze detection apparatus shown in FIG. 図1に示す検出部におけるライトおよびカメラの配置を示す模式図である。It is a schematic diagram which shows the arrangement | positioning of the light and camera in the detection part shown in FIG. 図1に示す視線検出装置のIV−IV線に沿って切断した断面図である。It is sectional drawing cut | disconnected along the IV-IV line of the gaze detection apparatus shown in FIG. ライトから照射された赤外光の導光部における光路を説明するための断面図である。It is sectional drawing for demonstrating the optical path in the light guide part of the infrared light irradiated from the light. ユーザーの眼からの反射光の導光部における光路を説明するための断面図である。It is sectional drawing for demonstrating the optical path in the light guide part of the reflected light from a user's eyes. 図5および図6において検出部から導光部を見たときの照射光および反射光の光路を説明するための概念図である。It is a conceptual diagram for demonstrating the optical path of irradiation light and reflected light when a light guide part is seen from a detection part in FIG. 5 and FIG. ユーザーの視線方向を算出する方法を説明するための概念図である。It is a conceptual diagram for demonstrating the method of calculating a user's gaze direction. ユーザーの視線方向を算出する方法を説明するための概念図である。It is a conceptual diagram for demonstrating the method of calculating a user's gaze direction. 表示部からの表示光の導光部における光路を説明するための断面図である。It is sectional drawing for demonstrating the optical path in the light guide part of the display light from a display part. 本発明の第2の実施形態において、超解像型アレイカメラを使用する場合の検出部のライトおよびカメラの配置を示す図である。In the 2nd Embodiment of this invention, it is a figure which shows arrangement | positioning of the light of a detection part and a camera in the case of using a super-resolution type | mold array camera. 図10Aの検出部から導光部を見たときの照射光および反射光の光路を説明するための概念図である。It is a conceptual diagram for demonstrating the optical path of irradiation light and reflected light when a light guide part is seen from the detection part of FIG. 10A. 本発明の第2の実施形態において、超解像型アレイカメラで撮像する場合の他の形態を示す概念図である。In the 2nd Embodiment of this invention, it is a conceptual diagram which shows the other form at the time of imaging with a super-resolution type | mold array camera. 本発明の第2の実施形態において、視野分割型アレイカメラを使用する場合の検出部から導光部を見たときの照射光および反射光の光路を説明するための概念図である。In the 2nd Embodiment of this invention, it is a conceptual diagram for demonstrating the optical path of irradiation light and reflected light when a light guide part is seen from the detection part in the case of using a visual field division | segmentation type array camera. 本発明の第2の実施形態において、昆虫型アレイカメラを使用する場合の反射光の光路を説明するための概念図である。In the 2nd Embodiment of this invention, it is a conceptual diagram for demonstrating the optical path of the reflected light in the case of using an insect type | mold array camera. 本発明の第3の実施形態において、検出部のライトおよびカメラの配置を示す図である。In the 3rd Embodiment of this invention, it is a figure which shows arrangement | positioning of the light of a detection part, and a camera. 第4の実施形態において被写体を撮像するためのステレオカメラを有する場合について説明するための外観図である。It is an external view for demonstrating the case where it has a stereo camera for imaging a to-be-photographed object in 4th Embodiment. 第4の実施形態において被写体を撮像するためのアレイカメラを有する場合について説明するための外観図である。It is an external view for demonstrating the case where it has an array camera for imaging a to-be-photographed object in 4th Embodiment.

以下、添付した図面を参照して本発明の視線検出装置の実施形態を説明する。なお、図中、同一の部材には同一の符号を用いた。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。   Hereinafter, embodiments of the eye gaze detection apparatus of the present invention will be described with reference to the accompanying drawings. In the drawings, the same reference numerals are used for the same members. In addition, the dimensional ratios in the drawings are exaggerated for convenience of explanation, and may be different from the actual ratios.

(第1の実施形態)
第1の実施形態では、複眼撮像装置として2つのカメラを有し、ステレオ方式でユーザーの眼を撮像するヘッドマウントディスプレイ(以下、HMDと称する)を例に挙げて視線検出装置について説明する。図1は本発明の第1の実施形態における視線検出装置の主要部を示す外観図であり、図2は図1に示す視線検出装置の検出部の概略ブロック図であり、図3は図1に示す検出部におけるライトおよびカメラの配置を示す模式図である。図4は図1に示す視線検出装置のIV−IV線に沿って切断した断面図である。なお、直交座標系のX軸、Y軸、Z軸を図1に示す方向に定めた。
(First embodiment)
In the first embodiment, a line-of-sight detection apparatus will be described using a head-mounted display (hereinafter referred to as an HMD) that has two cameras as a compound-eye imaging apparatus and images a user's eyes in a stereo manner. FIG. 1 is an external view showing the main part of the visual line detection device according to the first embodiment of the present invention, FIG. 2 is a schematic block diagram of the detection unit of the visual line detection device shown in FIG. 1, and FIG. It is a schematic diagram which shows arrangement | positioning of the light and camera in the detection part shown in FIG. 4 is a cross-sectional view taken along line IV-IV of the visual line detection device shown in FIG. Note that the X-axis, Y-axis, and Z-axis of the orthogonal coordinate system were determined in the directions shown in FIG.

図1に示すように、本実施形態の視線検出装置1は、装着部10、検出部20、および導光部30を有する。なお、本明細書を通して、視線検出装置1を装着したユーザーの眼の瞳孔の中心位置を「視点」と称し、ユーザーの視線の方向を「視線方向」と称する。   As illustrated in FIG. 1, the line-of-sight detection device 1 according to the present embodiment includes a mounting unit 10, a detection unit 20, and a light guide unit 30. Throughout this specification, the center position of the pupil of the user's eye wearing the line-of-sight detection device 1 is referred to as “viewpoint”, and the direction of the user's line of sight is referred to as “line-of-sight direction”.

<装着部の概略構成>
装着部10は、一対の第1支持部材11R,11L、第2支持部材12R,12L、および連結部材13を有し、検出部20および導光部30をユーザーの頭部に固定する役割を果たす。
<Schematic configuration of mounting part>
The mounting unit 10 includes a pair of first support members 11R and 11L, second support members 12R and 12L, and a connecting member 13, and plays a role of fixing the detection unit 20 and the light guide unit 30 to the user's head. .

第1支持部材11R,11Lは、たとえば金属、樹脂などの材料で形成され、端部が湾曲した棒状の部材であり、一端において導光部30を支持し、他端においてユーザーの側頭部と耳部との間の部位によって支持される。   The first support members 11R and 11L are rod-shaped members formed of, for example, a metal, a resin, or the like and having curved end portions. The first support members 11R and 11L support the light guide unit 30 at one end and the user's temporal region at the other end. It is supported by the site between the ears.

第2支持部材12R,12Lは、たとえば金属、樹脂などの材料で形成された部材であり、導光部30に取り付けられ、ユーザーの鼻部によって支持される。   The second support members 12R and 12L are members formed of a material such as metal or resin, for example, and are attached to the light guide 30 and supported by the user's nose.

連結部13は、たとえば金属、樹脂などの材料で形成された部材であり、導光部30の一対の透明板31R,31Lを互いに連結する。   The connecting portion 13 is a member formed of a material such as metal or resin, for example, and connects the pair of transparent plates 31R and 31L of the light guide portion 30 to each other.

視線検出装置1がユーザーの頭部に装着されたとき、透明板31R、31Lはそれぞれ左右の眼の直前に位置し、第1支持部材11R、11Lは左右から頭部を挟んで耳部の上縁を含む側頭部で支持され、第2支持部材12R,12Lは鼻部の上部両側部で支持される。すなわち、本実施形態の視線検出装置1は、全体として一般の眼鏡に類似した形状を呈し、透明板31R、32Rがレンズに相当し、支持部材11R、11Lがつる(テンプル)に相当し、第2支持部材12R,12Lが鼻当てに相当する。   When the line-of-sight detection device 1 is mounted on the user's head, the transparent plates 31R and 31L are positioned immediately in front of the left and right eyes, respectively, and the first support members 11R and 11L The second support members 12R and 12L are supported on both upper side portions of the nose. That is, the line-of-sight detection device 1 of the present embodiment has a shape similar to general glasses as a whole, the transparent plates 31R and 32R correspond to lenses, the support members 11R and 11L correspond to temples (temples), The two support members 12R and 12L correspond to nose pads.

<検出部の概略構成>
検出部20は、導光部30によって導かれたユーザーの眼の映像に基づいて視点および視線方向を検出する。本実施形態では、検出部20は導光部30の透明板31Rの上部に取り付けられている。
<Schematic configuration of detector>
The detection unit 20 detects the viewpoint and the line-of-sight direction based on the image of the user's eye guided by the light guide unit 30. In the present embodiment, the detection unit 20 is attached to the upper part of the transparent plate 31 </ b> R of the light guide unit 30.

図2に示すように、検出部20は、照明部21、撮像部22、表示部23、通信部24、および演算制御部25を有し、これらの構成要素は、バスまたは制御線26により電気的に相互に接続されている。   As shown in FIG. 2, the detection unit 20 includes an illumination unit 21, an imaging unit 22, a display unit 23, a communication unit 24, and an arithmetic control unit 25, and these components are electrically connected by a bus or a control line 26. Connected to each other.

照明部21は、照明手段として、導光部30を介してユーザーの眼に光を照射する。照明部21は、図示しない発光素子と当該発光素子を駆動する発光駆動部とを備えるライト21A,21Bを有する(図3を参照)。本実施形態では、照明部21の左右2つのライト21A,21Bによってユーザーの眼に2つの方向から光が照射される。   The illumination unit 21 irradiates light to the user's eyes via the light guide unit 30 as illumination means. The illumination unit 21 includes lights 21A and 21B including a light emitting element (not shown) and a light emission driving unit that drives the light emitting element (see FIG. 3). In the present embodiment, the user's eyes are irradiated with light from two directions by the left and right lights 21 </ b> A and 21 </ b> B of the illumination unit 21.

上記発光素子は、たとえば、赤外光を発する赤外LED(Light Emitting Diode)でありうる。赤外光をユーザーの眼に照射することにより、夜間や暗室のような可視光が乏しい場所であってもユーザーの眼を撮像できる。なお、撮像部22は赤外光に感度を有するように構成されており、赤外光により撮像された映像は赤外光の輝度を表した一種のモノクロ画像である。   The light emitting element may be, for example, an infrared LED (Light Emitting Diode) that emits infrared light. By irradiating the user's eyes with infrared light, the user's eyes can be imaged even in places with poor visible light, such as at night or in a dark room. Note that the imaging unit 22 is configured to be sensitive to infrared light, and an image captured with infrared light is a kind of monochrome image representing the brightness of infrared light.

また、赤外光を使用することにより、ユーザーの眼を撮像するときに外界像のノイズが混入することを避けられるので、ユーザーの眼の映像を精度良く認識できる。一方、可視光による撮像では、ユーザーの眼から撮像部22に導かれる光は、ユーザーの眼の像だけでなく、ユーザーの眼の表面に映った外界像も含まれる。したがって、ユーザーの眼を撮像するときに外界像のノイズが混入するおそれがある。   In addition, by using infrared light, it is possible to avoid noise from the external image when the user's eyes are imaged, so that the image of the user's eyes can be accurately recognized. On the other hand, in imaging using visible light, the light guided from the user's eye to the imaging unit 22 includes not only the image of the user's eye but also an external image reflected on the surface of the user's eye. Therefore, there is a possibility that noise from the outside world is mixed when the user's eyes are imaged.

撮像部22は、受光手段として、導光部30を介して伝達されたユーザーの右眼からの反射光を受光することにより、ユーザーの右眼を撮像する。撮像部22は、図示しない撮像素子と、当該撮像素子上に光を結像させる撮像レンズと、当該撮像素子を駆動する撮像駆動部とを備えるカメラ22A,22Bを有する。撮像部22は、ユーザーの右眼からの反射光を上記撮像素子で受光して光電変換し、受光信号としての映像信号を生成し、演算制御部25に送信する。本実施形態では、上記撮像素子は、たとえば、赤外光に感度を有するCCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)などを備える。   The imaging unit 22 captures the right eye of the user by receiving the reflected light from the right eye of the user transmitted through the light guide unit 30 as a light receiving unit. The imaging unit 22 includes cameras 22A and 22B including an imaging element (not shown), an imaging lens that forms an image of light on the imaging element, and an imaging drive unit that drives the imaging element. The imaging unit 22 receives reflected light from the right eye of the user with the imaging element, performs photoelectric conversion, generates a video signal as a light reception signal, and transmits the video signal to the calculation control unit 25. In the present embodiment, the imaging device includes, for example, a charge coupled device (CCD) that is sensitive to infrared light, a complementary metal oxide semiconductor (CMOS), and the like.

図3に示すように、本実施形態では、カメラ22A,22Bは、左右に分かれて配置されて複眼撮像装置として機能し、ステレオ方式で2つの方向からユーザーの右眼を撮像する。2つのカメラ22A,22Bで撮像されたユーザーの右眼の映像信号は、演算制御部25に送信される。カメラ22A、22Bの光学系、撮像素子は一体的に構成されたものでも良い。   As shown in FIG. 3, in this embodiment, the cameras 22A and 22B are arranged separately on the left and right to function as a compound eye imaging device, and image the right eye of the user from two directions in a stereo manner. The video signal of the right eye of the user captured by the two cameras 22A and 22B is transmitted to the arithmetic control unit 25. The optical system and the image sensor of the cameras 22A and 22B may be integrally configured.

表示部23は、透明板31Rの接眼面に所定の映像を表示する。図4に示すように、本実施形態では、表示部23は、導光部30の上部に配置され、図示しない表示素子と当該表示素子を駆動する表示駆動部とを備えるディスプレイを有する。上記表示素子は、たとえば液晶表示素子、LED発光表示素子、有機発光表示素子などでありうる。   The display unit 23 displays a predetermined image on the eyepiece surface of the transparent plate 31R. As shown in FIG. 4, in the present embodiment, the display unit 23 includes a display that is disposed on the light guide unit 30 and includes a display element (not shown) and a display driving unit that drives the display element. The display element can be, for example, a liquid crystal display element, an LED light emitting display element, an organic light emitting display element, or the like.

本実施形態の視線検出装置1は、ユーザーの視点および視線方向を検出し、検出結果に基づいて、上記所定の映像におけるユーザーの視線方向の先にある対象物を特定する。上記所定の映像は、たとえば、上記対象物を含む外界を撮像した映像、機器を制御するためのメニュー画面、映画やテレビ番組の映像などである。   The line-of-sight detection device 1 according to the present embodiment detects the user's viewpoint and line-of-sight direction, and identifies an object ahead of the user's line-of-sight direction in the predetermined video based on the detection result. The predetermined video is, for example, a video that captures the outside including the object, a menu screen for controlling the device, a video of a movie or a television program, and the like.

通信部24は、有線通信方式または無線通信方式の送信器および受信器とそれらを含め全体をコントロールするCPU(Central Processing Unit)(不図示)を備え、演算制御部25と外部機器との間で各種データを送受信する。通信部24は、算出されたユーザーの視点および視線方向の被写体に関する情報などを外部機器に送信したり、視線方向の被写体に関する情報を受信したりする。通信部24は、受信したデータを演算制御部25、表示部23に伝達し、表示部に表示したりする。   The communication unit 24 includes a wired communication system or a wireless communication system transmitter and receiver, and a CPU (Central Processing Unit) (not shown) that controls the entire system including them, and between the arithmetic control unit 25 and an external device. Send and receive various data. The communication unit 24 transmits information regarding the calculated user viewpoint and the subject in the line-of-sight direction to an external device, and receives information about the subject in the line-of-sight direction. The communication unit 24 transmits the received data to the calculation control unit 25 and the display unit 23 and displays the data on the display unit.

演算制御部25は、照明部21、撮像部22、表示部23、および通信部24を制御する。演算制御部25は、図示しないCPUおよびメモリを有する。上記メモリには、制御プログラムが保存されており、上記CPUは当該制御プログラムを実行して照明部21、撮像部22、表示部23、および通信部24を制御する。また、演算制御部25は、撮像部22で撮像したユーザーの眼の映像信号に対して距離計測、虹彩形状計測、虹彩傾き計測、視点検知、視線検知、階調変換、歪曲補正、ノイズ除去、などの各種の処理を実行する。   The arithmetic control unit 25 controls the illumination unit 21, the imaging unit 22, the display unit 23, and the communication unit 24. The arithmetic control unit 25 has a CPU and a memory (not shown). A control program is stored in the memory, and the CPU executes the control program to control the illumination unit 21, the imaging unit 22, the display unit 23, and the communication unit 24. In addition, the arithmetic control unit 25 performs distance measurement, iris shape measurement, iris tilt measurement, viewpoint detection, line-of-sight detection, gradation conversion, distortion correction, noise removal on the video signal of the user's eye imaged by the imaging unit 22. Various processes such as are executed.

とくに、本実施形態では、演算制御部25は、ユーザーの眼の映像信号に基づいて、導光部30とユーザーの右眼UEの瞳孔または虹彩との間の位置関係を測定し、当該位置関係に基づいて、ユーザーの右目の視点および視線方向を算出する。演算制御部25は、測定手段および算出手段として機能する。上記メモリには、上記位置関係、上記視点および上記視線方向に関する情報が一時的に保存される。上記位置関係の測定方法、ならびに上記視点および上記視線方向の算出方法の詳細については後述する。   In particular, in the present embodiment, the arithmetic control unit 25 measures the positional relationship between the light guide unit 30 and the pupil or iris of the user's right eye UE based on the video signal of the user's eye, and the positional relationship. Based on the above, the viewpoint and line-of-sight direction of the user's right eye are calculated. The arithmetic control unit 25 functions as a measurement unit and a calculation unit. Information regarding the positional relationship, the viewpoint, and the line-of-sight direction is temporarily stored in the memory. Details of the measurement method of the positional relationship and the calculation method of the viewpoint and the line-of-sight direction will be described later.

導光部30は、導光手段として、照明部21からの照射光をユーザーの右眼UEに導くとともに、ユーザーの右眼UEからの反射光を撮像部22に導く。また、導光部30は、表示部23で表示された映像の光をユーザーの右眼UEに導く。図4に示すように、導光部30は、透明板31Rおよびホログラフィック光学素子(以下、HOEと称する)32A,32Bを有する。尚、32Aは通常のハーフミラーでも良い。   The light guide unit 30 guides the irradiation light from the illumination unit 21 to the user's right eye UE and guides the reflected light from the user's right eye UE to the imaging unit 22 as light guide means. The light guide unit 30 guides the light of the video displayed on the display unit 23 to the user's right eye UE. As shown in FIG. 4, the light guide 30 includes a transparent plate 31R and holographic optical elements (hereinafter referred to as HOE) 32A and 32B. Note that 32A may be a normal half mirror.

なお、検出部20および導光部30を透明板31Lに配置すれば、左眼の視点および視線方向を検出できるので、本実施形態の視線検出装置1は右眼の視点および視線方向を検出する場合に限定されない。以下の説明では、ユーザーの右眼および左眼を合せて、単にユーザーの眼UEと記載する。   If the detection unit 20 and the light guide unit 30 are arranged on the transparent plate 31L, the left eye viewpoint and the line-of-sight direction can be detected. Therefore, the line-of-sight detection device 1 of the present embodiment detects the right eye viewpoint and the line-of-sight direction. It is not limited to the case. In the following description, the user's right eye and left eye are simply referred to as the user's eye UE.

透明板31Rは、屈折率が空気よりも大きいガラス、樹脂などの材料で形成された透明な板である。透明板31Rの内部には、HOE(Holographic Optical Element)32A,32Bが形成されている。   The transparent plate 31R is a transparent plate formed of a material such as glass or resin having a refractive index larger than that of air. HOE (Holographic Optical Element) 32A and 32B are formed inside the transparent plate 31R.

HOE32A,32Bは、ホログラムを利用した光学素子であり、特定の波長の光のみを反射し、その他の波長の光を透過する性質を有する。ホログラムは、レーザーなどの干渉性の高い2つの光束を感光材に照射し、その干渉状態を記録することで作製される。   The HOEs 32A and 32B are optical elements using holograms and have the property of reflecting only light of a specific wavelength and transmitting light of other wavelengths. A hologram is produced by irradiating a photosensitive material with two highly coherent light beams such as a laser and recording the interference state.

本実施形態では、HOE32A,32Bは、赤外(IR)光を選択的に反射し、可視光に対してはハーフミラーとなるように設計されている。すなわち、HOE32A,32Bは、一方の面(第1面)から入射した可視光に対しては透過させ、他方の面(第2面)から入射した可視光に対しては反射させる。したがって、HOE32Bの存在によりユーザーが観察する外界像の一部が暗くなることはない。一方、赤外光については、第1面および第2面のどちらの面に入射した光も反射される。   In the present embodiment, the HOEs 32A and 32B are designed to selectively reflect infrared (IR) light and to be a half mirror for visible light. That is, the HOEs 32A and 32B transmit visible light incident from one surface (first surface) and reflect visible light incident from the other surface (second surface). Accordingly, a part of the external image observed by the user does not become dark due to the presence of the HOE 32B. On the other hand, as for infrared light, light incident on either the first surface or the second surface is reflected.

図4に示す例では、HOE32Aについては、表示部23側に第1面が、照明部21A側に第2面が向くように配置されている。また、HOE32Bについては、ユーザーの眼UEに第2面が向くように配置されている。   In the example illustrated in FIG. 4, the HOE 32 </ b> A is arranged such that the first surface faces the display unit 23 side and the second surface faces the illumination unit 21 </ b> A side. Further, the HOE 32B is arranged so that the second surface faces the user's eye UE.

このように、本実施形態では、HOE32A,32Bは表示用の可視光に加え、赤外光も反射する機能を有しているので、表示機能と照明機能とを兼ね備えることができる。また、本実施形態では、HOE32Bを利用することにより、ユーザーの眼UEを概ね正面から撮像できる。したがって、ユーザーの視界を確保しつつ、視点および視線方向を正確に検出できる。   As described above, in the present embodiment, the HOEs 32A and 32B have a function of reflecting infrared light in addition to visible light for display, and thus can have both a display function and an illumination function. Moreover, in this embodiment, the user's eye UE can be imaged from substantially the front by using the HOE 32B. Therefore, it is possible to accurately detect the viewpoint and the line-of-sight direction while securing the user's field of view.

なお、撮像部22が、たとえば表示部23を挟んで2つの方向からユーザーの眼UEを撮像する場合、HOE32A,32Bの中央部は、表示部23からの表示光を回折するために使用される。一方、HOE32A,32Bの両端部は、ユーザーの眼UEからの反射光を撮像部22に向けて回折するために使用される。   For example, when the imaging unit 22 images the user's eye UE from two directions across the display unit 23, the central portions of the HOEs 32A and 32B are used to diffract display light from the display unit 23. . On the other hand, both ends of the HOEs 32 </ b> A and 32 </ b> B are used to diffract reflected light from the user's eye UE toward the imaging unit 22.

次に、図5〜図8Bを参照して、上述のとおり構成される本実施形態の視線検出装置1の作用について説明する。   Next, with reference to FIGS. 5-8B, the effect | action of the gaze detection apparatus 1 of this embodiment comprised as mentioned above is demonstrated.

図5は照明部から照射された赤外光の導光部における光路を説明するための断面図であり、図6はユーザーの眼からの反射光の導光部における光路を説明するための断面図である。また、図7は図5および図6において検出部から導光部を見たときの照射光および反射光の光路を説明するための概念図であり、図8Aおよび図8Bはユーザーの視線方向を算出する方法を説明するための概念図である。図9は、表示部からの表示光の導光部における光路を説明するための断面図である。   FIG. 5 is a cross-sectional view for explaining the optical path in the light guide part of the infrared light irradiated from the illumination part, and FIG. 6 is a cross-section for explaining the optical path in the light guide part of the reflected light from the user's eyes. FIG. 7 is a conceptual diagram for explaining the optical paths of the irradiation light and the reflected light when the light guide unit is viewed from the detection unit in FIGS. 5 and 6, and FIGS. 8A and 8B show the user's line-of-sight direction. It is a conceptual diagram for demonstrating the method to calculate. FIG. 9 is a cross-sectional view for explaining an optical path in a light guide portion of display light from the display portion.

図5に示すように、ライト21A,21Bから照射された照射光LAは、HOE32Aにて反射され、透明板31Rの方向に向きを変えて進む。そして、照射光LAは、透明板31Rと外部の空気との界面を全反射しながらHOE32Bに向かって進行し、HOE32Bにて反射され、ユーザーの眼UEに到達する。   As shown in FIG. 5, the irradiation light LA emitted from the lights 21A and 21B is reflected by the HOE 32A and proceeds in the direction of the transparent plate 31R. Then, the irradiation light LA travels toward the HOE 32B while totally reflecting the interface between the transparent plate 31R and the outside air, is reflected by the HOE 32B, and reaches the user's eye UE.

図6に示すように、ユーザーの眼UEにて反射された反射光RAは、HOE32Bにて反射され、透明板31Rと外部の空気との界面を全反射しながらHOE32Aに向かって進行し、HOE32Aにて反射され、カメラ22A、22Bに到達する。   As shown in FIG. 6, the reflected light RA reflected by the user's eye UE is reflected by the HOE 32B, travels toward the HOE 32A while totally reflecting the interface between the transparent plate 31R and the external air, and the HOE 32A. And reaches the cameras 22A and 22B.

図5および図6において検出部から導光部の方向を見たときの照射光および反射光の光路について、図7を参照して以下に説明する。なお、図7では、導光部の図示を省略し、光路をXZ平面上の直線として表現する。   The optical paths of the irradiated light and the reflected light when viewing the direction of the light guide from the detector in FIGS. 5 and 6 will be described below with reference to FIG. In FIG. 7, the light guide is not shown and the optical path is expressed as a straight line on the XZ plane.

図7に示すように、ライト21A,21Bは、カメラ22A,22Bを挟んで左右からユーザーの眼UEを照射光LA,LBで照射する。一方、ユーザーの眼UEからの反射光RA,RBは、2つのカメラ22A,22Bで各々受光される。このように、本実施形態では、カメラ22A,22Bは、互いに異なる2つの方向からユーザーの眼UEを撮像することができる。そして、2つのカメラ22A,22Bで撮像されたユーザーの眼UEの映像信号は、演算制御部25に送信される。   As shown in FIG. 7, the lights 21A and 21B irradiate the user's eye UE with irradiation light LA and LB from the left and right with the cameras 22A and 22B interposed therebetween. On the other hand, the reflected lights RA and RB from the user's eye UE are received by the two cameras 22A and 22B, respectively. Thus, in this embodiment, the cameras 22A and 22B can capture the user's eye UE from two different directions. Then, the video signal of the user's eye UE captured by the two cameras 22 </ b> A and 22 </ b> B is transmitted to the arithmetic control unit 25.

演算制御部25は、カメラ22A,22Bで撮像されたユーザーの眼UEの映像に基づいて、導光部30とユーザーの眼UEの瞳孔または虹彩との間の位置関係を測定し、当該位置関係に基づいて、視点および視線方向を算出する。より具体的には以下に示すとおりである。   The arithmetic control unit 25 measures the positional relationship between the light guide unit 30 and the pupil or iris of the user's eye UE based on the images of the user's eye UE captured by the cameras 22A and 22B, and the positional relationship Based on the above, the viewpoint and line-of-sight direction are calculated. More specifically, as shown below.

図8Aおよび図8Bに示すように、HOE32Bの中心を透過する光線が導光部30の接眼面ESと交差する点を原点Oにとる。そして、図8Aの紙面に垂直で奥から手前に向かう方向をX軸方向、原点Oからユーザーの眼UEの中心に向かう方向をZ軸方向、X軸方向およびZ軸方向に垂直な方向であってHOE32Bから検出部20へ向かう方向をY軸方向とする直交座標系を設定する。   As shown in FIGS. 8A and 8B, the origin O is a point where a light beam passing through the center of the HOE 32 </ b> B intersects the eyepiece surface ES of the light guide unit 30. The direction perpendicular to the plane of FIG. 8A from the back to the front is the X-axis direction, and the direction from the origin O toward the center of the user's eye UE is the Z-axis direction, the direction perpendicular to the X-axis direction and the Z-axis direction. Thus, an orthogonal coordinate system in which the direction from the HOE 32B toward the detection unit 20 is the Y-axis direction is set.

図8Bにおいて、ユーザーの眼UEは、虹彩IRおよび瞳孔PUを含む。虹彩IRおよび瞳孔PUは略円形状であり、虹彩IRの円をSiとし、瞳孔PUの円をSpとする。円Siおよび円Spの中心、すなわち瞳孔PUの中心(視点)は、p0(xp,yp,zp)である。   In FIG. 8B, the user's eye UE includes an iris IR and a pupil PU. The iris IR and the pupil PU are substantially circular, and the circle of the iris IR is Si and the circle of the pupil PU is Sp. The center of the circle Si and the circle Sp, that is, the center (viewpoint) of the pupil PU is p0 (xp, yp, zp).

また、p0から導光部30のXY平面(接眼面ES)に向けて引いた法線nと当該XY平面との交点をs(xs,ys)とし、法線nの方位角(左右の角度)および仰角(上下の角度)をそれぞれθxおよびθyとする。このように定義すると、p0とsとを結ぶ線がユーザーの視線に相当する。   Further, the intersection of the normal line n drawn from p0 toward the XY plane (eyepiece plane ES) of the light guide 30 and the XY plane is defined as s (xs, ys), and the azimuth angle of the normal line n (left and right angles) ) And elevation angle (up and down angles) are θx and θy, respectively. In this way, the line connecting p0 and s corresponds to the user's line of sight.

p0とsとを結ぶ線の方向は、瞳孔PUを含む平面に対して垂直であるので、円Spを含む平面(以下、Sp平面と称する)の向きに基づいて算出されうる。演算制御部25は、2つのカメラ22A,22Bで撮像したユーザーの眼UEの映像から、導光部30の接眼面ESと虹彩IRとの距離と上記映像での虹彩IRの形状とを算出できる。   Since the direction of the line connecting p0 and s is perpendicular to the plane including the pupil PU, it can be calculated based on the direction of the plane including the circle Sp (hereinafter referred to as the Sp plane). The arithmetic control unit 25 can calculate the distance between the eyepiece surface ES of the light guide unit 30 and the iris IR and the shape of the iris IR in the above image from the images of the user's eye UE captured by the two cameras 22A and 22B. .

より具体的には、2つのカメラ22A,22Bは、所定の基線長を有し、ユーザーの眼UEを撮像する。演算制御部25は、2つのカメラ22A,22Bによって撮像された2方向からの虹彩IRおよび瞳孔PUの画像を比較し、立体視の原理(三角測量の原理)に基づいて導光部30の接眼面ESと虹彩IRとの距離を算出する。また、演算制御部25は、上記映像を画像認識し、上記映像での虹彩IRの形状を抽出する。そして、演算制御部25は、上記距離と上記形状とに基づいて、p0の座標とXY平面に対するSp平面の傾きを算出する。   More specifically, the two cameras 22A and 22B have a predetermined baseline length, and image the user's eye UE. The arithmetic control unit 25 compares the images of the iris IR and the pupil PU from two directions imaged by the two cameras 22A and 22B, and based on the principle of stereoscopic vision (the principle of triangulation), the eyepiece of the light guide unit 30 The distance between the surface ES and the iris IR is calculated. In addition, the arithmetic control unit 25 recognizes the image and extracts the shape of the iris IR in the image. Then, the calculation control unit 25 calculates the coordinates of p0 and the inclination of the Sp plane with respect to the XY plane based on the distance and the shape.

上記映像での虹彩IRの形状は、虹彩IRがXY平面に対してどちらの方向を向いているかによって変化する。演算制御部25は、上記映像での虹彩IRの形状に基づいて、XY平面と虹彩IR上の複数の点との距離を算出することにより、XY平面に対するSp平面の傾きを算出する。そして、演算制御部25は、p0の座標とXY平面に対するSp平面の傾きに基づいて法線nを導出し、法線nがXY平面を横切る位置s(xs,ys)と法線nの方位角θxおよび仰角θyとを算出する。   The shape of the iris IR in the above image changes depending on which direction the iris IR is oriented with respect to the XY plane. The arithmetic control unit 25 calculates the slope of the Sp plane with respect to the XY plane by calculating the distance between the XY plane and a plurality of points on the iris IR based on the shape of the iris IR in the video. Then, the arithmetic control unit 25 derives the normal line n based on the coordinates of p0 and the inclination of the Sp plane with respect to the XY plane, and the position s (xs, ys) where the normal line n crosses the XY plane and the direction of the normal line n The angle θx and the elevation angle θy are calculated.

このように、本実施形態では、導光部30の接眼面ESを基準として、虹彩IRまでの距離と虹彩IRの形状とを算出することにより、ユーザーに対して視線検出装置の装着される位置が変化しても、視線検出装置1と虹彩IRとの3次元的な位置関係を特定し、ユーザーの視点と視線方向とを正確に算出できる。   As described above, in the present embodiment, the position at which the line-of-sight detection device is mounted on the user is calculated by calculating the distance to the iris IR and the shape of the iris IR with reference to the eyepiece surface ES of the light guide unit 30. Even if changes, the three-dimensional positional relationship between the line-of-sight detection device 1 and the iris IR can be specified, and the user's viewpoint and line-of-sight direction can be accurately calculated.

さらに、本実施形態では、表示部23により導光部30の接眼面ESを通して眼UEに映像が投影される。図9に示すように、表示部23からの映像の光ILは、HOE32Aを透過し、透明板31Rと外部の空気との界面を全反射しながらHOE32Bに向かって進み、HOE32Bにて反射されてユーザーの眼UEに到達する。   Further, in the present embodiment, the display unit 23 projects an image on the eye UE through the eyepiece surface ES of the light guide unit 30. As shown in FIG. 9, the image light IL from the display unit 23 passes through the HOE 32A, travels toward the HOE 32B while totally reflecting the interface between the transparent plate 31R and the outside air, and is reflected by the HOE 32B. Reach the user's eye UE.

演算制御部25は、映像で表示される各々の表示画像の表示位置に関する情報をあらかじめ取得しておき、算出された上記位置s(xs,ys)と上記表示位置に関する情報とを照合することにより、ユーザーの視線の先にある表示画像を特定できる。すなわち、ユーザーが何を見ているかを特定できる。演算制御部25は、特定手段として機能する。   The arithmetic control unit 25 acquires in advance information on the display position of each display image displayed in the video, and collates the calculated position s (xs, ys) with the information on the display position. The display image ahead of the user's line of sight can be specified. That is, it can identify what the user is looking at. The arithmetic control unit 25 functions as a specifying unit.

さらに、ユーザーが注目している画像が特定された場合、ユーザーが見ている画像に応じて、映像に表示されている画像を制御することもできる。たとえば、画面に表示されたアイコンにユーザーが視線を移動させることにより当該アイコンが選択されうる。とくに、本実施形態の視線検出装置1は、ユーザーの視点および視線方向を正確に検出できるので、画面に小さいアイコンが多数表示されている場合であっても、ユーザーは正確にアイコンを選択できる。また、画像を表示する位置をユーザーの視点および視線方向によって制御してもよい。   Furthermore, when an image that the user is paying attention to is specified, the image displayed in the video can be controlled according to the image that the user is viewing. For example, the icon can be selected by moving the line of sight to the icon displayed on the screen. In particular, since the line-of-sight detection apparatus 1 of the present embodiment can accurately detect the user's viewpoint and line-of-sight direction, the user can accurately select an icon even when a large number of small icons are displayed on the screen. Further, the position where the image is displayed may be controlled by the user's viewpoint and line-of-sight direction.

以上のとおり説明した本実施形態の視線検出装置1は、下記の効果を奏する。   The line-of-sight detection device 1 of the present embodiment described as described above has the following effects.

本実施形態の視線検出装置1は、導光部30とユーザーの眼UEの瞳孔PUまたは虹彩IRとの間の位置関係を測定するので、ユーザーに対して視線検出装置1の装着される位置が変化しても、ユーザーの視点および視線方向を正確に検出できる。   Since the line-of-sight detection device 1 of the present embodiment measures the positional relationship between the light guide unit 30 and the pupil PU or iris IR of the user's eye UE, the position where the line-of-sight detection device 1 is attached to the user is determined. Even if it changes, the user's viewpoint and line-of-sight direction can be accurately detected.

また、本実施形態の視線検出装置1は、赤外光をユーザーの眼UEに照射することにより、夜間や暗室のような可視光が乏しい場所であってもユーザーの眼UEを撮像できる。また、赤外光を使用することにより、ユーザーの眼UEを撮像するときに外界像のノイズが混入することを避けられるので、ユーザーの眼UEの映像を精度良く認識できる。   In addition, the line-of-sight detection device 1 according to the present embodiment can capture the user's eye UE by irradiating the user's eye UE with infrared light, even in places where there is little visible light such as at night or in a dark room. In addition, by using infrared light, it is possible to avoid noise from the external image when the user's eye UE is imaged, so that the image of the user's eye UE can be accurately recognized.

また、本実施形態の視線検出装置1のHOE32A,32Bは表示用の可視光に加え、赤外光も反射する機能を有しているので、表示機能と照明機能とを兼ね備えることができる。また、本実施形態では、HOE32Bを利用することにより、ユーザーの眼UEを概ね正面から撮像できる。したがって、ユーザーの視界を確保しつつ、視点および視線方向を正確に検出できる。   In addition, since the HOEs 32A and 32B of the line-of-sight detection device 1 according to the present embodiment have a function of reflecting infrared light in addition to visible light for display, they can have both a display function and an illumination function. Moreover, in this embodiment, the user's eye UE can be imaged from substantially the front by using the HOE 32B. Therefore, it is possible to accurately detect the viewpoint and the line-of-sight direction while securing the user's field of view.

また、視線検出装置1の撮像部22は、2つのカメラ22A,22Bによりステレオ方式でユーザーの眼UEを撮像するので、撮像部22と導光部30との間の光学系を最小限(光路長を最短)に留めることができる。その結果、視線検出装置1は、薄型化され、小型かつ軽量とすることができる。   In addition, since the imaging unit 22 of the line-of-sight detection device 1 images the user's eye UE in a stereo manner using the two cameras 22A and 22B, the optical system between the imaging unit 22 and the light guide unit 30 is minimized (optical path). The length can be kept to the shortest). As a result, the line-of-sight detection device 1 can be made thin, small, and lightweight.

(第2の実施形態)
第1の実施形態では、2つのカメラを使用して、ステレオ方式でユーザーの眼を撮像するHMDを例に挙げて視線検出装置について説明した。第2の実施形態では、複数のカメラを含むアレイカメラを有するHMDを例に挙げて視線検出装置について説明する。なお、以下では、説明の重複を避けるため、第1の実施形態と同じ構成については、詳細な説明を省略する。
(Second Embodiment)
In the first embodiment, the line-of-sight detection apparatus has been described by taking as an example an HMD that captures the user's eyes in stereo using two cameras. In the second embodiment, a line-of-sight detection apparatus will be described by taking an HMD having an array camera including a plurality of cameras as an example. In the following, detailed description of the same configuration as that of the first embodiment will be omitted to avoid duplication of description.

一般に、アレイカメラには、超解像型、視野分割型、および昆虫型があり、本実施形態ではいずれのアレイカメラも使用することができる。以下、図10A〜図13を参照して、上記アレイカメラを使用した場合の実施形態について説明する。   In general, the array camera includes a super-resolution type, a field division type, and an insect type, and any of the array cameras can be used in this embodiment. Hereinafter, an embodiment in which the array camera is used will be described with reference to FIGS. 10A to 13.

<超解像型アレイカメラ>
図10Aは第2の実施形態において、超解像型アレイカメラを使用する場合の検出部のライトおよびカメラの配置を示す図であり、図10Bは図10Aの検出部から導光部を見たときの照射光および反射光の光路を説明するための概念図である。また、図10Cは、第2の実施形態において、超解像型アレイカメラで撮像する場合の他の形態を示す概念図である。
<Super-resolution array camera>
FIG. 10A is a diagram showing the arrangement of the light and camera of the detection unit when a super-resolution array camera is used in the second embodiment, and FIG. 10B is a view of the light guide unit from the detection unit of FIG. 10A. It is a conceptual diagram for demonstrating the optical path of the irradiation light and reflected light at the time. FIG. 10C is a conceptual diagram showing another embodiment in the case of imaging with a super-resolution array camera in the second embodiment.

図10Aおよび図10Bに示すように、本実施形態では照明部21は、ライト21A,21Bを有する。ライト21A,21Bは、ユーザーの眼UEを2つの方向から照射する。また、撮像部22は、アレイカメラ22Cを有する。アレイカメラ22Cは、カメラを格子状に配列したものであり、ライト21Aとライト21Bとの間に配置され、ユーザーの眼UEの同じ領域を複数方向から撮像することができる。   As shown in FIGS. 10A and 10B, in the present embodiment, the illumination unit 21 includes lights 21A and 21B. The lights 21A and 21B irradiate the user's eye UE from two directions. The imaging unit 22 has an array camera 22C. The array camera 22C is an array of cameras arranged in a grid, and is arranged between the light 21A and the light 21B, and can capture the same region of the user's eye UE from a plurality of directions.

また、図10Cに示すように、アレイカメラ22Cをより詳しく見ると、アレイカメラ22Cの各々のカメラは、撮像素子221Cおよび撮像レンズ222Cを有する。撮像レンズ222Cは画角αを有し、アレイカメラ22Cの各々のカメラは、画角αに応じた所定の領域を撮像できる。したがって、アレイカメラ22Cの各々のカメラは、隣接するカメラ同士で撮像領域をわずかに異ならせながら、他のカメラに対して撮像領域に重なりを有しうる。すなわち、アレイカメラ22Cは、配列された複数のステレオカメラを有する。   As shown in FIG. 10C, when the array camera 22C is viewed in more detail, each camera of the array camera 22C includes an image sensor 221C and an imaging lens 222C. The imaging lens 222C has an angle of view α, and each camera of the array camera 22C can capture a predetermined area corresponding to the angle of view α. Therefore, each camera of the array camera 22C can overlap the imaging area with respect to other cameras while slightly different imaging areas between adjacent cameras. That is, the array camera 22C has a plurality of stereo cameras arranged.

本実施形態では、アレイカメラ22Cにより複数方向から撮像したユーザーの眼UEの画像に基づいて、導光部30とユーザーの眼UEの瞳孔PUまたは虹彩IRとの間の位置関係を測定し、当該位置関係に基づいて、視点および視線方向を算出する。   In the present embodiment, based on images of the user's eye UE captured from a plurality of directions by the array camera 22C, the positional relationship between the light guide unit 30 and the pupil PU or iris IR of the user's eye UE is measured, Based on the positional relationship, the viewpoint and the line-of-sight direction are calculated.

<視野分割型アレイカメラ>
図11は、第2の実施形態において、視野分割型アレイカメラを使用する場合の検出部から導光部を見たときの照射光および反射光の光路を説明するための概念図である。
<Division-of-view array camera>
FIG. 11 is a conceptual diagram for explaining optical paths of irradiation light and reflected light when the light guide unit is viewed from the detection unit in the case of using the divided-field array camera in the second embodiment.

図11に示す形態では、アレイカメラ22Dの撮像面を複数の領域に分割し、それぞれの領域でユーザーの眼UEの同じ部分を撮像するように光学系を配置する。図の例では2つの領域に分割している。図11ではアレイカメラ22Dを左右に分割し、左右それぞれの領域に2つの視野を持つ光学系を配置し、ユーザーの眼を撮像する。   In the form shown in FIG. 11, the imaging surface of the array camera 22D is divided into a plurality of regions, and the optical system is arranged so as to capture the same portion of the user's eye UE in each region. In the example shown in the figure, it is divided into two areas. In FIG. 11, the array camera 22D is divided into left and right, an optical system having two fields of view is arranged in each of the left and right regions, and the user's eyes are imaged.

視線検出装置1は、アレイカメラ22Dの2つの領域で複数方向から撮像したユーザーの眼UEの映像に基づいて、導光部30とユーザーの眼UEの瞳孔PUまたは虹彩IRとの間の位置関係を測定し、当該位置関係に基づいて、視点および視線方向を算出する。   The line-of-sight detection device 1 has a positional relationship between the light guide unit 30 and the pupil PU or iris IR of the user's eye UE based on images of the user's eye UE captured from two directions of the two areas of the array camera 22D. And the viewpoint and line-of-sight direction are calculated based on the positional relationship.

<昆虫型アレイカメラ>
図12は、第2の実施形態において、昆虫型アレイカメラを使用する場合の反射光の光路を説明するための概念図である。
<Insect type array camera>
FIG. 12 is a conceptual diagram for explaining an optical path of reflected light when an insect type array camera is used in the second embodiment.

図12に示すように、撮像部22は、アレイカメラ22Eを有する。アレイカメラ22Eは、格子状に配列された複数の撮像レンズ222Eと、各レンズに1画素が対応するよう画素が配列された撮像素子221Eを有し、ユーザーの眼UEからの反射光を複数方向から受光できる。なお、照明部21のライトの配置と、当該ライトによる照射光の光路とについては、視野分割型アレイカメラの場合と同じであるので説明を省略する。   As illustrated in FIG. 12, the imaging unit 22 includes an array camera 22E. The array camera 22E includes a plurality of imaging lenses 222E arranged in a lattice pattern and an imaging element 221E in which pixels are arranged so that one pixel corresponds to each lens, and reflects reflected light from the user's eye UE in a plurality of directions. Can receive light. Note that the arrangement of the lights in the illumination unit 21 and the optical path of the irradiation light by the lights are the same as in the case of the field-of-view split-type array camera, and thus the description thereof is omitted.

図12に示す形態では、アレイカメラ22Eの撮像面を2つの領域に分割し、それぞれの領域の個眼カメラの視野を合わせた時にユーザーの眼UEの同じ部分を撮像するように光学系を配置する。   In the form shown in FIG. 12, the imaging system of the array camera 22E is divided into two regions, and the optical system is arranged so as to capture the same part of the user's eye UE when the field of view of the single-eye camera in each region is matched. To do.

視線検出装置1は、アレイカメラ22Eの2つの領域で複数方向から撮像したユーザーの眼UEの映像に基づいて、導光部30とユーザーの眼UEの瞳孔PUまたは虹彩IRとの間の位置関係を測定し、当該位置関係に基づいて、視点および視線方向を算出する。   The line-of-sight detection device 1 has a positional relationship between the light guide unit 30 and the pupil PU or iris IR of the user's eye UE based on images of the user's eye UE captured from two directions of the two areas of the array camera 22E. And the viewpoint and line-of-sight direction are calculated based on the positional relationship.

なお、以上では、説明の便宜上、アレイカメラが少数のカメラを含む場合について説明したが、アレイカメラが含むカメラの個数は限定されない。   In the above, for convenience of explanation, the case where the array camera includes a small number of cameras has been described. However, the number of cameras included in the array camera is not limited.

以上のとおり説明した本実施形態の視線検出装置1は、下記の効果を奏する。   The line-of-sight detection device 1 of the present embodiment described as described above has the following effects.

視線検出装置1は、アレイカメラを使用してユーザーの眼UEの同じ領域を複数方向から撮像するので、複数のカメラを取り付けてユーザーの眼UEを撮像するステレオ方式を、1つのアレイカメラで同様の構成を得ることができる。したがって、薄型かつ精度良くカメラを取り付けることができ、撮像されたユーザーの眼UEの画像に基づいて、導光部30の接眼面ESとユーザーの眼UEの瞳孔PUまたは虹彩IRとの間の位置関係を正確に測定できる。その結果、ユーザーの視点および視線方向を正確に検出できる。   Since the line-of-sight detection apparatus 1 uses the array camera to capture the same region of the user's eye UE from a plurality of directions, the stereo method for attaching the plurality of cameras and capturing the user's eye UE is the same with a single array camera. Can be obtained. Therefore, the camera can be mounted thinly and accurately, and the position between the eyepiece surface ES of the light guide unit 30 and the pupil PU or iris IR of the user's eye UE based on the captured image of the user's eye UE The relationship can be measured accurately. As a result, the user's viewpoint and line-of-sight direction can be accurately detected.

また、昆虫型アレイカメラ22Eを使用すれば、撮像レンズ222Eはチップ上に距離をおかないで配置されるため非常に薄いので、アレイカメラ全体の厚みも薄くすることができる。   In addition, if the insect type array camera 22E is used, the imaging lens 222E is very thin because it is arranged on the chip without a distance, so that the thickness of the entire array camera can be reduced.

(第3の実施形態)
第1および第2の実施形態では、複眼撮像装置でユーザーの眼を撮像するHMDを例に挙げて視線検出装置について説明した。第3の実施形態では、TOF(Time Of Flight)カメラを有するHMDを例に挙げて視線検出装置について説明する。なお、以下では、説明の重複を避けるため、第1の実施形態と同じ構成については、詳細な説明を省略する。
(Third embodiment)
In the first and second embodiments, the line-of-sight detection device has been described by taking the HMD that images the user's eye with the compound eye imaging device as an example. In the third embodiment, a line-of-sight detection apparatus will be described by taking an HMD having a TOF (Time Of Flight) camera as an example. In the following, detailed description of the same configuration as that of the first embodiment will be omitted to avoid duplication of description.

図13は、第3の実施形態において、検出部のライトおよびカメラの配置を示す図である。   FIG. 13 is a diagram showing the arrangement of the lights and cameras of the detection unit in the third embodiment.

図13に示すように、本実施形態の照明部21は、LEDライト21Cを有する。また、撮像部22は、TOFカメラ22Fを有する。本実施形態では、演算制御部25は、照明部21を制御してLEDライト21Cによりユーザーの眼UEにパルス光を照射する。TOFカメラ22Fは、ユーザーの眼UEの虹彩IRや網膜で反射される反射光を受光する。演算制御部25は、TOFカメラ22Fからの受光信号に基づいて、上記パルス光に対する反射光の遅延時間を2次元的に算出する。当該遅延時間は、導光部30の接眼面ESからユーザーの眼UEの虹彩IRまでの距離と比例関係にあるので、上記遅延時間と上記距離との間の関係は、あらかじめルックアップテーブルや数式として求められる。したがって、演算制御部25は、上記遅延時間に基づいて上記距離を算定できる。なお、TOFカメラ22Fの撮像素子は、反射されるパルス光の遅延時間を検出できる画素構造を有する。   As shown in FIG. 13, the illumination unit 21 of the present embodiment includes an LED light 21C. The imaging unit 22 includes a TOF camera 22F. In the present embodiment, the arithmetic control unit 25 controls the illumination unit 21 to irradiate the user's eye UE with pulsed light using the LED light 21C. The TOF camera 22F receives the reflected light reflected by the iris IR and retina of the user's eye UE. The arithmetic control unit 25 two-dimensionally calculates the delay time of the reflected light with respect to the pulsed light based on the light reception signal from the TOF camera 22F. Since the delay time is proportional to the distance from the eyepiece surface ES of the light guide unit 30 to the iris IR of the user's eye UE, the relationship between the delay time and the distance is determined in advance by a lookup table or a mathematical formula. As required. Therefore, the arithmetic control unit 25 can calculate the distance based on the delay time. Note that the imaging element of the TOF camera 22F has a pixel structure that can detect the delay time of reflected pulsed light.

以上のとおり説明した本実施形態の視線検出装置1は、下記の効果を奏する。   The line-of-sight detection device 1 of the present embodiment described as described above has the following effects.

視線検出装置1は、ライト21Cからパルス光を照射しTOFカメラ22Fで受光して、照射したパルス光に対する反射光の遅延時間を算出し、当該遅延時間に基づいて導光部30の接眼面ESからユーザーの眼UEの虹彩IRまでの位置関係、虹彩IRの傾きを正確に測定できる。したがって、ユーザーの視点および視線方向を正確に検出できる。なお、パルス光は外光に紛れない程度の強度である。   The line-of-sight detection device 1 emits pulsed light from the light 21C and is received by the TOF camera 22F, calculates a delay time of reflected light with respect to the irradiated pulsed light, and the eyepiece surface ES of the light guide unit 30 based on the delay time. To the iris IR of the user's eye UE, and the tilt of the iris IR can be accurately measured. Therefore, the user's viewpoint and line-of-sight direction can be accurately detected. Note that the intensity of the pulsed light is such that it is not confused with external light.

また、本実施形態では、ライト21Cからの光をTOFカメラ22Fで受光するので、カメラを複数用いることがなく、撮像部22と導光部30との間の光学系を最小限(光路長を最短)に留めることができる。その結果、視線検出装置1は、薄型化され、小型かつ軽量とすることができる。   In this embodiment, since the light from the light 21C is received by the TOF camera 22F, a plurality of cameras are not used, and the optical system between the imaging unit 22 and the light guide unit 30 is minimized (the optical path length is reduced). The shortest). As a result, the line-of-sight detection device 1 can be made thin, small, and lightweight.

(第4の実施形態)
第4の実施形態では、第1の実施形態の構成に加えて、被写体を撮像する被写体撮像部をさらに有する場合について説明する。
(Fourth embodiment)
In the fourth embodiment, a case will be described in which in addition to the configuration of the first embodiment, a subject imaging unit that images a subject is further included.

図14は第4の実施形態において被写体を撮像するためのステレオカメラを有する場合について説明するための外観図であり、図15は第4の実施形態において被写体を撮像するためのアレイカメラを有する場合について説明するための外観図である。なお、以下では、説明の重複を避けるため、第1の実施形態と同じ構成については、詳細な説明を省略する。   FIG. 14 is an external view for explaining a case where a stereo camera for imaging a subject is provided in the fourth embodiment. FIG. 15 is a case where an array camera for imaging a subject is provided in the fourth embodiment. It is an external view for demonstrating. In the following, detailed description of the same configuration as that of the first embodiment will be omitted to avoid duplication of description.

図14に示す形態では、視線検出装置1は、被写体用撮像部(被写体用撮像手段)としてステレオカメラ40A,40Bを有する。ステレオカメラ40A,40Bは、透明板31Rと一体化されている。   In the form shown in FIG. 14, the line-of-sight detection device 1 includes stereo cameras 40A and 40B as subject imaging units (subject imaging means). Stereo cameras 40A and 40B are integrated with transparent plate 31R.

図15に示す形態では、視線検出装置1は、被写体用撮像部(被写体用撮像手段)としてアレイカメラ41を有する。アレイカメラ41は、透明板31Rと一体化されている。   In the form shown in FIG. 15, the line-of-sight detection device 1 includes an array camera 41 as a subject imaging unit (subject imaging unit). The array camera 41 is integrated with the transparent plate 31R.

図14および図15に示すように、本実施形態では、被写体についてもステレオカメラ、アレイカメラ、TOFカメラなどで撮像し、外界の空間や物体を3次元的に認識する。したがって、上記被写体を撮像した映像と検出した視点および視線方向とに基づいて、ユーザーの視線の先にある被写体を精度良く特定できる。   As shown in FIGS. 14 and 15, in this embodiment, a subject is also imaged by a stereo camera, an array camera, a TOF camera, or the like, and an external space or object is recognized three-dimensionally. Therefore, the subject ahead of the user's line of sight can be accurately identified based on the video image of the subject and the detected viewpoint and line-of-sight direction.

以上のとおり説明した本実施形態の視線検出装置1は、第1の実施形態に加えて下記の効果を奏する。   The line-of-sight detection device 1 of the present embodiment described as described above has the following effects in addition to the first embodiment.

本実施形態によれば、視線検出装置1は、ステレオカメラ40A,40Bまたはアレイカメラ41を搭載することにより、視線検出装置1を装着しているユーザーが見ている外界の物体を3次元的に把握することができる。したがって、ユーザーの視点および視線方向に基づいて、ユーザーが外界の何を見ているのかを正確に特定することができる。   According to the present embodiment, the line-of-sight detection device 1 is mounted with the stereo cameras 40A and 40B or the array camera 41, thereby three-dimensionally representing an object in the outside world that the user wearing the line-of-sight detection device 1 is looking at. I can grasp it. Therefore, based on the user's viewpoint and line-of-sight direction, what the user is looking at in the outside world can be accurately specified.

以上のとおり、実施形態において、本発明の視線検出装置を説明した。しかしながら、本発明は、その技術思想の範囲内において当業者が適宜に追加、変形、および省略することができることはいうまでもない。   As described above, the visual line detection device of the present invention has been described in the embodiment. However, it goes without saying that the present invention can be appropriately added, modified, and omitted by those skilled in the art within the scope of the technical idea.

たとえば、第1〜第4の実施形態では、視線検出装置としてHMDを例に挙げて説明したが、本発明の視線検出装置は、HMDに限定されない。本発明は、双眼鏡や視力検査装置のようにユーザーの頭部に固定されず、ユーザーが使用するとき導光部を覗き込むように構成されていてもよい。   For example, in the first to fourth embodiments, the HMD is described as an example of the visual line detection device, but the visual line detection device of the present invention is not limited to the HMD. The present invention may be configured not to be fixed to the user's head like binoculars or a vision test device, but to look into the light guide when used by the user.

また、第1および第2の実施形態では、赤外光をユーザーの眼に照射し、その反射光を使用して導光部の接眼面とユーザーの眼の瞳孔または虹彩との間の位置関係を測定することについて説明した。しかしながら、視線検出装置を明るい場所で使用する場合など、ユーザーの眼からの反射光を十分に受光できる場合は、赤外光を使用せずに太陽光(自然光)によるユーザーの眼からの反射光を使用してもよい。   In the first and second embodiments, the positional relationship between the eyepiece surface of the light guide unit and the pupil or iris of the user's eye is irradiated with infrared light to the user's eye and the reflected light is used. Was described. However, if the reflected light from the user's eyes can be received sufficiently, such as when the line-of-sight detection device is used in a bright place, the reflected light from the user's eyes by sunlight (natural light) without using infrared light May be used.

また、表示部の光を利用して、ユーザーの眼の虹彩をカラーで撮像することもできる。たとえば、表示部がバックライトを備える透過型のディスプレイを有する場合、視線検出装置を校正する際(使用開始時)などにディスプレイが白を表示するようにしてバックライトを点灯させることにより、ユーザーの眼に白色光を照射することができる。また、表示部がバックライトを有しない場合であっても、表示部からの映像による光が照射されたユーザーの眼を撮像し、表示部からの映像成分を除去する画像処理を施すことによって、ユーザーの眼の虹彩をカラーで撮像することも可能である。   In addition, the iris of the user's eye can be imaged in color using the light of the display unit. For example, when the display unit has a transmissive display with a backlight, when the line-of-sight detection device is calibrated (at the start of use) or the like, the display is white so that the backlight is turned on. The eye can be illuminated with white light. In addition, even when the display unit does not have a backlight, by imaging the user's eyes irradiated with light from the image from the display unit, by performing image processing to remove the video component from the display unit, It is also possible to image the iris of the user's eye in color.

また、WYRIrフィルターを搭載した撮像素子を使用することにより、一つの撮像部で赤外光を使用して高感度で撮像しつつ、可視光を使用してカラーで撮像することができる。なお、WYRIrフィルターは、赤外領域(Ir)に感度を有しつつ、RGB信号を分離して取り出すことができるフィルターである。   In addition, by using an imaging device equipped with a WYRIr filter, it is possible to capture in color using visible light while imaging with high sensitivity using infrared light in one imaging unit. The WYRIr filter is a filter capable of separating and extracting RGB signals while having sensitivity in the infrared region (Ir).

また、視線検出装置の追加機能として、虹彩認証、網膜認証などを同時に実施する機能を有することもできる。   Further, as an additional function of the line-of-sight detection device, a function of simultaneously performing iris authentication, retina authentication, and the like can be provided.

また、第1〜第4の実施形態では、視線検出装置を装着するユーザーの右眼に対応する透明板上に検出部および導光部を配置して、右眼の視点および視線方向を検出することについて主に説明した。しかしながら、検出部および導光部の位置は、ユーザーの右眼に対応する透明板上に限定されない。また、ユーザーの左眼の視点および視線方向を検出してもよいし、両眼の視点および視線方向を検出してもよい。   In the first to fourth embodiments, the detection unit and the light guide unit are arranged on a transparent plate corresponding to the right eye of the user wearing the visual line detection device, and the right eye viewpoint and the visual line direction are detected. I mainly explained that. However, the positions of the detection unit and the light guide unit are not limited to the transparent plate corresponding to the user's right eye. Further, the viewpoint and line-of-sight direction of the user's left eye may be detected, or the viewpoint and line-of-sight direction of both eyes may be detected.

また、第1〜第4の実施形態では、表示光が導光部と外部の空気との界面を全反射して進む場合について説明した。しかしながら、本発明はこのような場合に限定されない。たとえば、表示光が導光部と外部の空気との界面を全反射する過程を経ずに直接的にHOEで回折されてユーザーの眼に到達するように導光部を構成してもよい。   In the first to fourth embodiments, the case has been described in which the display light travels with total reflection on the interface between the light guide unit and external air. However, the present invention is not limited to such a case. For example, the light guide unit may be configured such that the display light is directly diffracted by the HOE and does not go through the process of totally reflecting the interface between the light guide unit and external air.

なお、本出願は、2013年7月24日に出願された日本国特許出願第2013−153768号に基づいており、その開示内容は、参照により全体として引用されている。   In addition, this application is based on the Japan patent application 2013-153768 for which it applied on July 24, 2013, The content of an indication is referred as a whole by reference.

ES 接眼面、
IR 虹彩、
IL 表示光、
LA,LB 照射光、
PU 瞳孔、
RA,RB 反射光、
UE ユーザーの眼、
1 視線検出装置、
10 装着部、
11R,11L 第1支持部材、
12R,12L 第2支持部材、
13 連結部、
20 検出部、
21 照明部、
21A〜21C ライト、
22 撮像部、
22A〜22F カメラ、
23 表示部、
24 通信部、
25 演算制御部、
26 バス、
30 導光部、
31R,31L 透明板、
32A,32B HOE、
40A,40B,41 被写体用撮像部。
ES eyepiece,
IR iris,
IL display light,
LA, LB irradiation light,
PU pupil,
RA, RB reflected light,
The eyes of the UE user,
1 gaze detection device,
10 mounting part,
11R, 11L first support member,
12R, 12L second support member,
13 connecting part,
20 detector,
21 Lighting section,
21A-21C light,
22 imaging unit,
22A-22F camera,
23 display section,
24 communication department,
25 arithmetic control unit,
26 Bus,
30 light guide,
31R, 31L transparent plate,
32A, 32B HOE,
40A, 40B, 41 Imaging unit for subject.

Claims (14)

ユーザーの眼からの光を受光し、当該光の強度に応じた受光信号を生成する受光手段と、
前記眼からの光を前記受光手段に導く導光手段と、
前記受光信号に基づいて、前記導光手段と前記眼の瞳孔または虹彩との間の位置関係を測定する測定手段と、
前記位置関係に基づいて、前記ユーザーの瞳孔の位置を算出する算出手段と、を有する、視線検出装置。
A light receiving means for receiving light from a user's eye and generating a light reception signal according to the intensity of the light;
A light guiding means for guiding light from the eye to the light receiving means;
Measuring means for measuring a positional relationship between the light guiding means and the pupil or iris of the eye based on the light reception signal;
A line-of-sight detection device comprising: a calculation unit that calculates a position of the user's pupil based on the positional relationship.
前記測定手段は、
前記位置関係として前記導光手段の接眼面と前記虹彩との距離を測定し、
前記算出手段は、
前記距離に基づいて前記接眼面を基準とする前記瞳孔の位置および前記瞳孔の向きを算出し、
前記瞳孔の向きに基づいて視線方向を算出することを特徴とする請求項1に記載の視線検出装置。
The measuring means includes
Measure the distance between the eyepiece surface of the light guide means and the iris as the positional relationship,
The calculating means includes
Calculating the position of the pupil and the orientation of the pupil relative to the eyepiece based on the distance;
The gaze detection apparatus according to claim 1, wherein a gaze direction is calculated based on a direction of the pupil.
前記導光手段は、
前記眼からの光を回折させることにより進路を変えて、前記受光手段に導くことを特徴とする請求項1または2に記載の視線検出装置。
The light guiding means includes
The line-of-sight detection device according to claim 1, wherein a path is changed by diffracting light from the eye and guided to the light receiving unit.
前記受光手段は、複眼撮像装置を有し、前記受光信号としての画像信号を生成し、
前記測定手段は、前記画像信号に基づいて、前記距離を測定することを特徴とする請求項2または3に記載の視線検出装置。
The light receiving means includes a compound eye imaging device, generates an image signal as the light reception signal,
The line-of-sight detection apparatus according to claim 2, wherein the measurement unit measures the distance based on the image signal.
前記受光手段は、複眼撮像装置としてステレオカメラを有し、前記受光信号としての画像信号を生成し、
前記測定手段は、前記画像信号に基づいて前記距離を測定することを特徴とする請求項2または3に記載の視線検出装置。
The light receiving means has a stereo camera as a compound eye imaging device, generates an image signal as the light reception signal,
The line-of-sight detection apparatus according to claim 2, wherein the measurement unit measures the distance based on the image signal.
前記受光手段は、複眼撮像装置としてアレイカメラを有し、前記受光信号としての画像信号を生成し、
前記測定手段は、前記画像信号に基づいて前記距離を測定することを特徴とする請求項2または3に記載の視線検出装置。
The light receiving means has an array camera as a compound eye imaging device, generates an image signal as the light reception signal,
The line-of-sight detection apparatus according to claim 2, wherein the measurement unit measures the distance based on the image signal.
前記ユーザーの眼に照射光を照射する照明手段をさらに有することを特徴とする請求項1〜6のいずれか1項に記載の視線検出装置。   The line-of-sight detection apparatus according to claim 1, further comprising an illuminating unit that irradiates the user's eyes with irradiation light. 前記ユーザーの眼に照射光を照射する照明手段をさらに有し、
前記照明手段は、前記照射光としてパルス光を照射し、
前記受光手段は、TOFカメラを有し、前記眼から反射された反射光を当該TOFカメラで受光し、前記パルス光に対する反射光の遅延時間を前記受光信号に基づいて算出し、当該遅延時間に基づいて前記距離を測定することを特徴とする請求項1〜3のいずれか1項に記載の視線検出装置。
And further comprising illumination means for irradiating the user's eyes with irradiation light,
The illumination means irradiates pulse light as the irradiation light,
The light receiving means has a TOF camera, receives the reflected light reflected from the eye with the TOF camera, calculates a delay time of the reflected light with respect to the pulsed light based on the received light signal, The line-of-sight detection apparatus according to claim 1, wherein the distance is measured based on the distance.
前記導光手段は、ホログラフィック光学素子を有し、前記照射光を当該ホログラフィック光学素子で回折させることにより進路を変えて、前記眼に導くとともに、前記眼によって反射された反射光を前記受光手段に導くことを特徴とする請求項7に記載の視線検出装置。   The light guide means has a holographic optical element, changes the path by diffracting the irradiation light by the holographic optical element, guides it to the eye, and receives the reflected light reflected by the eye. The line-of-sight detection apparatus according to claim 7, wherein the line-of-sight detection device is guided to the means. 前記導光手段は、透明板を有し、当該透明板は前記接眼面を含むことを特徴とする請求項1〜9のいずれか1項に記載の視線検出装置。   The line-of-sight detection apparatus according to claim 1, wherein the light guide unit includes a transparent plate, and the transparent plate includes the eyepiece surface. 前記ユーザーの頭部に装着されるように構成されていることを特徴とする請求項1〜10のいずれか1項に記載の視線検出装置。   The line-of-sight detection apparatus according to claim 1, wherein the line-of-sight detection apparatus is configured to be worn on the head of the user. 前記照射光は、赤外光であることを特徴とする請求項7に記載の視線検出装置。   The line-of-sight detection device according to claim 7, wherein the irradiation light is infrared light. 外界の被写体を撮像する被写体用撮像手段と、
前記算出手段で算出された前記視線方向に基づいて、前記被写体用撮像手段で撮像された映像における前記ユーザーの視線の先にある対象を特定する特定手段と、をさらに有することを特徴とする請求項2〜12のいずれか1項に記載の視線検出装置。
An imaging means for a subject that images an external subject;
And a specifying unit configured to specify a target ahead of the user's line of sight in the video imaged by the subject imaging unit based on the line-of-sight direction calculated by the calculation unit. Item 13. The line-of-sight detection device according to any one of items 2 to 12.
前記ユーザーの視線の先にある対象を特定する特定手段に基づいて、前記ユーザーの視線の先にある対象に関する情報を表示部に表示することを特徴とする請求項13に記載の視線検出装置。   The line-of-sight detection apparatus according to claim 13, wherein information on an object ahead of the user's line of sight is displayed on a display unit based on a specifying unit that identifies the object beyond the line of sight of the user.
JP2015528297A 2013-07-24 2014-07-22 Gaze detection device Pending JPWO2015012280A1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013153768 2013-07-24
JP2013153768 2013-07-24
PCT/JP2014/069369 WO2015012280A1 (en) 2013-07-24 2014-07-22 Sight line detection device

Publications (1)

Publication Number Publication Date
JPWO2015012280A1 true JPWO2015012280A1 (en) 2017-03-02

Family

ID=52393314

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015528297A Pending JPWO2015012280A1 (en) 2013-07-24 2014-07-22 Gaze detection device

Country Status (2)

Country Link
JP (1) JPWO2015012280A1 (en)
WO (1) WO2015012280A1 (en)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL166799A (en) 2005-02-10 2014-09-30 Lumus Ltd Substrate-guided optical device utilizing beam splitters
US10048499B2 (en) 2005-11-08 2018-08-14 Lumus Ltd. Polarizing optical system
IL237337B (en) 2015-02-19 2020-03-31 Amitai Yaakov Compact head-mounted display system having uniform image
JP6701587B2 (en) 2015-03-31 2020-05-27 国立大学法人東北大学 Image display device, processing method, and program
US10460165B2 (en) 2015-04-01 2019-10-29 Fove, Inc. Head mounted display
AU2016264599B2 (en) * 2015-05-19 2021-05-13 Magic Leap, Inc. Dual composite light field device
JP2019519859A (en) * 2016-06-29 2019-07-11 シーイング マシーンズ リミテッド System and method for performing gaze tracking
KR102585679B1 (en) 2016-12-08 2023-10-05 매직 립, 인코포레이티드 Diffractive devices based on cholesteric liquid crystal
EP3397137B1 (en) * 2016-12-31 2019-10-30 Lumus Ltd. Eye tracker based on retinal imaging via light-guide optical element
CN110431467A (en) 2017-01-28 2019-11-08 鲁姆斯有限公司 Augmented reality imaging system
CN115097625A (en) 2017-03-21 2022-09-23 奇跃公司 Optical device, head-mounted display, imaging system and method of imaging an object
CN113341566B (en) 2017-03-22 2023-12-15 鲁姆斯有限公司 Overlapping reflective surface constructions
US11927765B2 (en) 2017-04-17 2024-03-12 Akonia Holographics Llc Skew mirror auxiliary imaging
WO2018213010A1 (en) * 2017-05-17 2018-11-22 Apple Inc. Head-mounted display device with vision correction
CN107260121B (en) * 2017-06-14 2023-11-21 苏州四海通仪器有限公司 Compound eye fundus camera
CN110869839B (en) 2017-07-19 2022-07-08 鲁姆斯有限公司 Liquid crystal on silicon illuminator with light guide optical element
US10976811B2 (en) * 2017-08-11 2021-04-13 Microsoft Technology Licensing, Llc Eye-tracking with MEMS scanning and reflected light
DE102017217193B4 (en) 2017-09-27 2019-07-25 Audi Ag Display device, in particular for a vehicle, and vehicle with such a display device
KR20200140822A (en) * 2018-04-06 2020-12-16 에씰로 앙터나시오날 How to customize a head-mounted device configured to create a virtual image
IL259518B2 (en) 2018-05-22 2023-04-01 Lumus Ltd Optical system and method for improvement of light field uniformity
US11415812B2 (en) 2018-06-26 2022-08-16 Lumus Ltd. Compact collimating optical device and system
EP3824335B1 (en) 2018-07-16 2023-10-18 Lumus Ltd. Light-guide optical element employing polarized internal reflectors
US11733523B2 (en) * 2018-09-26 2023-08-22 Magic Leap, Inc. Diffractive optical elements with optical power
TW202026685A (en) 2018-11-08 2020-07-16 以色列商魯姆斯有限公司 Light-guide display with reflector
JP7284498B2 (en) * 2019-03-05 2023-05-31 Kikura株式会社 pupillometer
IL270991B (en) 2019-11-27 2020-07-30 Lumus Ltd Lightguide optical element for polarization scrambling
IL293243A (en) 2019-12-05 2022-07-01 Lumus Ltd Light-guide optical element employing complementary coated partial reflectors, and light-guide optical element having reduced light scattering
WO2022097153A1 (en) 2020-11-09 2022-05-12 Lumus Ltd. Color corrected back reflection in ar systems
EP4162314A4 (en) 2021-02-25 2023-11-22 Lumus Ltd. Optical aperture multipliers having a rectangular waveguide

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3925222B2 (en) * 2002-02-07 2007-06-06 コニカミノルタホールディングス株式会社 Gaze detection device
JP4649319B2 (en) * 2005-11-21 2011-03-09 日本電信電話株式会社 Gaze detection device, gaze detection method, and gaze detection program
JP2009071478A (en) * 2007-09-12 2009-04-02 Sharp Corp Information communication terminal and information communication system
JP2010061265A (en) * 2008-09-02 2010-03-18 Fujifilm Corp Person retrieval and registration system
JP5776173B2 (en) * 2010-03-01 2015-09-09 株式会社リコー Imaging device and distance measuring device

Also Published As

Publication number Publication date
WO2015012280A1 (en) 2015-01-29

Similar Documents

Publication Publication Date Title
WO2015012280A1 (en) Sight line detection device
US11782274B2 (en) Stray light suppression for head worn computing
KR102594058B1 (en) Method and system for tracking eye movements with optical scanning projector
JP7087481B2 (en) Head-mounted display device, display control method, and computer program
CN111133366B (en) Multi-layer projector for head-mounted display
TWI571654B (en) Integrated eye tracking and display system and method therefor
US9298002B2 (en) Optical configurations for head worn computing
US9092671B2 (en) Visual line detection device and visual line detection method
US10147235B2 (en) AR display with adjustable stereo overlap zone
US10948724B2 (en) Transmissive display device, display control method, and computer program
CN113711107A (en) Augmented reality device for adjusting focus area according to user&#39;s gaze direction and method of operating the same
JP2018160735A (en) Transmission type display apparatus, display control method, and computer program
JP2021535588A (en) Mesa formation for wafer-to-wafer bonding
JP2016024208A (en) Display device, method for controlling display device, and program
CN117043658A (en) Eye tracker illumination through a waveguide
US20210373336A1 (en) Systems and methods for providing mixed-reality experiences under low light conditions
US20180267601A1 (en) Light Projection for Guiding a User within a Physical User Area During Virtual Reality Operations
US20220350149A1 (en) Waveguide configurations in a head-mounted display (hmd) for improved field of view (fov)
US11506898B1 (en) Polarized reflective pinhole mirror display
US11169374B1 (en) Eyewear eye-tracking using optical waveguide
US11860371B1 (en) Eyewear with eye-tracking reflective element
US20230314716A1 (en) Emission of particular wavelength bands utilizing directed wavelength emission components in a display system
US20220342222A1 (en) Eyewear having a projector with heat sink shields
EP4330757A1 (en) Waveguide configurations in a head-mounted display (hmd) for improved field of view (fov)
CN117083541A (en) Projector with field lens