JP2023006630A - Detection device and control method therefor - Google Patents

Detection device and control method therefor Download PDF

Info

Publication number
JP2023006630A
JP2023006630A JP2021109334A JP2021109334A JP2023006630A JP 2023006630 A JP2023006630 A JP 2023006630A JP 2021109334 A JP2021109334 A JP 2021109334A JP 2021109334 A JP2021109334 A JP 2021109334A JP 2023006630 A JP2023006630 A JP 2023006630A
Authority
JP
Japan
Prior art keywords
eyeball
sight
observer
line
gaze point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021109334A
Other languages
Japanese (ja)
Inventor
克博 和田
Katsuhiro Wada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021109334A priority Critical patent/JP2023006630A/en
Publication of JP2023006630A publication Critical patent/JP2023006630A/en
Pending legal-status Critical Current

Links

Images

Abstract

To enable accurate detection of a gaze point regardless of a gaze position of an observer.SOLUTION: A CPU 3 detects a point of gaze of an observer from eyeball images of both eyes of the observer acquired from eyeball image capturing elements 17. The CPU 3 uses left-eye line-of-sight information and right-eye line-of-sight information weighted according to a directions of the line of sight of the observer to detect the point of gaze.SELECTED DRAWING: Figure 6

Description

本発明は、観察者の注視点の検出に関する。 The present invention relates to detection of an observer's gaze point.

近年、頭部装着型、あるいは眼鏡型のVR、AR等の視線検出手段を有する撮像表示装置の自動化・インテリジェント化が進んできる。特許文献1に示されるように観察者の注視点を検出し、表示手段に表示されている画像にプライバシー保護対象の物体が存在する場合、モザイク等の処理をする、あるいは非表示領域の明瞭度を低下させる処理が行われる手法が提案されている。 2. Description of the Related Art In recent years, progress has been made in the automation and intelligentization of head-mounted or eyeglass-type imaging display devices having line-of-sight detection means such as VR and AR. As disclosed in Patent Document 1, the gaze point of the observer is detected, and if an object for privacy protection exists in the image displayed on the display means, processing such as mosaic is performed, or the clarity of the non-display area is improved. has been proposed.

また、特許文献2では、観察者の注視点を検出し、その検出領域とその周辺領域とで画像の諧調数を異ならせて、リアルタイム性を損なわないように画像処理の速度を短縮化する技術が提案されている。 In addition, Patent Document 2 discloses a technique for detecting a point of gaze of an observer and changing the number of image gradations between the detection area and its peripheral area to reduce the speed of image processing without impairing real-time performance. is proposed.

特開2019-124849JP 2019-124849 特開2001-223941JP 2001-223941

特許文献1と特許文献のいずれも、観察者の注視点を検出することによって有用な処理をユーザに提供するものである。しかしながら、いずれの件においても、観察者が注視する方向に応じた眼球運動の特性が考慮されていない。このため、観察者が注視する位置によっては注視点の誤検出につながる場合があった。 Both Patent Literature 1 and Patent Literature provide users with useful processing by detecting an observer's gaze point. However, neither of these cases considers the characteristics of eye movement according to the direction in which the observer gazes. For this reason, depending on the position where the observer gazes, it may lead to erroneous detection of the gaze point.

本発明は、観察者の注視位置によらず精度よく注視点を検出することができる検出装置およびその制御方法を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a detection device and a control method thereof that can accurately detect a gaze point regardless of an observer's gaze position.

上記目的を達成する為に、本発明は、表示素子を観察する観察者の眼球画像を取得する撮像素子と、観察者の両眼の眼球画像から観察者の注視点を検出する検出手段を有し、前記検出手段は、観察者の視線の方向に応じた重みづけで、左眼の視線情報と右眼の視線情報とを注視点の検出に用いるよう構成したことを特徴とする。 In order to achieve the above object, the present invention has an imaging device for acquiring an eyeball image of an observer who observes a display device, and a detection means for detecting the gaze point of the observer from the eyeball images of both eyes of the observer. The detection means is characterized in that it is weighted according to the direction of the line of sight of the observer, and is configured to use the line of sight information of the left eye and the line of sight information of the right eye to detect the gaze point.

本発明によれば、観察者の注視位置によらず精度よく注視点を検出することができる。 According to the present invention, it is possible to accurately detect the gaze point regardless of the observer's gaze position.

第1実施形態が適用される頭部装着型の視線検出装置の外観概略図FIG. 1 is a schematic external view of a head-mounted line-of-sight detection device to which the first embodiment is applied; 第1実施形態が適用される視線検出装置のブロック図1 is a block diagram of a line-of-sight detection device to which the first embodiment is applied; FIG. 第1実施形態における視線検出方法の原理説明図Principle explanatory drawing of the line-of-sight detection method in the first embodiment 眼球用撮像素子17に投影される眼球像の概略図Schematic diagram of an eyeball image projected on the eyeball imaging device 17 視線検出フローGaze detection flow 第1実施形態における視線方向における分解能の説明図Explanatory diagram of resolution in the line-of-sight direction in the first embodiment 第1、2実施形態における視線方向における眼球回転角度の説明図Explanatory diagram of the eyeball rotation angle in the line-of-sight direction in the first and second embodiments 第1、2実施形態における視線方向における眼球回転角度の説明図Explanatory diagram of the eyeball rotation angle in the line-of-sight direction in the first and second embodiments

以下、添付の図面を参照して本発明の好適な実施形態を説明する。 Preferred embodiments of the present invention will now be described with reference to the accompanying drawings.

<構成の説明>
左右独立に視線方向を検出する手段を有した頭部装着型の視線検出装置の構成を図3に示す。なお、左右の眼を両眼とも称する。
<Description of configuration>
FIG. 3 shows the configuration of a head-mounted line-of-sight detection device having means for independently detecting left and right line-of-sight directions. Note that the left and right eyes are also referred to as both eyes.

図1(a)は正面斜視図、図1(b)は背面斜視図である。 FIG. 1(a) is a front perspective view, and FIG. 1(b) is a back perspective view.

図1(a)の正面斜視図に示すように頭部装着型の視線検出装置は、頭部装着部101、およびコントローラ100で構成されている。 As shown in the front perspective view of FIG. 1( a ), the head-mounted line-of-sight detection device comprises a head-mounted unit 101 and a controller 100 .

頭部装着部101とコントローラ100とは接続ケーブル102により接続される。接続ケーブル102は着脱可能とする。また、接続ケーブル102は、オーディオコネクタを備え、ステレオヘッドホンを構成する右イヤホン、および左イヤホンとマイクを有する(不図示)。 A connection cable 102 connects the head-mounted unit 101 and the controller 100 . The connection cable 102 is detachable. Also, the connection cable 102 has an audio connector, and has a right earphone, a left earphone, and a microphone that constitute stereo headphones (not shown).

1Aは撮影レンズ、202は測光回路である。 1A is a photographing lens, and 202 is a photometry circuit.

また、205は照明光源駆動回路、13a、13bは使用者に対して不感の赤外光を放射する発光ダイオード等の光源であり、各光源は使用者の眼球を照らしている。眼球で反射した照明光の一部は、眼球用撮像素子17に集光する。 205 is an illumination light source drive circuit, 13a and 13b are light sources such as light emitting diodes that emit infrared light that is insensitive to the user, and each light source illuminates the user's eyeball. A part of the illumination light reflected by the eyeball is condensed on the eyeball imaging device 17 .

2は撮像素子で撮影レンズ1Aの予定結像面に配置されている。 An image pickup device 2 is arranged on a planned imaging plane of the photographing lens 1A.

図2は前記構成の頭部装着型の視線検出装置におけるコントローラ100の電気的構成を示すブロック図である。コントローラ100に内蔵されたマイクロコンピュータの中央演算処理装置3(以下、CPU)は、視線検出回路201、LPF207、メモリ部4、および、表示部41を制御する。 FIG. 2 is a block diagram showing the electrical configuration of the controller 100 in the head-mounted line-of-sight detection device having the configuration described above. A central processing unit 3 (hereinafter referred to as CPU) of a microcomputer built in the controller 100 controls the line-of-sight detection circuit 201 , the LPF 207 , the memory section 4 and the display section 41 .

CPU3に付随したメモリ部4は眼球用撮像素子17からの映像信号記憶機能、および視線の個人差を補正する視線補正データ、および左右眼球の信頼度を補正する補正データの記憶機能を有している。 A memory unit 4 attached to the CPU 3 has a function of storing video signals from the eyeball imaging device 17, a function of storing sight line correction data for correcting individual differences in line of sight, and correction data for correcting the reliability of left and right eyeballs. there is

視線検出回路201は、眼球用撮像素子17からの眼球像が結像することによる出力をA/D変換部201にてA/D変換して、LPF207を介してこの像情報をCPU3に送信する。CPU3は視線検出に必要な眼球像の各特徴点を後述する所定のアルゴリズムに従って抽出し、更に各特徴点の位置から使用者の視線を算出する。 The line-of-sight detection circuit 201 A/D-converts the output of the eyeball image formed from the eyeball imaging element 17 by the A/D converter 201 and transmits this image information to the CPU 3 via the LPF 207 . . The CPU 3 extracts each feature point of the eyeball image required for line-of-sight detection according to a predetermined algorithm, which will be described later, and further calculates the user's line of sight from the position of each feature point.

測光回路202は、測光センサの役割も兼ねる撮像素子2から得られる信号を元に、被写界の明るさに対応した輝度信号出力を増幅後、対数圧縮、A/D変換し、接続ケーブル102を介して被写界輝度情報として、CPU3に送る。 The photometry circuit 202 amplifies the luminance signal output corresponding to the brightness of the object field based on the signal obtained from the image sensor 2 which also serves as a photometry sensor, and then logarithmically compresses and A/D converts it. to the CPU 3 as field luminance information.

頭部装着型の視線検出装置においては、視線検出結果(視線情報とも称する)に応じて、注視している被写体に関係する情報をUIとして頭部装着部内の表示部208に表示させてもよい。 In the head-mounted line-of-sight detection device, information related to the subject being gazed at may be displayed as a UI on the display unit 208 in the head-mounted unit according to the line-of-sight detection result (also referred to as line-of-sight information). .

頭部装着型の視線検出装置においては、ビデオ透過型でもよいし、撮影した画像、映像を視聴するVR(仮想現実)、あるいはAR(拡張現実)構成としてもよい。 The head-mounted line-of-sight detection device may be of a video transmission type, or may have a VR (virtual reality) or AR (augmented reality) configuration for viewing captured images and videos.

また、コントローラ100内の41~43で示す操作部材α(タッチパネル対応液晶等)、操作部材β(レバー式操作部材等)、操作部材γ(ボタン式十字キー等)は、視線検出装置の各種制御を行う部材が配置されているとする。 In addition, the operation member α (touch panel compatible liquid crystal, etc.), the operation member β (lever type operation member, etc.), and the operation member γ (button type cross key, etc.) indicated by 41 to 43 in the controller 100 are used for various controls of the line-of-sight detection device. Assume that a member that performs

CPU3にその操作信号が接続ケーブル102を介して伝わる構成となっている。 The operation signal is transmitted to the CPU 3 via the connection cable 102 .

前記のステレオヘッドホンを構成する右イヤホン、および左イヤホンの音量を調整する場合は、コントローラ100からの指示で制御する。 When adjusting the volume of the right earphone and the left earphone that constitute the stereo headphones, the controller 100 controls them.

また、前記の頭部装着部内の表示部208に表示させている被写体に関係するUI情報(指標等)の表示位置をコントローラ100から微調整する指示を与える構成としてもよい。 Further, the controller 100 may issue an instruction to finely adjust the display position of the UI information (index or the like) related to the subject displayed on the display unit 208 in the head-mounted unit.

図3は線検出方法の原理説明図であり、前述の図1の構成における視線検出を行うための光学系の要約図に相当する。 FIG. 3 is a diagram for explaining the principle of the line detection method, and corresponds to a summary diagram of the optical system for detecting the line of sight in the configuration of FIG. 1 described above.

図3おいて、13a、13bは使用者に対して不感の赤外光を放射する発光ダイオード等の光源であり、各光源は使用者の眼球を照らしている。眼球で反射した照明光の一部は受光レンズ16により、眼球用撮像素子17に集光する。 In FIG. 3, reference numerals 13a and 13b denote light sources such as light-emitting diodes that emit infrared light imperceptible to the user, and each light source illuminates the eyeball of the user. Part of the illumination light reflected by the eyeball is condensed by the light receiving lens 16 onto the eyeball imaging device 17 .

ここで、頭部装着型の視線検出装置においては、図3に示すように眼球用撮像素子を2つ有し、左右それぞれの眼球像を取得する。 Here, as shown in FIG. 3, the head-mounted visual line detection device has two eyeball imaging elements and acquires left and right eyeball images.

図4(A)は眼球用撮像素子17に投影される眼球像の概略図、同図(B)は眼球用撮像素子17におけるCCDの出力強度図である。 FIG. 4A is a schematic diagram of an eyeball image projected onto the eyeball imaging element 17, and FIG. 4B is a CCD output intensity chart in the eyeball imaging element 17. FIG.

すなわち、頭部装着型の視線検出装置においては、本構成が左右、各々搭載されている。 That is, in the head-mounted line-of-sight detection device, this configuration is mounted on each of the left and right sides.

以下、図3~5を用いて、視線の検出手段を説明する。 The line-of-sight detection means will be described below with reference to FIGS.

<視線検出動作の説明>
図5は視線検出の概略フロールーチンを表している。図5において、視線検出ルーチンが開始すると、S001において、光源13a、13bは使用者の眼球14に向けて赤外光を放射する。上記赤外光によって照明された使用者の眼球像は、眼球用撮像素子17上に受光レンズ16を通して結像し、眼球用撮像素子17により光電変換がなされ、眼球像は電気信号として処理が可能となる。
<Description of gaze detection operation>
FIG. 5 shows a schematic flow routine of line-of-sight detection. In FIG. 5, when the line-of-sight detection routine starts, the light sources 13a and 13b emit infrared light toward the user's eyeball 14 in S001. The eyeball image of the user illuminated by the infrared light is formed on the eyeball imaging element 17 through the light receiving lens 16, photoelectrically converted by the eyeball imaging element 17, and the eyeball image can be processed as an electric signal. becomes.

ステップS002において上記のように眼球用撮像素子17から得られた眼球画像信号をCPU3に送る。 In step S002, the eyeball image signal obtained from the eyeball imaging element 17 as described above is sent to the CPU3.

ステップS003では、S002において得られた眼球画像信号の情報から、図5に示す光源13a、13bの角膜反射像Pd,Pe及び瞳孔中心cに対応する点の座標を求める。光源13a、13bより放射された赤外光は使用者の眼球14の角膜142を照明する。このとき角膜142の表面で反射した赤外光の一部により形成される角膜反射像Pd,Peは受光レンズ16により集光され、眼球用撮像素子17上に結像する(図示の点Pd’, Pe’)。同様に瞳孔141の端部a、bからの光束も眼球用撮像素子17上に結像する。図4では、図6(a)において眼球用撮像素子17から得られる反射像の画像例を、図7(b)に上記画像例の領域αにおける、眼球用撮像素子17から得られる輝度情報例を示す。図示のように、水平方向をX軸、垂直方向をY軸とする。このとき、光源13a、13bの角膜反射像が結像した像Pd’,Pe’のX軸方向(水平方向)の座標をXd,Xeとする。また、瞳孔14bの端部a、bからの光束が結像した像a’,b’のX軸方向の座標をXa、Xbとする。(b)の輝度情報例において、光源13a、13bの角膜反射像が結像した像Pd’,Pe’に相当する位置Xd,Xeでは、極端に強いレベルの輝度が得られている。瞳孔141の領域に相当する、座標XaからXbの間の領域は、上記Xd、Xeの位置を除き、極端に低いレベルの輝度が得られる。これに対し、瞳孔141の外側の光彩143の領域に相当する、Xaより低いX座標の値を持つ領域及びXbより高いX座標の値を持つ領域では、前記2種の輝度レベルの中間の値が得られる。上記X座標位置に対する輝度レベルの変動情報から、光源13a、13bの角膜反射像が結像した像Pd’,Pe’のX座標Xd,Xeと、瞳孔端の像a’, b’のX座標Xa、Xbを得ることができる。また、受光レンズ16の光軸に対する眼球14の光軸の回転角θxが小さい場合、眼球用撮像素子17上に結像する瞳孔中心cに相当する箇所(c’とする)の座標Xcは、Xc≒(Xa+Xb)/2と表すことができる。上記より、眼球用撮像素子17上に結像する瞳孔中心に相当するc’のX座標、光源13a、13bの角膜反射像Pd’,Pe’の座標を見積もることができた。 In step S003, the coordinates of points corresponding to the corneal reflection images Pd and Pe of the light sources 13a and 13b shown in FIG. 5 and the pupil center c are obtained from the eyeball image signal information obtained in S002. The infrared light emitted from the light sources 13a and 13b illuminates the cornea 142 of the eyeball 14 of the user. At this time, the corneal reflection images Pd and Pe formed by part of the infrared light reflected on the surface of the cornea 142 are condensed by the light receiving lens 16 and formed on the eyeball imaging element 17 (point Pd' in the drawing). , Pe'). Similarly, the light beams from the ends a and b of the pupil 141 are also imaged on the eyeball imaging device 17 . 4, FIG. 6A shows an example of a reflected image obtained from the eyeball imaging device 17, and FIG. 7B shows an example of luminance information obtained from the eyeball imaging device 17 in the area α of the above example image. indicates As shown, the horizontal direction is the X axis and the vertical direction is the Y axis. At this time, Xd and Xe are the coordinates in the X-axis direction (horizontal direction) of the images Pd' and Pe' formed by the corneal reflection images of the light sources 13a and 13b. Let Xa and Xb be the coordinates in the X-axis direction of the images a' and b' formed by the light beams from the ends a and b of the pupil 14b. In the luminance information example of (b), extremely high levels of luminance are obtained at the positions Xd and Xe corresponding to the images Pd' and Pe' formed by the corneal reflection images of the light sources 13a and 13b. An area between coordinates Xa and Xb, which corresponds to the area of the pupil 141, has an extremely low level of luminance, except for the positions Xd and Xe. On the other hand, in a region having an X coordinate value lower than Xa and a region having an X coordinate value higher than Xb, which corresponds to the region of the iris 143 outside the pupil 141, a value intermediate between the two luminance levels is obtained. From the luminance level variation information with respect to the X-coordinate position, the X-coordinates Xd and Xe of the images Pd' and Pe' formed by the corneal reflection images of the light sources 13a and 13b and the X-coordinates of the pupil end images a' and b' are obtained. Xa and Xb can be obtained. When the rotation angle θx of the optical axis of the eyeball 14 with respect to the optical axis of the light-receiving lens 16 is small, the coordinate Xc of the point corresponding to the pupil center c (assumed to be c′) formed on the eyeball imaging device 17 is It can be expressed as Xc≈(Xa+Xb)/2. From the above, the X coordinate of c' corresponding to the center of the pupil formed on the eyeball imaging element 17 and the coordinates of the corneal reflection images Pd' and Pe' of the light sources 13a and 13b could be estimated.

さらに、ステップS004では、眼球像の結像倍率βを算出する。βは受光レンズ16に対する眼球14の位置により決まる倍率で、実質的には角膜反射像Pd‘、Pe’の間隔(Xd-Xe)の関数として求めることができる。 Furthermore, in step S004, the imaging magnification β of the eyeball image is calculated. β is a magnification determined by the position of the eyeball 14 with respect to the light receiving lens 16, and can be obtained substantially as a function of the interval (Xd-Xe) between the corneal reflection images Pd' and Pe'.

また、ステップS005では、角膜反射像Pd及びPeの中点のX座標と角膜142の曲率中心OのX座標とはほぼ一致するため、角膜142の曲率中心Oと瞳孔141の中心cまでの標準的な距離をOcとすると、眼球14の光軸のZ-X平面内の回転角θは、
β*Oc*SINθ≒{(Xd+Xe)/2}- Xc
の関係式から求めることができる。また、図3、図4においては、使用者の眼球14がY軸に垂直な平面内で回転する場合の回転角θを算出する例を示しているが、使用者の眼球14がX軸に垂直な平面内で回転する場合の回転角θyの算出方法も同様である。
Further, in step S005, since the X coordinate of the midpoint of the corneal reflection images Pd and Pe and the X coordinate of the center of curvature O of the cornea 142 substantially match, the standard distance between the center of curvature O of the cornea 142 and the center c of the pupil 141 is determined. Assuming that the physical distance is Oc, the rotation angle θ X of the optical axis of the eyeball 14 in the ZX plane is
β*Oc*SINθ X ≈ {(Xd+Xe)/2}-Xc
can be obtained from the relational expression of 3 and 4 show an example of calculating the rotation angle θX when the user's eyeball 14 rotates within a plane perpendicular to the Y-axis. The calculation method of the rotation angle θy in the case of rotation within a plane perpendicular to the is also the same.

前ステップにおいて使用者の眼球14の光軸の回転角θx、θyが算出されると、ステップS006では、θx、θyを用いて、表示素子10上で使用者の視線の位置(注視している点の位置。以下、注視点と称する。)を求める。注視点位置を表示素子10上での瞳孔141の中心cに対応する座標(Hx,Hy)であるとして、
Hx_L= m×( Ax×θx + Bx )×nLx
Hx_R= m×( Ax×θx + Bx )×nRx
Hy_L= m×( Ay×θy + By )×nLy
Hy_R= m×( Ay×θy + By )×nRy
と算出することができる。この時、係数mはカメラのファインダ光学系、あるいは頭部装着型の視線検出装置の光学系の構成で定まる定数で、回転角θx、θyを表示素子10上での瞳孔141の中心cに対応する位置座標に変換する変換係数である。係数mはあらかじめ決定されてメモリ部4に記憶されているとする。また、Ax,Bx,Ay,Byは使用者の視線の個人差を補正する視線補正係数であり、後述するキャリブレーション作業を行うことで取得され、視線検出ルーチンが開始する前にメモリ部4に記憶されているものとする。
When the rotation angles θx and θy of the optical axis of the user's eyeball 14 are calculated in the previous step, θx and θy are used in step S006 to determine the position of the user's line of sight (at which the user is gazing) on the display element 10. The position of the point (hereinafter referred to as the gaze point) is obtained. Assuming that the gaze point position is the coordinates (Hx, Hy) corresponding to the center c of the pupil 141 on the display element 10,
Hx_L=m×(Ax×θx+Bx)×nLx
Hx_R=m×(Ax×θx+Bx)×nRx
Hy_L=m×(Ay×θy+By)×nLy
Hy_R=m×(Ay×θy+By)×nRy
can be calculated as At this time, the coefficient m is a constant determined by the configuration of the finder optical system of the camera or the optical system of the head-mounted line-of-sight detection device, and the rotation angles θx and θy correspond to the center c of the pupil 141 on the display element 10. It is a conversion coefficient that converts to the position coordinates to be used. Assume that the coefficient m is determined in advance and stored in the memory unit 4 . Further, Ax, Bx, Ay, and By are line-of-sight correction coefficients for correcting individual differences in the line-of-sight of the user, which are obtained by performing a calibration work described later and stored in the memory unit 4 before the start of the line-of-sight detection routine. shall be memorized.

更にメモリ部4には注視点を決定する際の左右眼の信頼度を補正する補正係数(nLx、nLy、nRx、nRy)が格納されている。 Further, the memory unit 4 stores correction coefficients (nLx, nLy, nRx, nRy) for correcting the reliability of the left and right eyes when determining the gaze point.

これらHx_L、Hx_R、Hy_L、Hy_Rから総合注視点Hx、Hyを算出する。 Comprehensive fixation points Hx and Hy are calculated from these Hx_L, Hx_R, Hy_L and Hy_R.

ここで図10に示すように頭部装着型の視線検出装置では、表示画面上において注視点が該表示画面上の中心付近の場合、左眼の回転角L-θxと右眼の回転角R-θxがほぼ同じ値となる(L-θx=R-θx)。 Here, as shown in FIG. 10, in the head-mounted line-of-sight detection device, when the gaze point on the display screen is near the center of the display screen, the left eye rotation angle L−θx and the right eye rotation angle R -θx has almost the same value (L-θx=R-θx).

また、図8に示すように表示画面上において、注視点が該表示画面上の左端部の場合、左眼の回転角L-θxと右眼の回転角R-θxの関係は、
R-θx>>L-θx
となる。
Also, as shown in FIG. 8, when the gaze point is on the left end of the display screen, the relationship between the rotation angle L-θx of the left eye and the rotation angle R-θx of the right eye is:
R-θx>>L-θx
becomes.

左眼の回転角L-θxと右眼の回転角R-θを注視点検出の信頼度として用い、該信頼度に対し、nLx、nLy、nRx、nRyを用いて、補正する。そして該信頼度を統合して使用者の注視点を算出する。 The rotation angle L-θx of the left eye and the rotation angle R-θ of the right eye are used as the reliability of gaze point detection, and the reliability is corrected using nLx, nLy, nRx, and nRy. Then, the user's gaze point is calculated by integrating the reliability degrees.

人間の眼は図6に示すように注視点が中心ほど、分解能が高く、情報受容能力に優れている特性を有し、端部に近づくほど、距離感、立体感がつかみにくくなる特徴を有する。 As shown in Fig. 6, the human eye has the characteristic that the closer the point of gaze is to the center, the higher the resolution and the better the ability to accept information. .

また、人間の眼は表示画面上において、端部を見る際、自分の意志に関わらず、眼球が震えやすく、視線を検出する際、誤検出する可能性がある。 In addition, when the human eye looks at the edge of the display screen, the eyeball tends to tremble regardless of one's will, and there is a possibility of erroneous detection when detecting the line of sight.

この場合、左眼の視線検出結果の重み付けを大きくするように左右眼球の信頼度補正係数を選択し、総合注視点を算出する。 In this case, the reliability correction coefficients for the left and right eyeballs are selected so as to increase the weighting of the sight line detection result for the left eye, and the total gaze point is calculated.

具体的には、例えば、眼球用撮像素子17からの眼球像が結像することによる出力に対し、LPF207で行う左眼に対するフィルタ処理の際のカットオフ周波数を大きくする。 Specifically, for example, the cutoff frequency in filtering the left eye performed by the LPF 207 is increased with respect to the output from the imaging element 17 for eyeballs when the eyeball image is formed.

言い換えると、右眼に対するフィルタ処理の際のカットオフ周波数を小さくする。 In other words, the cutoff frequency during filtering for the right eye is decreased.

また、効き目が左眼の場合、前記右眼に対するフィルタ処理の際のカットオフ周波数を更に小さくする。 Also, when the effect is on the left eye, the cutoff frequency is further reduced during filtering for the right eye.

また、図8に示すように表示画面上において、注視点が表示画面上の右端部の場合、左眼の回転角L-θxと右眼の回転角R-θxの関係は、
L-θx>>R-θx
となる。
Also, as shown in FIG. 8, when the gaze point is on the right end of the display screen, the relationship between the rotation angle L-θx of the left eye and the rotation angle R-θx of the right eye is as follows.
L-θx>>R-θx
becomes.

この場合、右眼の視線検出結果の信頼度を大きくなるように左右眼球それぞれの補正係数を選択し、総合注視点を算出する。 In this case, the correction coefficients for the right and left eyeballs are selected so as to increase the reliability of the sight line detection result for the right eye, and the total gaze point is calculated.

すなわち、端部に近い方の眼を重視するように、端部に近い眼の信頼度を高め、注視点を決定する。 That is, the point of gaze is determined by increasing the reliability of the eye closer to the edge so that the eye closer to the edge is emphasized.

Y方向についても同様に信頼度補正係数を選択する。具体的には、例えば、眼球用撮像素子17からの眼球像が結像することによる出力に対し、LPF207で行うフィルタ処理の際のカットオフ周波数を左眼に対し、小さくする。 A reliability correction coefficient is similarly selected for the Y direction. Specifically, for example, the cutoff frequency in the filtering process performed by the LPF 207 is made smaller for the left eye with respect to the output from the eyeball imaging device 17 when the eyeball image is formed.

具体的には、例えば、眼球用撮像素子17からの眼球像が結像することによる出力に対し、LPF207で行う右眼に対するフィルタ処理の際のカットオフ周波数を大きくする。言い換えると、左眼に対するフィルタ処理の際のカットオフ周波数を小さくする。 Specifically, for example, the cutoff frequency in filtering the right eye performed by the LPF 207 is increased with respect to the output from the image sensor 17 for eyeballs formed by forming an eyeball image. In other words, the cutoff frequency during filtering for the left eye is decreased.

また、効き目が右眼の場合、前記左眼に対するフィルタ処理の際のカットオフ周波数を更に小さくする。 In addition, when the effect is on the right eye, the cutoff frequency is further reduced during the filtering process for the left eye.

こうすることで眼球運動が細かく震える影響を小さくでき、距離感、立体感がつかみにくくなる眼の影響を抑え、視線検出の精度の低下を抑制する。 By doing so, it is possible to reduce the effect of fine trembling of the eyeball movement, suppress the effect of the eye that makes it difficult to grasp the sense of distance and stereoscopic effect, and suppress the deterioration of the accuracy of sight line detection.

上記のように表示素子10上での瞳孔141の中心cの座標(Hx,Hy)を算出した後、ステップS007においてメモリ部4に上記座標を記憶して、視線検出ルーチンを終える。 After the coordinates (Hx, Hy) of the center c of the pupil 141 on the display element 10 are calculated as described above, the coordinates are stored in the memory unit 4 in step S007, and the line-of-sight detection routine ends.

上記は光源13a、13bの角膜反射像を利用した表示素子上での注視点座標取得手法を示したが、それに限られるものではなく、撮像された眼球画像から眼球回転角度を取得する手法であれば本発明は適用可能である。 Although the method for obtaining the point-of-regard coordinates on the display element using the corneal reflection images of the light sources 13a and 13b has been described above, it is not limited to this, and any method for obtaining the eyeball rotation angle from the captured eyeball image may be used. However, the present invention can be applied.

前述の実施例1においては、左右眼球の回転角度に応じて、左右それぞれの眼球像の像情報に対するLPF207のカットオフ周波数を変更し、視線検出精度低下を抑制した。 In the first embodiment described above, the cutoff frequency of the LPF 207 for the image information of the left and right eyeball images is changed according to the rotation angles of the left and right eyeballs, thereby suppressing the deterioration of the sight line detection accuracy.

本実施例においては、LPF207を移動平均フィルタ構成とし、前述の実施例1と同様に左右眼球の回転角度を検出し、該回転角度に応じて、移動平均のサンプル数(タップ数)を変更する。 In this embodiment, the LPF 207 has a moving average filter structure, the rotation angles of the left and right eyeballs are detected in the same manner as in the first embodiment, and the number of moving average samples (the number of taps) is changed according to the rotation angle. .

例えば、図8に示すように注視点が表示画面の左端部に近い場合、左眼の回転角L-θxと右眼の回転角R-θxの関係は、
R-θx>>L-θx
となる。
For example, when the gaze point is close to the left edge of the display screen as shown in FIG. 8, the relationship between the rotation angle L−θx of the left eye and the rotation angle R−θx of the right eye is
R-θx>>L-θx
becomes.

このときは、右眼に対するLPF(移動平均フィルタ)207のサンプル数(タップ数)を大きくし、左眼に対するLPF(移動平均フィルタ)207のサンプル数(タップ数)を小さくする。 At this time, the number of samples (tap number) of the LPF (moving average filter) 207 for the right eye is increased, and the number of samples (tap number) of the LPF (moving average filter) 207 for the left eye is decreased.

こうすることで表示画面上の端部を見る際、自分の意志に関わらず、眼球が震えやすい影響を抑え、視線の誤検出を抑制することが可能となる。 By doing so, it is possible to suppress the effect of trembling of the eyeballs regardless of one's will when looking at the edge of the display screen, and to suppress erroneous detection of the line of sight.

また、単にサンプル数(タップ数)を大きくすると演算量が増大し、リアルタイム性低下を招く。そこで眼球角度に応じて適応的に切り替えることで、表示画面上の端部を見る際、自分の意志に関わらず、眼球が震えやすい影響を抑え、視線の誤検出を抑制することが可能となる。 In addition, simply increasing the number of samples (the number of taps) increases the amount of calculation, resulting in deterioration of real-time performance. Therefore, by adaptively switching according to the angle of the eyeball, it is possible to suppress the effect of trembling of the eyeball regardless of one's intention when looking at the edge of the display screen, and to suppress false detection of the line of sight. .

<その他>
上述の実施例では本発明をデジタルカメラで実施する例を説明したが、視線検出を行う装置であればどんな装置に適用しても良い。例えばヘッドマウントディスプレイやスマートフォン、PC等において実施することも可能である。
<Others>
In the above-described embodiment, an example in which the present invention is implemented in a digital camera has been described, but the present invention may be applied to any device as long as it performs line-of-sight detection. For example, it is also possible to implement in a head mounted display, a smart phone, a PC, or the like.

また、前述の実施例でフローチャートを用いて説明した動作は、同様の目的を達成することができるように、適宜実行されるステップの順序を変更することが可能である。 Also, in the operations described using the flowcharts in the above embodiments, it is possible to change the order of the steps to be executed as appropriate so as to achieve the same purpose.

本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワークあるいは記憶媒体を介してシステム又は装置に供給する構成をとることも可能である。。そして、、そのシステムあるいは装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention can also be configured to supply a program implementing one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium. . It can also be realized by processing in which one or more processors in the computer of the system or apparatus read and execute the program. It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

3 CPU
17 眼球用撮像素子
3 CPUs
17 Imaging device for eyeball

Claims (6)

表示素子を観察する観察者の眼球画像を取得する撮像素子と、
観察者の両眼の眼球画像から観察者の注視点を検出する検出手段を有し、
前記検出手段は、観察者の視線の方向に応じた重みづけで、左眼の視線情報と右眼の視線情報とを注視点の検出に用いることを特徴とする検出装置。
an imaging device that acquires an eyeball image of an observer who observes the display device;
having a detection means for detecting the gaze point of the observer from the eyeball images of both eyes of the observer;
The detecting device is characterized in that the detecting means uses the sight line information of the left eye and the sight line information of the right eye with weighting according to the direction of the sight line of the observer to detect the gaze point.
前記検出手段は、左眼の眼球角度と右眼の眼球角度とに基づく重みづけで、注視点の検出に用いる左眼の視線情報と右眼の視線情報とを用いて観察者の注視点を検出することを特徴とする請求項1に記載の検出装置。 The detecting means weights based on the eyeball angle of the left eye and the eyeball angle of the right eye, and uses the sight line information of the left eye and the sight line information of the right eye used for detecting the sight point to determine the gaze point of the observer. 2. The detection device according to claim 1, for detecting. 前記検出手段は、両眼のうち、眼球角度がより大きい眼球に対応する視線情報に対するフィルタのカットオフ周波数を、眼球角度が小さい眼球に対応する視線情報に対するフィルタのカットオフ周波数より小さくすることを特徴とする請求項2に記載の検出装置。 The detecting means may set the cutoff frequency of the filter for the line-of-sight information corresponding to the eyeball having the larger eyeball angle among the two eyes to be lower than the cutoff frequency of the filter for the line-of-sight information corresponding to the eyeball having the smaller eyeball angle. 3. A detection device according to claim 2. 前記検出手段は、両眼のうち、眼球角度がより大きい眼球に対応する視線情報に対する移動平均フィルタのサンプル数を、眼球角度が小さい眼球に対応する視線情報に対する移動平均フィルタのサンプル数より少なくすることを特徴とする請求項1乃至請求項3のいずれか1項に記載の検出装置。 The detecting means reduces the number of samples of the moving average filter for the line-of-sight information corresponding to the eyeball with the larger eyeball angle than the number of samples of the moving average filter for the line-of-sight information corresponding to the eyeball with the smaller eyeball angle. 4. The detection device according to any one of claims 1 to 3, characterized in that: 前記表示素子は、前記検出手段によって検出された注視点に対応する指標を表示することを特徴とする請求項1乃至請求項4のいずれか1項の記載の検出装置。 5. The detection device according to any one of claims 1 to 4, wherein said display element displays an index corresponding to the gaze point detected by said detection means. 表示素子を観察する観察者の眼球画像を取得する撮像素子を有する検出装置の制御方法であって、
観察者の両眼の眼球画像から観察者の注視点を検出する検出ステップを有し、
前記検出ステップでは、観察者の視線の方向に応じた重みづけで、左眼の視線情報と右眼の視線情報とを注視点の検出に用いることを特徴とする検出装置の制御方法。
A control method for a detection device having an imaging device that acquires an eyeball image of an observer observing a display device, comprising:
a detection step of detecting the gaze point of the observer from the eyeball images of both eyes of the observer;
In the detection step, the sight line information of the left eye and the sight line information of the right eye are weighted according to the direction of the sight line of the observer, and the sight line information is used to detect the gaze point.
JP2021109334A 2021-06-30 2021-06-30 Detection device and control method therefor Pending JP2023006630A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021109334A JP2023006630A (en) 2021-06-30 2021-06-30 Detection device and control method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021109334A JP2023006630A (en) 2021-06-30 2021-06-30 Detection device and control method therefor

Publications (1)

Publication Number Publication Date
JP2023006630A true JP2023006630A (en) 2023-01-18

Family

ID=85108251

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021109334A Pending JP2023006630A (en) 2021-06-30 2021-06-30 Detection device and control method therefor

Country Status (1)

Country Link
JP (1) JP2023006630A (en)

Similar Documents

Publication Publication Date Title
JP5167545B2 (en) Viewpoint detection device
US10382699B2 (en) Imaging system and method of producing images for display apparatus
TWI683136B (en) Video see-through head mounted display and control method thereof
WO2013191120A1 (en) Image processing device, method, and program, and storage medium
US20210004081A1 (en) Information processing apparatus, information processing method, and program
CN111830714B (en) Image display control method, image display control device and head-mounted display device
EP3929650A1 (en) Gaze tracking apparatus and systems
US20220035449A1 (en) Gaze tracking system and method
US11507184B2 (en) Gaze tracking apparatus and systems
JP7081599B2 (en) Information processing equipment, information processing methods, and programs
KR101817436B1 (en) Apparatus and method for displaying contents using electrooculogram sensors
US20220329740A1 (en) Electronic apparatus, method for controlling electronic apparatus, and non-transitory computer readable storage medium
JP2023006630A (en) Detection device and control method therefor
US20220350141A1 (en) Head-mountable display apparatus and methods
WO2022163283A1 (en) Eye tracking device
US20230092593A1 (en) Detection device detecting gaze point of user, control method therefor, and storage medium storing control program therefor
US20230393655A1 (en) Electronic apparatus
US11579690B2 (en) Gaze tracking apparatus and systems
US20230379594A1 (en) Image blending
JP2024007776A (en) Image processing device, image processing method, and computer program
JP2022183552A (en) Visual line information acquisition device, imaging device, visual line information acquisition method, program, and storage medium
JP2023155585A (en) Electronic device
JP2024008006A (en) Image processing device, display device, image processing method, and program
JP2023102822A (en) Display device, finder device, and imaging apparatus
GB2598953A (en) Head mounted display

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213