JP2023006630A - Detection device and control method therefor - Google Patents
Detection device and control method therefor Download PDFInfo
- Publication number
- JP2023006630A JP2023006630A JP2021109334A JP2021109334A JP2023006630A JP 2023006630 A JP2023006630 A JP 2023006630A JP 2021109334 A JP2021109334 A JP 2021109334A JP 2021109334 A JP2021109334 A JP 2021109334A JP 2023006630 A JP2023006630 A JP 2023006630A
- Authority
- JP
- Japan
- Prior art keywords
- eyeball
- sight
- observer
- line
- gaze point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 52
- 238000000034 method Methods 0.000 title claims description 8
- 210000005252 bulbus oculi Anatomy 0.000 claims abstract description 78
- 210000001508 eye Anatomy 0.000 claims abstract description 44
- 238000003384 imaging method Methods 0.000 claims description 26
- 210000001747 pupil Anatomy 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 7
- 238000001914 filtration Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 206010044565 Tremor Diseases 0.000 description 4
- 210000004087 cornea Anatomy 0.000 description 4
- 230000003247 decreasing effect Effects 0.000 description 3
- 230000006866 deterioration Effects 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 238000005375 photometry Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000004418 eye rotation Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Abstract
Description
本発明は、観察者の注視点の検出に関する。 The present invention relates to detection of an observer's gaze point.
近年、頭部装着型、あるいは眼鏡型のVR、AR等の視線検出手段を有する撮像表示装置の自動化・インテリジェント化が進んできる。特許文献1に示されるように観察者の注視点を検出し、表示手段に表示されている画像にプライバシー保護対象の物体が存在する場合、モザイク等の処理をする、あるいは非表示領域の明瞭度を低下させる処理が行われる手法が提案されている。 2. Description of the Related Art In recent years, progress has been made in the automation and intelligentization of head-mounted or eyeglass-type imaging display devices having line-of-sight detection means such as VR and AR. As disclosed in Patent Document 1, the gaze point of the observer is detected, and if an object for privacy protection exists in the image displayed on the display means, processing such as mosaic is performed, or the clarity of the non-display area is improved. has been proposed.
また、特許文献2では、観察者の注視点を検出し、その検出領域とその周辺領域とで画像の諧調数を異ならせて、リアルタイム性を損なわないように画像処理の速度を短縮化する技術が提案されている。 In addition, Patent Document 2 discloses a technique for detecting a point of gaze of an observer and changing the number of image gradations between the detection area and its peripheral area to reduce the speed of image processing without impairing real-time performance. is proposed.
特許文献1と特許文献のいずれも、観察者の注視点を検出することによって有用な処理をユーザに提供するものである。しかしながら、いずれの件においても、観察者が注視する方向に応じた眼球運動の特性が考慮されていない。このため、観察者が注視する位置によっては注視点の誤検出につながる場合があった。 Both Patent Literature 1 and Patent Literature provide users with useful processing by detecting an observer's gaze point. However, neither of these cases considers the characteristics of eye movement according to the direction in which the observer gazes. For this reason, depending on the position where the observer gazes, it may lead to erroneous detection of the gaze point.
本発明は、観察者の注視位置によらず精度よく注視点を検出することができる検出装置およびその制御方法を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a detection device and a control method thereof that can accurately detect a gaze point regardless of an observer's gaze position.
上記目的を達成する為に、本発明は、表示素子を観察する観察者の眼球画像を取得する撮像素子と、観察者の両眼の眼球画像から観察者の注視点を検出する検出手段を有し、前記検出手段は、観察者の視線の方向に応じた重みづけで、左眼の視線情報と右眼の視線情報とを注視点の検出に用いるよう構成したことを特徴とする。 In order to achieve the above object, the present invention has an imaging device for acquiring an eyeball image of an observer who observes a display device, and a detection means for detecting the gaze point of the observer from the eyeball images of both eyes of the observer. The detection means is characterized in that it is weighted according to the direction of the line of sight of the observer, and is configured to use the line of sight information of the left eye and the line of sight information of the right eye to detect the gaze point.
本発明によれば、観察者の注視位置によらず精度よく注視点を検出することができる。 According to the present invention, it is possible to accurately detect the gaze point regardless of the observer's gaze position.
以下、添付の図面を参照して本発明の好適な実施形態を説明する。 Preferred embodiments of the present invention will now be described with reference to the accompanying drawings.
<構成の説明>
左右独立に視線方向を検出する手段を有した頭部装着型の視線検出装置の構成を図3に示す。なお、左右の眼を両眼とも称する。
<Description of configuration>
FIG. 3 shows the configuration of a head-mounted line-of-sight detection device having means for independently detecting left and right line-of-sight directions. Note that the left and right eyes are also referred to as both eyes.
図1(a)は正面斜視図、図1(b)は背面斜視図である。 FIG. 1(a) is a front perspective view, and FIG. 1(b) is a back perspective view.
図1(a)の正面斜視図に示すように頭部装着型の視線検出装置は、頭部装着部101、およびコントローラ100で構成されている。
As shown in the front perspective view of FIG. 1( a ), the head-mounted line-of-sight detection device comprises a head-mounted
頭部装着部101とコントローラ100とは接続ケーブル102により接続される。接続ケーブル102は着脱可能とする。また、接続ケーブル102は、オーディオコネクタを備え、ステレオヘッドホンを構成する右イヤホン、および左イヤホンとマイクを有する(不図示)。
A
1Aは撮影レンズ、202は測光回路である。 1A is a photographing lens, and 202 is a photometry circuit.
また、205は照明光源駆動回路、13a、13bは使用者に対して不感の赤外光を放射する発光ダイオード等の光源であり、各光源は使用者の眼球を照らしている。眼球で反射した照明光の一部は、眼球用撮像素子17に集光する。
205 is an illumination light source drive circuit, 13a and 13b are light sources such as light emitting diodes that emit infrared light that is insensitive to the user, and each light source illuminates the user's eyeball. A part of the illumination light reflected by the eyeball is condensed on the
2は撮像素子で撮影レンズ1Aの予定結像面に配置されている。
An image pickup device 2 is arranged on a planned imaging plane of the photographing
図2は前記構成の頭部装着型の視線検出装置におけるコントローラ100の電気的構成を示すブロック図である。コントローラ100に内蔵されたマイクロコンピュータの中央演算処理装置3(以下、CPU)は、視線検出回路201、LPF207、メモリ部4、および、表示部41を制御する。
FIG. 2 is a block diagram showing the electrical configuration of the
CPU3に付随したメモリ部4は眼球用撮像素子17からの映像信号記憶機能、および視線の個人差を補正する視線補正データ、および左右眼球の信頼度を補正する補正データの記憶機能を有している。
A memory unit 4 attached to the
視線検出回路201は、眼球用撮像素子17からの眼球像が結像することによる出力をA/D変換部201にてA/D変換して、LPF207を介してこの像情報をCPU3に送信する。CPU3は視線検出に必要な眼球像の各特徴点を後述する所定のアルゴリズムに従って抽出し、更に各特徴点の位置から使用者の視線を算出する。
The line-of-sight detection circuit 201 A/D-converts the output of the eyeball image formed from the
測光回路202は、測光センサの役割も兼ねる撮像素子2から得られる信号を元に、被写界の明るさに対応した輝度信号出力を増幅後、対数圧縮、A/D変換し、接続ケーブル102を介して被写界輝度情報として、CPU3に送る。
The
頭部装着型の視線検出装置においては、視線検出結果(視線情報とも称する)に応じて、注視している被写体に関係する情報をUIとして頭部装着部内の表示部208に表示させてもよい。
In the head-mounted line-of-sight detection device, information related to the subject being gazed at may be displayed as a UI on the
頭部装着型の視線検出装置においては、ビデオ透過型でもよいし、撮影した画像、映像を視聴するVR(仮想現実)、あるいはAR(拡張現実)構成としてもよい。 The head-mounted line-of-sight detection device may be of a video transmission type, or may have a VR (virtual reality) or AR (augmented reality) configuration for viewing captured images and videos.
また、コントローラ100内の41~43で示す操作部材α(タッチパネル対応液晶等)、操作部材β(レバー式操作部材等)、操作部材γ(ボタン式十字キー等)は、視線検出装置の各種制御を行う部材が配置されているとする。
In addition, the operation member α (touch panel compatible liquid crystal, etc.), the operation member β (lever type operation member, etc.), and the operation member γ (button type cross key, etc.) indicated by 41 to 43 in the
CPU3にその操作信号が接続ケーブル102を介して伝わる構成となっている。
The operation signal is transmitted to the
前記のステレオヘッドホンを構成する右イヤホン、および左イヤホンの音量を調整する場合は、コントローラ100からの指示で制御する。
When adjusting the volume of the right earphone and the left earphone that constitute the stereo headphones, the
また、前記の頭部装着部内の表示部208に表示させている被写体に関係するUI情報(指標等)の表示位置をコントローラ100から微調整する指示を与える構成としてもよい。
Further, the
図3は線検出方法の原理説明図であり、前述の図1の構成における視線検出を行うための光学系の要約図に相当する。 FIG. 3 is a diagram for explaining the principle of the line detection method, and corresponds to a summary diagram of the optical system for detecting the line of sight in the configuration of FIG. 1 described above.
図3おいて、13a、13bは使用者に対して不感の赤外光を放射する発光ダイオード等の光源であり、各光源は使用者の眼球を照らしている。眼球で反射した照明光の一部は受光レンズ16により、眼球用撮像素子17に集光する。
In FIG. 3,
ここで、頭部装着型の視線検出装置においては、図3に示すように眼球用撮像素子を2つ有し、左右それぞれの眼球像を取得する。 Here, as shown in FIG. 3, the head-mounted visual line detection device has two eyeball imaging elements and acquires left and right eyeball images.
図4(A)は眼球用撮像素子17に投影される眼球像の概略図、同図(B)は眼球用撮像素子17におけるCCDの出力強度図である。
FIG. 4A is a schematic diagram of an eyeball image projected onto the
すなわち、頭部装着型の視線検出装置においては、本構成が左右、各々搭載されている。 That is, in the head-mounted line-of-sight detection device, this configuration is mounted on each of the left and right sides.
以下、図3~5を用いて、視線の検出手段を説明する。 The line-of-sight detection means will be described below with reference to FIGS.
<視線検出動作の説明>
図5は視線検出の概略フロールーチンを表している。図5において、視線検出ルーチンが開始すると、S001において、光源13a、13bは使用者の眼球14に向けて赤外光を放射する。上記赤外光によって照明された使用者の眼球像は、眼球用撮像素子17上に受光レンズ16を通して結像し、眼球用撮像素子17により光電変換がなされ、眼球像は電気信号として処理が可能となる。
<Description of gaze detection operation>
FIG. 5 shows a schematic flow routine of line-of-sight detection. In FIG. 5, when the line-of-sight detection routine starts, the
ステップS002において上記のように眼球用撮像素子17から得られた眼球画像信号をCPU3に送る。
In step S002, the eyeball image signal obtained from the
ステップS003では、S002において得られた眼球画像信号の情報から、図5に示す光源13a、13bの角膜反射像Pd,Pe及び瞳孔中心cに対応する点の座標を求める。光源13a、13bより放射された赤外光は使用者の眼球14の角膜142を照明する。このとき角膜142の表面で反射した赤外光の一部により形成される角膜反射像Pd,Peは受光レンズ16により集光され、眼球用撮像素子17上に結像する(図示の点Pd’, Pe’)。同様に瞳孔141の端部a、bからの光束も眼球用撮像素子17上に結像する。図4では、図6(a)において眼球用撮像素子17から得られる反射像の画像例を、図7(b)に上記画像例の領域αにおける、眼球用撮像素子17から得られる輝度情報例を示す。図示のように、水平方向をX軸、垂直方向をY軸とする。このとき、光源13a、13bの角膜反射像が結像した像Pd’,Pe’のX軸方向(水平方向)の座標をXd,Xeとする。また、瞳孔14bの端部a、bからの光束が結像した像a’,b’のX軸方向の座標をXa、Xbとする。(b)の輝度情報例において、光源13a、13bの角膜反射像が結像した像Pd’,Pe’に相当する位置Xd,Xeでは、極端に強いレベルの輝度が得られている。瞳孔141の領域に相当する、座標XaからXbの間の領域は、上記Xd、Xeの位置を除き、極端に低いレベルの輝度が得られる。これに対し、瞳孔141の外側の光彩143の領域に相当する、Xaより低いX座標の値を持つ領域及びXbより高いX座標の値を持つ領域では、前記2種の輝度レベルの中間の値が得られる。上記X座標位置に対する輝度レベルの変動情報から、光源13a、13bの角膜反射像が結像した像Pd’,Pe’のX座標Xd,Xeと、瞳孔端の像a’, b’のX座標Xa、Xbを得ることができる。また、受光レンズ16の光軸に対する眼球14の光軸の回転角θxが小さい場合、眼球用撮像素子17上に結像する瞳孔中心cに相当する箇所(c’とする)の座標Xcは、Xc≒(Xa+Xb)/2と表すことができる。上記より、眼球用撮像素子17上に結像する瞳孔中心に相当するc’のX座標、光源13a、13bの角膜反射像Pd’,Pe’の座標を見積もることができた。
In step S003, the coordinates of points corresponding to the corneal reflection images Pd and Pe of the
さらに、ステップS004では、眼球像の結像倍率βを算出する。βは受光レンズ16に対する眼球14の位置により決まる倍率で、実質的には角膜反射像Pd‘、Pe’の間隔(Xd-Xe)の関数として求めることができる。
Furthermore, in step S004, the imaging magnification β of the eyeball image is calculated. β is a magnification determined by the position of the eyeball 14 with respect to the
また、ステップS005では、角膜反射像Pd及びPeの中点のX座標と角膜142の曲率中心OのX座標とはほぼ一致するため、角膜142の曲率中心Oと瞳孔141の中心cまでの標準的な距離をOcとすると、眼球14の光軸のZ-X平面内の回転角θXは、
β*Oc*SINθX≒{(Xd+Xe)/2}- Xc
の関係式から求めることができる。また、図3、図4においては、使用者の眼球14がY軸に垂直な平面内で回転する場合の回転角θXを算出する例を示しているが、使用者の眼球14がX軸に垂直な平面内で回転する場合の回転角θyの算出方法も同様である。
Further, in step S005, since the X coordinate of the midpoint of the corneal reflection images Pd and Pe and the X coordinate of the center of curvature O of the cornea 142 substantially match, the standard distance between the center of curvature O of the cornea 142 and the center c of the pupil 141 is determined. Assuming that the physical distance is Oc, the rotation angle θ X of the optical axis of the eyeball 14 in the ZX plane is
β*Oc*SINθ X ≈ {(Xd+Xe)/2}-Xc
can be obtained from the relational expression of 3 and 4 show an example of calculating the rotation angle θX when the user's eyeball 14 rotates within a plane perpendicular to the Y-axis. The calculation method of the rotation angle θy in the case of rotation within a plane perpendicular to the is also the same.
前ステップにおいて使用者の眼球14の光軸の回転角θx、θyが算出されると、ステップS006では、θx、θyを用いて、表示素子10上で使用者の視線の位置(注視している点の位置。以下、注視点と称する。)を求める。注視点位置を表示素子10上での瞳孔141の中心cに対応する座標(Hx,Hy)であるとして、
Hx_L= m×( Ax×θx + Bx )×nLx
Hx_R= m×( Ax×θx + Bx )×nRx
Hy_L= m×( Ay×θy + By )×nLy
Hy_R= m×( Ay×θy + By )×nRy
と算出することができる。この時、係数mはカメラのファインダ光学系、あるいは頭部装着型の視線検出装置の光学系の構成で定まる定数で、回転角θx、θyを表示素子10上での瞳孔141の中心cに対応する位置座標に変換する変換係数である。係数mはあらかじめ決定されてメモリ部4に記憶されているとする。また、Ax,Bx,Ay,Byは使用者の視線の個人差を補正する視線補正係数であり、後述するキャリブレーション作業を行うことで取得され、視線検出ルーチンが開始する前にメモリ部4に記憶されているものとする。
When the rotation angles θx and θy of the optical axis of the user's eyeball 14 are calculated in the previous step, θx and θy are used in step S006 to determine the position of the user's line of sight (at which the user is gazing) on the display element 10. The position of the point (hereinafter referred to as the gaze point) is obtained. Assuming that the gaze point position is the coordinates (Hx, Hy) corresponding to the center c of the pupil 141 on the display element 10,
Hx_L=m×(Ax×θx+Bx)×nLx
Hx_R=m×(Ax×θx+Bx)×nRx
Hy_L=m×(Ay×θy+By)×nLy
Hy_R=m×(Ay×θy+By)×nRy
can be calculated as At this time, the coefficient m is a constant determined by the configuration of the finder optical system of the camera or the optical system of the head-mounted line-of-sight detection device, and the rotation angles θx and θy correspond to the center c of the pupil 141 on the display element 10. It is a conversion coefficient that converts to the position coordinates to be used. Assume that the coefficient m is determined in advance and stored in the memory unit 4 . Further, Ax, Bx, Ay, and By are line-of-sight correction coefficients for correcting individual differences in the line-of-sight of the user, which are obtained by performing a calibration work described later and stored in the memory unit 4 before the start of the line-of-sight detection routine. shall be memorized.
更にメモリ部4には注視点を決定する際の左右眼の信頼度を補正する補正係数(nLx、nLy、nRx、nRy)が格納されている。 Further, the memory unit 4 stores correction coefficients (nLx, nLy, nRx, nRy) for correcting the reliability of the left and right eyes when determining the gaze point.
これらHx_L、Hx_R、Hy_L、Hy_Rから総合注視点Hx、Hyを算出する。 Comprehensive fixation points Hx and Hy are calculated from these Hx_L, Hx_R, Hy_L and Hy_R.
ここで図10に示すように頭部装着型の視線検出装置では、表示画面上において注視点が該表示画面上の中心付近の場合、左眼の回転角L-θxと右眼の回転角R-θxがほぼ同じ値となる(L-θx=R-θx)。 Here, as shown in FIG. 10, in the head-mounted line-of-sight detection device, when the gaze point on the display screen is near the center of the display screen, the left eye rotation angle L−θx and the right eye rotation angle R -θx has almost the same value (L-θx=R-θx).
また、図8に示すように表示画面上において、注視点が該表示画面上の左端部の場合、左眼の回転角L-θxと右眼の回転角R-θxの関係は、
R-θx>>L-θx
となる。
Also, as shown in FIG. 8, when the gaze point is on the left end of the display screen, the relationship between the rotation angle L-θx of the left eye and the rotation angle R-θx of the right eye is:
R-θx>>L-θx
becomes.
左眼の回転角L-θxと右眼の回転角R-θを注視点検出の信頼度として用い、該信頼度に対し、nLx、nLy、nRx、nRyを用いて、補正する。そして該信頼度を統合して使用者の注視点を算出する。 The rotation angle L-θx of the left eye and the rotation angle R-θ of the right eye are used as the reliability of gaze point detection, and the reliability is corrected using nLx, nLy, nRx, and nRy. Then, the user's gaze point is calculated by integrating the reliability degrees.
人間の眼は図6に示すように注視点が中心ほど、分解能が高く、情報受容能力に優れている特性を有し、端部に近づくほど、距離感、立体感がつかみにくくなる特徴を有する。 As shown in Fig. 6, the human eye has the characteristic that the closer the point of gaze is to the center, the higher the resolution and the better the ability to accept information. .
また、人間の眼は表示画面上において、端部を見る際、自分の意志に関わらず、眼球が震えやすく、視線を検出する際、誤検出する可能性がある。 In addition, when the human eye looks at the edge of the display screen, the eyeball tends to tremble regardless of one's will, and there is a possibility of erroneous detection when detecting the line of sight.
この場合、左眼の視線検出結果の重み付けを大きくするように左右眼球の信頼度補正係数を選択し、総合注視点を算出する。 In this case, the reliability correction coefficients for the left and right eyeballs are selected so as to increase the weighting of the sight line detection result for the left eye, and the total gaze point is calculated.
具体的には、例えば、眼球用撮像素子17からの眼球像が結像することによる出力に対し、LPF207で行う左眼に対するフィルタ処理の際のカットオフ周波数を大きくする。
Specifically, for example, the cutoff frequency in filtering the left eye performed by the
言い換えると、右眼に対するフィルタ処理の際のカットオフ周波数を小さくする。 In other words, the cutoff frequency during filtering for the right eye is decreased.
また、効き目が左眼の場合、前記右眼に対するフィルタ処理の際のカットオフ周波数を更に小さくする。 Also, when the effect is on the left eye, the cutoff frequency is further reduced during filtering for the right eye.
また、図8に示すように表示画面上において、注視点が表示画面上の右端部の場合、左眼の回転角L-θxと右眼の回転角R-θxの関係は、
L-θx>>R-θx
となる。
Also, as shown in FIG. 8, when the gaze point is on the right end of the display screen, the relationship between the rotation angle L-θx of the left eye and the rotation angle R-θx of the right eye is as follows.
L-θx>>R-θx
becomes.
この場合、右眼の視線検出結果の信頼度を大きくなるように左右眼球それぞれの補正係数を選択し、総合注視点を算出する。 In this case, the correction coefficients for the right and left eyeballs are selected so as to increase the reliability of the sight line detection result for the right eye, and the total gaze point is calculated.
すなわち、端部に近い方の眼を重視するように、端部に近い眼の信頼度を高め、注視点を決定する。 That is, the point of gaze is determined by increasing the reliability of the eye closer to the edge so that the eye closer to the edge is emphasized.
Y方向についても同様に信頼度補正係数を選択する。具体的には、例えば、眼球用撮像素子17からの眼球像が結像することによる出力に対し、LPF207で行うフィルタ処理の際のカットオフ周波数を左眼に対し、小さくする。
A reliability correction coefficient is similarly selected for the Y direction. Specifically, for example, the cutoff frequency in the filtering process performed by the
具体的には、例えば、眼球用撮像素子17からの眼球像が結像することによる出力に対し、LPF207で行う右眼に対するフィルタ処理の際のカットオフ周波数を大きくする。言い換えると、左眼に対するフィルタ処理の際のカットオフ周波数を小さくする。
Specifically, for example, the cutoff frequency in filtering the right eye performed by the
また、効き目が右眼の場合、前記左眼に対するフィルタ処理の際のカットオフ周波数を更に小さくする。 In addition, when the effect is on the right eye, the cutoff frequency is further reduced during the filtering process for the left eye.
こうすることで眼球運動が細かく震える影響を小さくでき、距離感、立体感がつかみにくくなる眼の影響を抑え、視線検出の精度の低下を抑制する。 By doing so, it is possible to reduce the effect of fine trembling of the eyeball movement, suppress the effect of the eye that makes it difficult to grasp the sense of distance and stereoscopic effect, and suppress the deterioration of the accuracy of sight line detection.
上記のように表示素子10上での瞳孔141の中心cの座標(Hx,Hy)を算出した後、ステップS007においてメモリ部4に上記座標を記憶して、視線検出ルーチンを終える。 After the coordinates (Hx, Hy) of the center c of the pupil 141 on the display element 10 are calculated as described above, the coordinates are stored in the memory unit 4 in step S007, and the line-of-sight detection routine ends.
上記は光源13a、13bの角膜反射像を利用した表示素子上での注視点座標取得手法を示したが、それに限られるものではなく、撮像された眼球画像から眼球回転角度を取得する手法であれば本発明は適用可能である。
Although the method for obtaining the point-of-regard coordinates on the display element using the corneal reflection images of the
前述の実施例1においては、左右眼球の回転角度に応じて、左右それぞれの眼球像の像情報に対するLPF207のカットオフ周波数を変更し、視線検出精度低下を抑制した。
In the first embodiment described above, the cutoff frequency of the
本実施例においては、LPF207を移動平均フィルタ構成とし、前述の実施例1と同様に左右眼球の回転角度を検出し、該回転角度に応じて、移動平均のサンプル数(タップ数)を変更する。
In this embodiment, the
例えば、図8に示すように注視点が表示画面の左端部に近い場合、左眼の回転角L-θxと右眼の回転角R-θxの関係は、
R-θx>>L-θx
となる。
For example, when the gaze point is close to the left edge of the display screen as shown in FIG. 8, the relationship between the rotation angle L−θx of the left eye and the rotation angle R−θx of the right eye is
R-θx>>L-θx
becomes.
このときは、右眼に対するLPF(移動平均フィルタ)207のサンプル数(タップ数)を大きくし、左眼に対するLPF(移動平均フィルタ)207のサンプル数(タップ数)を小さくする。 At this time, the number of samples (tap number) of the LPF (moving average filter) 207 for the right eye is increased, and the number of samples (tap number) of the LPF (moving average filter) 207 for the left eye is decreased.
こうすることで表示画面上の端部を見る際、自分の意志に関わらず、眼球が震えやすい影響を抑え、視線の誤検出を抑制することが可能となる。 By doing so, it is possible to suppress the effect of trembling of the eyeballs regardless of one's will when looking at the edge of the display screen, and to suppress erroneous detection of the line of sight.
また、単にサンプル数(タップ数)を大きくすると演算量が増大し、リアルタイム性低下を招く。そこで眼球角度に応じて適応的に切り替えることで、表示画面上の端部を見る際、自分の意志に関わらず、眼球が震えやすい影響を抑え、視線の誤検出を抑制することが可能となる。 In addition, simply increasing the number of samples (the number of taps) increases the amount of calculation, resulting in deterioration of real-time performance. Therefore, by adaptively switching according to the angle of the eyeball, it is possible to suppress the effect of trembling of the eyeball regardless of one's intention when looking at the edge of the display screen, and to suppress false detection of the line of sight. .
<その他>
上述の実施例では本発明をデジタルカメラで実施する例を説明したが、視線検出を行う装置であればどんな装置に適用しても良い。例えばヘッドマウントディスプレイやスマートフォン、PC等において実施することも可能である。
<Others>
In the above-described embodiment, an example in which the present invention is implemented in a digital camera has been described, but the present invention may be applied to any device as long as it performs line-of-sight detection. For example, it is also possible to implement in a head mounted display, a smart phone, a PC, or the like.
また、前述の実施例でフローチャートを用いて説明した動作は、同様の目的を達成することができるように、適宜実行されるステップの順序を変更することが可能である。 Also, in the operations described using the flowcharts in the above embodiments, it is possible to change the order of the steps to be executed as appropriate so as to achieve the same purpose.
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワークあるいは記憶媒体を介してシステム又は装置に供給する構成をとることも可能である。。そして、、そのシステムあるいは装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention can also be configured to supply a program implementing one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium. . It can also be realized by processing in which one or more processors in the computer of the system or apparatus read and execute the program. It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.
3 CPU
17 眼球用撮像素子
3 CPUs
17 Imaging device for eyeball
Claims (6)
観察者の両眼の眼球画像から観察者の注視点を検出する検出手段を有し、
前記検出手段は、観察者の視線の方向に応じた重みづけで、左眼の視線情報と右眼の視線情報とを注視点の検出に用いることを特徴とする検出装置。 an imaging device that acquires an eyeball image of an observer who observes the display device;
having a detection means for detecting the gaze point of the observer from the eyeball images of both eyes of the observer;
The detecting device is characterized in that the detecting means uses the sight line information of the left eye and the sight line information of the right eye with weighting according to the direction of the sight line of the observer to detect the gaze point.
観察者の両眼の眼球画像から観察者の注視点を検出する検出ステップを有し、
前記検出ステップでは、観察者の視線の方向に応じた重みづけで、左眼の視線情報と右眼の視線情報とを注視点の検出に用いることを特徴とする検出装置の制御方法。 A control method for a detection device having an imaging device that acquires an eyeball image of an observer observing a display device, comprising:
a detection step of detecting the gaze point of the observer from the eyeball images of both eyes of the observer;
In the detection step, the sight line information of the left eye and the sight line information of the right eye are weighted according to the direction of the sight line of the observer, and the sight line information is used to detect the gaze point.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021109334A JP2023006630A (en) | 2021-06-30 | 2021-06-30 | Detection device and control method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021109334A JP2023006630A (en) | 2021-06-30 | 2021-06-30 | Detection device and control method therefor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023006630A true JP2023006630A (en) | 2023-01-18 |
Family
ID=85108251
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021109334A Pending JP2023006630A (en) | 2021-06-30 | 2021-06-30 | Detection device and control method therefor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023006630A (en) |
-
2021
- 2021-06-30 JP JP2021109334A patent/JP2023006630A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5167545B2 (en) | Viewpoint detection device | |
US10382699B2 (en) | Imaging system and method of producing images for display apparatus | |
TWI683136B (en) | Video see-through head mounted display and control method thereof | |
WO2013191120A1 (en) | Image processing device, method, and program, and storage medium | |
US20210004081A1 (en) | Information processing apparatus, information processing method, and program | |
CN111830714B (en) | Image display control method, image display control device and head-mounted display device | |
EP3929650A1 (en) | Gaze tracking apparatus and systems | |
US20220035449A1 (en) | Gaze tracking system and method | |
US11507184B2 (en) | Gaze tracking apparatus and systems | |
JP7081599B2 (en) | Information processing equipment, information processing methods, and programs | |
KR101817436B1 (en) | Apparatus and method for displaying contents using electrooculogram sensors | |
US20220329740A1 (en) | Electronic apparatus, method for controlling electronic apparatus, and non-transitory computer readable storage medium | |
JP2023006630A (en) | Detection device and control method therefor | |
US20220350141A1 (en) | Head-mountable display apparatus and methods | |
WO2022163283A1 (en) | Eye tracking device | |
US20230092593A1 (en) | Detection device detecting gaze point of user, control method therefor, and storage medium storing control program therefor | |
US20230393655A1 (en) | Electronic apparatus | |
US11579690B2 (en) | Gaze tracking apparatus and systems | |
US20230379594A1 (en) | Image blending | |
JP2024007776A (en) | Image processing device, image processing method, and computer program | |
JP2022183552A (en) | Visual line information acquisition device, imaging device, visual line information acquisition method, program, and storage medium | |
JP2023155585A (en) | Electronic device | |
JP2024008006A (en) | Image processing device, display device, image processing method, and program | |
JP2023102822A (en) | Display device, finder device, and imaging apparatus | |
GB2598953A (en) | Head mounted display |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20231213 |