JP6756127B2 - Line-of-sight estimation device and line-of-sight estimation method - Google Patents

Line-of-sight estimation device and line-of-sight estimation method Download PDF

Info

Publication number
JP6756127B2
JP6756127B2 JP2016057251A JP2016057251A JP6756127B2 JP 6756127 B2 JP6756127 B2 JP 6756127B2 JP 2016057251 A JP2016057251 A JP 2016057251A JP 2016057251 A JP2016057251 A JP 2016057251A JP 6756127 B2 JP6756127 B2 JP 6756127B2
Authority
JP
Japan
Prior art keywords
line
image
sight
eye
estimation device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016057251A
Other languages
Japanese (ja)
Other versions
JP2017169685A (en
Inventor
大輔 釣
大輔 釣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2016057251A priority Critical patent/JP6756127B2/en
Publication of JP2017169685A publication Critical patent/JP2017169685A/en
Application granted granted Critical
Publication of JP6756127B2 publication Critical patent/JP6756127B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Description

本発明は、視線の推定に関する。 The present invention relates to the estimation of the line of sight.

人の視線を推定する視線推定装置は、医療検査やマンマシーンインターフェイス(視線入力)等の広い応用が期待されている。 A line-of-sight estimation device that estimates a person's line of sight is expected to have a wide range of applications such as medical tests and a man-machine interface (line-of-sight input).

視線推定装置においては、視線の推定のために、人が注視している位置を正確に把握することが有効である。 In the line-of-sight estimation device, it is effective to accurately grasp the position of the person's gaze in order to estimate the line of sight.

例えば、特許文献1は、座標系の既知の一点を被検者に注視させ、被検者の瞳孔の位置の座標点に関するデータを取得し、視線を決定する視線検出方法を開示する。 For example, Patent Document 1 discloses a line-of-sight detection method in which a subject gazes at a known point in the coordinate system, acquires data on the coordinate points of the position of the pupil of the subject, and determines the line of sight.

また、本発明に関連して、特許文献2は、注視点が特定領域に含まれているとき第1精度モードに設定し、注視点がオブジェクト表示領域に含まれているときより検出精度が高い第2精度モードに設定する、電子機器を開示する。 Further, in relation to the present invention, Patent Document 2 sets the first accuracy mode when the gazing point is included in the specific area, and the detection accuracy is higher than when the gazing point is included in the object display area. Disclose an electronic device that is set to the second precision mode.

また、特許文献3は、ユーザーが登録ユーザーであることが判定された場合、前記記憶部材に記憶されている補正情報を用いて視線位置を補正する視線検出装置を開示する。 Further, Patent Document 3 discloses a line-of-sight detection device that corrects a line-of-sight position using correction information stored in the storage member when it is determined that the user is a registered user.

また、特許文献4は、撮像された読者の顔から、読者の注視点を算出し、表示される表示情報のページを切り替える電子ブック装置を開示する。 Further, Patent Document 4 discloses an electronic book device that calculates a reader's gaze point from an imaged reader's face and switches the displayed display information page.

また、特許文献5等は、目頭、目尻及び瞳孔の位置関係から視線の方向を推定する方法を開示する。 Further, Patent Document 5 and the like disclose a method of estimating the direction of the line of sight from the positional relationship between the inner corner of the eye, the outer corner of the eye and the pupil.

また、特許文献6は、局所的特徴量の算出により画像抽出を行う方法を開示する。 Further, Patent Document 6 discloses a method of extracting an image by calculating a local feature amount.

特開2005−185431号公報Japanese Unexamined Patent Publication No. 2005-185431 国際公開第2014/084224号International Publication No. 2014/08424 特開2014−211795号公報Japanese Unexamined Patent Publication No. 2014-221795 特開2000−20534号公報Japanese Unexamined Patent Publication No. 2000-20534 特開2008−136789号公報Japanese Unexamined Patent Publication No. 2008-136789 特開2012−104078号公報Japanese Unexamined Patent Publication No. 2012-104078

上述のように、特許文献1が開示する方法は、座標系の既知の一点の注視を人に要求する。しかしながら、人の視線は動きやすいものである。そのため、座標系の既知の一点の注視を人に行わせようとしても、当該人が一定時間その一点を注視し続けることは困難な場合が多い。従い、特許文献1が開示する方法では、視線の推定を行う際に、当該被験者がその一点を注視していなかったということが起こり得る。その場合は、視線の推定は不正確なものになる。 As described above, the method disclosed in Patent Document 1 requires a person to gaze at a known point in the coordinate system. However, the line of sight of a person is easy to move. Therefore, even if a person tries to gaze at a known point in the coordinate system, it is often difficult for the person to keep gazing at that point for a certain period of time. Therefore, in the method disclosed in Patent Document 1, it is possible that the subject did not gaze at one point when estimating the line of sight. In that case, the gaze estimation will be inaccurate.

本発明は、より正確な視線の推定を行い得る視線推定装置等の提供を目的とする。 An object of the present invention is to provide a line-of-sight estimation device or the like capable of more accurate line-of-sight estimation.

本発明の視線推定装置は、接触位置特定部と、撮像部と、処理部と、を備える。前記接触位置特定部は、人が物への接触を行った位置である接触位置を特定する。前記撮像部は、前記接触の際の前記人の目を含む部分の撮像を行う。前記処理部は、前記接触位置を通り、前記画像から導出した前記目の視線の方向と平行な直線を、前記目の視線と推定する。 The line-of-sight estimation device of the present invention includes a contact position specifying unit, an imaging unit, and a processing unit. The contact position specifying unit specifies a contact position, which is a position where a person makes contact with an object. The imaging unit captures a portion including the human eye at the time of the contact. The processing unit estimates that a straight line passing through the contact position and parallel to the direction of the line of sight of the eye derived from the image is the line of sight of the eye.

本発明の視線推定装置等は、より正確な視線の推定を行い得る。 The line-of-sight estimation device and the like of the present invention can estimate the line of sight more accurately.

第一実施形態の視線推定装置の構成例を表す概念図である。It is a conceptual diagram which shows the structural example of the line-of-sight estimation apparatus of 1st Embodiment. 目を表すイメージ図である。It is an image diagram showing an eye. 目と視線と注視位置との位置関係の例を表すイメージ図である。It is an image diagram showing an example of the positional relationship between the eyes, the line of sight, and the gaze position. 複合デバイスを表すイメージ図である。It is an image diagram showing a composite device. 第一実施形態の視線推定装置が行う処理の処理フロー例を表わす概念図である。It is a conceptual diagram which shows the processing flow example of the processing performed by the line-of-sight estimation apparatus of 1st Embodiment. 第二実施形態の視線推定装置の構成例を表す概念図である。It is a conceptual diagram which shows the structural example of the line-of-sight estimation apparatus of 2nd Embodiment. 導出した傾きによる補正の様子を表すイメージ図である。It is an image diagram which shows the state of the correction by the derived inclination. 第二実施形態の視線推定装置が行う処理の処理フロー例を表わす概念図である。It is a conceptual diagram which shows the processing flow example of the processing performed by the line-of-sight estimation apparatus of 2nd Embodiment. 本発明の視線推定装置の最小限の構成を表す概念図である。It is a conceptual diagram which shows the minimum structure of the line-of-sight estimation apparatus of this invention.

<第一実施形態>
第一実施形態は、人の目を含む部分の撮像画像とその人の接触位置とにより視線を推定し得る、視線推定装置についての実施形態である。
[構成と動作]
図1は、第一実施形態の視線推定装置の例である視線推定装置101aの構成を表す概念図である。
<First Embodiment>
The first embodiment is an embodiment of a line-of-sight estimation device capable of estimating a line of sight based on a captured image of a portion including a human eye and a contact position of the person.
[Configuration and operation]
FIG. 1 is a conceptual diagram showing a configuration of a line-of-sight estimation device 101a, which is an example of the line-of-sight estimation device of the first embodiment.

視線推定装置101aは、撮像した人の目を含む画像から、その人の視線を推定するための装置である。 The line-of-sight estimation device 101a is a device for estimating the line-of-sight of a person from an image including the imaged person's eyes.

視線推定装置101aは、接触位置特定部151aと、撮像部121aと、処理部131aと、を備える。 The line-of-sight estimation device 101a includes a contact position specifying unit 151a, an imaging unit 121a, and a processing unit 131a.

接触位置特定部151aは、図示しないある物(以下、「物A」という。)に対して図示しない人が接触を行った位置(以下、「接触位置」という。)の特定を行う。 The contact position specifying unit 151a identifies a position (hereinafter, referred to as "contact position") in which a person (hereinafter referred to as "contact position"), which is not shown, makes contact with an object (hereinafter, "object A") which is not shown.

この場合の接触は、例えば、指、又は、棒、ポインタ、その他狭い領域への接触に適した物、により行われる。 The contact in this case is performed by, for example, a finger or a stick, a pointer, or other object suitable for contact with a narrow area.

例えば、物Aが、他の物が接触した位置を導出するタッチパネルであれば、接触により当該接触位置を特定することができる。あるいは、接触箇所を撮像する等により接触位置の特定を行っても構わない。 For example, if the object A is a touch panel that derives the position where another object is in contact, the contact position can be specified by the contact. Alternatively, the contact position may be specified by imaging the contact portion or the like.

接触位置特定部151aは、特定した、接触位置を表す情報を含む情報を処理部131aに送る。 The contact position specifying unit 151a sends information including the identified information indicating the contact position to the processing unit 131a.

撮像部121aは、前記人が前記物に接触した直後の時刻において、前記人の目を含む部分の撮像を行う。撮像部121aは、例えば、市販のスマートフォン用のカメラデバイスやデジタルカメラである。撮像部121aは、撮像した画像を処理部131aに送る。 The imaging unit 121a images the portion including the eyes of the person at the time immediately after the person comes into contact with the object. The image pickup unit 121a is, for example, a commercially available camera device for smartphones or a digital camera. The image capturing unit 121a sends the captured image to the processing unit 131a.

処理部131aは、撮像部121aが送った画像から、前記人の目の画像を抽出する。 The processing unit 131a extracts the image of the human eye from the image sent by the imaging unit 121a.

処理部131aは、目の画像の抽出を例えば次の方法で行うことができる。 The processing unit 131a can extract the image of the eye by, for example, the following method.

まず、処理部131aに、十分な量の目の画像のHaar−like特徴量により学習させた目画像特定プログラムを内蔵させる。そして、撮像部121aが送った画像について局所的特徴量を算出し、スコアの高い領域を目の画像として特定する。処理部131aが行う上記方法を、例えば、特許文献6が開示する。 First, the processing unit 131a incorporates an eye image identification program trained by a sufficient amount of Har-like features of the eye image. Then, the local feature amount is calculated for the image sent by the imaging unit 121a, and the region having a high score is specified as an eye image. For example, Patent Document 6 discloses the above method performed by the processing unit 131a.

処理部131aは、目の画像の抽出に先立ち、人の顔の画像の抽出を行っても構わない。その場合の、顔の画像の抽出は、前述の目の画像の抽出と同様の方法により行うことができる。すなわち、まず、処理部131aに、十分な量の顔の画像のHaar−like特徴量により学習させた顔画像特定プログラムを内蔵させる。そして、撮像部121aが送った顔を含む画像について局所的特徴量を算出し、スコアの高い領域を顔の画像として特定する。 The processing unit 131a may extract an image of a human face prior to extracting an image of the eyes. In that case, the extraction of the face image can be performed by the same method as the above-mentioned extraction of the eye image. That is, first, the processing unit 131a incorporates a face image identification program trained by the Har-like feature amount of a sufficient amount of face images. Then, the local feature amount is calculated for the image including the face sent by the imaging unit 121a, and the region having a high score is specified as the face image.

目の画像の特定に先立ち顔の画像を特定することで、顔以外の部分の目の形状に類似した部分の画像を目の画像として誤認識する確率を低減させることができる。 By specifying the face image prior to specifying the eye image, it is possible to reduce the probability of erroneously recognizing an image of a portion other than the face that resembles the shape of the eye as an eye image.

なお、前述の目の画像の抽出に先立ち、処理部131aは、対象とする画像中の明度やコントラストを適正化する処理を行っても構わない。この処理により、撮影画像における顔領域の明度やコントラストを適正化し、次に抽出する目の画像の精度を向上させることができる。目の画像の精度向上は、次に説明する、視線の方向の導出精度の向上につながる。 Prior to the above-mentioned extraction of the eye image, the processing unit 131a may perform a process for optimizing the brightness and contrast in the target image. By this processing, it is possible to optimize the brightness and contrast of the face region in the captured image and improve the accuracy of the eye image to be extracted next. Improving the accuracy of the eye image leads to the improvement of the derivation accuracy of the direction of the line of sight, which will be described next.

次に、処理部131aは、抽出した目の画像から、その人の注視の方向(視線の方向)を導出する。視線の方向の導出は、図2に表す目201aの、目頭211a、目尻221a及び瞳孔231aの位置関係から例えば、特許文献5が開示する方法により行うことができる。 Next, the processing unit 131a derives the gaze direction (gaze direction) of the person from the extracted eye image. The direction of the line of sight can be derived by, for example, the method disclosed in Patent Document 5 from the positional relationship between the inner corner of the eye 211a, the outer corner of the eye 221a and the pupil 231a of the eye 201a shown in FIG.

そして、処理部131aは、導出した視線の方向と接触位置とから、視線を推定する。 Then, the processing unit 131a estimates the line of sight from the derived direction of the line of sight and the contact position.

図3は、目と視線と注視位置との関係を表すイメージ図である。 FIG. 3 is an image diagram showing the relationship between the eyes, the line of sight, and the gaze position.

図3においては、目201aにより、前述の物Aの例である物5aの平らな面である面4aを注視した場合が想定されている。また、図3においては、目201aが、面4aに平行な線8c上の異なる二つの位置である位置9iと位置9jとのそれぞれに位置する場合を表す。また、目201aは、位置9iと位置9jとで、目頭、目尻及び瞳孔の位置関係が同じとする。 In FIG. 3, it is assumed that the eyes 201a gaze at the surface 4a, which is a flat surface of the object 5a, which is an example of the object A described above. Further, in FIG. 3, the case where the eyes 201a are located at the positions 9i and 9j, which are two different positions on the line 8c parallel to the surface 4a, is shown. Further, in the eye 201a, the positional relationship between the inner corner of the eye, the outer corner of the eye, and the pupil is the same at the position 9i and the position 9j.

すると、位置9iにおける目201aの視線6aと、位置9jにおける目201aの視線6bと、は同じ方向であり、線8c上での距離2aだけずれる。そして、このずれは、面4a上においても維持される。 Then, the line of sight 6a of the eye 201a at the position 9i and the line of sight 6b of the eye 201a at the position 9j are in the same direction, and are deviated by the distance 2a on the line 8c. And this deviation is also maintained on the surface 4a.

すなわち、位置9iにある目201aの注視点である位置9kと、位置9jにある目201aの注視点である位置9lとは、線8cに平行な線上において距離2aずれている。 That is, the position 9k, which is the gazing point of the eye 201a at the position 9i, and the position 9l, which is the gazing point of the eye 201a at the position 9j, are separated by a distance of 2a on a line parallel to the line 8c.

すなわち、目201aの視線を精度よく推定するためには、目頭、目尻及び瞳孔の位置関係から視線の方向を確定させるだけでは不十分で、視線の起点である目201aの位置を導出することが必要がある。そして、面4a上での注視点の位置が決まれば、目201aの視線を導出することができる。図1に表す視線推定装置101aは、上述のように、面4a上での注視点の位置を、接触位置とするので、目201aの位置を定めることができる。また、上述の通り、視線の方向を推定するので、目の位置及び視線の方向が定まり、視線を推定することができる。 That is, in order to accurately estimate the line of sight of the eye 201a, it is not enough to determine the direction of the line of sight from the positional relationship between the inner corner of the eye, the outer corner of the eye, and the pupil, and it is possible to derive the position of the eye 201a, which is the starting point of the line of sight. There is a need. Then, once the position of the gazing point on the surface 4a is determined, the line of sight of the eye 201a can be derived. As described above, the line-of-sight estimation device 101a shown in FIG. 1 sets the position of the gazing point on the surface 4a as the contact position, so that the position of the eye 201a can be determined. Further, as described above, since the direction of the line of sight is estimated, the position of the eyes and the direction of the line of sight are determined, and the line of sight can be estimated.

図1に表す視線推定装置101aは、例えば、図4に表す複合デバイス161aにより実現することができる。 The line-of-sight estimation device 101a shown in FIG. 1 can be realized by, for example, the composite device 161a shown in FIG.

複合デバイス161aは、筐体181aと、タッチパネル152aと、カメラ122aとを備える。 The composite device 161a includes a housing 181a, a touch panel 152a, and a camera 122a.

タッチパネル152aは、図1に表す接触位置特定部151aに相当する。 The touch panel 152a corresponds to the contact position specifying portion 151a shown in FIG.

カメラ122aは、図1に表す撮像部121aに相当する。 The camera 122a corresponds to the imaging unit 121a shown in FIG.

筐体181aには、図1に表す処理部131aが内蔵されている。図1に表す処理部131aは、例えば、複合デバイス161aが内蔵する中央演算処理装置である。 The processing unit 131a shown in FIG. 1 is built in the housing 181a. The processing unit 131a shown in FIG. 1 is, for example, a central processing unit built into the composite device 161a.

[処理フロー]
図5は、図1に表す視線推定装置101aが行う処理の処理フロー例を表わす概念図である。以下、処理フローを表す図の各処理において、コロン記号より左の記述はその処理の主体を表す。また、コロン記号より右の記述は、処理の主体が行う処理内容を表す。また、以下の説明における符号は、図1に表す各構成の符号である。
[Processing flow]
FIG. 5 is a conceptual diagram showing an example of a processing flow of processing performed by the line-of-sight estimation device 101a shown in FIG. Hereinafter, in each process of the figure showing the process flow, the description to the left of the colon symbol represents the subject of the process. The description to the right of the colon symbol indicates the processing content performed by the processing subject. Further, the reference numerals in the following description are the reference numerals of each configuration shown in FIG.

まず、接触位置特定部151aは、S101の処理として、物Aへの所定の接触があったかを判定する。当該所定の接触は、例えば、前述の、人の指等による接触である。 First, the contact position specifying unit 151a determines whether or not there has been a predetermined contact with the object A as a process of S101. The predetermined contact is, for example, the above-mentioned contact with a human finger or the like.

接触位置特定部151aは、S101の処理により、物Aへの所定の接触があったことを判定した場合は、S102及びS103の処理を行う。 When the contact position specifying unit 151a determines that a predetermined contact with the object A has been made by the process of S101, the process of S102 and S103 is performed.

一方、接触位置特定部151aは、S101の処理により、物Aへの所定の接触があったことを判定しなかった場合は、S101の処理を再度行う。 On the other hand, if the contact position specifying unit 151a does not determine that there has been a predetermined contact with the object A by the process of S101, the process of S101 is performed again.

接触位置特定部151aは、S102の処理を行う場合は、物Aへの特定の接触があったことを撮像部121aに通知する。接触位置特定部151aは、当該通知を、S101のyesの判定後、速やかに行う。 When processing S102, the contact position specifying unit 151a notifies the imaging unit 121a that there has been a specific contact with the object A. The contact position specifying unit 151a promptly gives the notification after determining yes in S101.

そして、撮像部121aは、S102の処理による通知を受けて、S104の処理として、前記特定の接触を行った人の目を含む部分を撮像できることが想定された位置を撮像する。撮像部121aは、撮像した画像を含む情報を処理部131aに送る。 Then, upon receiving the notification by the processing of S102, the imaging unit 121a images the position where it is assumed that the portion including the eyes of the person who has made the specific contact can be imaged as the processing of S104. The image capturing unit 121a sends information including the captured image to the processing unit 131a.

次に、処理部131aは、S105の処理として、撮像部121aから送られた画像から目の画像を抽出する。目の画像の抽出方法は前述の通りである。 Next, the processing unit 131a extracts an eye image from the image sent from the imaging unit 121a as the processing of S105. The method for extracting the eye image is as described above.

そして、処理部131aは、S106の処理として、S105の処理により抽出した目の画像を用いて、視線の方向の推定を行う。視線の方向の推定方法は前述の通りである。 Then, the processing unit 131a estimates the direction of the line of sight using the eye image extracted by the processing of S105 as the processing of S106. The method of estimating the direction of the line of sight is as described above.

一方、接触位置特定部151aは、S103の処理を行う場合は、物Aへの所定の接触があった接触位置の特定を行う。そして、接触位置特定部151aは、特定した接触位置を表す情報を、処理部131aに送る。 On the other hand, when the process of S103 is performed, the contact position specifying unit 151a specifies the contact position where a predetermined contact with the object A has occurred. Then, the contact position specifying unit 151a sends information representing the specified contact position to the processing unit 131a.

そして、処理部131aは、S103とS106の両方の処理の後に、S107の処理を行う。すなわち、処理部131aは、S107の処理として、S103の処理により特定した接触位置と、S106の処理により導出した視線の方向とにより、目201aの位置を導出する。例えば、図3を参照し、位置9kが、S103の処理により特定した接触位置だと仮定する。すると、視線は、位置9kを通り、S106の処理により推定した視線の方向に平行な直線である視線6aと定まる。
そして、視線推定装置101aは、図5に表す処理を終了する。
Then, the processing unit 131a performs the processing of S107 after the processing of both S103 and S106. That is, the processing unit 131a derives the position of the eye 201a by the contact position specified by the processing of S103 and the direction of the line of sight derived by the processing of S106 as the processing of S107. For example, with reference to FIG. 3, it is assumed that the position 9k is the contact position specified by the process of S103. Then, the line of sight passes through the position 9k and is determined to be the line of sight 6a which is a straight line parallel to the direction of the line of sight estimated by the process of S106.
Then, the line-of-sight estimation device 101a ends the process shown in FIG.

図5は、撮像部121aが撮像した画像から抽出した一つの目の画像から処理部131aが視線の方向の推定を行う場合を表す。しかしながら、処理部131aは、撮像部121aが撮像した画像から抽出した両目のそれぞれについて推定した視線の方向から視線の方向を推定してもよい。例えば、処理部131aは、両目のそれぞれについて推定した視線の方向の平均を視線の方向とすることもできる。 FIG. 5 shows a case where the processing unit 131a estimates the direction of the line of sight from the image of one eye extracted from the image captured by the image capturing unit 121a. However, the processing unit 131a may estimate the direction of the line of sight from the direction of the line of sight estimated for each of the eyes extracted from the image captured by the imaging unit 121a. For example, the processing unit 131a may set the average of the directions of the line of sight estimated for each of the eyes as the direction of the line of sight.

図1に表す視線推定装置101aは、人が指等で接触を行った位置を接触位置特定部が特定する。また、視線推定装置101aは、当該接触の直後の人の目を含む領域を撮像部121aが撮像する。そして、処理部131aは、撮像された画像から目の画像を抽出する。そして、処理部131aは、目の画像からその画像における注視位置を推定する。ここで、一般的に人は、物を指等でタッチ(接触)した場合に、その物のタッチ位置を注視する性質がある。そのため、そのタッチの瞬間や直後においては、その人がタッチした物の位置をその人が注視している確率が高い。そのため、視線推定装置101aは、前記接触位置と視線の方向とから目201aの位置を導出することにより、視線の推定をより正確に行うことができる。 In the line-of-sight estimation device 101a shown in FIG. 1, the contact position specifying unit identifies a position where a person makes contact with a finger or the like. Further, in the line-of-sight estimation device 101a, the imaging unit 121a images the region including the human eye immediately after the contact. Then, the processing unit 131a extracts an eye image from the captured image. Then, the processing unit 131a estimates the gaze position in the image from the image of the eye. Here, in general, when a person touches (touches) an object with a finger or the like, the person has a property of gazing at the touch position of the object. Therefore, at the moment or immediately after the touch, there is a high probability that the person is gazing at the position of the object touched by the person. Therefore, the line-of-sight estimation device 101a can estimate the line of sight more accurately by deriving the position of the eye 201a from the contact position and the direction of the line of sight.

上記効果は、位置検出部に、スマートフォン等のタッチパネルを備える携帯端末のタッチパネルを用いた場合に特に顕著である。スマートフォン等の普及により、利用者等に、携帯端末のタッチパネルをタッチする際にそのタッチ位置を注意深く注視する習性が醸成されている。大きさの限られた携帯端末のタッチパネルは、利用者に細かい領域を正確にタッチすることを求めるからである。従い、携帯端末のタッチパネルを用いることにより、人がタッチ位置を正確に注視する確率が向上する。さらに、通常、携帯端末のタッチパネルを操作する際に、人は、目と携帯端末との距離をほぼ一定に保ちながらタッチパネルを操作する。視線の方向が一定でも目と物Aとの距離が一定でないと注視位置は定まらない。携帯端末のタッチパネルの場合は、目とタッチパネルの位置がほぼ一定なので、注視位置がより正確に特定できる確率が高い。さらに、携帯端末のタッチパネルを操作する際には、人は、タッチパネルと自分の顔とのなす相対的な角度をほぼ一定に保つ。従い、撮像部121aは、常に一定の角度からその人の目を含む部分を撮像することになる。そのため、処理部131aによる目の抽出精度が向上する。以上の理由により、接触位置特定部151aが携帯端末のタッチパネルを備える場合は、視線推定装置101aによる視線の推定がより正確に行われる確率がより向上する。
[効果]
第一実施形態の視線推定装置は、人が指等で接触を行った位置を接触位置特定部が特定する。また、第一実施形態の視線推定装置は、当該接触の直後の人の目を含む領域を撮像する。そして、第一実施形態の視線推定装置は、撮像された画像から目の画像を抽出する。そして、第一実施形態の視線推定装置は、目の画像からその画像における注視位置を推定する。ここで、一般的に人は、物を指等でタッチ(接触)した場合に、その物のタッチ位置を注視する性質がある。そのため、そのタッチの瞬間や直後においては、その人がタッチした物の位置をその人が注視している確率が高い。そのため、第一実施形態の視線推定装置は、前記接触位置と視線の方向とから視線を導出することにより、視線の推定をより正確に行うことができる。
<第二実施形態>
第二実施形態は、撮像部の傾きの情報を用いて目の画像を抽出する視線推定装置に関する実施形態である。
[構成と動作]
図6は、第二実施形態の視線推定装置の例である視線推定装置101bの構成を表す概念図である。
The above effect is particularly remarkable when a touch panel of a mobile terminal provided with a touch panel such as a smartphone is used for the position detection unit. With the spread of smartphones and the like, users and the like have been cultivated a habit of carefully watching the touch position when touching the touch panel of a mobile terminal. This is because the touch panel of a mobile terminal having a limited size requires the user to accurately touch a small area. Therefore, by using the touch panel of the mobile terminal, the probability that a person accurately gazes at the touch position is improved. Further, usually, when operating the touch panel of the mobile terminal, a person operates the touch panel while keeping the distance between the eyes and the mobile terminal substantially constant. Even if the direction of the line of sight is constant, the gaze position cannot be determined unless the distance between the eye and the object A is constant. In the case of the touch panel of a mobile terminal, since the positions of the eyes and the touch panel are almost constant, there is a high probability that the gaze position can be specified more accurately. Further, when operating the touch panel of the mobile terminal, the person keeps the relative angle between the touch panel and his / her face substantially constant. Therefore, the imaging unit 121a always images the portion including the person's eyes from a constant angle. Therefore, the accuracy of eye extraction by the processing unit 131a is improved. For the above reasons, when the contact position specifying unit 151a is provided with the touch panel of the mobile terminal, the probability that the line of sight is estimated more accurately by the line of sight estimation device 101a is further improved.
[effect]
In the line-of-sight estimation device of the first embodiment, the contact position specifying unit identifies a position where a person makes contact with a finger or the like. In addition, the line-of-sight estimation device of the first embodiment images the region including the human eye immediately after the contact. Then, the line-of-sight estimation device of the first embodiment extracts an image of the eye from the captured image. Then, the line-of-sight estimation device of the first embodiment estimates the gaze position in the image from the image of the eye. Here, in general, when a person touches (touches) an object with a finger or the like, the person has a property of gazing at the touch position of the object. Therefore, at the moment or immediately after the touch, there is a high probability that the person is gazing at the position of the object touched by the person. Therefore, the line-of-sight estimation device of the first embodiment can estimate the line of sight more accurately by deriving the line of sight from the contact position and the direction of the line of sight.
<Second embodiment>
The second embodiment is an embodiment relating to a line-of-sight estimation device that extracts an image of an eye using information on the inclination of an imaging unit.
[Configuration and operation]
FIG. 6 is a conceptual diagram showing the configuration of the line-of-sight estimation device 101b, which is an example of the line-of-sight estimation device of the second embodiment.

視線推定装置101bは、図1に表す視線推定装置101aの構成に加え、処理部131aに接続された傾き導出部171aを備える。 The line-of-sight estimation device 101b includes a tilt derivation unit 171a connected to the processing unit 131a in addition to the configuration of the line-of-sight estimation device 101a shown in FIG.

視線推定装置101bの説明は、以下を除いて、図1に表す視線推定装置101aの説明と同じである。従い、以下においては、図1に表す視線推定装置101aと異なる部分が説明される。また、図1に表す視線推定装置101aの説明と以下の説明とが矛盾する場合は、以下の説明が優先される。 The description of the line-of-sight estimation device 101b is the same as the description of the line-of-sight estimation device 101a shown in FIG. 1, except for the following. Therefore, in the following, a portion different from the line-of-sight estimation device 101a shown in FIG. 1 will be described. If the description of the line-of-sight estimation device 101a shown in FIG. 1 and the following description are inconsistent, the following description takes precedence.

傾き導出部171aは、撮像部121aの傾きを導出する。当該傾きは、前述の目の画像の抽出に用いられる目を含む部分の画像の撮像方向として想定された方向に対する、撮像部121aによる実際の撮像方向の傾きである。 The tilt deriving unit 171a derives the tilt of the imaging unit 121a. The inclination is the inclination of the actual imaging direction by the imaging unit 121a with respect to the direction assumed as the imaging direction of the image of the portion including the eyes used for extracting the image of the eyes.

傾き導出部171aは、例えば、撮像部121aに固定されたジャイロである。 The tilt deriving unit 171a is, for example, a gyro fixed to the imaging unit 121a.

傾き導出部171aが撮像部121aに固定されている場合、傾き導出部171aの傾きは撮像部121aの傾きに等しくなる。そのため、傾き導出部171aは、自己の傾きを導出することにより、撮像部121aの傾きを導出することができる。 When the tilt deriving unit 171a is fixed to the imaging unit 121a, the tilt of the tilt deriving unit 171a is equal to the tilt of the imaging unit 121a. Therefore, the inclination deriving unit 171a can derive the inclination of the imaging unit 121a by deriving its own inclination.

傾き導出部171aは、導出した傾きを表す情報を処理部131aに送る。 The inclination deriving unit 171a sends information representing the derived inclination to the processing unit 131a.

処理部131aは、目の画像を抽出する際に、傾き導出部171aから受けた傾きを用いた抽出を行う。 When extracting the image of the eye, the processing unit 131a performs extraction using the inclination received from the inclination deriving unit 171a.

図7は、傾き導出部171aが導出した傾きにより行う補正の様子を表すイメージ図である。 FIG. 7 is an image diagram showing a state of correction performed by the inclination derived by the inclination deriving unit 171a.

図7(a)は、図面に向かって手前方向から垂直に撮像した目201aの画像を表す図である。また、図7(b)は、図7(a)に表す線8a上の位置9a乃至9dを、横向きに書いた線8a上に表した図である。図7(b)に表す矢印7aの向きが撮像方向である。 FIG. 7A is a diagram showing an image of the eye 201a imaged vertically from the front direction toward the drawing. Further, FIG. 7B is a diagram showing the positions 9a to 9d on the line 8a shown in FIG. 7A on the line 8a drawn horizontally. The direction of the arrow 7a shown in FIG. 7B is the imaging direction.

図7(c)は傾き角θだけ図面に向かって下向きに傾いた向きから撮像した目201aを表す図である。傾き角θは、図6に表す撮像部121aの傾きである。また、図7(d)は、図7(c)に表す線8b上の位置9e乃至9hを、横向きに書いた線8b上に表した図である。図7(b)に表す矢印7bの向きに平行な方向が撮像方向である。図7(b)に表す矢印7aと図7(d)に表す矢印7bとのなす角が、傾き角θである。位置9e乃至9hのうちの任意の二つの位置同士の距離は、その二つの位置に対応する、図7(b)に表す位置8a乃至8dのうちの、二つの位置の間の距離に、cosθを乗じた距離になる。 FIG. 7C is a diagram showing an eye 201a imaged from a direction inclined downward toward the drawing by an inclination angle θ. The tilt angle θ is the tilt of the imaging unit 121a shown in FIG. Further, FIG. 7 (d) is a diagram showing the positions 9e to 9h on the line 8b shown in FIG. 7 (c) on the line 8b drawn horizontally. The direction parallel to the direction of the arrow 7b shown in FIG. 7B is the imaging direction. The angle formed by the arrow 7a shown in FIG. 7B and the arrow 7b shown in FIG. 7D is the inclination angle θ. The distance between any two positions 9e to 9h corresponds to the distance between the two positions 8a to 8d shown in FIG. 7B, cosθ. Is the distance multiplied by.

従い、撮像部121aが傾いた向きの各位置同士の距離を1/cosθ倍する補正を行うことにより、図7(e)、(f)に表すように、図7(a)、(b)に表す目201aの画像と同じ目201aの画像を得ることができる。 Therefore, as shown in FIGS. 7 (e) and 7 (f), the distance between the positions in which the image pickup unit 121a is tilted is multiplied by 1 / cos θ, as shown in FIGS. 7 (e) and 7 (f). It is possible to obtain the same image of the eyes 201a as the image of the eyes 201a represented by.

処理部131aが行う目画像の抽出は、決まった方向から撮像された目画像について行うことが想定されている。そのため、上記傾きの補正により、処理部131aによる目画像の抽出精度が向上する。
[処理フロー]
図8は、図6に表す視線推定装置101bが行う処理の処理フロー例を表わす概念図である。
It is assumed that the extraction of the eye image performed by the processing unit 131a is performed on the eye image captured from a fixed direction. Therefore, the correction of the inclination improves the accuracy of extracting the eye image by the processing unit 131a.
[Processing flow]
FIG. 8 is a conceptual diagram showing an example of a processing flow of processing performed by the line-of-sight estimation device 101b shown in FIG.

図8が表す各処理の説明は、以下の説明を除いて、前述の図5が表す各処理の説明と同じである。ただし、以下の説明と図5が表す各処理の説明とが矛盾する場合は、以下の説明が優先される。 The description of each process represented by FIG. 8 is the same as the description of each process represented by FIG. 5 above, except for the following description. However, if the following description and the description of each process shown in FIG. 5 are inconsistent, the following description takes precedence.

接触位置特定部151aは、S101の処理により、物Aへの所定の接触があったことを判定した場合は、S102a及びS103の処理を行う。 When the contact position specifying unit 151a determines that a predetermined contact with the object A has been made by the processing of S101, the contact position specifying unit 151a performs the processing of S102a and S103.

一方、接触位置特定部151aは、S101の処理により、物Aへの所定の接触があったことを判定しなかった場合は、S101の処理を再度行う、
接触位置特定部151aは、S102aの処理を行う場合には、接触があったことを撮像部121aと傾き導出部171aとに知らせる。
On the other hand, if the contact position specifying unit 151a does not determine that there has been a predetermined contact with the object A by the process of S101, the process of S101 is performed again.
When the contact position specifying unit 151a performs the processing of S102a, the contact position specifying unit 151a informs the imaging unit 121a and the tilt deriving unit 171a that the contact has occurred.

そして、撮像部121aはS104の処理を、傾き導出部171aはS103aの処理を、それぞれ行う。 Then, the imaging unit 121a performs the processing of S104, and the tilt deriving unit 171a performs the processing of S103a.

S104の処理は前述の通りである。 The processing of S104 is as described above.

S103aの処理を行う場合は、傾き導出部171aは、撮像部121aの傾きを導出する。そして、傾き導出部171aは、導出した傾きを含む情報を、処理部131aに送る。 When the processing of S103a is performed, the tilt deriving unit 171a derives the tilt of the imaging unit 121a. Then, the inclination deriving unit 171a sends information including the derived inclination to the processing unit 131a.

S104の処理及びS103aの処理の後に、処理部131aはS105aの処理を行う。すなわち、処理部131aは、S105aの処理として、S103aの処理により傾き導出部171aが導出した撮像部121aの傾きを用いて、S104の処理により撮像部121aが撮像した画像から目の画像の抽出を行う。その際に、処理部131aは、例えば、撮像部121aの傾きにより、人の目を含む部分の画像を補正し、補正後の人の目を含む部分の画像から、目の画像の抽出を行う。 After the processing of S104 and the processing of S103a, the processing unit 131a performs the processing of S105a. That is, the processing unit 131a uses the inclination of the imaging unit 121a derived by the tilt deriving unit 171a by the processing of S103a as the processing of S105a, and extracts the eye image from the image captured by the imaging unit 121a by the processing of S104. Do. At that time, the processing unit 131a corrects the image of the portion including the human eye by, for example, tilting the imaging unit 121a, and extracts the image of the eye from the corrected image of the portion including the human eye. ..

そして、処理部131aはS106の処理を行う。S106以降の処理の説明は前述の通りである。
[効果]
第二実施形態の視線推定装置は、撮像部が撮像した画像から、撮像部の傾きを使って目の画像を抽出する。そのため、第二実施形態の視線推定装置は、目の画像の抽出精度を向上させることができる。目の画像の抽出精度の向上は、視線の方向の導出精度の向上につながる。そして、視線の方向の導出精度の向上は、注視位置の導出精度の向上につながる。そのため、第二実施形態の視線推定装置は、導出する視線の推定をより正確に行うことができる。従い、第二実施形態の視線推定装置は、より高精度な視線の推定を行い得る。
Then, the processing unit 131a performs the processing of S106. The description of the processing after S106 is as described above.
[effect]
The line-of-sight estimation device of the second embodiment extracts an image of the eyes from the image captured by the imaging unit using the inclination of the imaging unit. Therefore, the line-of-sight estimation device of the second embodiment can improve the extraction accuracy of the eye image. Improving the extraction accuracy of the eye image leads to the improvement of the derivation accuracy in the direction of the line of sight. Then, the improvement of the derivation accuracy in the direction of the line of sight leads to the improvement of the derivation accuracy of the gaze position. Therefore, the line-of-sight estimation device of the second embodiment can more accurately estimate the line-of-sight to be derived. Therefore, the line-of-sight estimation device of the second embodiment can estimate the line-of-sight with higher accuracy.

図9は、本発明の視線推定装置の最小限の構成である視線推定装置102xの構成を表す概念図である。 FIG. 9 is a conceptual diagram showing the configuration of the line-of-sight estimation device 102x, which is the minimum configuration of the line-of-sight estimation device of the present invention.

視線推定装置102xは、接触位置特定部151xと、撮像部121xと、処理部131xと、を備える。 The line-of-sight estimation device 102x includes a contact position specifying unit 151x, an imaging unit 121x, and a processing unit 131x.

接触位置特定部151xは、人が物への接触を行った位置である接触位置を特定する。 The contact position specifying unit 151x specifies a contact position, which is a position where a person makes contact with an object.

撮像部121xは、前記接触の際の前記人の目を含む部分の撮像を行う。 The imaging unit 121x images the portion including the human eye at the time of the contact.

処理部131xは、前記接触位置を通り、前記画像から導出した前記目の視線の方向と平行な直線を、前記目の視線と推定する。 The processing unit 131x estimates that a straight line passing through the contact position and parallel to the direction of the line of sight of the eye derived from the image is the line of sight of the eye.

一般的に人は、物を指等でタッチ(接触)した場合に、その物のタッチ位置を注視する性質がある。そのため、そのタッチの際には、その人がタッチした物の位置をその人が注視している確率が高い。よって、視線推定装置102xは、タッチの際の前記人の目を含む部分の画像から導出した視線の方向と、前記接触位置とから視線を推定することにより、視線の推定をより正確に行うことができる。 Generally, when a person touches (touches) an object with a finger or the like, the person has a property of gazing at the touch position of the object. Therefore, at the time of the touch, there is a high probability that the person is gazing at the position of the object touched by the person. Therefore, the line-of-sight estimation device 102x estimates the line-of-sight more accurately by estimating the line-of-sight from the direction of the line-of-sight derived from the image of the portion including the human eye at the time of touch and the contact position. Can be done.

以上により、視線推定装置102xは、上記構成により、[発明の効果]の項に記載した効果を奏する。 As described above, the line-of-sight estimation device 102x exhibits the effects described in the section of [Effects of the Invention] by the above configuration.

以上、好ましい実施形態をあげて本発明を説明したが、本発明は必ずしも上記実施形態に限定されるものではなく、その技術的思想の範囲内において様々に変形し実施することができる。 Although the present invention has been described above with reference to preferred embodiments, the present invention is not necessarily limited to the above embodiments, and can be variously modified and implemented within the scope of the technical idea.

また、上記の実施形態の一部又は全部は、以下の付記のようにも記述され得るが、以下には限られない。 In addition, some or all of the above embodiments may be described as in the following appendix, but are not limited to the following.

(付記1)
人が所定の物への接触を行った位置である接触位置を特定する接触位置特定部と、
前記接触の際の前記人の目を含む部分の撮像を行う撮像部と、
前記接触位置を通り、前記画像から導出した前記目の視線の方向と平行な直線を、前記目の視線と推定する処理部と、
を備える、視線推定装置。
(Appendix 1)
A contact position specifying part that specifies the contact position, which is the position where a person makes contact with a predetermined object,
An imaging unit that captures an image of a portion including the human eye at the time of contact,
A processing unit that estimates a straight line that passes through the contact position and is parallel to the direction of the line of sight of the eye derived from the image as the line of sight of the eye.
A line-of-sight estimation device.

(付記2)
前記処理部が、前記視線の方向の導出を、前記人の目を含む部分の画像から抽出した前記人の目の画像から行う、付記1に記載された視線推定装置。
(Appendix 2)
The line-of-sight estimation device according to Appendix 1, wherein the processing unit derives the direction of the line of sight from the image of the person's eyes extracted from the image of the portion including the person's eyes.

(付記3)
前記処理部が、前記人の目の画像の抽出を、局所的特徴量の算出により行う、付記2に記載された視線推定装置。
(Appendix 3)
The line-of-sight estimation device according to Appendix 2, wherein the processing unit extracts an image of the human eye by calculating a local feature amount.

(付記4)
前記処理部が、前記人の目の画像の抽出を、前記人の目を含む部分の画像から抽出した前記人の顔の画像から行う、付記2又は付記3に記載された視線推定装置。
(Appendix 4)
The line-of-sight estimation device according to Appendix 2 or 3, wherein the processing unit extracts an image of the person's eyes from an image of the person's face extracted from an image of a portion including the person's eyes.

(付記5)
前記撮像部の傾きを導出する傾き導出部をさらに備え、前記処理部が、前記傾き導出部が導出した前記撮像部の傾きを用いて、前記人の目の画像の抽出を行う、付記2乃至付記4のうちのいずれか一に記載された視線推定装置。
(Appendix 5)
A tilt deriving unit for deriving the tilt of the imaging unit is further provided, and the processing unit extracts an image of the human eye using the tilt of the imaging unit derived by the tilt deriving unit. The line-of-sight estimation device according to any one of Appendix 4.

(付記6)
前記傾き導出部がジャイロを備える、付記5に記載された視線推定装置。
(Appendix 6)
The line-of-sight estimation device according to Appendix 5, wherein the tilt derivation unit includes a gyro.

(付記7)
前記処理部が、前記傾き導出部が導出した前記撮像部の傾きにより前記人の目を含む部分の画像を補正し、補正後の前記人の目を含む部分の画像から、前記目の画像の抽出を行う、付記5又は付記6に記載された視線推定装置。
(Appendix 7)
The processing unit corrects the image of the portion including the human eye by the tilt of the imaging unit derived by the tilt derivation unit, and the corrected image of the portion including the human eye is used to obtain the image of the eye. The line-of-sight estimation device according to Appendix 5 or Appendix 6, which performs extraction.

(付記8)
前記接触位置特定部がタッチパネルを備える、付記1乃至付記7のうちのいずれか一に記載された視線推定装置。
(Appendix 8)
The line-of-sight estimation device according to any one of Supplementary note 1 to Supplementary note 7, wherein the contact position specifying portion includes a touch panel.

(付記9)
前記タッチパネルが携帯端末のタッチパネルである、付記8に記載された視線推定装置。
(Appendix 9)
The line-of-sight estimation device according to Appendix 8, wherein the touch panel is a touch panel of a mobile terminal.

(付記10)
前記接触が、前記人の指または前記人が操作する物である操作物により行われる、付記1乃至付記9のうちのいずれか一に記載された視線推定装置。
(Appendix 10)
The line-of-sight estimation device according to any one of Supplementary note 1 to Supplementary note 9, wherein the contact is performed by the finger of the person or an operation object operated by the person.

(付記11)
前記操作物が棒又はペンである、付記10に記載された視線推定装置。
(Appendix 11)
The line-of-sight estimation device according to Appendix 10, wherein the operation object is a stick or a pen.

(付記12)
前記撮像部がカメラを備える、付記1乃至付記11のうちのいずれか一に記載された視線推定装置。
(Appendix 12)
The line-of-sight estimation device according to any one of Supplementary note 1 to Supplementary note 11, wherein the imaging unit includes a camera.

(付記B1)
付記1乃至付記13のうちのいずれか一に記載された視線推定装置を備え、注視点を推定する注視点推定装置。
(Appendix B1)
A gaze point estimation device comprising the line-of-sight estimation device according to any one of Supplementary Note 1 to Supplementary Note 13, and estimating a gaze point.

(付記C1)
人が物への接触を行った位置である接触位置を特定し、
前記接触の際の前記人の目を含む部分の画像の撮像を行い、
前記画像から導出した視線の方向と、前記接触位置とから、前記人の視線を推定する、
視線推定方法。
(Appendix C1)
Identify the contact position, which is the position where a person made contact with an object,
An image of the part including the human eye at the time of the contact is taken.
The line of sight of the person is estimated from the direction of the line of sight derived from the image and the contact position.
Line-of-sight estimation method.

(付記D1)
人が物への接触を行った位置である接触位置を特定し、
前記接触の際の前記人の目を含む部分の画像の撮像を行い、
前記画像から導出した視線の方向と、前記接触位置とから、前記人の視線を推定する、
処理をコンピュータに実行させる視線推定プログラム。
(Appendix D1)
Identify the contact position, which is the position where a person made contact with an object,
An image of the part including the human eye at the time of the contact is taken.
The line of sight of the person is estimated from the direction of the line of sight derived from the image and the contact position.
A line-of-sight estimation program that causes a computer to perform processing.

4a 面
5a 物
6a、6b 視線
7a、7b 矢印
8a、8b、8c 線
9a、9b、9c、9d、9e、9f、9g、9h、9i、9j、9k、9l
位置
101a、101b、102x 視線推定装置
121a、121x 撮像部
122a カメラ
131a、131x 処理部
151a、151x 接触位置特定部
152a タッチパネル
161a 複合デバイス
171a 傾き検出部
181a 筐体
201a 目
211a 目頭
221a 目尻
231a 瞳孔
4a Surface 5a Object 6a, 6b Line of sight 7a, 7b Arrow 8a, 8b, 8c Line 9a, 9b, 9c, 9d, 9e, 9f, 9g, 9h, 9i, 9j, 9k, 9l
Position 101a, 101b, 102x Line-of-sight estimation device 121a, 121x Imaging unit 122a Camera 131a, 131x Processing unit 151a, 151x Contact position identification unit 152a Touch panel 161a Composite device 171a Tilt detection unit 181a Housing 201a Eyes 211a Pupils 221a

Claims (8)

人が所定の物への接触を行った位置である接触位置を特定する接触位置特定部と、
前記接触の際の前記人の目を含む部分の撮像を行う撮像部と、
前記接触位置を通り、前記画像から導出した前記目の視線の方向と平行な直線を、前記目の視線と推定する処理部と、
前記撮像部の傾きを導出する傾き導出部と、
を備え、
前記処理部は、前記視線の方向の導出を、前記人の目を含む部分の画像から抽出した前記人の目の画像から行い、
前記処理部は、前記人の目の画像を、前記傾き導出部が導出した前記撮像部の傾きを用いて抽出する、
視線推定装置。
A contact position specifying part that specifies the contact position, which is the position where a person makes contact with a predetermined object,
An imaging unit that captures an image of a portion including the human eye at the time of contact,
A processing unit that estimates a straight line that passes through the contact position and is parallel to the direction of the line of sight of the eye derived from the image as the line of sight of the eye.
A tilt derivation unit that derives the tilt of the imaging unit,
With
The processing unit derives the direction of the line of sight from the image of the human eye extracted from the image of the portion including the human eye.
The processing unit extracts an image of the human eye using the inclination of the imaging unit derived by the inclination derivation unit .
Line-of-sight estimation device.
前記処理部が、前記傾き導出部が導出した前記撮像部の傾きにより前記人の目を含む部分の画像を補正し、補正後の前記人の目を含む部分の画像から、前記目の画像の抽出を行う、請求項に記載された視線推定装置。 The processing unit corrects the image of the portion including the human eye by the tilt of the imaging unit derived by the tilt derivation unit, and the corrected image of the portion including the human eye is used to obtain the image of the eye. the extraction, gaze estimation device according to claim 1. 前記処理部が、前記人の目の画像の抽出を、局所的特徴量の算出により行う、請求項1又は請求項2に記載された視線推定装置。 The line-of-sight estimation device according to claim 1 or 2 , wherein the processing unit extracts an image of the human eye by calculating a local feature amount. 前記処理部が、前記人の目の画像の抽出を、前記人の目を含む部分の画像から抽出した前記人の顔の画像から行う、請求項1乃至3のうちのいずれか一に記載された視線推定装置。 The method according to any one of claims 1 to 3, wherein the processing unit extracts an image of the person's eyes from an image of the person's face extracted from an image of a portion including the person's eyes. Line-of-sight estimation device. 前記接触位置特定部がタッチパネルを備える、請求項1乃至請求項のうちのいずれか一に記載された視線推定装置。 The line-of-sight estimation device according to any one of claims 1 to 4 , wherein the contact position specifying unit includes a touch panel. 前記タッチパネルが携帯端末のタッチパネルである、請求項に記載された視線推定装置。 The line-of-sight estimation device according to claim 5 , wherein the touch panel is a touch panel of a mobile terminal. 前記接触が、前記人の指または前記人が操作する物である操作物により行われる、請求項1乃至請求項のうちのいずれか一に記載された視線推定装置。 The line-of-sight estimation device according to any one of claims 1 to 6 , wherein the contact is performed by the finger of the person or an operation object operated by the person. 人が物への接触を行った位置である接触位置を特定し、
前記接触の際の前記人の目を含む部分の画像の撮像を行い、
前記画像から導出した視線の方向と、前記接触位置とから、前記人の視線を推定
前記視線の方向の導出を、前記人の目を含む部分の画像から抽出した前記人の目の画像から行い、
前記撮像を行う部分である撮像部の傾きを導出する、
視線推定方法であって、
前記撮像部の傾きを用いて、前記人の目の画像の抽出を行う、
視線推定方法。
Identify the contact position, which is the position where a person made contact with an object,
An image of the part including the human eye at the time of the contact is taken.
The direction of the sight line derived from the image, from said contact position, to estimate the person's line of sight,
Derivation of the direction of the line of sight is performed from the image of the human eye extracted from the image of the portion including the human eye.
Derivation of the inclination of the imaging unit, which is the part for imaging.
It is a line-of-sight estimation method
An image of the human eye is extracted using the inclination of the imaging unit.
Line-of-sight estimation method.
JP2016057251A 2016-03-22 2016-03-22 Line-of-sight estimation device and line-of-sight estimation method Active JP6756127B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016057251A JP6756127B2 (en) 2016-03-22 2016-03-22 Line-of-sight estimation device and line-of-sight estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016057251A JP6756127B2 (en) 2016-03-22 2016-03-22 Line-of-sight estimation device and line-of-sight estimation method

Publications (2)

Publication Number Publication Date
JP2017169685A JP2017169685A (en) 2017-09-28
JP6756127B2 true JP6756127B2 (en) 2020-09-16

Family

ID=59969709

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016057251A Active JP6756127B2 (en) 2016-03-22 2016-03-22 Line-of-sight estimation device and line-of-sight estimation method

Country Status (1)

Country Link
JP (1) JP6756127B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3736666B1 (en) 2018-01-04 2024-06-05 Sony Group Corporation Information processing device, information processing method and program

Also Published As

Publication number Publication date
JP2017169685A (en) 2017-09-28

Similar Documents

Publication Publication Date Title
JP7191714B2 (en) Systems and methods for direct pointing detection for interaction with digital devices
JP6657593B2 (en) Biological imaging apparatus, biological imaging method, and biological imaging program
KR101631011B1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
JP4275151B2 (en) Red-eye correction method and apparatus using user-adjustable threshold
WO2012137801A1 (en) Input device, input method, and computer program
JP5910345B2 (en) Character input program, information processing apparatus, and character input method
TW201719335A (en) Line-of-sight input device, line-of-sight input method, and line-of-sight input program
JP5780142B2 (en) Image processing apparatus and image processing method
US10031667B2 (en) Terminal device, display control method, and non-transitory computer-readable recording medium
JP2012208705A (en) Image operation apparatus, image operation method and program
CN111507246A (en) Method, device, system and storage medium for selecting marked object through gesture
US20190035089A1 (en) Program and image processing device
CN109389082B (en) Sight line acquisition method, device, system and computer readable storage medium
US10162501B2 (en) Terminal device, display control method, and non-transitory computer-readable recording medium
CN112162627A (en) Eyeball tracking method combined with head movement detection and related device
JP2022021537A (en) Biometric authentication device and biometric authentication method
JP6756127B2 (en) Line-of-sight estimation device and line-of-sight estimation method
CN113989832A (en) Gesture recognition method and device, terminal equipment and storage medium
JP6825397B2 (en) Biometric device, biometric method and biometric program
CN113282164A (en) Processing method and device
CN109960412B (en) Method for adjusting gazing area based on touch control and terminal equipment
JP2018109899A (en) Information processing apparatus, operation detecting method, and computer program
JP5950845B2 (en) Input device, information processing method, and information processing program
JP2014211795A (en) Visual line detection device
JP6631736B1 (en) Biometric authentication device, biometric authentication system and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191210

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200810

R150 Certificate of patent or registration of utility model

Ref document number: 6756127

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150