JP6241107B2 - Gaze direction detection device and gaze direction detection method - Google Patents
Gaze direction detection device and gaze direction detection method Download PDFInfo
- Publication number
- JP6241107B2 JP6241107B2 JP2013152772A JP2013152772A JP6241107B2 JP 6241107 B2 JP6241107 B2 JP 6241107B2 JP 2013152772 A JP2013152772 A JP 2013152772A JP 2013152772 A JP2013152772 A JP 2013152772A JP 6241107 B2 JP6241107 B2 JP 6241107B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- line
- sight
- image
- monitor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 91
- 210000001508 eye Anatomy 0.000 claims description 34
- 210000001747 pupil Anatomy 0.000 claims description 28
- 238000003384 imaging method Methods 0.000 claims description 13
- 230000001815 facial effect Effects 0.000 claims description 10
- 238000005286 illumination Methods 0.000 claims description 8
- 241000849798 Nita Species 0.000 claims 1
- 238000004040 coloring Methods 0.000 claims 1
- 238000012544 monitoring process Methods 0.000 claims 1
- 230000000007 visual effect Effects 0.000 claims 1
- 238000000034 method Methods 0.000 description 49
- 230000008569 process Effects 0.000 description 37
- 230000006870 function Effects 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Description
本発明は、視線の方向を検出するための装置および方法に関し、特に検出された視線の方向から注視される画面上の位置(領域)を特定するための装置および方法に関する。 The present invention relates to an apparatus and method for detecting the direction of a line of sight, and more particularly to an apparatus and method for specifying a position (region) on a screen to be watched from the direction of the detected line of sight.
ユーザの視線の方向を自動検出し、画角内においてAF(オートフォーカス)エリアを自動設定する視線入力AF機能を搭載したデジタルカメラが知られている。視線の方向は、瞳孔の形状やその位置から求めることができるが、その他にも、顔全体の画像に含まれる顔の向きを示す特徴量と目周辺の画像に含まれる目の向きを示す特徴量を連結して用い、視線の方向を推定する方法も提案されている(特許文献1参照)。 There is known a digital camera equipped with a line-of-sight input AF function that automatically detects the direction of a user's line of sight and automatically sets an AF (autofocus) area within an angle of view. The direction of the line of sight can be obtained from the shape of the pupil and its position, but in addition, the feature amount indicating the face direction included in the entire face image and the direction indicating the eye direction included in the image around the eye A method of estimating the direction of the line of sight by using a quantity is also proposed (see Patent Document 1).
しかし、視線検出用の画像の撮影において顔がカメラから離れていると、瞳孔や目周辺の画像情報から視線方向を推定することは困難となる。また顔の距離が十分に近いときに顔の向きから視線方向を推定すると推定精度が低下する。 However, if the face is away from the camera when capturing an image for detecting the line of sight, it is difficult to estimate the direction of the line of sight from image information around the pupil and the eyes. Further, when the gaze direction is estimated from the face direction when the face distance is sufficiently close, the estimation accuracy decreases.
本発明は、撮影される顔画像の大きさに応じて、最適な方法で視線検出を行うことを課題としている。 An object of the present invention is to perform eye gaze detection by an optimum method in accordance with the size of a captured face image.
本発明の視線方向検出装置は、画像を表示するモニタと、モニタが向けられる方向を撮影する視線検出用撮影手段と、視線検出用撮影手段で撮影された第1画像から顔領域を検出する顔領域検出手段と、顔領域の大きさを算出する顔領域サイズ算出手段と、第1画像から目、鼻、口を含む顔の特徴量を検出する顔特徴点検出手段と、顔の特徴量の何れかあるいは複数の特徴量の位置情報から視線の方向を推定する第1視線推定手段と、第1画像から瞳孔を検出して視線の方向を推定する第2視線推定手段と、顔領域の大きさに応じて、第1または第2視線推定手段を選択し、推定される視線が注視するモニタ上の領域を特定するモニタ領域特定手段とを備えたことを特徴としている。 The gaze direction detection device of the present invention includes a monitor that displays an image, a gaze detection imaging unit that captures the direction in which the monitor is directed, and a face that detects a face area from the first image captured by the gaze detection imaging unit. Area detection means; face area size calculation means for calculating the size of the face area; face feature point detection means for detecting facial feature quantities including eyes, nose and mouth from the first image; A first line-of-sight estimation unit that estimates a line-of-sight direction from position information of one or a plurality of feature quantities; a second line-of-sight estimation unit that detects a pupil from the first image and estimates the direction of the line of sight; According to this, the first or second line-of-sight estimation means is selected, and monitor area specifying means for specifying an area on the monitor on which the estimated line of sight gazes is provided.
モニタ領域特定手段は、顔領域の大きさが第2閾値よりも小さいとき第1視線推定手段を選択し、第2閾値よりも大きいとき第2視線推定手段を選択する。更にモニタ領域特定手段は、顔領域の大きさが第2閾値よりも小さい第1閾値よりも小さいとき、視線の方向の推定を行わない。またモニタ領域特定手段は、顔領域が検出されない場合においても、第1画像から両目が検出されれば第2視線推定手段を選択し、モニタ上の領域を特定することが好ましい。 The monitor area specifying means selects the first line-of-sight estimation means when the size of the face area is smaller than the second threshold, and selects the second line-of-sight estimation means when larger than the second threshold. Further, the monitor area specifying means does not estimate the direction of the line of sight when the size of the face area is smaller than the first threshold value smaller than the second threshold value. Further, it is preferable that the monitor region specifying unit selects the second line-of-sight estimation unit and specifies the region on the monitor when both eyes are detected from the first image even when the face region is not detected.
視線検出用撮影手段の撮影レンズを中心とした周囲には、複数の照明用光源が配置されることが好ましい。また、モニタ領域特定手段により特定される領域をユーザに了知させる特定領域了知手段を備えることが好ましい。特定領域了知手段は、特定される領域の周囲を特定色の枠で囲む、領域部分に特定のマークを表示する、領域の全体を特定の色成分で着色する、の何れかあるいはこれらの組み合わせを用いて領域が特定されていることを示す。 It is preferable that a plurality of illumination light sources be arranged around the photographing lens of the line-of-sight detection photographing means. Moreover, it is preferable to provide specific area recognition means for letting the user know the area specified by the monitor area specifying means. The specific area notifying means surrounds the specified area with a specific color frame, displays a specific mark in the area, or colors the entire area with a specific color component, or a combination thereof. Indicates that the region is specified.
モニタに表示される画像の拡大を指示する入力手段を更に備えることが好ましく、画像の拡大が指示されるとモニタ領域特定手段により特定される領域の画像がモニタに拡大表示されるとともに、視線検出用撮影手段を用いて第2画像が撮影され、第2画像に基づきモニタ領域特定手段によりモニタ上の領域が更に特定されることが好ましい。また入力手段は、モニタ領域特定手段により特定される領域を固定する操作部を備え、領域の固定後は、拡大されていない通常の大きさの画像がモニタに表示される。また視線検出用撮影手段は、装置本体に対してモニタと一体的に変位することが好ましい。 It is preferable to further include input means for instructing enlargement of the image displayed on the monitor. When the enlargement of the image is instructed, the image of the area specified by the monitor area specifying means is enlarged and displayed on the monitor, and the line of sight is detected. It is preferable that the second image is captured using the image capturing unit, and the region on the monitor is further specified by the monitor region specifying unit based on the second image. The input means includes an operation unit for fixing the area specified by the monitor area specifying means, and after fixing the area, an image of a normal size that is not enlarged is displayed on the monitor. Further, it is preferable that the line-of-sight detection photographing means is displaced integrally with the monitor with respect to the apparatus main body.
本発明の撮像装置は、上記何れかに記載の視線方向検出手段と、この視線検出用撮像手段とは異なる画像撮影手段とを備える撮像装置であって、画像撮影手段で撮影されるモニタ画像がモニタに表示され、モニタ領域特定手段により特定される領域がAFエリアに利用されることを特徴としている。 An imaging apparatus according to the present invention is an imaging apparatus including any one of the above-described gaze direction detection means and an image photographing means different from the gaze detection imaging means, and a monitor image photographed by the image photographing means The area displayed on the monitor and specified by the monitor area specifying means is used as the AF area.
本発明の視線方向検出方法は、撮影者の視線方向を撮影する視線検出用画像撮影ステップと、視線検出用画像撮影ステップで撮影される第1画像から顔領域を検出する顔領域検出ステップと、顔領域の大きさを算出する顔領域サイズ算出ステップと、第1画像から目、鼻、口を含む顔の特徴量を検出する顔特徴点検出ステップと、顔の特徴量の何れかあるいは複数の特徴量の位置情報から視線の方向を推定する第1視線推定ステップと、第1画像から瞳孔を検出して視線の方向を推定する第2視線推定ステップと、顔領域の大きさに応じて、第1または第2視線推定ステップを選択し、推定される視線が注視するモニタ上の領域を特定するモニタ領域特定ステップとを備えたことを特徴としている。 The gaze direction detection method of the present invention includes a gaze detection image capturing step for capturing the gaze direction of the photographer, and a face area detection step for detecting a face area from the first image captured in the gaze detection image capturing step, A face area size calculating step for calculating the size of the face area, a face feature point detecting step for detecting a feature quantity of a face including eyes, nose, and mouth from the first image; In accordance with the size of the face area, a first line-of-sight estimation step that estimates the direction of the line of sight from the position information of the feature amount, a second line-of-sight estimation step that detects the pupil from the first image and estimates the direction of the line of sight, A monitor region specifying step of selecting the first or second line-of-sight estimation step and specifying an area on the monitor on which the estimated line of sight gazes.
本発明によれば、撮影される顔画像の大きさに応じて、最適な方法で視線検出を行うことができる。 According to the present invention, line-of-sight detection can be performed by an optimum method in accordance with the size of a face image to be shot.
以下、本発明の実施の形態を、図面を参照して説明する。図1は、本発明の一実施形態である視線方向検出装置が搭載されたデジタルカメラの背面図であり、図2は図1のデジタルカメラの構成を示すブロック図である。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a rear view of a digital camera equipped with a line-of-sight direction detection apparatus according to an embodiment of the present invention, and FIG. 2 is a block diagram showing a configuration of the digital camera of FIG.
デジタルカメラ10は、ユーザの視線を自動検出しAF(オートフォーカス)領域を自動選択する視線入力AF機能が搭載されたカメラである。図1に示されるように、デジタルカメラ10の背面にはLCDなどの画像表示用のモニタ11が設けられ、スルー画像や撮影画像、モード設定画面、パラメータ設定画面などが表示される。
The
モニタ11の上辺中央には、固定焦点式(パンフォーカス)の視線検出用のカメラ12が配置される。視線検出用カメラ12の左右両側には、所定距離離れて照明用の光源13A、13B(視線検出用光源部13)が配置される。本実施形態では、視線検出用カメラ12に赤外線カメラが用いられ、照明用光源13、14には赤外線LEDが用いられる。すなわち、モニタ11を見るユーザの顔には、光源13、14から赤外線が照射され、視線検出用カメラ12で撮影される。
In the center of the upper side of the
また、デジタルカメラ10の背面において、頂面に配置されたレリーズボタン(レリーズスイッチ)15に対応する位置には、スイッチ16が配置される。本実施形態ではスイッチ16はダイヤルスイッチであり、その下側には、例えば4方向キーやオーケーボタンなど、入力用ファンクションキー17が配置される。レリーズボタン15、ダイヤルスイッチ、ファンクションキー17などを含むスイッチ群14からの入力信号は、コントローラ18に入力され、入各種所定の処理が実行される。
Further, a
また、カメラ本体の正面側には写真撮影用の撮像部19が設けられ、撮像部19で撮影されるスルー画像はコントローラ18を通して画像メモリ20に一時的に保持されるとともにモニタ11へ出力される。一方、視線検出用のカメラ12で撮影された画像は、コントローラ18を通して画像メモリ20に一時的に保持され、後述する視線検出処理に用いられる。レリーズボタン15が半押しされると、コントローラ18は視線検出用光源13を点灯し、視線検出用カメラ12による撮影を行う。また、レリーズボタン15が全押しされて撮像部19で撮影される静止画像は、モニタ11に一時的に表示されるとともにメモリカード22などの着脱自在な記録媒体に記録される。
An
なお、図1の例では、デジタルカメラ10の頂面にファインダ21が設けられているが、本実施形態の視線入力AF処理は、モニタ11に表示されるスルー画像を通した撮影を前提とするものであり、ファインダを備えない構成であってもよい。
In the example of FIG. 1, the
本実施形態の視線入力AF処理では、モニタ11に表示されるスルー画像を見るユーザの顔を視線検出用カメラ12で撮影し、この画像を基にユーザの視線方向を検出して、ユーザが注視しているモニタ11上の位置(領域)を推定する。そして注視位置を含む所定の範囲の被写体に焦点を合わすAF処理を行う。
In the line-of-sight input AF process of the present embodiment, the face of the user who views the through image displayed on the
モニタ11のスルー画像を見ながらの撮影では、図3(a)〜(c)に示されるように、撮影状況に応じてカメラ10に対するユーザの顔の位置が異なる。例えば図3(a)のようにカメラ10を顔の目の前で保持し、モニタ11のスルー画像を間近で見る場合、視線検出用カメラ12では、顔のアップ画像が撮影される。一方、図3(b)、(c)のようにカメラ10を顔から離し、モニタ11のスルー画像を遠くから見ながら撮影すると、顔はズームアウトされ、撮影画面の中で顔が占める領域は小さくなる。そして顔の画像が小さくなると、瞳孔の形状や位置のみによる視線の推定は難しくなり、しかもモニタ11からの距離が離れているため視線の方向の違いによる誤差の影響も大きくなる。そのため本実施形態では、後述するように、視線検出用カメラ12で撮影された画像の状況に合わせて視線方向の推定方法を変更し、常に最適な方法で視線方向の検出を行い、適正なAFエリアの選択を行う。
In photographing while viewing the through image of the
すなわち画像の中での目の位置や、検出された視線方向からユーザが注視しているモニタ11上の位置が推定され、その位置を含む領域がAFエリアに設定される。例えば図4に示されるように、画面(画像)Mが縦横3×3の9つの領域に分割されており、視線の方向からその中の1つが選択される。図4の例では、中段左側の領域A1が、ユーザが注視している領域であると判定され、第1段階のAFエリアとして設定される。
That is, the position on the
図示例では、[ ]記号が領域A1内に表示され、同領域がAFエリアとして設定されたことを示す。なお、AFエリアであることを示す方法は、これに限定されるものではなく、他の記号を用いたり、同領域の周囲を特定色の枠で囲ったり、同領域を特定色で着色したり、あるいはこれらを組み合わせることでAFエリアであることを示してもよい。 In the illustrated example, the [] symbol is displayed in the area A1, indicating that the area is set as the AF area. The method of indicating the AF area is not limited to this, and other symbols may be used, the area may be surrounded by a specific color frame, or the area may be colored with a specific color. Alternatively, a combination of these may indicate the AF area.
更に本実施形態では、図4の状態、すなわち第1段階のAFエリアが設定された状態でダイヤルスイッチ16(図1)が所定の方向(拡大方向)に回転されると領域A1の画像が拡大され、図5に示されるようにモニタ11の画面Mにその全体が表示される。画面M内の画像も例えば縦横3×3の9つの領域に分割されており、拡大表示が行われると視線検出用カメラ11を用いた視線検出が再び実行され、拡大画像におけるユーザの注視エリアが特定され、同領域が第2段階のAFエリアとして設定される。図5の例では、下段中央の領域A2が、ユーザが注視している領域であると判定され、第2段階のAFエリアとして設定される。
Furthermore, in this embodiment, when the dial switch 16 (FIG. 1) is rotated in a predetermined direction (enlargement direction) in the state of FIG. 4, that is, in the state where the first-stage AF area is set, the image of the area A1 is enlarged. Then, as shown in FIG. 5, the whole is displayed on the screen M of the
すなわち、第1段階のAF領域A1を選択後、ユーザがダイヤルスイッチ16を操作することで、画角内のより狭い領域(図示例では元の画像の81分の1の領域)をAFエリアとして設定することができ、より細かく焦点を合わせる被写体を選択できる。なお第2段階のAFエリアA2設定後、ダイヤルスイッチ16を縮小方向に操作して、図4の状態(全画面表示)に戻し(縮小し)、視線入力を用いたAFエリアの再選択を繰り返すことも可能である。また第2段階のAFエリアA2が設定された図5の状態で、ダイヤルスイッチ16を拡大方向に操作して、AFエリアA2を画面Mに拡大表示し、視線入力を用いて第3段階のAFエリアの設定を行える構成としてもよい。なお、例えばAFエリア設定処理中において所定のボタンが操作されると、選択されたAFエリアが固定される。
That is, after selecting the first-stage AF area A1, the user operates the
次に図6のフローチャートおよび図1、2を参照して、本実施形態の視線入力AF処理におけるAFエリア設定処理について説明する。なお本処理は、例えばレリーズボタン15が半押しさたときにコントローラ18において実行される。
Next, an AF area setting process in the line-of-sight input AF process of the present embodiment will be described with reference to the flowchart of FIG. 6 and FIGS. This process is executed by the
AFエリア設定処理では、まずステップS100において、視線検出処理が実行される。すなわち、光源13、14から照明光として赤外線が照射され、モニタ11のスルー画像を見ているユーザを視線検出用カメラ12で撮影する。そして、ユーザが写った画像を用いて後述する方法でユーザの視線方向を検出し、モニタ11の画面における注視エリアが特定されれば、同エリアをAFエリアとして確定する。
In the AF area setting process, first, a line-of-sight detection process is executed in step S100. That is, infrared rays are emitted from the
ステップS102では、AFエリア(フォーカスエリア)が確定されたか否かが判定され、確定されていなければステップS100の処理が繰り返される。AFエリアが確定されていれば、ステップS104においてダイヤルスイッチ16が操作されたか否か、また操作されている場合には拡大方向、縮小方向の何れに操作されたかが判定される。
In step S102, it is determined whether or not an AF area (focus area) has been confirmed. If not, the process in step S100 is repeated. If the AF area has been determined, it is determined whether or not the
ダイヤルスイッチ16が画像を拡大する方向へ操作された場合には、ステップS106において、特定されたAFエリア(注視フォーカスエリア)が拡大され、ステップS100以下の処理が繰り返される。一方ダイヤルスイッチ16が画像を縮小する方向へ操作された場合には、ステップS108においてAFエリア(注視フォーカスエリア)が縮小されステップS100以下の処理が繰り返される。また、ダイヤルスイッチ16が操作されずに一定時間経過した場合や、拡大方向、縮小方向へ操作されたが更なる拡大、縮小はもうできず一定時間経過した場合、あるいは所定のボタンが操作された場合には、本処理は終了し、現在設定されている領域がAFエリアに固定され、モニタ11の表示は、拡大されていない状態に戻される。
If the
次に図1、2および図7、図8のフローチャート、図9〜図12を参照して、図6の視線検出処理について説明する。なお図9〜図12は、視線検出用カメラ12で撮影され、画像メモリ20に保持される画像(入力画像)Gの異なる6種類の状態を例示的に示す模式図である。
Next, the gaze detection process of FIG. 6 will be described with reference to the flowcharts of FIGS. 1, 2, 7, and 8 and FIGS. 9 to 12. 9 to 12 are schematic diagrams exemplarily showing six different states of images (input images) G captured by the line-of-
前述したように視線検出処理では、まず光源13A、13Bを点灯して視線検出用カメラ12による画像撮影が行われ、入力画像Gとして取得される。ステップS202では、入力画像Gに対して従来周知の顔器官検出処理が実行される。すなわち、目や鼻、口等の特徴点の検出が行われるとともに、顔領域F、目領域E1、E2の検出が行われる。
As described above, in the line-of-sight detection process, first, the
ステップS204では、入力画像Gから顔領域Fが検出されたか否かが判定される。顔領域Fは、図8、図9に示されるように略顔全体が含まれる領域であり、顔領域Fが検出されたと判定されるとステップS206において、検出された顔領域Fの大きさ(サイズ)が計算され、ステップS208において検出された目領域E1、E2のそれぞれの大きさ(サイズ)が計算される。 In step S204, it is determined whether or not the face area F is detected from the input image G. The face area F is an area that includes substantially the entire face as shown in FIGS. 8 and 9, and if it is determined that the face area F has been detected, the size of the detected face area F ( Size) is calculated, and the sizes (sizes) of the eye regions E1 and E2 detected in step S208 are calculated.
その後ステップS210において、顔領域Fの大きさが第1閾値Th1以下であるか否かが判定される。視線検出用の画像撮影時、図3(b)、(c)のようにユーザの顔がモニタから離れていて、顔領域Fの大きさが図9のように小さく、その面積が第1閾値Th1以下であると判定された場合、顔領域Fの大きさは視線検出には小さ過ぎると考えられる。したがって処理はステップS200に戻り、新たに視線検出用の画像が撮影され入力画像とされる。そしてステップS202以下の処理が繰り返される。 Thereafter, in step S210, it is determined whether or not the size of the face area F is equal to or less than the first threshold Th1. At the time of capturing an image for line-of-sight detection, the user's face is separated from the monitor as shown in FIGS. 3B and 3C, the size of the face region F is small as shown in FIG. When it is determined that it is equal to or less than Th1, the size of the face region F is considered to be too small for line-of-sight detection. Therefore, the process returns to step S200, and a new line-of-sight detection image is taken as an input image. And the process after step S202 is repeated.
一方、ステップS210において顔領域Fの面積が第1閾値Th1よりも大きいと判定された場合には(例えば図3(a)〜図2(b)の状態で視線検出用の画像が撮影され、図10の画像が取得された場合)、ステップS212で、顔領域Fの大きさが第1閾値Th1よりも大きい第2閾値Th2以下であるか否かが判定される。顔領域Fの大きさが第2閾値以下であると判定されると(Th1<顔領域Fの大きさ≦Th2)、瞳孔を用いた視線検出を行うには顔領域Fが小さ過ぎると考えられるので、ステップS214において、例えば図10における目、鼻、口などの顔特徴点P1〜P10の位置関係から視線方向が推定され、本視線検出処理は終了する。 On the other hand, when it is determined in step S210 that the area of the face region F is larger than the first threshold Th1 (for example, a line-of-sight detection image is captured in the state of FIGS. 3A to 2B, When the image of FIG. 10 is acquired), in step S212, it is determined whether or not the size of the face region F is equal to or smaller than the second threshold Th2 that is larger than the first threshold Th1. If it is determined that the size of the face area F is equal to or smaller than the second threshold (Th1 <the size of the face area F ≦ Th2), it is considered that the face area F is too small to perform gaze detection using the pupil. Therefore, in step S214, the line-of-sight direction is estimated from the positional relationship of the facial feature points P1 to P10 such as eyes, nose, and mouth in FIG. 10, and the line-of-sight detection process ends.
一方、ステップS204において顔領域Fが検出されないと判定された場合や、ステップS212において顔領域Fの大きさが第2閾値Th2よりも大きいと判定された場合には、ステップS216において、入力画像Gから両目(目領域E1、E2)が検出されたか否かが判定される。すなわち、図11、図12のように、撮影時ユーザの顔の位置がカメラに近接し、ユーザの顔の一部のみが撮影されて顔領域Fは検出されない場合や、入力画像Gの全体が略顔領域Fで占められる場合には、撮影された目の画像から視線検出を行える可能性が高いので、両目が入力画像Gに含まれ、瞳孔による視線検出が行えるか否かが判定される。 On the other hand, if it is determined in step S204 that the face area F is not detected, or if it is determined in step S212 that the size of the face area F is larger than the second threshold Th2, in step S216, the input image G Whether or not both eyes (eye areas E1, E2) are detected is determined. That is, as shown in FIGS. 11 and 12, when the user's face is close to the camera at the time of shooting, only a part of the user's face is shot and the face area F is not detected, or the entire input image G is If the face area F is occupied, there is a high possibility that eye-gaze detection can be performed from the captured eye image. Therefore, it is determined whether or not both eyes are included in the input image G and eye-gaze detection by the pupil can be performed. .
ステップS216において、入力画像Gに両目が含まれると判定される場合には、ステップS218へ進み瞳孔検出処理が行われる。一方、両目が含まれないと判定されると、ステップS200に戻り、視線検出用カメラ12により新たな画像の撮影が行われ、前述した処理が繰り返される。
If it is determined in step S216 that both eyes are included in the input image G, the process proceeds to step S218, and pupil detection processing is performed. On the other hand, if it is determined that both eyes are not included, the process returns to step S200, a new image is taken by the line-of-
ステップS218では、目領域E1、E2から瞳孔が検出され、ステップS220において瞳孔の大きさ(例えば面積)が第3閾値以上であるか否かが判定される。瞳孔の大きさが第3閾値以上であれば、ステップS222において、瞳孔による視線方向の推定が行われ、本視線検出処理は終了する。また瞳孔の大きさが第3閾値よりも小さければ、ステップS224において、ステップS214と同様に顔特徴点を用いた視線方向の推定が行われ本視線検出処理は終了する。 In step S218, a pupil is detected from the eye regions E1 and E2, and in step S220, it is determined whether or not the size (for example, area) of the pupil is equal to or greater than a third threshold value. If the size of the pupil is greater than or equal to the third threshold value, the gaze direction is estimated by the pupil in step S222, and the gaze detection process ends. If the size of the pupil is smaller than the third threshold value, in step S224, the gaze direction is estimated using the facial feature points in the same manner as in step S214, and the gaze detection process ends.
次に図13のフローチャートおよび図14を参照して図8のステップS222における瞳孔の画像を用いた視線方向の推定処理について説明する。 Next, with reference to the flowchart of FIG. 13 and FIG. 14, the gaze direction estimation process using the pupil image in step S222 of FIG. 8 will be described.
本実施形態では、視線の向きによる瞳孔の形状の変化を利用して視線方向を推定する。すなわち、瞳孔は視線の向きにより様々な方向へ傾いた楕円形状となり、眼球の中心の位置と瞳孔の形状およびその傾きから視線方向が推定される。 In the present embodiment, the line-of-sight direction is estimated using a change in the shape of the pupil depending on the direction of the line of sight. That is, the pupil has an elliptical shape inclined in various directions depending on the direction of the line of sight, and the line-of-sight direction is estimated from the position of the center of the eyeball, the shape of the pupil, and the inclination thereof.
瞳孔の形状変化を利用した視線方向推定処理では、ステップS300において、目領域(E1、E2)の画像が取得され、ステップS302において同画像が平滑化される。ステップS304では、画像がグレースケールに変換され、ステップS306で2値化される。ステップS308では、2値化された目の画像に輪郭抽出処理が施され、ステップS310で楕円フィッティングが行われる。ステップS312では、図14に示される楕円パラメータ(a,b,α)を用いた楕円フィッティングにより視線方向(φ,θ)が求められる。
tanφ=±√((a2−b2)/b2)・sinα (1)
tanθ=±√((a2−b2)/b2)・cosα (2)
ここで、aは楕円の長軸、bは短軸であり、αは画像平面上(X’Y’面)における楕円の傾斜角で視線の傾きに対応する。楕円形状は原点対称で同一パラメータとなるため、瞳孔中心座標により符号を選択する必要がある。
In the gaze direction estimation process using the pupil shape change, in step S300, an image of the eye area (E1, E2) is acquired, and in step S302, the image is smoothed. In step S304, the image is converted to grayscale, and binarized in step S306. In step S308, a contour extraction process is performed on the binarized eye image, and an ellipse fitting is performed in step S310. In step S312, the line-of-sight direction (φ, θ) is obtained by ellipse fitting using the ellipse parameters (a, b, α) shown in FIG.
tan φ = ± √ ((a 2 −b 2 ) / b 2 ) · sin α (1)
tan θ = ± √ ((a 2 −b 2 ) / b 2 ) · cos α (2)
Here, a is the major axis of the ellipse, b is the minor axis, and α is the inclination angle of the ellipse on the image plane (X′Y ′ plane) and corresponds to the inclination of the line of sight. Since the elliptical shape is symmetric with respect to the origin and has the same parameters, it is necessary to select a code based on the pupil center coordinates.
また、図14においてZ軸の+方向をカメラが向けられた方向とすると、視線方向は図中のPO方向となる。なお図14においてβは視線の角度であり、瞳孔の偏平率b/aから求められる。 In FIG. 14, if the + direction of the Z-axis is the direction in which the camera is directed, the line-of-sight direction is the PO direction in the figure. In FIG. 14, β is the angle of the line of sight, and is obtained from the pupil flatness b / a.
瞳孔を用いた視線方向の推定は、上記方法に限定されず、例えば、眼球中心Oに対する瞳孔中心Pの画像上の位置(x,y)からも求められる。例えば図14に示されるように、視線方向(φ,θ)は以下の式で求められる。
tanφ=y/√(r2−x2−y2) (3)
tanθ=x/√(r2−x2−y2) (4)
なお、この他の方法でx、y、a、b、α等の情報から、視線方向ベクトル(例えば(φ,θ)、(φ,ψ)、(θ,ψ)の何れかの組み合わせ、あるいは(φ,θ,ψ)等)を推定する構成としてもよい。
The estimation of the line-of-sight direction using the pupil is not limited to the above method, and can be obtained from the position (x, y) on the image of the pupil center P with respect to the eyeball center O, for example. For example, as shown in FIG. 14, the line-of-sight direction (φ, θ) is obtained by the following equation.
tan φ = y / √ (r 2 −x 2 −y 2 ) (3)
tan θ = x / √ (r 2 −x 2 −y 2 ) (4)
It should be noted that any other combination of gaze direction vectors (for example, (φ, θ), (φ, ψ), (θ, ψ), from information such as x, y, a, b, α, etc. (Φ, θ, ψ, etc.) may be estimated.
視線検出用画像において目の位置が特定され、瞳孔あるいは顔の特徴量から視線方向が推定されると、ユーザがモニタ11のどの分割領域(例えば縦横3×3)を注視しているかが特定される。
When the eye position is specified in the eye-gaze detection image and the eye-gaze direction is estimated from the feature amount of the pupil or the face, it is specified which divided area (for example, 3 × 3) of the
以上のように、本実施形態によれば、撮影される顔画像の大きさに応じて、目、鼻、口の特徴量の一部または全体の位置関係から顔の向きを特定し、瞳孔形状や瞳孔中心の位置からの視線の向きを特定することで、顔画像の大きさに最適な方法で視線検出を行うことができる。 As described above, according to the present embodiment, the orientation of the face is specified based on the positional relationship of some or all of the feature quantities of the eyes, nose, and mouth according to the size of the captured face image, and the pupil shape By specifying the direction of the line of sight from the position of the center of the pupil and the line of sight, the line of sight can be detected by a method optimal for the size of the face image.
次に図15のフローチャートを参照して、視線検出処理の変形例について説明する。変形例では、顔の特徴量のうち、特に鼻の向きにを利用した構成を採用している。 Next, a modification of the line-of-sight detection process will be described with reference to the flowchart of FIG. In the modified example, a configuration using the facial feature amount in particular for the direction of the nose is employed.
変形例の視線検出処理では、ステップS400〜ステップS406では、図7のステップS200〜ステップS206と同様の処理が行われる。すなわち、ステップS400で視線検出用の入力画像が取得され、ステップS402で入力画像Gに対して顔器官検出処理が実行され、目や鼻、口等の特徴点の検出が行われるとともに、顔領域F、目領域E等の検出が行われる。ステップS404では入力画像Gから顔領域Fが検出されたか否かが判定され、顔領域Fが検出されているときには、ステップS406において、検出された顔領域Fの大きさ(サイズ)が計算される。 In the line-of-sight detection processing according to the modification, in steps S400 to S406, processing similar to that in steps S200 to S206 in FIG. 7 is performed. That is, an input image for line-of-sight detection is acquired in step S400, face organ detection processing is executed on the input image G in step S402, and feature points such as eyes, nose and mouth are detected, and a facial region F, eye region E, etc. are detected. In step S404, it is determined whether or not the face area F is detected from the input image G. When the face area F is detected, the size (size) of the detected face area F is calculated in step S406. .
ステップS408では、顔領域Fの大きさが第1閾値Th1以下であるか否かが判定され、第1閾値Th1以下の場合には、ステップS410において視線方向が検出できないことをモニタ11に表示し、本視線検出処理は終了する。一方い、ステップS408において顔領域Fの大きさが第1閾値Th1よりも大きいと判定された場合には、ステップS416において顔領域Fの大きさが第1閾値Th1よりも大きい第2閾値Th2以下であるか否かが判定され、第2閾値Th2以下であればステップS418において顔全体の特徴量から顔の向きが検出され、ステップS420で顔の向きに基づいてユーザの視線方向が推定され本視線検出処理は終了する。またテップS416において顔領域Fの大きさが第2閾値Th2よりも大きい場合には、ステップS414において、鼻の特徴量から鼻の向きが計算され、ステップS420において鼻の向きに基づきユーザの視線方向が推定され本視線検出処理は終了する。
In step S408, it is determined whether or not the size of the face area F is equal to or smaller than the first threshold Th1, and if it is equal to or smaller than the first threshold Th1, it is displayed on the
一方、ステップS404において顔領域Fが検出されないと判定されると、ステップS412において鼻が検出されたか否かが判定される。鼻が検出されている場合には、ステップS414において鼻の向きが計算され、鼻が検出されていない場合にはステップS422において両目が検出されたか否かが判定される。両目が検出されていなければ、ステップS400に戻り同様の処理が繰り返され、検出されていれば図8のステップS218〜ステップS224の処理が実行され、視線検出処理は終了する。なお変形例のステップS224では、特に鼻の向きに基づいて視線方向が推定される。ステップS412で鼻が検出され、ステップS414において鼻の向きが計算されると、ステップS420において鼻の向きに基づきユーザの視線方向が推定され本視線検出処理は終了する。 On the other hand, if it is determined in step S404 that the face area F is not detected, it is determined in step S412 whether or not a nose is detected. If the nose is detected, the direction of the nose is calculated in step S414, and if no nose is detected, it is determined in step S422 whether or not both eyes are detected. If both eyes have not been detected, the process returns to step S400 and the same processing is repeated. If both eyes have been detected, the processing from step S218 to step S224 in FIG. 8 is executed, and the line-of-sight detection processing ends. In step S224 of the modified example, the line-of-sight direction is estimated based on the direction of the nose. When the nose is detected in step S412, and the direction of the nose is calculated in step S414, the line-of-sight direction of the user is estimated based on the direction of the nose in step S420, and the line-of-sight detection process ends.
以上のように変形例においても、本実施形態と同様の効果を得ることができる。 As described above, also in the modified example, the same effect as in the present embodiment can be obtained.
なお、本実施形態では、視線検出用画像に赤外線画像を用いたが、通常のカラー画像を用いてもよい。また、視線検出用画像の撮影に用いられる照明用光源の数も1個または3個以上であってもよく、モニタを見る顔全体を照明できる構成であればよい。例えばレンズを中心に略等間隔の角度で配置されてもよい(3個であれば120度間隔、4個であれば90度間隔)。照明用光源の数を複数とすることにより顔領域への照明のムラが軽減できるので、顔領域の検出、顔特徴点の検出、瞳孔の検出の各精度を向上することができる。 In this embodiment, an infrared image is used as the line-of-sight detection image, but a normal color image may be used. In addition, the number of illumination light sources used for capturing the line-of-sight detection image may be one or three or more, and any configuration that can illuminate the entire face as viewed on the monitor is acceptable. For example, the lenses may be arranged at substantially equal intervals around the lens (120 ° intervals for three lenses, 90 ° intervals for four lenses). By using a plurality of illumination light sources, uneven illumination of the face area can be reduced, so that each accuracy of face area detection, face feature point detection, and pupil detection can be improved.
本実施形態ではデジタルカメラの視線入力AFを例に説明を行ったが、画面を見るユーザの視線を検出して画面上の注視領域を特定する用途であれば、AF処理やカメラに限定されるものではない。また、本実施形態では、モニタがカメラの背面に設けられているため写真撮影用カメラと視線検出用カメラの向きが反対向きであるが、視線検出用カメラはモニタと略同じ方向を向いていればよく、例えばモニタがカメラ本体に対して上下左右等に回動可能な場合には、視線検出用カメラはモニタと一体的に移動する。また、本実施形態においてAF処理に関しては特に言及しなかったが、コントラストAFや位相差AFなど、何れを用いることもできる。 In the present embodiment, the line-of-sight input AF of a digital camera has been described as an example. However, the present invention is limited to AF processing and a camera as long as the gaze area on the screen is specified by detecting the line of sight of the user viewing the screen. It is not a thing. In this embodiment, since the monitor is provided on the back side of the camera, the direction of the photography camera and the line-of-sight detection camera are opposite to each other, but the line-of-sight detection camera may face the same direction as the monitor. For example, when the monitor can be rotated vertically and horizontally with respect to the camera body, the line-of-sight detection camera moves integrally with the monitor. In the present embodiment, the AF process is not particularly mentioned, but any of contrast AF, phase difference AF, and the like can be used.
10 デジタルカメラ
11 モニタ
12 視線検出用カメラ
13A、13B 光源
14 スイッチ群
15 レリーズボタン
16 ダイヤルスイッチ(入力部)
17 ファンクションキー(入力部)
18 コントローラ
19 撮像部
20 画像メモリ
21 ファインダ
A1 第1段階の特定領域
A2 第2段階の特定領域
DESCRIPTION OF
17 Function keys (input section)
18
Claims (13)
前記モニタが向けられる方向を撮影する視線検出用撮影手段と、
前記視線検出用撮影手段で撮影された第1画像から顔領域を検出する顔領域検出手段と、
前記顔領域の大きさを算出する顔領域サイズ算出手段と、
前記第1画像から目、鼻、口を含む顔の特徴量を検出する顔特徴点検出手段と、
前記顔の特徴量の何れかあるいは複数の特徴量の位置情報から視線の方向を推定する第1視線推定手段と、
前記第1画像から瞳孔を検出して視線の方向を推定する第2視線推定手段と、
前記顔領域の大きさに応じて、前記第1または第2視線推定手段を選択し、推定される前記視線が注視する前記モニタ上の領域を特定するモニタ領域特定手段と
を備えることを特徴とする視線方向検出装置。 A monitor for displaying images;
Gaze detection imaging means for imaging the direction in which the monitor is directed;
A face area detecting means for detecting a face area from the first image photographed by the eye-gaze detecting photographing means;
Face area size calculating means for calculating the size of the face area;
Facial feature point detection means for detecting facial feature quantities including eyes, nose and mouth from the first image;
First line-of-sight estimation means for estimating a line-of-sight direction from position information of any one or a plurality of feature quantities of the face;
Second line-of-sight estimation means for detecting a pupil from the first image and estimating a direction of the line of sight;
Monitor area specifying means for selecting the first or second line-of-sight estimation means according to the size of the face area, and specifying the area on the monitor where the estimated line of sight gazes. A gaze direction detecting device.
前記画像撮影手段で撮影されるモニタ画像が前記モニタに表示され、前記モニタ領域特定手段により特定される領域がAFエリアに利用される
ことを特徴とする撮像装置。 An imaging apparatus and a different image capturing means and the line-of-sight direction detecting apparatus according, the shadow unit Taking for the sight line detection in any of claims 1 to 11,
A monitor image photographed by the image photographing means is displayed on the monitor, and an area specified by the monitor area specifying means is used for an AF area.
前記視線検出用画像撮影ステップで撮影される第1画像から顔領域を検出する顔領域検出ステップと、
前記顔領域の大きさを算出する顔領域サイズ算出ステップと、
前記第1画像から目、鼻、口を含む顔の特徴量を検出する顔特徴点検出ステップと、
前記顔の特徴量の何れかあるいは複数の特徴量の位置情報から視線の方向を推定する第1視線推定ステップと、
前記第1画像から瞳孔を検出して視線の方向を推定する第2視線推定ステップと、
前記顔領域の大きさに応じて、前記第1または第2視線推定ステップを選択し、推定される前記視線が注視するモニタ上の領域を特定するモニタ領域特定ステップと
を備えることを特徴とする視線方向検出方法。
A line-of-sight detection image capturing step for capturing the line-of-sight direction of the photographer;
A face area detecting step of detecting a face area from the first image captured in the line-of-sight detection image capturing step;
A face area size calculating step for calculating the size of the face area;
A facial feature point detecting step for detecting facial feature quantities including eyes, nose and mouth from the first image;
A first line-of-sight estimation step of estimating a line-of-sight direction from position information of any one or a plurality of feature quantities of the face;
A second line-of-sight estimation step of detecting a pupil from the first image and estimating a direction of the line of sight;
Characterized in that it comprises said in response to the size of the face region, the first or selects the second sight estimation step, monitor area specifying step of the sight line to identify the region on the watch to makes the chromophore at the distal end Nita estimated The gaze direction detection method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013152772A JP6241107B2 (en) | 2013-07-23 | 2013-07-23 | Gaze direction detection device and gaze direction detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013152772A JP6241107B2 (en) | 2013-07-23 | 2013-07-23 | Gaze direction detection device and gaze direction detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015022700A JP2015022700A (en) | 2015-02-02 |
JP6241107B2 true JP6241107B2 (en) | 2017-12-06 |
Family
ID=52487049
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013152772A Active JP6241107B2 (en) | 2013-07-23 | 2013-07-23 | Gaze direction detection device and gaze direction detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6241107B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6510451B2 (en) * | 2016-03-17 | 2019-05-08 | Kddi株式会社 | Device, method and program for specifying the pupil area of a person in an image |
JP6822482B2 (en) * | 2016-10-31 | 2021-01-27 | 日本電気株式会社 | Line-of-sight estimation device, line-of-sight estimation method, and program recording medium |
JP7431567B2 (en) * | 2019-12-10 | 2024-02-15 | キヤノン株式会社 | Electronic devices and their control methods, programs, and storage media |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002277730A (en) * | 2001-03-22 | 2002-09-25 | Ricoh Co Ltd | Method, device and program for automatic focusing control of electronic camera |
JP5626039B2 (en) * | 2011-03-09 | 2014-11-19 | 富士通株式会社 | Gaze detection apparatus and gaze detection method |
-
2013
- 2013-07-23 JP JP2013152772A patent/JP6241107B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015022700A (en) | 2015-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8649574B2 (en) | Imaging apparatus, control method of imaging apparatus, and computer program | |
JP6512810B2 (en) | Image pickup apparatus, control method and program | |
EP1471455B1 (en) | Digital camera | |
JP4912117B2 (en) | Imaging device with tracking function | |
US9521310B2 (en) | Method and apparatus for focusing on subject in digital image processing device | |
JP4663700B2 (en) | Imaging apparatus and imaging method | |
CN103048846B (en) | Focus-regulating device and control method thereof | |
JP5171468B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
US20210051266A1 (en) | Image capture apparatus and control method thereof | |
JPWO2014148031A1 (en) | Image generating apparatus, imaging apparatus, and image generating method | |
JP6241107B2 (en) | Gaze direction detection device and gaze direction detection method | |
JP5142825B2 (en) | Image display device and image display method | |
JP2006268248A (en) | Photographing device, and face direction determining method | |
JP2023052357A (en) | Electronic apparatus and program | |
JP2019121860A (en) | Image processing apparatus and control method therefor | |
JP2021021857A (en) | Imaging apparatus and control method thereof | |
US11662809B2 (en) | Image pickup apparatus configured to use line of sight for imaging control and control method thereof | |
JP2007133301A (en) | Autofocus camera | |
JP2011135527A (en) | Digital camera | |
JP2008005438A (en) | Imaging apparatus and imaging method | |
JP2005202477A (en) | Method for deciding top-and-bottom direction of face image and image recording device and image reproducing device | |
US20220329740A1 (en) | Electronic apparatus, method for controlling electronic apparatus, and non-transitory computer readable storage medium | |
JP2010263550A (en) | Image processing apparatus | |
US11800245B2 (en) | Image pickup apparatus capable of keeping focus on subject even when moving direction of subject changes in time series, control method for image pickup apparatus, and storage medium | |
JP2008167028A (en) | Imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20150327 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160606 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170419 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170425 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170616 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171010 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171023 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6241107 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |