JP6241107B2 - Gaze direction detection device and gaze direction detection method - Google Patents

Gaze direction detection device and gaze direction detection method Download PDF

Info

Publication number
JP6241107B2
JP6241107B2 JP2013152772A JP2013152772A JP6241107B2 JP 6241107 B2 JP6241107 B2 JP 6241107B2 JP 2013152772 A JP2013152772 A JP 2013152772A JP 2013152772 A JP2013152772 A JP 2013152772A JP 6241107 B2 JP6241107 B2 JP 6241107B2
Authority
JP
Japan
Prior art keywords
area
line
sight
image
monitor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013152772A
Other languages
Japanese (ja)
Other versions
JP2015022700A (en
Inventor
健児 松本
健児 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Imaging Co Ltd
Original Assignee
Ricoh Imaging Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Imaging Co Ltd filed Critical Ricoh Imaging Co Ltd
Priority to JP2013152772A priority Critical patent/JP6241107B2/en
Publication of JP2015022700A publication Critical patent/JP2015022700A/en
Application granted granted Critical
Publication of JP6241107B2 publication Critical patent/JP6241107B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、視線の方向を検出するための装置および方法に関し、特に検出された視線の方向から注視される画面上の位置(領域)を特定するための装置および方法に関する。   The present invention relates to an apparatus and method for detecting the direction of a line of sight, and more particularly to an apparatus and method for specifying a position (region) on a screen to be watched from the direction of the detected line of sight.

ユーザの視線の方向を自動検出し、画角内においてAF(オートフォーカス)エリアを自動設定する視線入力AF機能を搭載したデジタルカメラが知られている。視線の方向は、瞳孔の形状やその位置から求めることができるが、その他にも、顔全体の画像に含まれる顔の向きを示す特徴量と目周辺の画像に含まれる目の向きを示す特徴量を連結して用い、視線の方向を推定する方法も提案されている(特許文献1参照)。   There is known a digital camera equipped with a line-of-sight input AF function that automatically detects the direction of a user's line of sight and automatically sets an AF (autofocus) area within an angle of view. The direction of the line of sight can be obtained from the shape of the pupil and its position, but in addition, the feature amount indicating the face direction included in the entire face image and the direction indicating the eye direction included in the image around the eye A method of estimating the direction of the line of sight by using a quantity is also proposed (see Patent Document 1).

特開2012−038106号公報JP 2012-038106 A

しかし、視線検出用の画像の撮影において顔がカメラから離れていると、瞳孔や目周辺の画像情報から視線方向を推定することは困難となる。また顔の距離が十分に近いときに顔の向きから視線方向を推定すると推定精度が低下する。   However, if the face is away from the camera when capturing an image for detecting the line of sight, it is difficult to estimate the direction of the line of sight from image information around the pupil and the eyes. Further, when the gaze direction is estimated from the face direction when the face distance is sufficiently close, the estimation accuracy decreases.

本発明は、撮影される顔画像の大きさに応じて、最適な方法で視線検出を行うことを課題としている。   An object of the present invention is to perform eye gaze detection by an optimum method in accordance with the size of a captured face image.

本発明の視線方向検出装置は、画像を表示するモニタと、モニタが向けられる方向を撮影する視線検出用撮影手段と、視線検出用撮影手段で撮影された第1画像から顔領域を検出する顔領域検出手段と、顔領域の大きさを算出する顔領域サイズ算出手段と、第1画像から目、鼻、口を含む顔の特徴量を検出する顔特徴点検出手段と、顔の特徴量の何れかあるいは複数の特徴量の位置情報から視線の方向を推定する第1視線推定手段と、第1画像から瞳孔を検出して視線の方向を推定する第2視線推定手段と、顔領域の大きさに応じて、第1または第2視線推定手段を選択し、推定される視線が注視するモニタ上の領域を特定するモニタ領域特定手段とを備えたことを特徴としている。   The gaze direction detection device of the present invention includes a monitor that displays an image, a gaze detection imaging unit that captures the direction in which the monitor is directed, and a face that detects a face area from the first image captured by the gaze detection imaging unit. Area detection means; face area size calculation means for calculating the size of the face area; face feature point detection means for detecting facial feature quantities including eyes, nose and mouth from the first image; A first line-of-sight estimation unit that estimates a line-of-sight direction from position information of one or a plurality of feature quantities; a second line-of-sight estimation unit that detects a pupil from the first image and estimates the direction of the line of sight; According to this, the first or second line-of-sight estimation means is selected, and monitor area specifying means for specifying an area on the monitor on which the estimated line of sight gazes is provided.

モニタ領域特定手段は、顔領域の大きさが第2閾値よりも小さいとき第1視線推定手段を選択し、第2閾値よりも大きいとき第2視線推定手段を選択する。更にモニタ領域特定手段は、顔領域の大きさが第2閾値よりも小さい第1閾値よりも小さいとき、視線の方向の推定を行わない。またモニタ領域特定手段は、顔領域が検出されない場合においても、第1画像から両目が検出されれば第2視線推定手段を選択し、モニタ上の領域を特定することが好ましい。   The monitor area specifying means selects the first line-of-sight estimation means when the size of the face area is smaller than the second threshold, and selects the second line-of-sight estimation means when larger than the second threshold. Further, the monitor area specifying means does not estimate the direction of the line of sight when the size of the face area is smaller than the first threshold value smaller than the second threshold value. Further, it is preferable that the monitor region specifying unit selects the second line-of-sight estimation unit and specifies the region on the monitor when both eyes are detected from the first image even when the face region is not detected.

視線検出用撮影手段の撮影レンズを中心とした周囲には、複数の照明用光源が配置されることが好ましい。また、モニタ領域特定手段により特定される領域をユーザに了知させる特定領域了知手段を備えることが好ましい。特定領域了知手段は、特定される領域の周囲を特定色の枠で囲む、領域部分に特定のマークを表示する、領域の全体を特定の色成分で着色する、の何れかあるいはこれらの組み合わせを用いて領域が特定されていることを示す。   It is preferable that a plurality of illumination light sources be arranged around the photographing lens of the line-of-sight detection photographing means. Moreover, it is preferable to provide specific area recognition means for letting the user know the area specified by the monitor area specifying means. The specific area notifying means surrounds the specified area with a specific color frame, displays a specific mark in the area, or colors the entire area with a specific color component, or a combination thereof. Indicates that the region is specified.

モニタに表示される画像の拡大を指示する入力手段を更に備えることが好ましく、画像の拡大が指示されるとモニタ領域特定手段により特定される領域の画像がモニタに拡大表示されるとともに、視線検出用撮影手段を用いて第2画像が撮影され、第2画像に基づきモニタ領域特定手段によりモニタ上の領域が更に特定されることが好ましい。また入力手段は、モニタ領域特定手段により特定される領域を固定する操作部を備え、領域の固定後は、拡大されていない通常の大きさの画像がモニタに表示される。また視線検出用撮影手段は、装置本体に対してモニタと一体的に変位することが好ましい。   It is preferable to further include input means for instructing enlargement of the image displayed on the monitor. When the enlargement of the image is instructed, the image of the area specified by the monitor area specifying means is enlarged and displayed on the monitor, and the line of sight is detected. It is preferable that the second image is captured using the image capturing unit, and the region on the monitor is further specified by the monitor region specifying unit based on the second image. The input means includes an operation unit for fixing the area specified by the monitor area specifying means, and after fixing the area, an image of a normal size that is not enlarged is displayed on the monitor. Further, it is preferable that the line-of-sight detection photographing means is displaced integrally with the monitor with respect to the apparatus main body.

本発明の撮像装置は、上記何れかに記載の視線方向検出手段と、この視線検出用撮像手段とは異なる画像撮影手段とを備える撮像装置であって、画像撮影手段で撮影されるモニタ画像がモニタに表示され、モニタ領域特定手段により特定される領域がAFエリアに利用されることを特徴としている。   An imaging apparatus according to the present invention is an imaging apparatus including any one of the above-described gaze direction detection means and an image photographing means different from the gaze detection imaging means, and a monitor image photographed by the image photographing means The area displayed on the monitor and specified by the monitor area specifying means is used as the AF area.

本発明の視線方向検出方法は、撮影者の視線方向を撮影する視線検出用画像撮影ステップと、視線検出用画像撮影ステップで撮影される第1画像から顔領域を検出する顔領域検出ステップと、顔領域の大きさを算出する顔領域サイズ算出ステップと、第1画像から目、鼻、口を含む顔の特徴量を検出する顔特徴点検出ステップと、顔の特徴量の何れかあるいは複数の特徴量の位置情報から視線の方向を推定する第1視線推定ステップと、第1画像から瞳孔を検出して視線の方向を推定する第2視線推定ステップと、顔領域の大きさに応じて、第1または第2視線推定ステップを選択し、推定される視線が注視するモニタ上の領域を特定するモニタ領域特定ステップとを備えたことを特徴としている。   The gaze direction detection method of the present invention includes a gaze detection image capturing step for capturing the gaze direction of the photographer, and a face area detection step for detecting a face area from the first image captured in the gaze detection image capturing step, A face area size calculating step for calculating the size of the face area, a face feature point detecting step for detecting a feature quantity of a face including eyes, nose, and mouth from the first image; In accordance with the size of the face area, a first line-of-sight estimation step that estimates the direction of the line of sight from the position information of the feature amount, a second line-of-sight estimation step that detects the pupil from the first image and estimates the direction of the line of sight, A monitor region specifying step of selecting the first or second line-of-sight estimation step and specifying an area on the monitor on which the estimated line of sight gazes.

本発明によれば、撮影される顔画像の大きさに応じて、最適な方法で視線検出を行うことができる。   According to the present invention, line-of-sight detection can be performed by an optimum method in accordance with the size of a face image to be shot.

本実施形態のデジタルカメラの背面図である。It is a rear view of the digital camera of this embodiment. 図1のデジタルカメラの構成を模式的に示すブロック図である。It is a block diagram which shows typically the structure of the digital camera of FIG. モニタのスルー画像を利用したカメラ撮影におけるユーザの様々な姿勢を示す図である。It is a figure which shows the various attitude | positions of the user in the camera imaging | photography using the through image of a monitor. スルー画像において第1段階のAFエリアを選択した様子を例示する図である。It is a figure which illustrates a mode that the 1st step AF area was selected in the through image. 第1段階のAFエリアを拡大し、第2段階のAFエリアを選択した様子を例示する図である。It is a figure which illustrates a mode that the AF area of the 1st step was expanded and the AF area of the 2nd step was selected. 本実施形態のAFエリア設定処理のフローチャートである。It is a flowchart of AF area setting processing of the present embodiment. 本実施形態の視線検出処理の前半部のフローチャートである。It is a flowchart of the first half of the gaze detection process of this embodiment. 本実施形態の視線検出処理の後半部のフローチャートである。It is a flowchart of the latter half part of the gaze detection process of this embodiment. 視線検出用カメラから離れた距離でユーザの顔全体が撮影されたときの視線検出用画像の状況を示す図である。It is a figure which shows the condition of the image for gaze detection when the whole user's face is image | photographed by the distance away from the camera for gaze detection. ユーザの顔全体が図9よりも近い距離で撮影されたときの視線検出用画像の状況を示す図である。It is a figure which shows the condition of the image for gaze detection when the whole user's face is image | photographed at a distance closer than FIG. 目、鼻、口を含む顔の一部が近い距離で撮影されたときの視線検出用画像の状況を示す図である。It is a figure which shows the condition of the image for eyes | visual_axis detection when a part of face including eyes, a nose, and a mouth is image | photographed at near distance. 目、鼻のみを含む顔の一部が極めて近い距離で撮影されたときの視線検出用画像の状況を示す図である。It is a figure which shows the condition of the image for eye-gaze detection when a part of face including only eyes and a nose is image | photographed at the very near distance. 瞳孔の画像を用いた視線方向推定処理のフローチャートである。It is a flowchart of the gaze direction estimation process using the image of a pupil. 瞳孔形状から視線方向を推定する方法の原理を説明する図である。It is a figure explaining the principle of the method of estimating a gaze direction from a pupil shape. 変形例における視線検出処理のフローチャートである。It is a flowchart of the gaze detection process in a modification.

以下、本発明の実施の形態を、図面を参照して説明する。図1は、本発明の一実施形態である視線方向検出装置が搭載されたデジタルカメラの背面図であり、図2は図1のデジタルカメラの構成を示すブロック図である。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a rear view of a digital camera equipped with a line-of-sight direction detection apparatus according to an embodiment of the present invention, and FIG. 2 is a block diagram showing a configuration of the digital camera of FIG.

デジタルカメラ10は、ユーザの視線を自動検出しAF(オートフォーカス)領域を自動選択する視線入力AF機能が搭載されたカメラである。図1に示されるように、デジタルカメラ10の背面にはLCDなどの画像表示用のモニタ11が設けられ、スルー画像や撮影画像、モード設定画面、パラメータ設定画面などが表示される。   The digital camera 10 is a camera equipped with a line-of-sight input AF function that automatically detects a user's line of sight and automatically selects an AF (autofocus) area. As shown in FIG. 1, an image display monitor 11 such as an LCD is provided on the back of the digital camera 10 to display a through image, a captured image, a mode setting screen, a parameter setting screen, and the like.

モニタ11の上辺中央には、固定焦点式(パンフォーカス)の視線検出用のカメラ12が配置される。視線検出用カメラ12の左右両側には、所定距離離れて照明用の光源13A、13B(視線検出用光源部13)が配置される。本実施形態では、視線検出用カメラ12に赤外線カメラが用いられ、照明用光源13、14には赤外線LEDが用いられる。すなわち、モニタ11を見るユーザの顔には、光源13、14から赤外線が照射され、視線検出用カメラ12で撮影される。   In the center of the upper side of the monitor 11, a fixed focus type (pan focus) line-of-sight detection camera 12 is arranged. Illumination light sources 13 </ b> A and 13 </ b> B (line-of-sight detection light source unit 13) are arranged on both the left and right sides of the line-of-sight detection camera 12 at a predetermined distance. In this embodiment, an infrared camera is used for the line-of-sight detection camera 12, and infrared LEDs are used for the illumination light sources 13 and 14. That is, the face of the user who views the monitor 11 is irradiated with infrared rays from the light sources 13 and 14 and photographed by the line-of-sight detection camera 12.

また、デジタルカメラ10の背面において、頂面に配置されたレリーズボタン(レリーズスイッチ)15に対応する位置には、スイッチ16が配置される。本実施形態ではスイッチ16はダイヤルスイッチであり、その下側には、例えば4方向キーやオーケーボタンなど、入力用ファンクションキー17が配置される。レリーズボタン15、ダイヤルスイッチ、ファンクションキー17などを含むスイッチ群14からの入力信号は、コントローラ18に入力され、入各種所定の処理が実行される。   Further, a switch 16 is disposed at a position corresponding to a release button (release switch) 15 disposed on the top surface on the back surface of the digital camera 10. In the present embodiment, the switch 16 is a dial switch, and an input function key 17 such as a four-way key or an OK button is disposed below the switch 16. Input signals from the switch group 14 including the release button 15, dial switch, function key 17 and the like are input to the controller 18, and various input and predetermined processes are executed.

また、カメラ本体の正面側には写真撮影用の撮像部19が設けられ、撮像部19で撮影されるスルー画像はコントローラ18を通して画像メモリ20に一時的に保持されるとともにモニタ11へ出力される。一方、視線検出用のカメラ12で撮影された画像は、コントローラ18を通して画像メモリ20に一時的に保持され、後述する視線検出処理に用いられる。レリーズボタン15が半押しされると、コントローラ18は視線検出用光源13を点灯し、視線検出用カメラ12による撮影を行う。また、レリーズボタン15が全押しされて撮像部19で撮影される静止画像は、モニタ11に一時的に表示されるとともにメモリカード22などの着脱自在な記録媒体に記録される。   An imaging unit 19 for taking a photograph is provided on the front side of the camera body, and a through image captured by the imaging unit 19 is temporarily held in the image memory 20 through the controller 18 and is output to the monitor 11. . On the other hand, an image taken by the camera 12 for detecting the line of sight is temporarily held in the image memory 20 through the controller 18 and used for a line-of-sight detection process described later. When the release button 15 is half-pressed, the controller 18 turns on the line-of-sight detection light source 13 and shoots with the line-of-sight detection camera 12. Further, the still image captured by the imaging unit 19 when the release button 15 is fully pressed is temporarily displayed on the monitor 11 and recorded on a removable recording medium such as the memory card 22.

なお、図1の例では、デジタルカメラ10の頂面にファインダ21が設けられているが、本実施形態の視線入力AF処理は、モニタ11に表示されるスルー画像を通した撮影を前提とするものであり、ファインダを備えない構成であってもよい。   In the example of FIG. 1, the finder 21 is provided on the top surface of the digital camera 10, but the line-of-sight input AF processing of the present embodiment is premised on photographing through a through image displayed on the monitor 11. It may be a structure without a finder.

本実施形態の視線入力AF処理では、モニタ11に表示されるスルー画像を見るユーザの顔を視線検出用カメラ12で撮影し、この画像を基にユーザの視線方向を検出して、ユーザが注視しているモニタ11上の位置(領域)を推定する。そして注視位置を含む所定の範囲の被写体に焦点を合わすAF処理を行う。   In the line-of-sight input AF process of the present embodiment, the face of the user who views the through image displayed on the monitor 11 is photographed by the line-of-sight detection camera 12, the direction of the user's line of sight is detected based on this image, and the user gazes. The position (area) on the monitor 11 is estimated. Then, an AF process for focusing on a subject in a predetermined range including the gaze position is performed.

モニタ11のスルー画像を見ながらの撮影では、図3(a)〜(c)に示されるように、撮影状況に応じてカメラ10に対するユーザの顔の位置が異なる。例えば図3(a)のようにカメラ10を顔の目の前で保持し、モニタ11のスルー画像を間近で見る場合、視線検出用カメラ12では、顔のアップ画像が撮影される。一方、図3(b)、(c)のようにカメラ10を顔から離し、モニタ11のスルー画像を遠くから見ながら撮影すると、顔はズームアウトされ、撮影画面の中で顔が占める領域は小さくなる。そして顔の画像が小さくなると、瞳孔の形状や位置のみによる視線の推定は難しくなり、しかもモニタ11からの距離が離れているため視線の方向の違いによる誤差の影響も大きくなる。そのため本実施形態では、後述するように、視線検出用カメラ12で撮影された画像の状況に合わせて視線方向の推定方法を変更し、常に最適な方法で視線方向の検出を行い、適正なAFエリアの選択を行う。   In photographing while viewing the through image of the monitor 11, the position of the user's face relative to the camera 10 differs depending on the photographing situation, as shown in FIGS. 3 (a) to 3 (c). For example, as shown in FIG. 3A, when the camera 10 is held in front of the face and the through image of the monitor 11 is viewed up close, the eye-gaze detection camera 12 captures an up image of the face. On the other hand, as shown in FIGS. 3B and 3C, when the camera 10 is taken away from the face and the through image of the monitor 11 is viewed from a distance, the face is zoomed out, and the area occupied by the face in the shooting screen is as follows. Get smaller. When the face image becomes smaller, it becomes difficult to estimate the line of sight only by the shape and position of the pupil. Further, since the distance from the monitor 11 is large, the influence of the error due to the difference in the direction of the line of sight increases. Therefore, in the present embodiment, as will be described later, the gaze direction estimation method is changed in accordance with the situation of the image captured by the gaze detection camera 12, and the gaze direction is always detected by an optimal method, and appropriate AF is performed. Select an area.

すなわち画像の中での目の位置や、検出された視線方向からユーザが注視しているモニタ11上の位置が推定され、その位置を含む領域がAFエリアに設定される。例えば図4に示されるように、画面(画像)Mが縦横3×3の9つの領域に分割されており、視線の方向からその中の1つが選択される。図4の例では、中段左側の領域A1が、ユーザが注視している領域であると判定され、第1段階のAFエリアとして設定される。   That is, the position on the monitor 11 where the user is gazing is estimated from the eye position in the image and the detected line-of-sight direction, and the area including the position is set as the AF area. For example, as shown in FIG. 4, the screen (image) M is divided into nine areas of 3 × 3 in the vertical and horizontal directions, and one of them is selected from the direction of the line of sight. In the example of FIG. 4, it is determined that the area A1 on the left side of the middle stage is an area that the user is gazing at, and is set as the first stage AF area.

図示例では、[ ]記号が領域A1内に表示され、同領域がAFエリアとして設定されたことを示す。なお、AFエリアであることを示す方法は、これに限定されるものではなく、他の記号を用いたり、同領域の周囲を特定色の枠で囲ったり、同領域を特定色で着色したり、あるいはこれらを組み合わせることでAFエリアであることを示してもよい。   In the illustrated example, the [] symbol is displayed in the area A1, indicating that the area is set as the AF area. The method of indicating the AF area is not limited to this, and other symbols may be used, the area may be surrounded by a specific color frame, or the area may be colored with a specific color. Alternatively, a combination of these may indicate the AF area.

更に本実施形態では、図4の状態、すなわち第1段階のAFエリアが設定された状態でダイヤルスイッチ16(図1)が所定の方向(拡大方向)に回転されると領域A1の画像が拡大され、図5に示されるようにモニタ11の画面Mにその全体が表示される。画面M内の画像も例えば縦横3×3の9つの領域に分割されており、拡大表示が行われると視線検出用カメラ11を用いた視線検出が再び実行され、拡大画像におけるユーザの注視エリアが特定され、同領域が第2段階のAFエリアとして設定される。図5の例では、下段中央の領域A2が、ユーザが注視している領域であると判定され、第2段階のAFエリアとして設定される。   Furthermore, in this embodiment, when the dial switch 16 (FIG. 1) is rotated in a predetermined direction (enlargement direction) in the state of FIG. 4, that is, in the state where the first-stage AF area is set, the image of the area A1 is enlarged. Then, as shown in FIG. 5, the whole is displayed on the screen M of the monitor 11. The image in the screen M is also divided into, for example, 9 × 3 × 3 areas. When enlarged display is performed, line-of-sight detection using the line-of-sight detection camera 11 is executed again, and the user's gaze area in the enlarged image is displayed. The identified area is set as the second stage AF area. In the example of FIG. 5, it is determined that the area A2 at the center of the lower stage is the area that the user is gazing at, and is set as the AF area of the second stage.

すなわち、第1段階のAF領域A1を選択後、ユーザがダイヤルスイッチ16を操作することで、画角内のより狭い領域(図示例では元の画像の81分の1の領域)をAFエリアとして設定することができ、より細かく焦点を合わせる被写体を選択できる。なお第2段階のAFエリアA2設定後、ダイヤルスイッチ16を縮小方向に操作して、図4の状態(全画面表示)に戻し(縮小し)、視線入力を用いたAFエリアの再選択を繰り返すことも可能である。また第2段階のAFエリアA2が設定された図5の状態で、ダイヤルスイッチ16を拡大方向に操作して、AFエリアA2を画面Mに拡大表示し、視線入力を用いて第3段階のAFエリアの設定を行える構成としてもよい。なお、例えばAFエリア設定処理中において所定のボタンが操作されると、選択されたAFエリアが固定される。   That is, after selecting the first-stage AF area A1, the user operates the dial switch 16 so that a narrower area within the angle of view (an area of 1/81 of the original image in the illustrated example) is set as the AF area. The subject to be focused can be selected more finely. After setting the AF area A2 in the second stage, the dial switch 16 is operated in the reduction direction to return (reduce) to the state shown in FIG. 4 (full screen display), and the AF area reselection using the line-of-sight input is repeated. It is also possible. In the state of FIG. 5 in which the second stage AF area A2 is set, the dial switch 16 is operated in the enlargement direction to enlarge the AF area A2 on the screen M, and the third stage AF is performed using the line-of-sight input. It is good also as a structure which can set an area. For example, when a predetermined button is operated during the AF area setting process, the selected AF area is fixed.

次に図6のフローチャートおよび図1、2を参照して、本実施形態の視線入力AF処理におけるAFエリア設定処理について説明する。なお本処理は、例えばレリーズボタン15が半押しさたときにコントローラ18において実行される。   Next, an AF area setting process in the line-of-sight input AF process of the present embodiment will be described with reference to the flowchart of FIG. 6 and FIGS. This process is executed by the controller 18 when the release button 15 is half-pressed, for example.

AFエリア設定処理では、まずステップS100において、視線検出処理が実行される。すなわち、光源13、14から照明光として赤外線が照射され、モニタ11のスルー画像を見ているユーザを視線検出用カメラ12で撮影する。そして、ユーザが写った画像を用いて後述する方法でユーザの視線方向を検出し、モニタ11の画面における注視エリアが特定されれば、同エリアをAFエリアとして確定する。   In the AF area setting process, first, a line-of-sight detection process is executed in step S100. That is, infrared rays are emitted from the light sources 13 and 14 as illumination light, and a user who is looking at a through image on the monitor 11 is photographed by the line-of-sight detection camera 12. Then, the direction of the user's line of sight is detected by a method to be described later using an image in which the user is captured, and if the gaze area on the screen of the monitor 11 is specified, the area is determined as the AF area.

ステップS102では、AFエリア(フォーカスエリア)が確定されたか否かが判定され、確定されていなければステップS100の処理が繰り返される。AFエリアが確定されていれば、ステップS104においてダイヤルスイッチ16が操作されたか否か、また操作されている場合には拡大方向、縮小方向の何れに操作されたかが判定される。   In step S102, it is determined whether or not an AF area (focus area) has been confirmed. If not, the process in step S100 is repeated. If the AF area has been determined, it is determined whether or not the dial switch 16 has been operated in step S104, and if it has been operated, it has been determined whether it has been operated in the enlargement or reduction direction.

ダイヤルスイッチ16が画像を拡大する方向へ操作された場合には、ステップS106において、特定されたAFエリア(注視フォーカスエリア)が拡大され、ステップS100以下の処理が繰り返される。一方ダイヤルスイッチ16が画像を縮小する方向へ操作された場合には、ステップS108においてAFエリア(注視フォーカスエリア)が縮小されステップS100以下の処理が繰り返される。また、ダイヤルスイッチ16が操作されずに一定時間経過した場合や、拡大方向、縮小方向へ操作されたが更なる拡大、縮小はもうできず一定時間経過した場合、あるいは所定のボタンが操作された場合には、本処理は終了し、現在設定されている領域がAFエリアに固定され、モニタ11の表示は、拡大されていない状態に戻される。   If the dial switch 16 is operated in the direction of enlarging the image, the identified AF area (gaze focus area) is enlarged in step S106, and the processes in and after step S100 are repeated. On the other hand, when the dial switch 16 is operated in the direction of reducing the image, the AF area (gaze focus area) is reduced in step S108, and the processes in and after step S100 are repeated. In addition, when the dial switch 16 is not operated and a certain time elapses, or when the operation is performed in the enlargement / reduction direction but further enlargement / reduction is not possible, and a certain time elapses, or a predetermined button is operated In this case, the present process is terminated, the currently set area is fixed to the AF area, and the display on the monitor 11 is returned to an unexpanded state.

次に図1、2および図7、図8のフローチャート、図9〜図12を参照して、図6の視線検出処理について説明する。なお図9〜図12は、視線検出用カメラ12で撮影され、画像メモリ20に保持される画像(入力画像)Gの異なる6種類の状態を例示的に示す模式図である。   Next, the gaze detection process of FIG. 6 will be described with reference to the flowcharts of FIGS. 1, 2, 7, and 8 and FIGS. 9 to 12. 9 to 12 are schematic diagrams exemplarily showing six different states of images (input images) G captured by the line-of-sight detection camera 12 and held in the image memory 20.

前述したように視線検出処理では、まず光源13A、13Bを点灯して視線検出用カメラ12による画像撮影が行われ、入力画像Gとして取得される。ステップS202では、入力画像Gに対して従来周知の顔器官検出処理が実行される。すなわち、目や鼻、口等の特徴点の検出が行われるとともに、顔領域F、目領域E1、E2の検出が行われる。   As described above, in the line-of-sight detection process, first, the light sources 13A and 13B are turned on and an image is captured by the line-of-sight detection camera 12 and acquired as an input image G. In step S202, a conventionally known facial organ detection process is performed on the input image G. That is, feature points such as eyes, nose and mouth are detected, and the face area F and eye areas E1 and E2 are detected.

ステップS204では、入力画像Gから顔領域Fが検出されたか否かが判定される。顔領域Fは、図8、図9に示されるように略顔全体が含まれる領域であり、顔領域Fが検出されたと判定されるとステップS206において、検出された顔領域Fの大きさ(サイズ)が計算され、ステップS208において検出された目領域E1、E2のそれぞれの大きさ(サイズ)が計算される。   In step S204, it is determined whether or not the face area F is detected from the input image G. The face area F is an area that includes substantially the entire face as shown in FIGS. 8 and 9, and if it is determined that the face area F has been detected, the size of the detected face area F ( Size) is calculated, and the sizes (sizes) of the eye regions E1 and E2 detected in step S208 are calculated.

その後ステップS210において、顔領域Fの大きさが第1閾値Th1以下であるか否かが判定される。視線検出用の画像撮影時、図3(b)、(c)のようにユーザの顔がモニタから離れていて、顔領域Fの大きさが図9のように小さく、その面積が第1閾値Th1以下であると判定された場合、顔領域Fの大きさは視線検出には小さ過ぎると考えられる。したがって処理はステップS200に戻り、新たに視線検出用の画像が撮影され入力画像とされる。そしてステップS202以下の処理が繰り返される。   Thereafter, in step S210, it is determined whether or not the size of the face area F is equal to or less than the first threshold Th1. At the time of capturing an image for line-of-sight detection, the user's face is separated from the monitor as shown in FIGS. 3B and 3C, the size of the face region F is small as shown in FIG. When it is determined that it is equal to or less than Th1, the size of the face region F is considered to be too small for line-of-sight detection. Therefore, the process returns to step S200, and a new line-of-sight detection image is taken as an input image. And the process after step S202 is repeated.

一方、ステップS210において顔領域Fの面積が第1閾値Th1よりも大きいと判定された場合には(例えば図3(a)〜図2(b)の状態で視線検出用の画像が撮影され、図10の画像が取得された場合)、ステップS212で、顔領域Fの大きさが第1閾値Th1よりも大きい第2閾値Th2以下であるか否かが判定される。顔領域Fの大きさが第2閾値以下であると判定されると(Th1<顔領域Fの大きさ≦Th2)、瞳孔を用いた視線検出を行うには顔領域Fが小さ過ぎると考えられるので、ステップS214において、例えば図10における目、鼻、口などの顔特徴点P1〜P10の位置関係から視線方向が推定され、本視線検出処理は終了する。   On the other hand, when it is determined in step S210 that the area of the face region F is larger than the first threshold Th1 (for example, a line-of-sight detection image is captured in the state of FIGS. 3A to 2B, When the image of FIG. 10 is acquired), in step S212, it is determined whether or not the size of the face region F is equal to or smaller than the second threshold Th2 that is larger than the first threshold Th1. If it is determined that the size of the face area F is equal to or smaller than the second threshold (Th1 <the size of the face area F ≦ Th2), it is considered that the face area F is too small to perform gaze detection using the pupil. Therefore, in step S214, the line-of-sight direction is estimated from the positional relationship of the facial feature points P1 to P10 such as eyes, nose, and mouth in FIG. 10, and the line-of-sight detection process ends.

一方、ステップS204において顔領域Fが検出されないと判定された場合や、ステップS212において顔領域Fの大きさが第2閾値Th2よりも大きいと判定された場合には、ステップS216において、入力画像Gから両目(目領域E1、E2)が検出されたか否かが判定される。すなわち、図11、図12のように、撮影時ユーザの顔の位置がカメラに近接し、ユーザの顔の一部のみが撮影されて顔領域Fは検出されない場合や、入力画像Gの全体が略顔領域Fで占められる場合には、撮影された目の画像から視線検出を行える可能性が高いので、両目が入力画像Gに含まれ、瞳孔による視線検出が行えるか否かが判定される。   On the other hand, if it is determined in step S204 that the face area F is not detected, or if it is determined in step S212 that the size of the face area F is larger than the second threshold Th2, in step S216, the input image G Whether or not both eyes (eye areas E1, E2) are detected is determined. That is, as shown in FIGS. 11 and 12, when the user's face is close to the camera at the time of shooting, only a part of the user's face is shot and the face area F is not detected, or the entire input image G is If the face area F is occupied, there is a high possibility that eye-gaze detection can be performed from the captured eye image. Therefore, it is determined whether or not both eyes are included in the input image G and eye-gaze detection by the pupil can be performed. .

ステップS216において、入力画像Gに両目が含まれると判定される場合には、ステップS218へ進み瞳孔検出処理が行われる。一方、両目が含まれないと判定されると、ステップS200に戻り、視線検出用カメラ12により新たな画像の撮影が行われ、前述した処理が繰り返される。   If it is determined in step S216 that both eyes are included in the input image G, the process proceeds to step S218, and pupil detection processing is performed. On the other hand, if it is determined that both eyes are not included, the process returns to step S200, a new image is taken by the line-of-sight detection camera 12, and the above-described processing is repeated.

ステップS218では、目領域E1、E2から瞳孔が検出され、ステップS220において瞳孔の大きさ(例えば面積)が第3閾値以上であるか否かが判定される。瞳孔の大きさが第3閾値以上であれば、ステップS222において、瞳孔による視線方向の推定が行われ、本視線検出処理は終了する。また瞳孔の大きさが第3閾値よりも小さければ、ステップS224において、ステップS214と同様に顔特徴点を用いた視線方向の推定が行われ本視線検出処理は終了する。   In step S218, a pupil is detected from the eye regions E1 and E2, and in step S220, it is determined whether or not the size (for example, area) of the pupil is equal to or greater than a third threshold value. If the size of the pupil is greater than or equal to the third threshold value, the gaze direction is estimated by the pupil in step S222, and the gaze detection process ends. If the size of the pupil is smaller than the third threshold value, in step S224, the gaze direction is estimated using the facial feature points in the same manner as in step S214, and the gaze detection process ends.

次に図13のフローチャートおよび図14を参照して図8のステップS222における瞳孔の画像を用いた視線方向の推定処理について説明する。   Next, with reference to the flowchart of FIG. 13 and FIG. 14, the gaze direction estimation process using the pupil image in step S222 of FIG. 8 will be described.

本実施形態では、視線の向きによる瞳孔の形状の変化を利用して視線方向を推定する。すなわち、瞳孔は視線の向きにより様々な方向へ傾いた楕円形状となり、眼球の中心の位置と瞳孔の形状およびその傾きから視線方向が推定される。   In the present embodiment, the line-of-sight direction is estimated using a change in the shape of the pupil depending on the direction of the line of sight. That is, the pupil has an elliptical shape inclined in various directions depending on the direction of the line of sight, and the line-of-sight direction is estimated from the position of the center of the eyeball, the shape of the pupil, and the inclination thereof.

瞳孔の形状変化を利用した視線方向推定処理では、ステップS300において、目領域(E1、E2)の画像が取得され、ステップS302において同画像が平滑化される。ステップS304では、画像がグレースケールに変換され、ステップS306で2値化される。ステップS308では、2値化された目の画像に輪郭抽出処理が施され、ステップS310で楕円フィッティングが行われる。ステップS312では、図14に示される楕円パラメータ(a,b,α)を用いた楕円フィッティングにより視線方向(φ,θ)が求められる。
tanφ=±√((a−b)/b)・sinα (1)
tanθ=±√((a−b)/b)・cosα (2)
ここで、aは楕円の長軸、bは短軸であり、αは画像平面上(X’Y’面)における楕円の傾斜角で視線の傾きに対応する。楕円形状は原点対称で同一パラメータとなるため、瞳孔中心座標により符号を選択する必要がある。
In the gaze direction estimation process using the pupil shape change, in step S300, an image of the eye area (E1, E2) is acquired, and in step S302, the image is smoothed. In step S304, the image is converted to grayscale, and binarized in step S306. In step S308, a contour extraction process is performed on the binarized eye image, and an ellipse fitting is performed in step S310. In step S312, the line-of-sight direction (φ, θ) is obtained by ellipse fitting using the ellipse parameters (a, b, α) shown in FIG.
tan φ = ± √ ((a 2 −b 2 ) / b 2 ) · sin α (1)
tan θ = ± √ ((a 2 −b 2 ) / b 2 ) · cos α (2)
Here, a is the major axis of the ellipse, b is the minor axis, and α is the inclination angle of the ellipse on the image plane (X′Y ′ plane) and corresponds to the inclination of the line of sight. Since the elliptical shape is symmetric with respect to the origin and has the same parameters, it is necessary to select a code based on the pupil center coordinates.

また、図14においてZ軸の+方向をカメラが向けられた方向とすると、視線方向は図中のPO方向となる。なお図14においてβは視線の角度であり、瞳孔の偏平率b/aから求められる。   In FIG. 14, if the + direction of the Z-axis is the direction in which the camera is directed, the line-of-sight direction is the PO direction in the figure. In FIG. 14, β is the angle of the line of sight, and is obtained from the pupil flatness b / a.

瞳孔を用いた視線方向の推定は、上記方法に限定されず、例えば、眼球中心Oに対する瞳孔中心Pの画像上の位置(x,y)からも求められる。例えば図14に示されるように、視線方向(φ,θ)は以下の式で求められる。
tanφ=y/√(r−x−y) (3)
tanθ=x/√(r−x−y) (4)
なお、この他の方法でx、y、a、b、α等の情報から、視線方向ベクトル(例えば(φ,θ)、(φ,ψ)、(θ,ψ)の何れかの組み合わせ、あるいは(φ,θ,ψ)等)を推定する構成としてもよい。
The estimation of the line-of-sight direction using the pupil is not limited to the above method, and can be obtained from the position (x, y) on the image of the pupil center P with respect to the eyeball center O, for example. For example, as shown in FIG. 14, the line-of-sight direction (φ, θ) is obtained by the following equation.
tan φ = y / √ (r 2 −x 2 −y 2 ) (3)
tan θ = x / √ (r 2 −x 2 −y 2 ) (4)
It should be noted that any other combination of gaze direction vectors (for example, (φ, θ), (φ, ψ), (θ, ψ), from information such as x, y, a, b, α, etc. (Φ, θ, ψ, etc.) may be estimated.

視線検出用画像において目の位置が特定され、瞳孔あるいは顔の特徴量から視線方向が推定されると、ユーザがモニタ11のどの分割領域(例えば縦横3×3)を注視しているかが特定される。   When the eye position is specified in the eye-gaze detection image and the eye-gaze direction is estimated from the feature amount of the pupil or the face, it is specified which divided area (for example, 3 × 3) of the monitor 11 is being watched. The

以上のように、本実施形態によれば、撮影される顔画像の大きさに応じて、目、鼻、口の特徴量の一部または全体の位置関係から顔の向きを特定し、瞳孔形状や瞳孔中心の位置からの視線の向きを特定することで、顔画像の大きさに最適な方法で視線検出を行うことができる。   As described above, according to the present embodiment, the orientation of the face is specified based on the positional relationship of some or all of the feature quantities of the eyes, nose, and mouth according to the size of the captured face image, and the pupil shape By specifying the direction of the line of sight from the position of the center of the pupil and the line of sight, the line of sight can be detected by a method optimal for the size of the face image.

次に図15のフローチャートを参照して、視線検出処理の変形例について説明する。変形例では、顔の特徴量のうち、特に鼻の向きにを利用した構成を採用している。   Next, a modification of the line-of-sight detection process will be described with reference to the flowchart of FIG. In the modified example, a configuration using the facial feature amount in particular for the direction of the nose is employed.

変形例の視線検出処理では、ステップS400〜ステップS406では、図7のステップS200〜ステップS206と同様の処理が行われる。すなわち、ステップS400で視線検出用の入力画像が取得され、ステップS402で入力画像Gに対して顔器官検出処理が実行され、目や鼻、口等の特徴点の検出が行われるとともに、顔領域F、目領域E等の検出が行われる。ステップS404では入力画像Gから顔領域Fが検出されたか否かが判定され、顔領域Fが検出されているときには、ステップS406において、検出された顔領域Fの大きさ(サイズ)が計算される。   In the line-of-sight detection processing according to the modification, in steps S400 to S406, processing similar to that in steps S200 to S206 in FIG. 7 is performed. That is, an input image for line-of-sight detection is acquired in step S400, face organ detection processing is executed on the input image G in step S402, and feature points such as eyes, nose and mouth are detected, and a facial region F, eye region E, etc. are detected. In step S404, it is determined whether or not the face area F is detected from the input image G. When the face area F is detected, the size (size) of the detected face area F is calculated in step S406. .

ステップS408では、顔領域Fの大きさが第1閾値Th1以下であるか否かが判定され、第1閾値Th1以下の場合には、ステップS410において視線方向が検出できないことをモニタ11に表示し、本視線検出処理は終了する。一方い、ステップS408において顔領域Fの大きさが第1閾値Th1よりも大きいと判定された場合には、ステップS416において顔領域Fの大きさが第1閾値Th1よりも大きい第2閾値Th2以下であるか否かが判定され、第2閾値Th2以下であればステップS418において顔全体の特徴量から顔の向きが検出され、ステップS420で顔の向きに基づいてユーザの視線方向が推定され本視線検出処理は終了する。またテップS416において顔領域Fの大きさが第2閾値Th2よりも大きい場合には、ステップS414において、鼻の特徴量から鼻の向きが計算され、ステップS420において鼻の向きに基づきユーザの視線方向が推定され本視線検出処理は終了する。   In step S408, it is determined whether or not the size of the face area F is equal to or smaller than the first threshold Th1, and if it is equal to or smaller than the first threshold Th1, it is displayed on the monitor 11 that the line-of-sight direction cannot be detected in step S410. Then, the gaze detection process ends. On the other hand, if it is determined in step S408 that the size of the face area F is larger than the first threshold Th1, the size of the face area F is less than the second threshold Th2 that is larger than the first threshold Th1 in step S416. In step S418, the face direction is detected from the feature amount of the entire face, and in step S420, the user's gaze direction is estimated based on the face direction. The line-of-sight detection process ends. If the size of the face region F is larger than the second threshold Th2 in step S416, the direction of the nose is calculated from the nose feature amount in step S414, and the line-of-sight direction of the user based on the nose direction in step S420. Is estimated, and the gaze detection process ends.

一方、ステップS404において顔領域Fが検出されないと判定されると、ステップS412において鼻が検出されたか否かが判定される。鼻が検出されている場合には、ステップS414において鼻の向きが計算され、鼻が検出されていない場合にはステップS422において両目が検出されたか否かが判定される。両目が検出されていなければ、ステップS400に戻り同様の処理が繰り返され、検出されていれば図8のステップS218〜ステップS224の処理が実行され、視線検出処理は終了する。なお変形例のステップS224では、特に鼻の向きに基づいて視線方向が推定される。ステップS412で鼻が検出され、ステップS414において鼻の向きが計算されると、ステップS420において鼻の向きに基づきユーザの視線方向が推定され本視線検出処理は終了する。   On the other hand, if it is determined in step S404 that the face area F is not detected, it is determined in step S412 whether or not a nose is detected. If the nose is detected, the direction of the nose is calculated in step S414, and if no nose is detected, it is determined in step S422 whether or not both eyes are detected. If both eyes have not been detected, the process returns to step S400 and the same processing is repeated. If both eyes have been detected, the processing from step S218 to step S224 in FIG. 8 is executed, and the line-of-sight detection processing ends. In step S224 of the modified example, the line-of-sight direction is estimated based on the direction of the nose. When the nose is detected in step S412, and the direction of the nose is calculated in step S414, the line-of-sight direction of the user is estimated based on the direction of the nose in step S420, and the line-of-sight detection process ends.

以上のように変形例においても、本実施形態と同様の効果を得ることができる。   As described above, also in the modified example, the same effect as in the present embodiment can be obtained.

なお、本実施形態では、視線検出用画像に赤外線画像を用いたが、通常のカラー画像を用いてもよい。また、視線検出用画像の撮影に用いられる照明用光源の数も1個または3個以上であってもよく、モニタを見る顔全体を照明できる構成であればよい。例えばレンズを中心に略等間隔の角度で配置されてもよい(3個であれば120度間隔、4個であれば90度間隔)。照明用光源の数を複数とすることにより顔領域への照明のムラが軽減できるので、顔領域の検出、顔特徴点の検出、瞳孔の検出の各精度を向上することができる。   In this embodiment, an infrared image is used as the line-of-sight detection image, but a normal color image may be used. In addition, the number of illumination light sources used for capturing the line-of-sight detection image may be one or three or more, and any configuration that can illuminate the entire face as viewed on the monitor is acceptable. For example, the lenses may be arranged at substantially equal intervals around the lens (120 ° intervals for three lenses, 90 ° intervals for four lenses). By using a plurality of illumination light sources, uneven illumination of the face area can be reduced, so that each accuracy of face area detection, face feature point detection, and pupil detection can be improved.

本実施形態ではデジタルカメラの視線入力AFを例に説明を行ったが、画面を見るユーザの視線を検出して画面上の注視領域を特定する用途であれば、AF処理やカメラに限定されるものではない。また、本実施形態では、モニタがカメラの背面に設けられているため写真撮影用カメラと視線検出用カメラの向きが反対向きであるが、視線検出用カメラはモニタと略同じ方向を向いていればよく、例えばモニタがカメラ本体に対して上下左右等に回動可能な場合には、視線検出用カメラはモニタと一体的に移動する。また、本実施形態においてAF処理に関しては特に言及しなかったが、コントラストAFや位相差AFなど、何れを用いることもできる。   In the present embodiment, the line-of-sight input AF of a digital camera has been described as an example. However, the present invention is limited to AF processing and a camera as long as the gaze area on the screen is specified by detecting the line of sight of the user viewing the screen. It is not a thing. In this embodiment, since the monitor is provided on the back side of the camera, the direction of the photography camera and the line-of-sight detection camera are opposite to each other, but the line-of-sight detection camera may face the same direction as the monitor. For example, when the monitor can be rotated vertically and horizontally with respect to the camera body, the line-of-sight detection camera moves integrally with the monitor. In the present embodiment, the AF process is not particularly mentioned, but any of contrast AF, phase difference AF, and the like can be used.

10 デジタルカメラ
11 モニタ
12 視線検出用カメラ
13A、13B 光源
14 スイッチ群
15 レリーズボタン
16 ダイヤルスイッチ(入力部)
17 ファンクションキー(入力部)
18 コントローラ
19 撮像部
20 画像メモリ
21 ファインダ
A1 第1段階の特定領域
A2 第2段階の特定領域
DESCRIPTION OF SYMBOLS 10 Digital camera 11 Monitor 12 Eye-gaze detection camera 13A, 13B Light source 14 Switch group 15 Release button 16 Dial switch (input part)
17 Function keys (input section)
18 controller 19 imaging unit 20 image memory 21 finder A1 first stage specific area A2 second stage specific area

Claims (13)

画像を表示するモニタと、
前記モニタが向けられる方向を撮影する視線検出用撮影手段と、
前記視線検出用撮影手段で撮影された第1画像から顔領域を検出する顔領域検出手段と、
前記顔領域の大きさを算出する顔領域サイズ算出手段と、
前記第1画像から目、鼻、口を含む顔の特徴量を検出する顔特徴点検出手段と、
前記顔の特徴量の何れかあるいは複数の特徴量の位置情報から視線の方向を推定する第1視線推定手段と、
前記第1画像から瞳孔を検出して視線の方向を推定する第2視線推定手段と、
前記顔領域の大きさに応じて、前記第1または第2視線推定手段を選択し、推定される前記視線が注視する前記モニタ上の領域を特定するモニタ領域特定手段と
を備えることを特徴とする視線方向検出装置。
A monitor for displaying images;
Gaze detection imaging means for imaging the direction in which the monitor is directed;
A face area detecting means for detecting a face area from the first image photographed by the eye-gaze detecting photographing means;
Face area size calculating means for calculating the size of the face area;
Facial feature point detection means for detecting facial feature quantities including eyes, nose and mouth from the first image;
First line-of-sight estimation means for estimating a line-of-sight direction from position information of any one or a plurality of feature quantities of the face;
Second line-of-sight estimation means for detecting a pupil from the first image and estimating a direction of the line of sight;
Monitor area specifying means for selecting the first or second line-of-sight estimation means according to the size of the face area, and specifying the area on the monitor where the estimated line of sight gazes. A gaze direction detecting device.
前記モニタ領域特定手段は、前記顔領域の大きさが第2閾値よりも小さいとき前記第1視線推定手段を選択し、前記第2閾値よりも大きいとき前記第2視線推定手段を選択することを特徴とする請求項1に記載の視線方向検出装置。   The monitor area specifying means selects the first line-of-sight estimation means when the size of the face area is smaller than a second threshold, and selects the second line-of-sight estimation means when larger than the second threshold. The gaze direction detecting device according to claim 1, wherein 前記モニタ領域特定手段は、前記顔領域の大きさが前記第2閾値よりも小さい第1閾値よりも小さいときには前記視線の方向の推定を行わないことを特徴とする請求項2に記載の視線方向検出装置。   3. The gaze direction according to claim 2, wherein the monitor area specifying unit does not estimate the gaze direction when the size of the face area is smaller than a first threshold value smaller than the second threshold value. Detection device. 前記モニタ領域特定手段は、前記顔領域が検出されない場合、前記第1画像から両目が検出されれば前記第2視線推定手段を選択し、前記モニタ上の領域を特定することを特徴とする請求項1または請求項2に記載の視線方向検出装置。   The monitor area specifying unit selects the second line-of-sight estimation unit and specifies an area on the monitor when both eyes are detected from the first image when the face area is not detected. The gaze direction detecting device according to claim 1 or 2. 前記視線検出用撮影手段の撮影レンズを中心とした周囲に複数の照明用光源が配置されることを特徴とする請求項1〜4の何れか一項に記載の視線方向検出装置。   The gaze direction detection apparatus according to claim 1, wherein a plurality of illumination light sources are arranged around a photographing lens of the gaze detection photographing unit. 前記モニタ領域特定手段により特定される領域をユーザに了知させる特定領域了知手段を備えることを特徴とする請求項1〜5の何れか一項に記載の視線方向検出装置。   The gaze direction detecting device according to claim 1, further comprising: a specific area notifying unit that allows a user to recognize an area specified by the monitor area specifying unit. 前記特定領域了知手段は、特定される前記領域の周囲を特定色の枠で囲む、前記領域部分に特定のマークを表示する、前記領域の全体を特定の色成分で着色する、の何れかあるいはこれらの組み合わせを用いて前記領域が特定されていることを示すことを特徴とする請求項6に記載の視線方向検出装置。   The specific area recognition means is one of surrounding a specific area with a specific color frame, displaying a specific mark on the area, and coloring the entire area with a specific color component. Or it shows that the said area | region is specified using these combination, The gaze direction detection apparatus of Claim 6 characterized by the above-mentioned. 前記モニタに表示される画像の拡大を指示する入力手段を備え、画像の拡大が指示されると前記モニタ領域特定手段により特定される領域の画像が前記モニタに拡大表示されるとともに、前記視線検出用撮影手段を用いて第2画像が撮影され、前記第2画像に基づき前記モニタ領域特定手段により前記モニタ上の領域が更に特定されることを特徴とする請求項1〜7の何れか一項に記載の視線方向検出装置。   An input means for instructing enlargement of an image displayed on the monitor is provided, and when the enlargement of the image is instructed, an image of an area specified by the monitor area specifying means is enlarged and displayed on the monitor, and the line-of-sight detection 8. The second image is photographed by using a photographing means, and an area on the monitor is further specified by the monitor area specifying means based on the second image. The line-of-sight direction detection apparatus according to 1. 前記入力手段は、前記モニタ領域特定手段により特定される領域を固定する操作部を備えることを特徴とする請求項8に記載の視線方向検出装置。   The line-of-sight direction detection apparatus according to claim 8, wherein the input unit includes an operation unit that fixes an area specified by the monitor area specifying unit. 前記領域の固定後は、拡大されていない通常の大きさの画像が前記モニタに表示されることを特徴とする請求項9に記載の視線方向検出装置。   The line-of-sight direction detection apparatus according to claim 9, wherein after the region is fixed, an image having a normal size that is not enlarged is displayed on the monitor. 前記視線検出用撮影手段は、装置本体に対して前記モニタと一体的に変位することを特徴とする請求項1〜10の何れかに記載の視線方向検出装置。 The visual axis detecting photographing means, gaze direction detecting apparatus according to any one of claims 1-10, characterized in that integrally displaced with the monitoring to the apparatus main body. 請求項1〜11の何れかに記載の視線方向検出装置と、前記視線検出用撮手段とは異なる画像撮影手段とを備える撮像装置であって、
前記画像撮影手段で撮影されるモニタ画像が前記モニタに表示され、前記モニタ領域特定手段により特定される領域がAFエリアに利用される
ことを特徴とする撮像装置。
An imaging apparatus and a different image capturing means and the line-of-sight direction detecting apparatus according, the shadow unit Taking for the sight line detection in any of claims 1 to 11,
A monitor image photographed by the image photographing means is displayed on the monitor, and an area specified by the monitor area specifying means is used for an AF area.
撮影者の視線方向を撮影する視線検出用画像撮影ステップと、
前記視線検出用画像撮影ステップで撮影される第1画像から顔領域を検出する顔領域検出ステップと、
前記顔領域の大きさを算出する顔領域サイズ算出ステップと、
前記第1画像から目、鼻、口を含む顔の特徴量を検出する顔特徴点検出ステップと、
前記顔の特徴量の何れかあるいは複数の特徴量の位置情報から視線の方向を推定する第1視線推定ステップと、
前記第1画像から瞳孔を検出して視線の方向を推定する第2視線推定ステップと、
前記顔領域の大きさに応じて、前記第1または第2視線推定ステップを選択し、推定される前記視線が注視するモニタ上の領域を特定するモニタ領域特定ステップと
を備えることを特徴とする視線方向検出方法。

A line-of-sight detection image capturing step for capturing the line-of-sight direction of the photographer;
A face area detecting step of detecting a face area from the first image captured in the line-of-sight detection image capturing step;
A face area size calculating step for calculating the size of the face area;
A facial feature point detecting step for detecting facial feature quantities including eyes, nose and mouth from the first image;
A first line-of-sight estimation step of estimating a line-of-sight direction from position information of any one or a plurality of feature quantities of the face;
A second line-of-sight estimation step of detecting a pupil from the first image and estimating a direction of the line of sight;
Characterized in that it comprises said in response to the size of the face region, the first or selects the second sight estimation step, monitor area specifying step of the sight line to identify the region on the watch to makes the chromophore at the distal end Nita estimated The gaze direction detection method.

JP2013152772A 2013-07-23 2013-07-23 Gaze direction detection device and gaze direction detection method Active JP6241107B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013152772A JP6241107B2 (en) 2013-07-23 2013-07-23 Gaze direction detection device and gaze direction detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013152772A JP6241107B2 (en) 2013-07-23 2013-07-23 Gaze direction detection device and gaze direction detection method

Publications (2)

Publication Number Publication Date
JP2015022700A JP2015022700A (en) 2015-02-02
JP6241107B2 true JP6241107B2 (en) 2017-12-06

Family

ID=52487049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013152772A Active JP6241107B2 (en) 2013-07-23 2013-07-23 Gaze direction detection device and gaze direction detection method

Country Status (1)

Country Link
JP (1) JP6241107B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6510451B2 (en) * 2016-03-17 2019-05-08 Kddi株式会社 Device, method and program for specifying the pupil area of a person in an image
JP6822482B2 (en) * 2016-10-31 2021-01-27 日本電気株式会社 Line-of-sight estimation device, line-of-sight estimation method, and program recording medium
JP7431567B2 (en) * 2019-12-10 2024-02-15 キヤノン株式会社 Electronic devices and their control methods, programs, and storage media

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002277730A (en) * 2001-03-22 2002-09-25 Ricoh Co Ltd Method, device and program for automatic focusing control of electronic camera
JP5626039B2 (en) * 2011-03-09 2014-11-19 富士通株式会社 Gaze detection apparatus and gaze detection method

Also Published As

Publication number Publication date
JP2015022700A (en) 2015-02-02

Similar Documents

Publication Publication Date Title
US8649574B2 (en) Imaging apparatus, control method of imaging apparatus, and computer program
JP6512810B2 (en) Image pickup apparatus, control method and program
EP1471455B1 (en) Digital camera
JP4912117B2 (en) Imaging device with tracking function
US9521310B2 (en) Method and apparatus for focusing on subject in digital image processing device
JP4663700B2 (en) Imaging apparatus and imaging method
CN103048846B (en) Focus-regulating device and control method thereof
JP5171468B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
US20210051266A1 (en) Image capture apparatus and control method thereof
JPWO2014148031A1 (en) Image generating apparatus, imaging apparatus, and image generating method
JP6241107B2 (en) Gaze direction detection device and gaze direction detection method
JP5142825B2 (en) Image display device and image display method
JP2006268248A (en) Photographing device, and face direction determining method
JP2023052357A (en) Electronic apparatus and program
JP2019121860A (en) Image processing apparatus and control method therefor
JP2021021857A (en) Imaging apparatus and control method thereof
US11662809B2 (en) Image pickup apparatus configured to use line of sight for imaging control and control method thereof
JP2007133301A (en) Autofocus camera
JP2011135527A (en) Digital camera
JP2008005438A (en) Imaging apparatus and imaging method
JP2005202477A (en) Method for deciding top-and-bottom direction of face image and image recording device and image reproducing device
US20220329740A1 (en) Electronic apparatus, method for controlling electronic apparatus, and non-transitory computer readable storage medium
JP2010263550A (en) Image processing apparatus
US11800245B2 (en) Image pickup apparatus capable of keeping focus on subject even when moving direction of subject changes in time series, control method for image pickup apparatus, and storage medium
JP2008167028A (en) Imaging apparatus

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20150327

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171023

R150 Certificate of patent or registration of utility model

Ref document number: 6241107

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250