JP2007058507A - Line of sight detecting device - Google Patents

Line of sight detecting device Download PDF

Info

Publication number
JP2007058507A
JP2007058507A JP2005242461A JP2005242461A JP2007058507A JP 2007058507 A JP2007058507 A JP 2007058507A JP 2005242461 A JP2005242461 A JP 2005242461A JP 2005242461 A JP2005242461 A JP 2005242461A JP 2007058507 A JP2007058507 A JP 2007058507A
Authority
JP
Japan
Prior art keywords
line
image
sight
image input
brightness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005242461A
Other languages
Japanese (ja)
Inventor
Yasuhisa Kanefuji
靖尚 金藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2005242461A priority Critical patent/JP2007058507A/en
Publication of JP2007058507A publication Critical patent/JP2007058507A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an line of sight detecting device for precisely detecting line of sight by stably extracting an eye site(the corner of the eye, the head of the eye, the center of the pupil or the like) which is necessary for detecting line of sight regardless of the location and posture of a person. <P>SOLUTION: This line of sight detecting device includes a plurality of image input means for performing the photoelectric conversion of the optical image of the face of a person, and for operating image fetching; a plurality of illuminating means arranged at locations isolated from the optical axis of an image input means for illuminating the face of the person; an exposure control means for controlling the exposure of the image input means or a brightness control means for controlling the brightness of the illuminating means, and an line of sight detecting means for detecting the direction of line of sight, based on image data fetched by the image input means. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像認識を利用して人間の視線を検出する視線検出装置に関する。   The present invention relates to a gaze detection apparatus that detects a human gaze using image recognition.

人間の視線が、その人の意図や注意、関心に基づいて動くものであることに着目し、この視線の動きをキーボードやマウス、またはタッチパネルなどの入力デバイスの代わりに利用する、いわゆるヒューマン・インターフェースの研究が進められている。この様な次世代ヒューマン・インターフェースとも言える視線検出技術は、カメラによって人間の行動を撮影し、人間の意図や注意を認識するもので、カメラを用いて人間の視線を検出できるようにする技術がこれまでも種々検討されてきた。   Focusing on the fact that the human gaze moves based on the intention, attention, and interest of the person, so-called human interface that uses this gaze movement instead of an input device such as a keyboard, mouse, or touch panel Research is underway. Gaze detection technology, which can be called the next-generation human interface, captures human actions with a camera and recognizes human intentions and cautions. It is a technology that enables the detection of human gaze using a camera. Various studies have been conducted so far.

たとえば、複数台のカメラで撮影された画像を出力するときに目周辺の画像領域の明暗から瞳孔の位置を検出し、検出された瞳孔の中心位置と眼球の中心位置から視線方向を検出する技術(例えば、特許文献1参照)や、また、カメラと同軸で赤外光を照射する同軸落射照明を行って、赤目状態(網膜で反射された光により、あたかも瞳孔が光っている様に観察される現象)を得ることにより瞳孔の位置を検出する技術(例えば、特許文献2参照)などが挙げられる。   For example, when outputting images captured by a plurality of cameras, a technique for detecting the position of the pupil from the brightness and darkness of the image area around the eyes and detecting the direction of the line of sight from the detected center position of the pupil and the center position of the eyeball (See, for example, Patent Document 1) Or, by performing coaxial epi-illumination that irradiates infrared light coaxially with the camera, the red-eye state (observed as if the pupil is shining by the light reflected by the retina) (For example, refer to Patent Document 2).

この様に、瞳孔の位置検出により、人間の視線を検出しようとする視線検出装置の開発が進められてきた。
特開2003−15816号公報(段落0018等参照) 特開平7−249197号公報(段落0038等参照)
In this way, development of a gaze detection device that detects a human gaze by detecting the position of the pupil has been advanced.
JP 2003-15816 A (see paragraph 0018 etc.) Japanese Patent Laid-Open No. 7-249197 (see paragraph 0038, etc.)

ところで、通常、視線検出を行うには、ステレオカメラで撮影した人物の顔画像より、目尻、目頭、瞳孔などの位置を抽出し、抽出した各々の部位の位置情報に基づいて、視線を検出する。したがって、視線検出を行うには、目尻、目頭、瞳孔などの部位をはっきりと視認できる画像が必要になる。   By the way, normally, in order to detect the line of sight, the positions of the corners of the eyes, the eyes, and the pupil are extracted from the face image of the person photographed by the stereo camera, and the line of sight is detected based on the extracted position information of each part. . Therefore, in order to detect the line of sight, an image that can clearly see parts such as the corners of the eyes, the eyes, and the pupil is required.

前述の特許文献1においては、人物がカメラに近接している場合には、人物の顔の細部がはっきりと視認されることより、視線検出に必要とされる目尻、目頭、瞳孔などを容易に抽出することができる。しかしながら、人物がカメラから離れた場所や顔がカメラに対して斜めを向いて位置する場合などには、画像全体に占める目の領域が小さくなり、瞳孔がまぶたや睫の暗部、さらには虹彩と一体化することにより、瞳孔を抽出することは極めて困難であると考えられる。また、特許文献2においては、同軸落射照明により得られた赤目画像より瞳孔の位置を検出する様にしているが、赤目画像を得るには、人物の頭部位置や視線方向をカメラの光軸と一致させる必要がある。すなわち、人物の状態がカメラに対して特定の位置にある場合にしか瞳孔を検出できないといった問題を有している。   In the above-mentioned Patent Document 1, when the person is close to the camera, the details of the person's face are clearly visually recognized, so that the corners of the eyes, the eyes, the pupils, and the like necessary for eye gaze detection can be easily obtained. Can be extracted. However, when the person is away from the camera or the face is located at an angle with respect to the camera, the eye area occupies the entire image and the pupil becomes darker on the eyelids, eyelids, and iris. It is considered extremely difficult to extract the pupil by integrating them. In Patent Document 2, the position of the pupil is detected from the red-eye image obtained by the coaxial epi-illumination. In order to obtain the red-eye image, the position of the person's head and the direction of the line of sight are determined based on the optical axis of the camera. Need to match. That is, there is a problem that the pupil can be detected only when the state of the person is at a specific position with respect to the camera.

したがって、従来技術により精度のよい安定した視線検出を実現させるには、特別な部品等が必要で、装置の複雑化や価格の上昇を避けることは困難だった。   Therefore, special parts are required to realize accurate and stable line-of-sight detection with the prior art, and it has been difficult to avoid complication of the apparatus and increase in price.

本発明は、上記課題を鑑みてなされたもので、装置の複雑化や高価格化を招くことなく、視線検出に必要な目尻、目頭、瞳孔中心などの目部位を、人物の位置や姿勢に係わらず安定して抽出し、精度よく視線検出を行える視線検出装置を提供することを目的とする。   The present invention has been made in view of the above-described problems, and the eye parts such as the corners of the eyes, the eyes and the center of the pupil necessary for eye gaze detection are set to the position and posture of the person without incurring complexity and cost of the apparatus. Regardless, it is an object of the present invention to provide a line-of-sight detection device that can stably extract and accurately detect the line of sight.

上記目的は、下記の(1)乃至(3)のいずれか1項に記載の発明によって達成される。   The above object is achieved by the invention described in any one of (1) to (3) below.

(1)
人物の顔の光像を光電変換して画像取り込みを行う複数の画像入力手段と、
前記人物の顔を照明し、前記画像入力手段の光軸から離れた位置に配置された複数の照明手段と、
前記画像入力手段の露出制御を行う露出制御手段、または、前記照明手段の明るさを制御する明るさ制御手段と、
前記画像入力手段で取り込まれた画像データに基づいて、前記人物の視線の方向を検出する視線検出手段と、
を有することを特徴とする視線検出装置。
(1)
A plurality of image input means for photoelectrically converting a light image of a person's face and capturing an image;
A plurality of illumination means for illuminating the face of the person and arranged at positions away from the optical axis of the image input means;
Exposure control means for performing exposure control of the image input means, or brightness control means for controlling the brightness of the illumination means;
Line-of-sight detection means for detecting the direction of the line of sight of the person based on the image data captured by the image input means;
A line-of-sight detection apparatus comprising:

(2)
前記画像入力手段は、前記露出制御手段により設定された複数種の露出値の下で複数種の画像取り込みを行い、
前記視線検出手段は、前記画像入力手段により取り込まれた露出値の異なる複数種の画像データに基づいて、前記人物の視線の方向を検出することを特徴とする前記(1)に記載の視線検出装置。
(2)
The image input means captures a plurality of types of images under a plurality of types of exposure values set by the exposure control means,
The line-of-sight detection according to (1), wherein the line-of-sight detection means detects the direction of the line of sight of the person based on a plurality of types of image data having different exposure values captured by the image input means. apparatus.

(3)
前記照明手段は、前記明るさ制御手段により設定された複数種の明るさで照明し、
前記画像入力手段は、前記照明手段により照明された複数種の明るさの下で複数種の画像取り込みを行い、
前記視線検出手段は、前記画像入力手段により取り込まれた明るさの異なる複数種の画像データに基づいて、前記人物の視線の方向を検出することを特徴とする前記(1)に記載の視線検出装置。
(3)
The illumination means illuminates with a plurality of types of brightness set by the brightness control means,
The image input means captures a plurality of types of images under a plurality of types of brightness illuminated by the illumination unit,
The line-of-sight detection according to (1), wherein the line-of-sight detection unit detects the direction of the line of sight of the person based on a plurality of types of image data having different brightness captured by the image input unit. apparatus.

請求項1に記載の発明は、複数の照明手段を複数の画像入力手段の光軸から離れた位置に配置し、画像入力手段は露出制御手段によって設定された露出値、または、明るさ制御手段によって設定された明るさの下で画像を取得するので、目尻、目頭、瞳孔などの視線検出に必要な部位を、人物の位置や姿勢に係わらず安定して抽出することができる。その結果、たとえば、人物がカメラから離れた場所や顔がカメラに対して斜めを向いて位置する場合などのように、視線検出に必要な部位を抽出しにくい場合でも視線の検出を精度よく行うことが可能になる。   In the first aspect of the present invention, the plurality of illumination units are arranged at positions away from the optical axes of the plurality of image input units, and the image input unit is an exposure value set by the exposure control unit or the brightness control unit. Since the image is acquired under the brightness set by (1), it is possible to stably extract the parts necessary for eye-gaze detection such as the corner of the eye, the eyes, and the pupil regardless of the position and posture of the person. As a result, even when it is difficult to extract a part necessary for eye-gaze detection, such as when a person is away from the camera or a face is located obliquely with respect to the camera, gaze detection is performed with high accuracy. It becomes possible.

すなわち、従来技術では人物がカメラから離れた場所にいたり、顔がカメラに対して斜めを向いて位置する場合、画像全体に占める目の領域が小さくなり、瞳孔がまぶたや睫の暗部、さらには虹彩と一体化してしまい、瞳孔を抽出することが困難であった。   In other words, in the conventional technology, when a person is away from the camera or the face is located obliquely with respect to the camera, the area of the eye that occupies the entire image is reduced, and the pupil is the dark part of the eyelid or eyelid, It was difficult to extract the pupil because it was integrated with the iris.

請求項1に係る発明では、照明手段を画像入力手段の光軸から離れた位置に配置することにより、適正露出で撮影した画像より目尻や目頭の位置を検出し、オーバー露出での撮影により瞳孔が暗点となった画像を得ることで瞳孔の抽出を容易に行えるようにした。その結果、視線検出に必要な部位を安定して抽出することができるようになり、視線検出を精度よく行える様になった。   In the invention according to claim 1, by arranging the illumination means at a position away from the optical axis of the image input means, the positions of the corners of the eyes and the eyes are detected from an image photographed with proper exposure, and the pupil is obtained by photographing with overexposure. The extraction of the pupil was made easy by obtaining an image that became a dark spot. As a result, it is possible to stably extract a part necessary for eye-gaze detection, and to perform eye-gaze detection with high accuracy.

請求項2に記載の発明では、画像入力手段は露出制御手段により設定された複数種の露出値の下で複数種の画像を取り込める様にしているので、目尻や目頭、または、瞳孔の抽出に最適な画像をそれぞれ取得することができる様になった。   In the second aspect of the present invention, the image input means can capture a plurality of types of images under a plurality of types of exposure values set by the exposure control means, so that the eye corners, the eyes or the pupil can be extracted. The optimum images can be acquired individually.

請求項3に記載の発明では、照明手段が明るさ制御手段により設定された複数種の明るさで照明し、画像入力手段は照明手段による複数種の明るさの下で撮影された複数種の画像を取り込める様にしたので、目尻や目頭、または、瞳孔の抽出に最適な露出(明るさ)条件の下での画像をそれぞれ取得することができる様になった。   In the invention according to claim 3, the illumination unit illuminates with a plurality of types of brightness set by the brightness control unit, and the image input unit includes a plurality of types of images photographed under a plurality of types of brightness by the illumination unit. Since the image can be captured, it is now possible to acquire images under the optimum exposure (brightness) conditions for extracting the corners of the eyes, the eyes, or the pupils.

以下、図面に基づいて、本発明の実施形態に係る視線検出装置について説明する。   Hereinafter, a gaze detection apparatus according to an embodiment of the present invention will be described based on the drawings.

最初に、図1を用いて、本発明に係わる視線検出装置を備えた実施形態の1つであるMFP(Multi Function Peripheral;コピー、スキャナー、ファックスなどが一体となった複合機)の外観を説明する。   First, the external appearance of an MFP (Multi Function Peripheral), which is one of the embodiments provided with the line-of-sight detection device according to the present invention, will be described with reference to FIG. To do.

図1(a)は、本発明に係るMFP1の外観模式図、図1(b)は操作パネル3の正面図である。図1(a)に示す様に、MFP1はMFP本体2および操作パネル3から構成される。   FIG. 1A is a schematic external view of the MFP 1 according to the present invention, and FIG. 1B is a front view of the operation panel 3. As shown in FIG. 1A, the MFP 1 includes an MFP main body 2 and an operation panel 3.

操作パネル3は、タッチパネル301、および、たとえばCCD撮像素子からなる2個のCCDカメラ303a、303bや近赤外線LEDからなる2個の近赤外線投光機304a、304bなどを有し、MFP1に行わせる各種動作の選択や実行、あるいは、操作者からの視線検出によるパネル操作を行うための画像入力などの動作を行う。   The operation panel 3 includes a touch panel 301 and two CCD cameras 303a and 303b made of, for example, a CCD image sensor, two near-infrared projectors 304a and 304b made of near-infrared LEDs, and the like. Various operations are selected and executed, or an operation such as an image input for performing a panel operation by detecting the line of sight from the operator is performed.

図1(b)に示す様に、操作パネル3の略中央部には、表示された各種情報を操作者が指で触れて選択するタッチパネル301が設けられている。また、操作パネル3の右端下部には、コピーなどの出力動作を実行するスタートボタン302が設けられている。   As shown in FIG. 1B, a touch panel 301 is provided at the substantially central portion of the operation panel 3 so that the operator touches and selects various displayed information with a finger. Further, a start button 302 for executing an output operation such as copying is provided at the lower right end of the operation panel 3.

タッチパネル301の上部左右、すなわち撮影対象の操作者の前方左右には、操作者の顔をステレオ視して撮影する2個のCCDカメラ303a、303bが設けられている。すなわち、2個のCCDカメラ303a、303bは、本発明に係る視線検出装置における画像入力手段として機能するものである。   Two CCD cameras 303a and 303b are provided on the upper left and right sides of the touch panel 301, that is, on the front left and right of the operator to be photographed, by photographing the operator's face in stereo. That is, the two CCD cameras 303a and 303b function as image input means in the visual line detection device according to the present invention.

また、操作パネル3の左右端には、操作者を照明する2個の近赤外線投光機304a、304bが設けられている。2個の近赤外線投光機304a、304bは、図1(b)に示す様に、タッチパネル301や2個のCCDカメラ303a、303bの光軸から離れた位置に設けられ、操作者がタッチパネル301を操作する際に、顔が位置する方向に向けて拡散光を照射する様に設定されている。すなわち、2個の近赤外線投光機304a、304bは、本発明に係る視線検出装置における照明手段として機能するものである。   Further, two near-infrared projectors 304 a and 304 b that illuminate the operator are provided at the left and right ends of the operation panel 3. As shown in FIG. 1B, the two near-infrared projectors 304a and 304b are provided at positions away from the optical axes of the touch panel 301 and the two CCD cameras 303a and 303b. Is set to irradiate diffused light in the direction in which the face is located. That is, the two near-infrared projectors 304a and 304b function as illumination means in the line-of-sight detection device according to the present invention.

次に、MFP1に搭載された視線検出装置の制御系について図2を用いて説明する。図2は、本発明に係わる視線検出装置の制御系のブロック図である。なお、図2では、図1に示した部材と同じ部材には同一の番号を付与した。   Next, a control system of the line-of-sight detection device mounted on the MFP 1 will be described with reference to FIG. FIG. 2 is a block diagram of a control system of the eye gaze detection apparatus according to the present invention. In FIG. 2, the same members as those shown in FIG.

視線検出装置は、図2に示す様に、2個のCCDカメラ(右CCDカメラ303a、左CCDカメラ303b)、2個のカメラコントロールユニット(203a、203b)、2個の近赤外線投光機(右近赤外線投光機304a、左近赤外線投光機304b)、2個の赤外線コントロールユニット(204a、204b)、および画像処理ユニット201、画像処理制御部202などから構成され、2個のCCDカメラ303a、303bで取得された画像データに基づいて、操作者の視線検出を行うものである。   As shown in FIG. 2, the line-of-sight detection apparatus includes two CCD cameras (right CCD camera 303a and left CCD camera 303b), two camera control units (203a and 203b), and two near-infrared projectors ( Right near infrared projector 304a, left near infrared projector 304b), two infrared control units (204a, 204b), an image processing unit 201, an image processing control unit 202, etc., and two CCD cameras 303a, The line of sight of the operator is detected based on the image data acquired at 303b.

CCDカメラ303a、303bは、周囲の照明や窓からの日光などの周囲光の影響を受けずに操作者の顔画像を取得できるようにするため、図示しない可視光カットフィルターが設けられ、可視光カットフィルターを介して赤外画像を取得する。また、CCDカメラ303a、303bの撮影動作、および露出は後述のカメラコントロールユニット203a、203bによりそれぞれ制御される。   The CCD cameras 303a and 303b are provided with a visible light cut filter (not shown) so that an operator's face image can be acquired without being affected by ambient light such as ambient lighting or sunlight from a window. An infrared image is acquired through a cut filter. The photographing operation and exposure of the CCD cameras 303a and 303b are respectively controlled by camera control units 203a and 203b described later.

カメラコントロールユニット203a、203bは、後述の画像処理ユニット201の制御の下でCCDカメラ303a、303bの撮影動作、および露出を制御する。また、カメラコントロールユニット203a、203bは、外部同期信号線を介して相互接続されており、この同期信号によって左右のCCDカメラ303a、303bの同期がとられ、左右の位置で同じ時刻に撮影された2つの画像が得られる。視線検出装置は、左右の位置で同じ時刻に撮影された2つの画像を入力画像として使用し、ステレオ法を用いて3次元的な物体認識を処理することができる。   The camera control units 203a and 203b control the photographing operation and exposure of the CCD cameras 303a and 303b under the control of the image processing unit 201 described later. The camera control units 203a and 203b are connected to each other via an external synchronization signal line, and the left and right CCD cameras 303a and 303b are synchronized by this synchronization signal and photographed at the same time on the left and right positions. Two images are obtained. The line-of-sight detection device can process three-dimensional object recognition using a stereo method, using two images taken at the same time at left and right positions as input images.

近赤外線投光機304a、304bは近赤外光を照射し、近赤外線投光機304a、304bが照射する近赤外光の明るさは後述の赤外線コントロールユニット204a、204bによってそれぞれ制御される。   Near-infrared projectors 304a and 304b emit near-infrared light, and the brightness of near-infrared light emitted by near-infrared projectors 304a and 304b is controlled by infrared control units 204a and 204b, which will be described later.

赤外線コントロールユニット204a、204bは、後述の画像処理ユニット201の制御の下で近赤外線投光機304a、304bの明るさを制御する。また、赤外線コントロールユニット204a、204bとカメラコントロールユニット203a、203bとは、それぞれ外部同期信号線を介して相互接続されており、この同期信号により近赤外線投光機304a、304bの明るさが変動する時刻にCCDカメラ303a、303bが撮影動作を行う様にしている。   The infrared control units 204a and 204b control the brightness of the near-infrared projectors 304a and 304b under the control of the image processing unit 201 described later. The infrared control units 204a and 204b and the camera control units 203a and 203b are connected to each other via external synchronization signal lines, and the brightness of the near-infrared projectors 304a and 304b varies depending on the synchronization signal. The CCD cameras 303a and 303b perform the photographing operation at the time.

画像処理ユニット201は、図2に示す様に、画像処理部211、AE制御部212、赤外線制御部213から構成される。   As shown in FIG. 2, the image processing unit 201 includes an image processing unit 211, an AE control unit 212, and an infrared control unit 213.

画像処理部211は、画像処理アルゴリズムを高速で実行するハードウェア回路を備えており、後述の画像処理制御部202の制御の下で、CCDカメラ303a、303bでステレオ撮影された画像データと、予め設定されたステレオカメラパラメータなどを用いて操作者の視線方向をリアルタイムで検出する。すなわち、画像処理部211は、本発明に係る視線検出装置における視線検出手段として機能するものである。   The image processing unit 211 includes a hardware circuit that executes an image processing algorithm at high speed. Under the control of the image processing control unit 202, which will be described later, image data captured in stereo by the CCD cameras 303a and 303b, An operator's gaze direction is detected in real time using the set stereo camera parameters. That is, the image processing unit 211 functions as a line-of-sight detection unit in the line-of-sight detection apparatus according to the present invention.

なお、画像処理部211で行われる画像処理の詳細は、たとえば、特開2003−15816号公報に開示されている「ステレオカメラを使用した顔、視線認識装置」等の周知の画像処理方法に準ずる。   The details of the image processing performed by the image processing unit 211 are based on a known image processing method such as “Face / Gaze Recognition Device Using Stereo Camera” disclosed in Japanese Patent Laid-Open No. 2003-15816, for example. .

画像処理制御部202は、たとえばマイクロコンピュータからなり、画像処理ユニット201で行われる画像処理動作を統括的に制御するものである。   The image processing control unit 202 is composed of, for example, a microcomputer, and comprehensively controls image processing operations performed by the image processing unit 201.

AE制御部212は、CCDカメラ303a、303bで取得された画像データに基づいて、カメラコントロールユニット203a、203bを介して、CCDカメラ303a、303bの露出制御を行う。すなわち、AE制御部212は、本発明に係る視線検出装置における露出制御手段として機能するものである。   The AE control unit 212 controls the exposure of the CCD cameras 303a and 303b via the camera control units 203a and 203b based on the image data acquired by the CCD cameras 303a and 303b. That is, the AE control unit 212 functions as an exposure control unit in the visual line detection device according to the present invention.

赤外線制御部213は、CCDカメラ303a、303bで取得された画像データに基づいて、赤外線コントロールユニット204a、204bを介して、近赤外線投光機304a、304bの明るさを制御する。すなわち、赤外線制御部213は、本発明に係る視線検出装置における明るさ制御手段として機能するものである。   The infrared control unit 213 controls the brightness of the near infrared projectors 304a and 304b via the infrared control units 204a and 204b based on the image data acquired by the CCD cameras 303a and 303b. That is, the infrared control unit 213 functions as brightness control means in the visual line detection device according to the present invention.

この様な構成の視線検出装置において、CCDカメラ303aで取得される画像を図3を用いて説明する。図3は、種々の撮影条件の下で撮影されたサンプル画像の模式図である。なお、ここでは、CCDカメラ303a、303bで撮影されたそれぞれの画像のコントラストを略同じレベルとしてCCDカメラ303aで撮影された画像を説明する。   An image acquired by the CCD camera 303a in the line-of-sight detection apparatus having such a configuration will be described with reference to FIG. FIG. 3 is a schematic diagram of sample images taken under various shooting conditions. Here, an image taken with the CCD camera 303a will be described with the contrast of the images taken with the CCD cameras 303a and 303b being substantially the same level.

先ず、図3の(a)から(e)の各図について説明する。図3(a)は、CCDカメラ303aに対して近接した操作者の顔を適正露出で撮影した画像サンプルである。(b)は、(a)の状態に位置する操作者の顔をオーバー露出で撮影した画像サンプルである。(c)は、CCDカメラ303aに対して離れた場所に位置する操作者の顔を適正露出で撮影した画像サンプルである。(d)は、(c)の状態に位置する操作者の顔をオーバー露出で撮影した画像サンプルである。(e)は、(d)で得られた画像に2値化処理を行った時の画像である。   First, each of FIGS. 3A to 3E will be described. FIG. 3A is an image sample obtained by photographing an operator's face close to the CCD camera 303a with appropriate exposure. (B) is the image sample which image | photographed the face of the operator located in the state of (a) by overexposure. (C) is an image sample obtained by photographing an operator's face located at a distance from the CCD camera 303a with appropriate exposure. (D) is the image sample which image | photographed the face of the operator located in the state of (c) by overexposure. (E) is an image when the binarization process is performed on the image obtained in (d).

操作者がCCDカメラ303aに対して近接した場所に位置し、また、CCDカメラ303aの露出が、カメラコントロールユニット203bを介してAE制御部212によって適正な露出値に設定されている場合に撮影した顔の画像は、図3(a)に示す様に、顔の細部をはっきりと視認でき、視線検出に必要とされる目尻、目頭、瞳孔などを容易に抽出することができる。   Photographed when the operator is located in the vicinity of the CCD camera 303a and the exposure of the CCD camera 303a is set to an appropriate exposure value by the AE control unit 212 via the camera control unit 203b. As shown in FIG. 3A, the face image can clearly see the details of the face, and easily extract the corners of the eyes, the eyes, the pupils, and the like that are necessary for eye gaze detection.

一方、操作者がCCDカメラ303aに対して離れた場所に位置し、適正露出にて撮影した場合の顔の画像は、図3(c)に示す様に、目尻と目頭は肌との境目から抽出することはできるが、瞳孔は、画像全体に占める目の領域が小さくなることにより、まぶたの輪郭や睫の暗部、さらに虹彩と一体化して、抽出が困難である。   On the other hand, the face image when the operator is located away from the CCD camera 303a and photographed with appropriate exposure is as shown in FIG. 3C. Although it can be extracted, the pupil is difficult to extract because it is integrated with the outline of the eyelid, the dark part of the eyelid, and the iris because the area of the eye that occupies the entire image becomes smaller.

そこで、本発明は、この様な場合でも瞳孔の抽出が行える様に、近赤外線投光機304a、304bをタッチパネル301やCCDカメラ303a、303bの光軸から離れた位置に設けた。さらに、CCDカメラ303a、303bの露出、または、近赤外線投光機304a、304bの明るさを調整して、白目と睫の輪郭がなくなる程度のオーバー露出にて撮影することにより、瞳孔が暗点として撮像される様になり、瞳孔の抽出を容易に行える様にした。   Therefore, according to the present invention, the near infrared projectors 304a and 304b are provided at positions away from the optical axes of the touch panel 301 and the CCD cameras 303a and 303b so that the pupil can be extracted even in such a case. Further, by adjusting the exposure of the CCD cameras 303a and 303b or the brightness of the near-infrared projectors 304a and 304b and shooting with overexposure so that the outline of the white eye and the eyelid disappears, the pupil becomes a dark spot. As a result, the pupil can be easily extracted.

具体的には、CCDカメラ303aに対して離れた場所に位置する操作者の顔を、オーバー露出で撮影した場合の画像は、図3(d)に示す様に、顔の輪郭は背景に対して識別することができるが、他の部位は殆ど撮像されていない。しかしながら、鼻の穴と瞳孔は黒く撮像されていることが確認される。これは鼻の穴や瞳孔は、顔の表面から奥行き方向に凹の形状をなす「孔」であり、また、近赤外線投光機304a、304bを、CCDカメラ303a、303bの光軸から離れた位置に設けて照明することにより、鼻の穴や瞳孔が暗点として撮像される。   Specifically, as shown in FIG. 3 (d), an image of an operator's face that is located far away from the CCD camera 303a is captured with overexposure. However, the other parts are hardly imaged. However, it is confirmed that the nostril and pupil are imaged black. This is a “hole” in which the nostrils and pupils form a concave shape in the depth direction from the face surface, and the near-infrared projectors 304a and 304b are separated from the optical axes of the CCD cameras 303a and 303b. By providing illumination at the position, the nostrils and pupils are imaged as dark spots.

ここで、近赤外線投光機304a、CCDカメラ303a、および操作者の目の相対位置について図4を用いて説明する。なお、近赤外線投光機304a、304b、およびCCDカメラ303a、303bは、図1(b)に示す様に、それぞれタッチパネル301の左右に略対称な位置に設けられているので、ここでは、近赤外線投光機304a、CCDカメラ303a、および操作者の目の位置関係について説明する。   Here, the relative positions of the near-infrared projector 304a, the CCD camera 303a, and the eyes of the operator will be described with reference to FIG. The near-infrared projectors 304a and 304b and the CCD cameras 303a and 303b are provided at substantially symmetrical positions on the left and right sides of the touch panel 301 as shown in FIG. The positional relationship between the infrared projector 304a, the CCD camera 303a, and the eyes of the operator will be described.

図4に示す様に、近赤外線投光機304aは、CCDカメラ303aの光軸L1から離れた位置に設けられ、操作者の目5を斜めの方向から照明している。すなわち、操作者の瞳孔501の奥行き方向(視線方向L2)と近赤外線投光機304aの光路IR1とが異なることより、瞳孔501の奥A部まで照明は届かない。したがって、オーバー露出で撮影した場合においても瞳孔は暗点として撮像される。   As shown in FIG. 4, the near-infrared projector 304a is provided at a position away from the optical axis L1 of the CCD camera 303a, and illuminates the operator's eyes 5 from an oblique direction. That is, since the depth direction (line-of-sight direction L2) of the pupil 501 of the operator is different from the optical path IR1 of the near-infrared projector 304a, the illumination does not reach the back A portion of the pupil 501. Accordingly, the pupil is imaged as a dark spot even in the case of shooting with overexposure.

なお、操作者がCCDカメラ303aに対して近接した場所に位置する場合には、前述の様に、通常の適正露出にて撮影した画像で、視線検出に必要とされる目尻、目頭、瞳孔などを容易に抽出することができるが、オーバー露出にて撮影した画像においては、図3(b)に示す様に、瞳孔は暗点として撮像されるので、瞳孔を安定して抽出することができる様になる。   When the operator is located in the vicinity of the CCD camera 303a, as described above, the image is taken with the normal appropriate exposure, and the corners of the eyes, the eyes, the pupil, etc., which are necessary for detecting the line of sight. However, in an image taken with overexposure, the pupil is imaged as a dark spot as shown in FIG. 3B, so that the pupil can be extracted stably. It becomes like.

この様に、適正露出画像とオーバー露出画像の2種の画像を取得し、適正露出にて撮影した画像より目尻と目頭を抽出し、オーバー露出にて撮影した画像より瞳孔を抽出することにより、視線検出に必要とされる目尻、目頭、瞳孔中心を抽出することができる。   In this way, by obtaining two types of images, a proper exposure image and an overexposure image, extracting the corners and eyes from the image photographed with proper exposure, and extracting the pupil from the image photographed with overexposure, It is possible to extract the corners of the eyes, the corners of the eyes, and the center of the pupil, which are necessary for eye gaze detection.

ここで、本発明に係る視線検出装置で行われる、視線検出動作の流れを図5に示すフローチャート、および前述の図3を用いて詳細に説明する。   Here, the flow of the gaze detection operation performed by the gaze detection apparatus according to the present invention will be described in detail with reference to the flowchart shown in FIG. 5 and the above-described FIG.

最初に、撮影動作が開始されると、AE制御部212は、CCDカメラ303a、303bで取得された画像データに基づいて、カメラコントロールユニット203a、203bを介して、CCDカメラ303a、303bの露出値を適正露出に設定する(ステップS1)。そしてCCDカメラ303a、303bは、AE制御部212により設定された露出値の下で適正露出の画像を撮影し、撮影した画像データを画像処理部211に送出する(ステップS2)。この様にして撮影された画像は、たとえば図3(c)に示す様に、目尻と目頭は肌との境目から抽出できるが、瞳孔は、画像全体に占める目の領域が小さくなり、まぶたの輪郭や睫の暗部、さらに虹彩と一体化しているので、抽出が困難である。   First, when the shooting operation is started, the AE control unit 212 uses the camera control units 203a and 203b based on the image data acquired by the CCD cameras 303a and 303b to expose the exposure values of the CCD cameras 303a and 303b. Is set to an appropriate exposure (step S1). Then, the CCD cameras 303a and 303b capture an image with proper exposure under the exposure value set by the AE control unit 212, and send the captured image data to the image processing unit 211 (step S2). For example, as shown in FIG. 3C, the image taken in this way can be extracted from the boundary between the corner of the eye and the eye, but the pupil occupies a small area of the eye and occupies the eyelid. Extraction is difficult because it is integrated with the outline, dark part of the eyelids, and iris.

次に、AE制御部212は、CCDカメラ303a、303bで取得された画像データに基づいて、カメラコントロールユニット203a、203bを介して、CCDカメラ303a、303bの露出値をオーバー露出に設定するか、あるいは、赤外線制御部213は、CCDカメラ303a、303bで取得された画像データに基づいて、赤外線コントロールユニット204a、204bを介して、近赤外線投光機304a、304bの明るさを明るくするか、の何れかの動作を行う(ステップS3)。そしてCCDカメラ303a、303bは、AE制御部212により設定された露出値、または、赤外線制御部213で設定された明るさの下でオーバー露出の画像を撮影し、撮影した画像データを画像処理部211に送出する(ステップS4)。この様にして撮影された画像は、たとえば、図3(d)に示す様に、顔の輪郭は背景に対して識別することができるが、他の部位は殆ど撮像されていない。しかしながら、鼻の穴と瞳孔は黒く撮像されていることから瞳孔を暗点として抽出することができる。   Next, the AE control unit 212 sets the exposure values of the CCD cameras 303a and 303b to overexposure via the camera control units 203a and 203b based on the image data acquired by the CCD cameras 303a and 303b. Alternatively, the infrared control unit 213 increases the brightness of the near-infrared projectors 304a and 304b via the infrared control units 204a and 204b based on the image data acquired by the CCD cameras 303a and 303b. Either operation is performed (step S3). The CCD cameras 303a and 303b capture an overexposed image under the exposure value set by the AE control unit 212 or the brightness set by the infrared control unit 213, and the captured image data is captured by the image processing unit. (Step S4). For example, as shown in FIG. 3D, the image of the image taken in this way can identify the outline of the face with respect to the background, but the other parts are hardly imaged. However, since the nostril and pupil are imaged black, the pupil can be extracted as a dark spot.

ここで、適正露出、およびオーバー露出の2種の画像が取得されるが、この2種の画像を取得する時間隔は、短いほど視線検出に好適である。たとえば、IEEE1394規格のDCAM1.30に準拠したデジタルカメラにおいては、VGAサイズ(640×480画素)の画像を毎秒60フレームで取得できるデジタルカメラがある。そこで、この様な高フレームレートのデジタルカメラをCCDカメラとして用いることにより、2種の画像を交互に撮影しても通常のデジタルカメラと同等の毎秒30フレームの画像が取得され、2種の画像取得に伴うタイムラグによる視線検出精度の低下は生じないと考えられる。   Here, two types of images of proper exposure and overexposure are acquired. The shorter the time interval for acquiring these two types of images, the better the line of sight detection. For example, in a digital camera compliant with IEEE 1394 standard DCAM 1.30, there is a digital camera that can acquire an image of VGA size (640 × 480 pixels) at 60 frames per second. Therefore, by using such a high frame rate digital camera as a CCD camera, even if two types of images are alternately photographed, an image of 30 frames per second equivalent to that of a normal digital camera is obtained. It is considered that the line-of-sight detection accuracy does not deteriorate due to the time lag associated with the acquisition.

次に、画像処理部211は、ステップS2で取得された適正露出の画像データに基づいて、目尻と目頭を抽出する(ステップS5)。なお、画像処理部211で行われる画像処理の詳細は、前述の様に、たとえば、特開2003−15816号公報に開示されている周知の画像処理方法に準じ、操作者の目尻、目頭などの特徴的な部位の画像を予めテンプレートとして設定しておき、ステレオカメラで取得した画像上をテンプレートマッチングで探索することで、目尻、目頭などを抽出する様にしている。   Next, the image processing unit 211 extracts the corners of the eyes and the eyes based on the image data of the appropriate exposure acquired in step S2 (step S5). Note that the details of the image processing performed by the image processing unit 211 are as described above, for example, according to the well-known image processing method disclosed in Japanese Patent Application Laid-Open No. 2003-15816, such as the eye corners and the eyes of the operator. An image of a characteristic part is set in advance as a template, and the corners of the eyes and the eyes are extracted by searching the image acquired by the stereo camera by template matching.

次に、画像処理部211は、ステップS4で取得されたオーバー露出の画像データに2値化処理を行う(ステップS6)。2値化処理が行われた画像において、瞳孔は、図3(e)に示す様に、はっきりと視認できる様になる。そして画像処理部211は、2値化処理が行われた画像データに基づいて、瞳孔中心を抽出する(ステップS7)。なお、2値化処理によって抽出を行う瞳孔中心は、ステップS5において抽出された目尻と目頭の間に位置するので、2値化処理は、目尻と目頭含む近傍の領域のみに施す様にしてもよい。   Next, the image processing unit 211 performs binarization processing on the overexposed image data acquired in step S4 (step S6). In the binarized image, the pupil can be clearly seen as shown in FIG. Then, the image processing unit 211 extracts the pupil center based on the image data that has been subjected to the binarization process (step S7). Since the pupil center to be extracted by binarization processing is located between the corners of the eyes and the eyes extracted in step S5, the binarization processing may be performed only on the vicinity including the corners of the eyes and the eyes. Good.

次に、画像処理部211は、ステップ5で抽出された目尻、目頭の位置、およびステップS7で抽出された瞳孔中心の位置などの位置情報に基づいて、たとえば、特開2003−15816号公報に開示されている周知の画像処理方法に準じ、視線方向を検出する(ステップS8)。   Next, the image processing unit 211, for example, in Japanese Patent Application Laid-Open No. 2003-15816, based on position information such as the corner of the eye and the position of the eyes extracted in step 5 and the position of the pupil center extracted in step S7. The line-of-sight direction is detected in accordance with the known image processing method disclosed (step S8).

この様にしてステップ1乃至ステップS8の処理を繰り返し行うことにより、視線方向をリアルタイムに検出することができる様になる。   In this way, by repeating the processing from step 1 to step S8, the line-of-sight direction can be detected in real time.

なお、図5に示すフローチャートは、オーバー露出画像を取得した後に、すでに取得されている適正露出の画像データに基づいて、目尻と目頭を抽出するする様にしているが、オーバー露出画像の取得と並行して適正露出の画像データに基づいて、目尻と目頭を抽出する様にしてもよい。   In the flowchart shown in FIG. 5, after acquiring the overexposed image, the eye corners and the eyes are extracted based on the already exposed image data of appropriate exposure. In parallel, the corners of the eyes and the corners of the eyes may be extracted based on image data of appropriate exposure.

この様に、本発明に係わる視線検出装置では、近赤外線投光機304a、304bを、CCDカメラ303a、303bの光軸L1から離れた位置に設けて操作者を照明し、さらに、CCDカメラ303a、303bの露出、または、近赤外線投光機304a、304bの明るさを調整して、適正露出、または、オーバー露出にて撮影する様にしているので、人物の位置や姿勢に係わらず、視線検出に必要とされる目尻、目頭、瞳孔中心などを、を撮像することができる様になる。したがって、目尻、目頭、瞳孔中心などを、人物の位置や姿勢に係わらず安定して抽出に抽出することができ、精度よく視線を検出することができる様になる。   As described above, in the line-of-sight detection device according to the present invention, the near infrared projectors 304a and 304b are provided at positions away from the optical axis L1 of the CCD cameras 303a and 303b to illuminate the operator, and further, the CCD camera 303a. 303b or near-infrared projectors 304a and 304b are adjusted so that images are taken with appropriate exposure or overexposure. It is possible to take images of the corners of the eyes, the eyes, the center of the pupil, and the like that are necessary for detection. Accordingly, the corners of the eyes, the eyes, the pupil center, and the like can be stably extracted for extraction regardless of the position and posture of the person, and the line of sight can be detected with high accuracy.

本発明に係る視線検出装置を搭載したMFPの外観模式図である。1 is a schematic external view of an MFP equipped with a line-of-sight detection device according to the present invention. 本発明に係る視線検出装置の回路ブロック構成図である。It is a circuit block block diagram of the gaze detection apparatus which concerns on this invention. 本発明に係る視線検出装置による画像サンプルの模式図である。It is a schematic diagram of the image sample by the gaze detection apparatus based on this invention. 本発明に係る視線検出装置における赤外線照射方向を示す模式図である。It is a schematic diagram which shows the infrared irradiation direction in the gaze detection apparatus based on this invention. 本発明に係る視線検出装置における視線検出動作の流れを示すフローチャートである。It is a flowchart which shows the flow of the gaze detection operation | movement in the gaze detection apparatus based on this invention.

符号の説明Explanation of symbols

1 MFP
2 MFP本体
201 画像処理ユニット
202 画像処理制御部
203a、203b カメラコントロールユニット
204a、204b 赤外線コントロールユニット
211 画像処理部
212 AE制御部
213 赤外線制御部
3 操作パネル
301 タッチパネル
302 スタートボタン
303a CCDカメラ(右)
303b CCDカメラ(左)
304a 近赤外線投光機(右)
304b 近赤外線投光機(左)
5 目
501 瞳孔
502 虹彩
503 水晶体
504 網膜
IR1 光路
L1 光軸
L2 視線
1 MFP
2 MFP main unit 201 Image processing unit 202 Image processing control unit 203a, 203b Camera control unit 204a, 204b Infrared control unit 211 Image processing unit 212 AE control unit 213 Infrared control unit 3 Operation panel 301 Touch panel 302 Start button 303a CCD camera (right)
303b CCD camera (left)
304a Near-infrared projector (right)
304b Near-infrared projector (left)
5th Eye 501 Pupil 502 Iris 503 Lens 504 Retina IR1 Optical path L1 Optical axis L2 Line of sight

Claims (3)

人物の顔の光像を光電変換して画像取り込みを行う複数の画像入力手段と、
前記人物の顔を照明し、前記画像入力手段の光軸から離れた位置に配置された複数の照明手段と、
前記画像入力手段の露出制御を行う露出制御手段、または、前記照明手段の明るさを制御する明るさ制御手段と、
前記画像入力手段で取り込まれた画像データに基づいて、前記人物の視線の方向を検出する視線検出手段と、
を有することを特徴とする視線検出装置。
A plurality of image input means for photoelectrically converting a light image of a person's face and capturing an image;
A plurality of illumination means for illuminating the face of the person and arranged at positions away from the optical axis of the image input means;
Exposure control means for performing exposure control of the image input means, or brightness control means for controlling the brightness of the illumination means;
Line-of-sight detection means for detecting the direction of the line of sight of the person based on the image data captured by the image input means;
A line-of-sight detection apparatus comprising:
前記画像入力手段は、前記露出制御手段により設定された複数種の露出値の下で複数種の画像取り込みを行い、
前記視線検出手段は、前記画像入力手段により取り込まれた露出値の異なる複数種の画像データに基づいて、前記人物の視線の方向を検出することを特徴とする請求項1に記載の視線検出装置。
The image input means captures a plurality of types of images under a plurality of types of exposure values set by the exposure control means,
2. The line-of-sight detection apparatus according to claim 1, wherein the line-of-sight detection unit detects the direction of the line of sight of the person based on a plurality of types of image data having different exposure values captured by the image input unit. .
前記照明手段は、前記明るさ制御手段により設定された複数種の明るさで照明し、
前記画像入力手段は、前記照明手段により照明された複数種の明るさの下で複数種の画像取り込みを行い、
前記視線検出手段は、前記画像入力手段により取り込まれた明るさの異なる複数種の画像データに基づいて、前記人物の視線の方向を検出することを特徴とする請求項1に記載の視線検出装置。
The illumination means illuminates with a plurality of types of brightness set by the brightness control means,
The image input means captures a plurality of types of images under a plurality of types of brightness illuminated by the illumination unit,
The line-of-sight detection device according to claim 1, wherein the line-of-sight detection unit detects the direction of the line of sight of the person based on a plurality of types of image data having different brightness captured by the image input unit. .
JP2005242461A 2005-08-24 2005-08-24 Line of sight detecting device Pending JP2007058507A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005242461A JP2007058507A (en) 2005-08-24 2005-08-24 Line of sight detecting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005242461A JP2007058507A (en) 2005-08-24 2005-08-24 Line of sight detecting device

Publications (1)

Publication Number Publication Date
JP2007058507A true JP2007058507A (en) 2007-03-08

Family

ID=37921967

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005242461A Pending JP2007058507A (en) 2005-08-24 2005-08-24 Line of sight detecting device

Country Status (1)

Country Link
JP (1) JP2007058507A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013176265A1 (en) * 2012-05-25 2013-11-28 国立大学法人静岡大学 Pupil detection method, corneal reflex detection method, facial posture detection method, and pupil tracking method
JP2014094186A (en) * 2012-11-09 2014-05-22 Jvc Kenwood Corp Visual line detector and visual line detection method
JP2015028733A (en) * 2013-07-30 2015-02-12 コニカミノルタ株式会社 Operation device and image processing apparatus
US10120439B2 (en) 2013-07-30 2018-11-06 Konica Minolta, Inc. Operating device and image processing apparatus
CN109446892A (en) * 2018-09-14 2019-03-08 杭州宇泛智能科技有限公司 Human eye notice positioning method and system based on deep neural network

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013176265A1 (en) * 2012-05-25 2013-11-28 国立大学法人静岡大学 Pupil detection method, corneal reflex detection method, facial posture detection method, and pupil tracking method
JPWO2013176265A1 (en) * 2012-05-25 2016-01-14 国立大学法人静岡大学 Pupil detection method, corneal reflection detection method, face posture detection method, and pupil tracking method
US9514538B2 (en) 2012-05-25 2016-12-06 National University Corporation Shizuoka University Pupil detection method, corneal reflex detection method, facial posture detection method, and pupil tracking method
JP2014094186A (en) * 2012-11-09 2014-05-22 Jvc Kenwood Corp Visual line detector and visual line detection method
JP2015028733A (en) * 2013-07-30 2015-02-12 コニカミノルタ株式会社 Operation device and image processing apparatus
US10120439B2 (en) 2013-07-30 2018-11-06 Konica Minolta, Inc. Operating device and image processing apparatus
CN109446892A (en) * 2018-09-14 2019-03-08 杭州宇泛智能科技有限公司 Human eye notice positioning method and system based on deep neural network
CN109446892B (en) * 2018-09-14 2023-03-24 杭州宇泛智能科技有限公司 Human eye attention positioning method and system based on deep neural network

Similar Documents

Publication Publication Date Title
US9852339B2 (en) Method for recognizing iris and electronic device thereof
KR102270674B1 (en) Biometric camera
WO2017132903A1 (en) Biometric composite imaging system and method reusable with visible light
WO2015029537A1 (en) Organ imaging apparatus
JP6564271B2 (en) Imaging apparatus, image processing method, program, and storage medium
JP4452836B2 (en) Method and apparatus for detecting pupils
JP6273640B2 (en) Captured image display device
JP2000113199A (en) Method for deciding eye position
JP2008246004A (en) Pupil detection method
JP2007025758A (en) Face image extracting method for person, and device therefor
JP2001005948A (en) Iris imaging device
JP2007058507A (en) Line of sight detecting device
US10726283B2 (en) Finger vein authentication device
KR102267162B1 (en) Eye tracking system for mild cognitive impairment
JP5254897B2 (en) Hand image recognition device
JP2017034569A (en) Imaging apparatus and control method therefor
JP2008252404A (en) Imaging apparatus, method, and program
KR20220052828A (en) Biometric authentication apparatus and biometric authentication method
JP2008006149A (en) Pupil detector, iris authentication device and pupil detection method
KR102617136B1 (en) Photographing apparatus, authentication apparatus and biometric photographing method
JP2688527B2 (en) Gaze direction detection method
US20230136191A1 (en) Image capturing system and method for adjusting focus
JP2016151584A (en) Organ image capturing device
JP5004099B2 (en) Cursor movement control method and cursor movement control apparatus
JP2009267468A (en) Imaging device