JP2007206963A - Image processor, image processing method, program and storage medium - Google Patents

Image processor, image processing method, program and storage medium Download PDF

Info

Publication number
JP2007206963A
JP2007206963A JP2006024738A JP2006024738A JP2007206963A JP 2007206963 A JP2007206963 A JP 2007206963A JP 2006024738 A JP2006024738 A JP 2006024738A JP 2006024738 A JP2006024738 A JP 2006024738A JP 2007206963 A JP2007206963 A JP 2007206963A
Authority
JP
Japan
Prior art keywords
pupil
region
image
eye
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006024738A
Other languages
Japanese (ja)
Inventor
Kazuyuki Ota
和之 太田
Masakazu Matsugi
優和 真継
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006024738A priority Critical patent/JP2007206963A/en
Publication of JP2007206963A publication Critical patent/JP2007206963A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve detection accuracy in detection of a pupil from an image. <P>SOLUTION: This image processor comprises an image input part 100 inputting an image; an eye area detection part 101 detecting an eye area from the image inputted by the image input part; and a pupil area extraction part 102 for extracting a pupil area based on the luminance distribution of the image in the eye area detected by the eye area detection part. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、静止画像や動画像から対象物体、特に、顔や目を検出及び抽出する技術に関するものである。   The present invention relates to a technique for detecting and extracting a target object, in particular, a face and eyes from a still image or a moving image.

従来より、画像認識の分野において、認識対象及び背景を含む画像から、認識対象を検出する技術が考案されている。特に、顔や目を特定の認識対象として検出する技術は、検出後の処理も含めて、デジタルカメラなどの民生品からセキュリティなどの公共システムに至る様々な分野で非常に有用な技術である。さらに、目の中の瞳を検出する技術は、目を検出する精度を上げるための補助として利用されたり、視線方向を検出するのに利用されたりしている。   Conventionally, in the field of image recognition, a technique for detecting a recognition target from an image including the recognition target and a background has been devised. In particular, a technique for detecting a face or eyes as a specific recognition target is a very useful technique in various fields ranging from consumer products such as digital cameras to public systems such as security, including post-detection processing. Furthermore, the technique for detecting the pupil in the eye is used as an aid for increasing the accuracy of detecting the eye, or is used for detecting the line-of-sight direction.

これらの瞳を検出する技術としては、例えば、特開平08−327887号公報(特許文献1)に開示されている視線検出装置が知られている。この装置では、目近傍の画像から黒目を横切る水平方向輝度レベル分布を平滑化し、それを微分して絶対値をとった値を求め、閾値を設定して閾値と一致する場所の中間点を瞳の水平方向中心位置としている。
特開平08−327887号公報
As a technique for detecting these pupils, for example, a line-of-sight detection device disclosed in JP-A-08-327887 (Patent Document 1) is known. In this device, the horizontal luminance level distribution across the black eye is smoothed from the image near the eye, and is differentiated to obtain an absolute value, and a threshold value is set and an intermediate point at a location that matches the threshold value is determined as the pupil. The horizontal center position.
Japanese Patent Laid-Open No. 08-327887

しかしながら、このような従来の瞳を検出する技術においては、画像の解像度が低い場合や、高感度で撮影された画像である場合には、輝度レベル分布に本来の被写体にはないノイズ等が載ることがあるため、瞳を誤検出する可能性があるという問題点があった。   However, in such conventional pupil detection technology, when the resolution of the image is low or when the image is taken with high sensitivity, noise or the like that does not exist in the original subject is included in the luminance level distribution. Therefore, there is a problem that the pupil may be erroneously detected.

従って、本発明は上述した課題に鑑みてなされたものであり、その目的は、画像から瞳を検出する場合の検出精度を向上させることである。   Therefore, the present invention has been made in view of the above-described problems, and an object of the present invention is to improve detection accuracy when a pupil is detected from an image.

上述した課題を解決し、目的を達成するために、本発明に係わる画像処理装置は、画像を入力する画像入力手段と、前記画像入力手段により入力された画像から目領域を検出する目領域検出手段と、前記目領域検出手段で検出された目領域における画像の輝度分布に基づいて、瞳領域を抽出する瞳領域抽出手段と、を具備することを特徴とする。   In order to solve the above-described problems and achieve the object, an image processing apparatus according to the present invention includes an image input unit that inputs an image, and an eye region detection that detects an eye region from the image input by the image input unit. And pupil area extracting means for extracting a pupil area based on the luminance distribution of the image in the eye area detected by the eye area detecting means.

また、本発明に係わる画像処理方法は、画像を入力する画像入力工程と、前記画像入力工程において入力された画像から目領域を検出する目領域検出工程と、前記目領域検出工程で検出された目領域における画像の輝度分布に基づいて、瞳領域を抽出する瞳領域抽出工程と、を具備することを特徴とする。   The image processing method according to the present invention is detected in the image input step of inputting an image, the eye region detection step of detecting an eye region from the image input in the image input step, and the eye region detection step. A pupil region extracting step of extracting a pupil region based on the luminance distribution of the image in the eye region.

また、本発明に係わるプログラムは、上記の画像処理方法をコンピュータに実行させることを特徴とする。   A program according to the present invention causes a computer to execute the above image processing method.

また、本発明に係わる記憶媒体は、上記のプログラムを記憶したことを特徴とする。   A storage medium according to the present invention stores the above program.

本発明によれば、画像から瞳を検出する場合の検出精度を向上させることが可能となる。   According to the present invention, it is possible to improve detection accuracy when detecting a pupil from an image.

以下、本発明の好適な実施形態について、添付図面を参照して詳細に説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the accompanying drawings.

(第1の実施形態)
図1は、本発明の第1の実施形態に係わる画像処理装置の構成を示す図である。
(First embodiment)
FIG. 1 is a diagram showing a configuration of an image processing apparatus according to the first embodiment of the present invention.

図1において、100は、レンズ及びCCDやCMOSセンサ等の撮像素子を含む撮像部、あるいはスキャナ、あるいは画像ファイルを読み込む入力部等の画像入力部である。101は、入力された画像から目領域を抽出する目領域検出部である。102は、目領域検出部101で検出された目領域から瞳領域を抽出する瞳領域抽出部である。103は、瞳領域抽出部102で瞳領域候補として選出された結果を保持するメモリである。104は、画像入力部100で入力された画像や、目領域検出部101で検出された目領域の検出結果や、瞳領域抽出部102で抽出された瞳領域の抽出結果を保持するメモリである。105は、全体を制御するシステム制御部であり、目領域検出動作の指示や瞳領域抽出動作の指示などを司る。106は、画像入力部100で入力された画像や、目領域検出部101で検出された目領域の検出結果や、瞳領域抽出部102で抽出された瞳領域の抽出結果を表示する表示部である。107は、画像入力部100で入力された画像や、目領域検出部101で検出された目領域の検出結果や、瞳領域抽出部102で抽出された瞳領域の抽出結果を記録する記録部である。   In FIG. 1, reference numeral 100 denotes an image input unit such as an image pickup unit including an image pickup element such as a lens and a CCD or a CMOS sensor, a scanner, or an input unit for reading an image file. Reference numeral 101 denotes an eye area detection unit that extracts an eye area from the input image. Reference numeral 102 denotes a pupil region extraction unit that extracts a pupil region from the eye region detected by the eye region detection unit 101. Reference numeral 103 denotes a memory that holds the result selected by the pupil region extraction unit 102 as a pupil region candidate. A memory 104 holds an image input by the image input unit 100, a detection result of the eye region detected by the eye region detection unit 101, and a pupil region extraction result extracted by the pupil region extraction unit 102. . Reference numeral 105 denotes a system control unit that controls the entire system, and controls an eye region detection operation instruction, a pupil region extraction operation instruction, and the like. A display unit 106 displays the image input by the image input unit 100, the detection result of the eye region detected by the eye region detection unit 101, and the extraction result of the pupil region extracted by the pupil region extraction unit 102. is there. A recording unit 107 records the image input by the image input unit 100, the detection result of the eye region detected by the eye region detection unit 101, and the extraction result of the pupil region extracted by the pupil region extraction unit 102. is there.

図2から図18を参照して、第1の実施形態の瞳抽出動作について説明する。   The pupil extraction operation of the first embodiment will be described with reference to FIGS.

図2は、瞳抽出動作の主ルーチンを示すフローチャートである。   FIG. 2 is a flowchart showing a main routine of the pupil extraction operation.

システム制御部105は、画像入力部100により被写体を撮影したり、画像を読み込んだりして、画像を取り込み(ステップS201)、目領域検出部101で目領域を検出する(ステップS202)。目領域検出部101では、図示しない顔領域検出部などで顔領域検出後にその結果を使用して目領域検出を行ったり、入力画像から直接、目領域検出を行ったりする。ただし、目領域が検出される方法であれば他の方法でもよい。目領域を検出すると、瞳領域抽出部102で瞳領域を抽出する(ステップS203)。瞳領域抽出部102で瞳領域が抽出されると(ステップS203)、表示部106に表示を行ったり(ステップS204)、記録部107に記録を行ったりする(ステップS204)。   The system control unit 105 captures an image by photographing a subject with the image input unit 100 or reads an image (step S201), and detects an eye region with the eye region detection unit 101 (step S202). In the eye area detection unit 101, the face area detection unit (not shown) or the like detects the face area after detecting the face area, or detects the eye area directly from the input image. However, any other method may be used as long as the eye region is detected. When the eye area is detected, the pupil area extracting unit 102 extracts the pupil area (step S203). When a pupil region is extracted by the pupil region extraction unit 102 (step S203), display is performed on the display unit 106 (step S204), and recording is performed on the recording unit 107 (step S204).

図3は、図2のステップS203における瞳領域抽出処理ルーチンを示すフローチャートである。   FIG. 3 is a flowchart showing the pupil region extraction processing routine in step S203 of FIG.

図3を用いて、瞳領域抽出処理の概要について説明する。   The outline of the pupil region extraction process will be described with reference to FIG.

システム制御部105は、目領域検出部101で検出された目領域画像を瞳領域抽出部102に入力すると、瞳領域抽出部102では、まず瞳の左端、右端と想定される位置を結ぶ水平線と概ね直交する上下方向ラインを選出する(ステップS301)。次に、これら選出された瞳左端右端候補群の中から瞳の左端と右端を一対にした候補を選出する(ステップS302)。最後に、瞳の複数の左右端候補対があれば、その中から瞳の左端、右端を選出し(ステップS303)、その間に挟まれた領域を瞳領域として抽出する(ステップS304)。   When the system control unit 105 inputs the eye region image detected by the eye region detection unit 101 to the pupil region extraction unit 102, the pupil region extraction unit 102 first creates a horizontal line connecting the assumed positions of the left and right ends of the pupil. An approximately vertical line is selected (step S301). Next, a candidate is selected from the selected pupil left end right end candidate group, which is a pair of the left end and the right end of the pupil (step S302). Finally, if there are a plurality of candidate left and right edge pairs, the left and right edges of the pupil are selected (step S303), and the area sandwiched between them is extracted as the pupil area (step S304).

以下に、それぞれの選出方法の詳細について説明する。   Below, the detail of each selection method is demonstrated.

図4は、図3のステップS301における瞳左端右端候補群選出処理ルーチンを示すフローチャートである。   FIG. 4 is a flowchart showing a pupil left end / right end candidate group selection processing routine in step S301 of FIG.

システム制御部105は、瞳領域抽出部102において、目領域検出部101で検出された目領域内の画素の輝度を縦方向の1ライン毎に上下方向に足し合わせた値を計算する(ステップS401)。そして、計算された輝度和の水平方向(左右方向)分布のグラフを作成する(ステップS402)。求めた水平方向の輝度和に対してその分布を平滑化するものとしないものを準備する(ステップS403)。これは、入力された画像が粗い場合などには、分布を平滑化することによって、画像に載っているノイズ分を減少させることができるためである。   In the pupil region extraction unit 102, the system control unit 105 calculates a value obtained by adding the luminances of the pixels in the eye region detected by the eye region detection unit 101 in the vertical direction for each vertical line (step S401). ). Then, a graph of horizontal (left-right) distribution of the calculated luminance sum is created (step S402). For the obtained luminance sum in the horizontal direction, a smoothing and non-smoothing distribution is prepared (step S403). This is because, for example, when the input image is rough, the noise can be reduced by smoothing the distribution.

次に、1つの縦ラインの輝度和とその隣の縦ラインの輝度和との差を計算し(ステップS404)、その差が増加しているすべての差分値の平均値、及びその差が減少しているすべての差分値の平均値をそれぞれ計算する(ステップS405)。そこで、隣の縦ラインの輝度和との差が減少しており、且つ減少している差分値の平均値以上に変化している縦ラインを瞳左端候補ラインとする。また、隣の縦ラインの輝度和との差が増加しており、且つ増加している差分値の平均値以上に変化している縦ラインを瞳右端候補ラインとする。そして、それらを瞳左端右端候補群として選出する(ステップS406)。つまり、隣の縦ラインの輝度和との差が大きく減少しているところは、白っぽい領域から黒っぽい領域に、隣の縦ラインの輝度和との差が大きく増加しているところは、黒っぽい領域から白っぽい領域に、変化していると考えられる。そのため、上記のようにして瞳左端右端候補群を選出することができる。   Next, the difference between the luminance sum of one vertical line and the luminance sum of the adjacent vertical line is calculated (step S404), and the average value of all the difference values that have increased, and the difference decreased. An average value of all the difference values being calculated is calculated (step S405). Therefore, a vertical line in which the difference from the luminance sum of the adjacent vertical lines has decreased and has changed to be equal to or greater than the average value of the decreased difference values is set as a pupil left end candidate line. Further, a vertical line in which the difference from the luminance sum of the adjacent vertical lines has increased and has changed to be equal to or greater than the average value of the increased difference values is set as a pupil right end candidate line. Then, they are selected as a pupil left end right end candidate group (step S406). In other words, where the difference from the brightness sum of the adjacent vertical line is greatly reduced, it is from the whitish area to the dark area, and where the difference from the brightness sum of the adjacent vertical line is greatly increased is from the dark area. It is thought that it has changed to a whitish area. Therefore, the pupil left end right end candidate group can be selected as described above.

図5は、瞳左端右端候補群を選出する方法を表す模式図である。   FIG. 5 is a schematic diagram showing a method for selecting a candidate group for the left and right pupil ends.

この例では、輝度和分布の中で、隣の縦ラインとの差が減少している差分値の平均値以上の縦ラインが2本あり、増加している差分値の平均値以上の縦ラインが1本選出されている。また、減少している差分値の平均値以上に減少するラインが連続していたり、増加している差分値の平均値以上に増加するラインが連続していたりする場合は、それぞれ、瞳の左端の一連の領域、瞳の右端の一連の領域であると考えられる。そのため、連続して減少または増加している縦ラインの中からそれぞれ一つを瞳左端候補、瞳右端候補として選出するようにしてもよい。このように、それぞれ白から黒、黒から白に大きく変化する縦ラインを瞳の左端、右端に相当する候補として選出すれば、正しい瞳左端候補、瞳右端候補を抽出できる可能性が高いと考えられる。   In this example, in the luminance sum distribution, there are two vertical lines that are equal to or greater than the average value of the difference values in which the difference from the adjacent vertical line is decreasing, and the vertical lines that are equal to or greater than the average value of the increasing difference values. Is elected. In addition, if there are continuous lines that decrease more than the average value of the difference values that are decreasing, or continuous lines that increase more than the average value of the difference values that are increasing, respectively, the left edge of the pupil It is considered that this is a series of areas of the right end of the pupil. For this reason, one of the vertical lines continuously decreasing or increasing may be selected as the pupil left end candidate and the pupil right end candidate. In this way, if vertical lines that greatly change from white to black and black to white are selected as candidates corresponding to the left and right pupils of the pupil, it is highly likely that the correct left and right pupil candidates can be extracted. It is done.

図6は、図3のステップS302における瞳左右端候補対選出処理ルーチンを示すフローチャートである。   FIG. 6 is a flowchart showing the pupil left / right end candidate pair selection processing routine in step S302 of FIG.

システム制御部105は、瞳領域抽出部102において、縦ライン輝度和分布を平滑化するものとしないものを準備する(ステップS601)。ただし、図3の瞳左端右端候補群選出処理ステップS301において、縦ライン輝度和分布を平滑化している場合には、ステップS601では平滑化は行わない。つまり、瞳左端右端候補群選出処理ステップS301において平滑化したものと、瞳左右端候補対選出処理ステップS302において平滑化したものと、平滑化を行わないものの3種類の輝度和分布データがその後の処理に使用されることになる。   The system control unit 105 prepares the pupil region extraction unit 102 to smooth or not smooth the vertical line luminance sum distribution (step S601). However, if the vertical line luminance sum distribution is smoothed in the pupil left end / right end candidate group selection processing step S301 in FIG. 3, the smoothing is not performed in step S601. That is, three types of luminance sum distribution data, which are smoothed in the pupil left end right end candidate group selection processing step S301, those smoothed in the pupil left and right end candidate pair selection processing step S302, and those which are not smoothed, are obtained thereafter. Will be used for processing.

次に、輝度和分布の極大値、極小値を計算する(ステップS602)。計算した極小値の数が、1つの場合には(ステップS603)、瞳左端候補群の中で、極小値よりも目尻側にスキャンして最初に存在する瞳左端候補を瞳左右端候補対の左端側とする(ステップS604)。さらに、瞳右端候補群の中で、極小値よりも目頭側にスキャンして最初に存在する瞳右端候補を瞳左右端候補対の右端側とする(ステップS605)。これは、極小値の数が1つの場合は、黒い領域が瞳領域のみで、その極小値を挟んで左方向に瞳左端、右方向に瞳右端があると考えられるためである。   Next, the maximum value and the minimum value of the luminance sum distribution are calculated (step S602). When the calculated number of minimum values is one (step S603), the left pupil candidate that first exists in the pupil left end candidate group by scanning to the outer corner of the eye from the minimum value is the left-right end candidate pair of pupils. The left end side is set (step S604). Further, in the right pupil candidate group, the right pupil candidate that first exists after scanning toward the top of the eye from the minimum value is set as the right end of the left and right pupil candidate pair (step S605). This is because when the number of local minimum values is one, the black region is only the pupil region, and it is considered that the left end of the pupil is located on the left side and the right end of the pupil is located on the right side across the local minimum value.

計算した極小値の数が、2つの場合には(ステップS603)、瞳左端候補群の中で、目尻側からスキャンして最初の極小値よりも目尻側の方向に最初に存在する瞳左端候補を、瞳左右端候補対の左端側とする(ステップS606)。さらに、瞳右端候補群の中で、目尻側からスキャンして最初の極小値の次にある極小値よりも目頭側の方向に最初に存在する瞳右端候補を、瞳左右端候補対の右端側とする(ステップS607)。これは、極小値の数が2つの場合は、瞳の中心付近にキャッチライトと呼ばれる光源が写り込んだ高輝度な小領域が存在し、極小値がキャッチライトを挟んだ2つの瞳領域を表していると考えられるからである。そして、キャッチライトの左側の極小値の左方向に瞳左端、キャッチライトの右側の極小値の右方向に瞳右端があると考えられるためである。   When the number of calculated local minimum values is two (step S603), the left pupil candidate that first exists in the direction of the outer corner of the eye from the lower left corner group in the pupil left end candidate group. Is the left end side of the candidate pair of left and right pupil ends (step S606). Furthermore, in the right pupil candidate group, the right pupil candidate that is first present in the direction of the head of the eye after the first minimum value after scanning from the outer corner of the eye is the right end side of the left and right pupil candidate pair. (Step S607). This means that when the number of local minimums is 2, there is a high-luminance small area where a light source called catchlight is reflected near the center of the pupil, and the local minimum represents two pupil areas sandwiching the catchlight. It is because it is thought that it is. This is because it is considered that the left end of the pupil is on the left side of the minimum value on the left side of the catchlight and the right end of the pupil is on the right side of the minimum value on the right side of the catchlight.

計算した極小値の数が、1つ、2つ以外の場合には(ステップS603)、瞳左端候補群の中で、目尻側からスキャンして最初の極大値の次にある極小値よりも目尻側の方向に最初に存在する瞳左端候補を瞳左右端候補対の左端側とする(ステップS608)。さらに、瞳右端候補群の中で、目尻側からスキャンして最初の極大値の次にある極小値のさらにその次にある極小値よりも目頭側の方向に最初に存在する瞳右端候補を、瞳左右端候補対の右端側とする(ステップS609)。また、瞳左端候補群の中で、目頭側からスキャンして最初の極大値の次にある極小値のさらにその次にある極小値よりも目尻側の方向に最初に存在する瞳左端候補を、瞳左右端候補対の左端側とする(ステップS610)。さらに、瞳右端候補群の中で、目頭側からスキャンして最初の極大値の次にある極小値よりも目頭側の方向に最初に存在する瞳右端候補を、瞳左右端候補対の右端側とする(ステップS611)。   When the calculated number of local minimum values is other than 1 or 2 (step S603), the eye corners are compared with the local minimum value next to the first local maximum value after scanning from the outer corner of the pupil left end candidate group. The pupil left end candidate that first exists in the direction of the side is defined as the left end side of the left and right pupil candidate pair (step S608). Further, in the right pupil candidate group, the right pupil candidate that first exists in the direction of the head of the eye from the minimum next to the first maximum after scanning from the outer corner of the eye, It is set as the right end side of the right and left pupil candidate pair (step S609). In addition, in the left pupil candidate group, the left pupil candidate that first exists in the direction of the outer corner of the eye after the minimum following the first maximum after scanning from the top of the eye, The left and right pupil candidate pairs are set to the left end side (step S610). Further, in the right pupil candidate group, the right pupil candidate first present in the direction of the head side from the minimum value next to the first maximum value scanned from the top of the eye is the right end side of the left and right pupil candidate pair. (Step S611).

即ち、極小値の数が1つ、2つ以外の場合は、瞳領域以外にも黒い領域が存在し、スキャン方向によって、瞳左右端候補対が異なる可能性があるため、目尻側からと目頭側からのスキャンを行い、それぞれ瞳左右端候補対を選出する。   That is, when the number of local minimum values is other than one or two, there is a black region in addition to the pupil region, and the left and right pupil candidate pairs may differ depending on the scanning direction. Scan from the side and select candidate left and right edge pairs for each.

以上のように、輝度和分布の極小値の数に応じて瞳左右端候補対の選出方法を変えて、正しい瞳左右端対を外すことのないようにする。   As described above, the selection method of the left and right pupil candidate pairs is changed according to the number of minimum values of the luminance sum distribution so that the right and left pupil right pair is not removed.

図7乃至図14は、図3のステップS302における瞳左右端候補対を選出する方法を表す模式図である。   7 to 14 are schematic diagrams showing a method of selecting the left and right pupil candidate pairs in step S302 of FIG.

図7の例は、輝度和分布の極小値が1つの場合を示している。この例では、極小値701は瞳の中心付近の縦ライン部分で、そこから左方向に最初に存在する瞳左端候補702が瞳左右端候補対の左端に選出される。また、極小値701の右方向に最初に存在する瞳右端候補703が瞳左右端候補対の右端に選出される。   The example of FIG. 7 shows a case where the minimum value of the luminance sum distribution is one. In this example, the minimum value 701 is a vertical line portion near the center of the pupil, and the left pupil candidate 702 that first exists in the left direction from there is selected as the left end of the left and right pupil candidate pair. Also, the right pupil candidate 703 that first exists in the right direction of the minimum value 701 is selected as the right end of the left and right pupil candidate pair.

図8の例は、輝度和分布の極小値が2つの場合を示している。この例では、極小値801、極小値802は瞳の中心付近のキャッチライト部を挟んだ瞳領域の縦ライン部分で、極小値801から左方向に最初に存在する瞳左端候補803が瞳左右端候補対の左端に選出される。また、極小値802から右方向に最初に存在する瞳右端候補804が瞳左右端候補対の右端に選出される。   The example of FIG. 8 shows a case where the minimum value of the luminance sum distribution is two. In this example, the minimum value 801 and the minimum value 802 are vertical line portions of the pupil region sandwiching the catchlight portion near the center of the pupil, and the left pupil candidate 803 that first exists in the left direction from the minimum value 801 is the left and right ends of the pupil. Selected at the left end of the candidate pair. Also, the right pupil candidate 804 present first in the right direction from the minimum value 802 is selected as the right end of the left and right pupil candidate pair.

図7、図8のいずれの場合も、目尻側からスキャンした結果と目頭側からスキャンした結果が同じになるため、目尻側からのスキャンのみを行えばよいことになる。   In either case of FIG. 7 or FIG. 8, the result of scanning from the corner of the eye is the same as the result of scanning from the head of the eye, so that only the scanning from the corner of the eye needs to be performed.

図9、図10の例は、輝度和分布の極小値が1つ、2つ以外の場合を示している。極小値は瞳の中心付近のキャッチライト部を挟んだ瞳領域の縦ライン部分と、瞳領域外の部分や、ノイズ部分などに存在する。   The example of FIGS. 9 and 10 shows a case where the minimum value of the luminance sum distribution is not one or two. The minimum value exists in the vertical line portion of the pupil region sandwiching the catch light portion near the center of the pupil, the portion outside the pupil region, the noise portion, and the like.

図9は、目尻側からスキャンした結果を示している。目尻側からスキャンすると、最初に存在する極大値901が瞳の左側にある白目領域付近の縦ライン部分で、その次に存在する極小値902がキャッチライトより目尻側の瞳領域の縦ライン部分となる。また、その次に存在する極大値がキャッチライト部の縦ライン部分で、その次に存在する極小値903がキャッチライトより目頭側の瞳領域の縦ライン部分となる。最初に存在する極大値901の次に存在する極小値902から左方向に最初に存在する瞳左端候補904が瞳左右端候補対の左端に選出され、その次に存在する極小値903から右方向に最初に存在する瞳右端候補905が瞳左右端候補対の右端に選出される。   FIG. 9 shows the result of scanning from the corner of the eye. When scanning from the outer corner of the eye, the maximum value 901 present first is the vertical line portion near the white eye region on the left side of the pupil, and the next smallest local value 902 is the vertical line portion of the pupil region on the outer corner side of the catch light. Become. Further, the next maximum value is the vertical line portion of the catchlight portion, and the next minimum value 903 is the vertical line portion of the pupil region on the eye side of the catchlight. The pupil left end candidate 904 that first exists in the left direction from the minimum value 902 that exists next to the first existing maximum value 901 is selected as the left end of the left and right end candidate pair of the pupil, and the right direction from the next existing minimum value 903 The right pupil candidate 905 that exists first is selected as the right end of the left and right pupil candidate pair.

図10は、目頭側からスキャンした結果を示している。目頭側からスキャンすると、最初に存在する極大値1001が瞳の右側の白目領域付近に存在するノイズ端付近の縦ライン部分で、その次に存在する極小値1002がノイズ付近の縦ライン部分となる。その次の極大値が瞳の右側の白目領域付近に存在するノイズ端の左側付近の縦ライン部分で、その次に存在する極小値1003が、キャッチライトより目頭側の瞳領域の縦ライン部分となる。最初に存在する極大値1001の次に存在する極小値1002から右方向に最初に存在する瞳右端候補1004はノイズ右端になり、その次に存在する極小値1003から左方向に最初に存在する瞳左端候補1005はキャッチライト右端になる。即ち、選出された瞳左右端候補対としては間違ったところを示していることになる。   FIG. 10 shows the result of scanning from the eye side. When scanning from the front of the eye, the maximum value 1001 existing first is a vertical line portion near the noise edge near the white eye region on the right side of the pupil, and the next minimum value 1002 is a vertical line portion near the noise. . The next maximum value is the vertical line portion near the left side of the noise edge near the white eye region on the right side of the pupil, and the next minimum value 1003 is the vertical line portion of the pupil region on the eye side from the catchlight. Become. The pupil right end candidate 1004 that exists first in the right direction from the minimum value 1002 that exists next to the maximum value 1001 that exists first is the right edge of the noise, and the pupil that first exists in the left direction from the minimum value 1003 that exists next. The left end candidate 1005 is the right end of the catch light. That is, the selected pupil left and right edge candidate pair indicates the wrong place.

図9、図10で示したように、目領域にノイズがある場合にも、目尻側からのスキャン、目頭側からのスキャンを行うことにより、正しい瞳左右端が選出される可能性が高くなる。   As shown in FIGS. 9 and 10, even when there is noise in the eye area, the right pupil right and left ends are more likely to be selected by performing the scan from the corner of the eye and the scan from the top of the eye. .

図11、図12の例は、輝度和分布の極小値が1つ、2つ以外の場合で、且つ瞳が目の中で左側に寄っている場合を示している。極小値は瞳の中心付近のキャッチライト部を挟んだ瞳領域の縦ライン部分と、ノイズ部分などに存在する。   The example of FIGS. 11 and 12 shows a case where the luminance sum distribution has a minimum value other than one or two and the pupil is closer to the left side in the eye. The minimum value exists in the vertical line portion of the pupil region sandwiching the catch light portion near the center of the pupil, the noise portion, and the like.

図11は、目尻側からスキャンした結果を示している。目尻側からスキャンすると、最初に存在する極大値1101がキャッチライト部の縦ライン部分で、その次に存在する極小値1102がキャッチライトより目頭側の瞳領域の縦ライン部分となる。その次の極大値が瞳の右側にある白目領域付近の縦ライン部分で、その次に存在する極小値1103が瞳の右側の白目領域付近に存在するノイズ付近の縦ライン部分となる。最初に存在する極大値1101の次に存在する極小値1102から左方向に最初に存在する瞳左端候補1104は、キャッチライト右端になり、その次に存在する極小値1103から右方向に最初に存在する瞳右端候補はないため選出されない。   FIG. 11 shows the result of scanning from the corner of the eye. When scanning from the outer corner of the eye, the maximum value 1101 existing first is the vertical line portion of the catchlight portion, and the next minimum value 1102 is the vertical line portion of the pupil region on the eye side of the catchlight. The next maximum value is the vertical line portion near the white eye region on the right side of the pupil, and the next minimum value 1103 is the vertical line portion near the noise near the white eye region on the right side of the pupil. The left pupil candidate 1104 that exists first in the left direction from the minimum value 1102 that exists next to the maximum value 1101 that exists first is the right end of the catchlight, and first exists in the right direction from the minimum value 1103 that exists next. Because there is no right pupil candidate to be selected, it is not selected.

図12は、目頭側からスキャンした結果を示している。目頭側からスキャンすると、最初に存在する極大値1201が瞳の右側にある白目領域付近の縦ライン部分で、その次に存在する極小値1202がキャッチライトより目頭側の瞳領域の縦ライン部分となる。その次の極大値がキャッチライト部の縦ライン部分で、その次に存在する極小値1203がキャッチライトより目尻側の瞳領域の縦ライン部分となる。最初に存在する極大値1201の次に存在する極小値1202から右方向に最初に存在する瞳右端候補1204が瞳左右端候補対の右端に選出され、その次に存在する極小値から左方向に最初に存在する瞳左端候補1205が瞳左右端候補対の左端に選出される。   FIG. 12 shows the result of scanning from the eye side. When scanning from the front of the eye, the maximum value 1201 that exists first is the vertical line portion near the white eye region on the right side of the pupil, and the next minimum value 1202 is the vertical line portion of the pupil region on the eye side from the catchlight. Become. The next maximum value is the vertical line portion of the catchlight portion, and the next minimum value 1203 is the vertical line portion of the pupil region on the outer corner of the catchlight. The right pupil candidate 1204 that exists first in the right direction from the minimum value 1202 that exists next to the maximum value 1201 that exists first is selected as the right end of the left and right candidate pair of pupils, and the left value from the next existing minimum value 1202 The left pupil candidate 1205 that exists first is selected as the left end of the left and right pupil candidate pair.

図11、図12で示したように、瞳が目の中で左側に寄っている場合にも、目尻側からのスキャン、目頭側からのスキャンを行うことにより、正しい瞳左右端が選出される可能性が高くなる。また、瞳が目の中で右側に寄っている場合にも、同様にして、正しい瞳左右端が選出される可能性が高くなる。さらに、図11、図12において、目領域にノイズがない場合にも、極小値が2つの場合(図8)の例と同様の選出方法で、瞳左右端候補対を選出することができる。   As shown in FIGS. 11 and 12, even when the pupil is on the left side in the eye, the right and left ends of the right pupil are selected by performing the scan from the outer corner of the eye and the scan from the front of the eye. The possibility increases. Similarly, when the pupil is on the right side of the eye, the possibility that the right and left ends of the pupil are selected in the same manner is increased. Furthermore, in FIG. 11 and FIG. 12, even when there is no noise in the eye area, a candidate pair of left and right ends of the pupil can be selected by the same selection method as in the case of two minimum values (FIG. 8).

図13、図14の例は、目領域にノイズがある場合(図9、図10)に対して、輝度和分布の平滑化を行った場合を示している。図を見ても明らかなように、ノイズ部分の輝度和分布が滑らかになり、極小値が2つの場合(図8)の例と同様の選出方法で、瞳左右端候補対を選出することができる。   The example of FIGS. 13 and 14 shows a case where the luminance sum distribution is smoothed when there is noise in the eye region (FIGS. 9 and 10). As is apparent from the figure, the right and left edge candidate pair can be selected by the same selection method as in the case where the luminance sum distribution in the noise portion is smooth and there are two minimum values (FIG. 8). it can.

図4のステップS403で輝度和分布の平滑化を行った場合には、その後の処理ステップも平滑化された輝度和分布に対して行われる。つまり、瞳左端右端候補群を選出するステップでは、平滑化された輝度和分布が計算に使用される。一方、図6のステップS601で輝度和分布の平滑化を行った場合には、それ以前のステップである瞳左端右端候補群を選出するステップでは、平滑化されていない輝度和分布が計算に使用される。また、瞳左右端候補対を選出するための輝度和分布の極大値、極小値を計算するステップでは、平滑化された輝度和分布が使用される。このように輝度和分布の平滑化を、瞳左端右端候補群を選出するステップの前で行うか、または瞳左端右端候補群を選出するステップと瞳左右端候補対を選出するステップとの間で行うかを選択することができる。これにより、ノイズ等に影響されずに正しい瞳左右端候補対を選出できる可能性を高くすることができる。また、輝度和分布の平滑化を行わない場合も含めて、複数の瞳左右端候補対を選出することができ、正しい瞳左右端候補対を選出する可能性をより高くすることができる。   When the luminance sum distribution is smoothed in step S403 of FIG. 4, the subsequent processing steps are also performed on the smoothed luminance sum distribution. That is, in the step of selecting the pupil left end right end candidate group, the smoothed luminance sum distribution is used for the calculation. On the other hand, when the luminance sum distribution is smoothed in step S601 of FIG. 6, the luminance sum distribution that has not been smoothed is used in the calculation in the previous step of selecting the left and right pupil candidate groups. Is done. In the step of calculating the maximum value and the minimum value of the luminance sum distribution for selecting the left and right pupil candidate pairs, a smoothed luminance sum distribution is used. Thus, the smoothing of the luminance sum distribution is performed before the step of selecting the pupil left end right end candidate group, or between the step of selecting the pupil left end right end candidate group and the step of selecting the pupil left and right end candidate pair. You can choose what to do. As a result, it is possible to increase the possibility of selecting the right and left pupil candidate pairs without being affected by noise or the like. In addition, even when the luminance sum distribution is not smoothed, a plurality of left and right pupil candidate pairs can be selected, and the possibility of selecting the right and left pupil candidate pairs can be further increased.

図15は、図3のステップS303における瞳左右端選出処理ルーチンを示すフローチャートである。   FIG. 15 is a flowchart showing the pupil left and right edge selection processing routine in step S303 of FIG.

システム制御部105は、瞳領域抽出部102において、瞳左右端候補対で挟まれた領域内で輝度分布を測定し、黒と白に二値化する輝度閾値を設定する(ステップS1501)。閾値の決定方法としては、輝度分布の平均値や「大津の方法」によるクラス間分散クラス内分散比を最大にする値などが挙げられるが、閾値を決定できる方法であれば他の方法でもよい。   In the pupil region extraction unit 102, the system control unit 105 measures the luminance distribution in the region sandwiched between the left and right pupil candidate pairs, and sets a luminance threshold value that is binarized into black and white (step S1501). Examples of the threshold value determination method include an average value of the luminance distribution and a value that maximizes the inter-class variance ratio by the “Otsu method”. However, other methods may be used as long as the threshold value can be determined. .

次に、瞳左右端候補対で挟まれた領域内で最大輝度の画素を選出する(ステップS1502)。正しい瞳左右端候補対であれば、中心付近にキャッチライトに相当する部分があると考えられるため、最大輝度の画素を選出する領域を瞳左右端候補対で挟まれた領域のさらに中心付近に限定してもよい。そして、最大輝度の画素が含まれる輝度閾値以上の領域の円形度を計算する(ステップS1503)。最後に、各条件で選出された瞳左右端候補対で挟まれた領域について、最大輝度の画素が含まれる輝度閾値以上の領域の円形度を比較して、円形度が最大になるものを瞳左右端とする(ステップS1504)。例えば、最大輝度の画素が含まれる輝度閾値以上の領域がキャッチライト部分であれば、他の部分が選択された場合に比べて、円形度は大きくなる。以下に、円形度計算処理方法の詳細について説明する。   Next, the pixel having the maximum luminance is selected within the region sandwiched between the left and right pupil candidate pairs (step S1502). If it is a correct pair of left and right pupil candidates, it is considered that there is a part corresponding to the catchlight near the center, so the area for selecting the pixel with the highest brightness is further near the center of the area sandwiched between the left and right pupil candidate pairs. It may be limited. Then, the circularity of an area equal to or higher than the luminance threshold including the pixel with the maximum luminance is calculated (step S1503). Finally, for the area between the candidate pair of left and right pupils selected under each condition, the circularity of the area above the luminance threshold that contains the pixel with the highest luminance is compared, and the one with the highest circularity is compared with the pupil. The left and right ends are set (step S1504). For example, if the region above the luminance threshold including the pixel with the maximum luminance is a catchlight portion, the circularity is greater than when other portions are selected. Details of the circularity calculation processing method will be described below.

図16は、瞳左右端候補対で挟まれた領域の円形度計算処理ルーチンのフローチャートである。   FIG. 16 is a flowchart of the circularity calculation processing routine for the region sandwiched between the left and right edge candidate pairs.

システム制御部105は、瞳領域抽出部102において、最大輝度の画素から外側に向かって輝度閾値以下の領域に初めて移行する画素までの距離を求める(ステップS1601)。次に、その距離を回転方向に45°ずつ一周360°求めていく(ステップS1602)。X軸に回転方向を、Y軸に求めた距離をとったグラフに回転角度と距離をプロットし(ステップS1603)、プロットした点の近似直線(y=bで表される直線)を求める(ステップS1604)。最後に、プロットした点と近似直線との最小二乗誤差を計算する(ステップS1605)。より円形に近ければ、最大輝度の画素から外側に向かって輝度閾値以下の領域に初めて移行する画素までの距離はより一定になるので、プロットした点と近似直線との最小二乗誤差はより小さくなる。したがって、最小二乗誤差が小さいものほど、円形度が大きいものとする(ステップS1606)。   In the pupil region extraction unit 102, the system control unit 105 obtains the distance from the pixel having the maximum luminance to the pixel that first shifts to the region below the luminance threshold toward the outside (step S1601). Next, the distance is determined by 360 ° in a rotation direction by 45 ° (step S1602). The rotation angle and distance are plotted on a graph with the rotation direction on the X axis and the distance obtained on the Y axis (step S1603), and an approximate straight line (straight line represented by y = b) of the plotted points is obtained (step S1603). S1604). Finally, the least square error between the plotted points and the approximate straight line is calculated (step S1605). If it is closer to a circle, the distance from the pixel with the maximum luminance to the pixel that first shifts to the region below the luminance threshold toward the outside becomes more constant, so the least square error between the plotted point and the approximate line becomes smaller. . Accordingly, it is assumed that the smaller the least square error, the greater the circularity (step S1606).

図17、図18は、瞳左右端を選出する方法を表す模式図である。   17 and 18 are schematic diagrams showing a method for selecting the left and right ends of the pupil.

図17の例は、瞳左右端候補対が正しい瞳左右端である場合を示しており、最大輝度の画素がキャッチライト部分内に存在している。この場合、キャッチライト部分が最大輝度の画素が含まれる輝度閾値以上の領域、キャッチライト部分の外側にある瞳部分が輝度閾値以下の領域になる。そのため、最大輝度の画素から外側に向かって輝度閾値以下の領域に初めて移行する画素までの距離は、キャッチライトの縁までの距離となる。つまり、キャッチライト部分が円形に近い形状である可能性が高いため、距離も一定になる可能性が高くなり、回転角度と距離のグラフにプロットした点とその近似直線との最小二乗誤差が小さくなる可能性が高い。この例では、最小二乗誤差は0になる。   The example in FIG. 17 shows a case where the right and left pupil candidate pair is the right and left pupils, and the pixel with the maximum luminance exists in the catchlight portion. In this case, the catchlight portion is an area that is equal to or higher than the luminance threshold including pixels with the maximum luminance, and the pupil portion outside the catchlight portion is an area that is equal to or lower than the luminance threshold. Therefore, the distance from the pixel having the maximum luminance to the pixel that first shifts to the area below the luminance threshold toward the outside is the distance to the edge of the catchlight. In other words, since the catchlight portion is likely to have a nearly circular shape, the distance is likely to be constant, and the least square error between the points plotted on the graph of rotation angle and distance and its approximate line is small. Is likely to be. In this example, the least square error is zero.

図18の例は、瞳左右端候補対が、瞳右側のノイズの影響で、瞳右側の白目部分になっている場合を示しており、最大輝度の画素が白目部分内に存在している。円形度を図17の例と同様に計算すると、最大輝度の画素から外側に向かって輝度閾値以下の領域に初めて移行する画素までの距離がまちまちになり、回転角度と距離のグラフにプロットした点とその近似直線との最小二乗誤差はある程度大きさを持った値になる。   The example of FIG. 18 shows a case where the left and right edge candidate pair is a white-eye portion on the right side of the pupil due to the influence of noise on the right side of the pupil, and a pixel with the maximum luminance exists in the white-eye portion. When the circularity is calculated in the same manner as in the example of FIG. 17, the distance from the pixel having the maximum luminance to the pixel that first shifts to the region below the luminance threshold value varies outwardly, and is plotted in the graph of the rotation angle and the distance And the least square error between the approximate line and the approximate straight line have a certain size.

図17、図18で示したように、瞳左右端候補対が正しい瞳左右端である場合は、正しくない場合に比べて、最大輝度の画素から外側に向かって輝度閾値以下の領域に初めて移行する画素までの距離が一定になる。そのため、距離を回転方向に見ていった時の回転角度と距離のグラフにプロットした点とその近似直線との最小二乗誤差が小さくなることから、瞳左右端を正しく選出することができる。   As shown in FIG. 17 and FIG. 18, when the right and left pupil candidate pair is the right and left right pupil pair, the transition from the pixel with the highest luminance to the region below the luminance threshold value is made for the first time as compared with the incorrect case. The distance to the target pixel is constant. Therefore, since the least square error between the point plotted on the graph of the rotation angle and distance when the distance is viewed in the rotation direction and the approximate straight line becomes small, the left and right ends of the pupil can be correctly selected.

(第2の実施形態)
第2の実施形態は、第1の実施形態で示したような、瞳左右端候補対で挟まれた領域内で最大輝度の画素から外側に向かって輝度閾値以下の領域に初めて移行する画素までの距離を計算することは行わない。そのかわりに、最大輝度の画素がある輝度閾値以上の領域とその外側に存在する輝度閾値以下の領域との境界線を追跡して円形度を求める。
(Second Embodiment)
In the second embodiment, as shown in the first embodiment, from the pixel having the maximum luminance within the region sandwiched between the left and right pupil candidate pairs to the pixel that first shifts to the region below the luminance threshold toward the outside. The distance is not calculated. Instead, the degree of circularity is obtained by tracking the boundary line between a region having a maximum luminance pixel equal to or higher than a certain luminance threshold and a region existing outside the luminance threshold equal to or lower than the luminance threshold.

図19は、第2の実施形態の瞳左右端選出処理ルーチンのフローチャートである。   FIG. 19 is a flowchart of the pupil left / right end selection processing routine of the second embodiment.

図1から図14までは、第1の実施形態と同じである。   1 to 14 are the same as those in the first embodiment.

図19を用いて、瞳左右端選出処理について詳しく説明する。   The pupil left and right edge selection processing will be described in detail with reference to FIG.

システム制御部105は、瞳領域抽出部102において、瞳左右端候補対に挟まれた領域内で左上から右下に向かってスキャンを行う。そして、最大輝度の画素がある輝度閾値以上の領域に初めて移行する画素を求め(ステップS1901)、その画素を注目画素とする(ステップS1902)。次に、注目画素を中心に反時計回りに輝度閾値以上の画素を探索し(ステップS1903)、注目画素から探索した画素までの距離を求める(ステップS1904)。この時、探索した画素が注目画素の上下左右隣であれば、距離は1、斜めであれば、距離は√2となる。探索した画素が最初の注目画素と同じ画素になければ(ステップS1905)、ステップS1902に戻り、探索した画素を注目画素とし(ステップS1902)、再度、注目画素を中心に反時計回りに輝度閾値以上の画素を探索する(ステップS1903)。そして、注目画素から探索した画素までの距離を求める(ステップS1904)。探索した画素が最初の注目画素と同じ画素になったら(ステップS1905)、最初の画素から同じ画素に戻るまでの総距離Lを求める(ステップS1906)。そして、最大輝度の画素がある輝度閾値以上の領域の総画素数Sを求める(ステップS1907)。最後に、L2/4πSが1に近いものを円形度が大きいものとする(ステップS1908)。 In the pupil region extraction unit 102, the system control unit 105 scans from the upper left to the lower right within the region sandwiched between the left and right pupil candidate pairs. Then, a pixel that first shifts to a region having a luminance threshold value equal to or higher than a certain luminance threshold is obtained (step S1901), and that pixel is set as a target pixel (step S1902). Next, a pixel having a luminance threshold value or more is searched counterclockwise around the target pixel (step S1903), and a distance from the target pixel to the searched pixel is obtained (step S1904). At this time, if the searched pixel is adjacent to the target pixel in the vertical and horizontal directions, the distance is 1, and if the pixel is diagonal, the distance is √2. If the searched pixel is not the same pixel as the first target pixel (step S1905), the process returns to step S1902, the searched pixel is set as the target pixel (step S1902), and again exceeds the luminance threshold value counterclockwise around the target pixel. Are searched for (step S1903). Then, the distance from the target pixel to the searched pixel is obtained (step S1904). When the searched pixel becomes the same pixel as the first pixel of interest (step S1905), a total distance L from the first pixel to the same pixel is obtained (step S1906). Then, the total number of pixels S in a region having a maximum luminance pixel equal to or higher than a certain luminance threshold is obtained (step S1907). Finally, a case where L 2 / 4πS is close to 1 is assumed to have a large circularity (step S1908).

以上説明したように、上記の第1及び第2の実施形態によれば、目や瞳の特徴や位置関係によって複数の瞳候補を抽出し、最終的に瞳と思われる領域をひとつに絞り込んでいる。そのため、画像の輝度レベル分布に本来の被写体にはないノイズ等が載ることがある場合にも、瞳を正確に検出することが可能となる。   As described above, according to the first and second embodiments described above, a plurality of pupil candidates are extracted based on the characteristics and positional relationship of the eyes and pupils, and finally a region that seems to be a pupil is narrowed down to one. Yes. For this reason, it is possible to accurately detect the pupil even when the luminance level distribution of the image includes noise or the like that is not present in the original subject.

(他の実施形態)
また、各実施形態の目的は、次のような方法によっても達成される。すなわち、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給する。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行する。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、本発明には次のような場合も含まれる。すなわち、プログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される。
(Other embodiments)
The object of each embodiment is also achieved by the following method. That is, a storage medium (or recording medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded is supplied to the system or apparatus. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but the present invention includes the following cases. That is, based on the instruction of the program code, an operating system (OS) running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.

さらに、次のような場合も本発明に含まれる。すなわち、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される。   Furthermore, the following cases are also included in the present invention. That is, the program code read from the storage medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program code, the CPU or the like provided in the function expansion card or function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.

本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明した手順に対応するプログラムコードが格納されることになる。   When the present invention is applied to the above storage medium, the storage medium stores program codes corresponding to the procedure described above.

本発明の第1の実施形態に係わる画像処理装置の構成を示す図である。1 is a diagram illustrating a configuration of an image processing apparatus according to a first embodiment of the present invention. 瞳抽出動作の主ルーチンを示すフローチャートである。It is a flowchart which shows the main routine of pupil extraction operation | movement. 図2のステップS203における瞳領域抽出処理ルーチンを示すフローチャートである。It is a flowchart which shows the pupil area extraction process routine in step S203 of FIG. 図3のステップS301における瞳左端右端候補群選出処理ルーチンを示すフローチャートである。It is a flowchart which shows the pupil left end right end candidate group selection process routine in step S301 of FIG. 瞳左端右端候補群を選出する方法を表す模式図である。It is a schematic diagram showing the method of selecting a pupil left end right end candidate group. 図3のステップS302における瞳左右端候補対選出処理ルーチンを示すフローチャートである。It is a flowchart which shows the pupil left-right end candidate pair selection process routine in step S302 of FIG. 図3のステップS302における瞳左右端候補対を選出する方法を表す模式図である。It is a schematic diagram showing the method of selecting the pupil left-right end candidate pair in step S302 of FIG. 図3のステップS302における瞳左右端候補対を選出する方法を表す模式図である。It is a schematic diagram showing the method of selecting the pupil left-right end candidate pair in step S302 of FIG. 図3のステップS302における瞳左右端候補対を選出する方法を表す模式図である。It is a schematic diagram showing the method of selecting the pupil left-right end candidate pair in step S302 of FIG. 図3のステップS302における瞳左右端候補対を選出する方法を表す模式図である。It is a schematic diagram showing the method of selecting the pupil left-right end candidate pair in step S302 of FIG. 図3のステップS302における瞳左右端候補対を選出する方法を表す模式図である。It is a schematic diagram showing the method of selecting the pupil left-right end candidate pair in step S302 of FIG. 図3のステップS302における瞳左右端候補対を選出する方法を表す模式図である。It is a schematic diagram showing the method of selecting the pupil left-right end candidate pair in step S302 of FIG. 図3のステップS302における瞳左右端候補対を選出する方法を表す模式図である。It is a schematic diagram showing the method of selecting the pupil left-right end candidate pair in step S302 of FIG. 図3のステップS302における瞳左右端候補対を選出する方法を表す模式図である。It is a schematic diagram showing the method of selecting the pupil left-right end candidate pair in step S302 of FIG. 図3のステップS303における瞳左右端選出処理ルーチンを示すフローチャートである。It is a flowchart which shows the pupil left-right end selection process routine in step S303 of FIG. 瞳左右端候補対で挟まれた領域の円形度計算処理ルーチンのフローチャートである。It is a flowchart of the circularity calculation processing routine of the area | region pinched by the pupil right-and-left end candidate pair. 瞳左右端を選出する方法を表す模式図である。It is a schematic diagram showing the method of selecting a pupil right-and-left end. 瞳左右端を選出する方法を表す模式図である。It is a schematic diagram showing the method of selecting a pupil right-and-left end. 第2の実施形態の瞳左右端選出処理ルーチンのフローチャートである。It is a flowchart of the pupil left and right end selection processing routine of the second embodiment.

符号の説明Explanation of symbols

100 画像入力部
101 顔領域検出部
102 中間結果メモリ
103 目領域抽出部
104 メモリ
105 システム制御部
106 表示部
107 記録部
DESCRIPTION OF SYMBOLS 100 Image input part 101 Face area detection part 102 Intermediate result memory 103 Eye area extraction part 104 Memory 105 System control part 106 Display part 107 Recording part

Claims (20)

画像を入力する画像入力手段と、
前記画像入力手段により入力された画像から目領域を検出する目領域検出手段と、
前記目領域検出手段で検出された目領域における画像の輝度分布に基づいて、瞳領域を抽出する瞳領域抽出手段と、
を具備することを特徴とする画像処理装置。
An image input means for inputting an image;
Eye area detecting means for detecting an eye area from the image input by the image input means;
A pupil region extraction unit that extracts a pupil region based on a luminance distribution of an image in the eye region detected by the eye region detection unit;
An image processing apparatus comprising:
前記瞳領域抽出手段は、前記目領域における画像の射影成分分布に基づいて瞳領域を抽出することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the pupil region extracting unit extracts a pupil region based on a projected component distribution of the image in the eye region. 前記瞳領域抽出手段は、前記目領域における画像の射影成分分布に基づいて、瞳の左右端候補を選出することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the pupil region extracting unit selects left and right edge candidates of the pupil based on a projected component distribution of the image in the eye region. 前記瞳の左右端候補は、前記目領域における画像の上下方向輝度和の左右方向の差分分布に基づいて選出されることを特徴とする請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the left and right edge candidates of the pupil are selected based on a difference distribution in the left and right direction of the luminance summation in the vertical direction of the image in the eye region. 前記瞳領域抽出手段は、前記瞳の左右端候補から、瞳の左端及び右端を一対とした瞳の左右端の候補対を選出し、選出された候補対に基づいて瞳領域を抽出することを特徴とする請求項3に記載の画像処理装置。   The pupil region extracting means selects a candidate pair at the left and right ends of the pupil with the left end and the right end of the pupil as a pair from the left and right end candidates of the pupil, and extracts the pupil region based on the selected candidate pair. The image processing apparatus according to claim 3. 前記瞳領域抽出手段は、前記瞳の左右端の候補対を、前記目領域における画像の上下方向輝度和の左右方向分布の極大値および極小値の位置と、前記瞳の左右端候補の位置とに基づいて選出することを特徴とする請求項5に記載の画像処理装置。   The pupil region extracting means determines the candidate pair of the left and right edges of the pupil, the position of the maximum and minimum values of the horizontal distribution of the vertical luminance sum of the image in the eye region, and the position of the left and right edge candidates of the pupil. The image processing apparatus according to claim 5, wherein selection is performed based on 前記瞳領域抽出手段は、前記瞳の左右端の候補対を、前記目領域における画像の輝度分布を前記目領域の左側からスキャン、又は右側からスキャン、又は左右双方からスキャンすることによって選出することを特徴とする請求項6に記載の画像処理装置。   The pupil region extraction means selects a candidate pair at the left and right ends of the pupil by scanning the luminance distribution of the image in the eye region from the left side of the eye region, from the right side, or from both the left and right sides. The image processing apparatus according to claim 6. 前記目領域における画像の輝度分布を平滑化した後に、前記スキャンを行なうことを特徴とする請求項7に記載の画像処理装置。   The image processing apparatus according to claim 7, wherein the scan is performed after the luminance distribution of the image in the eye region is smoothed. 前記瞳領域抽出手段は、前記瞳の左右端の候補対内で輝度閾値を設定し、前記候補対内の最大輝度位置を中心として前記輝度閾値以上の輝度を有する領域の円形度に基づいて瞳領域を抽出することを特徴とする請求項5に記載の画像処理装置。   The pupil region extraction means sets a luminance threshold value within a candidate pair at the left and right ends of the pupil, and determines a pupil region based on a circularity of a region having a luminance equal to or higher than the luminance threshold with a maximum luminance position in the candidate pair as a center. The image processing apparatus according to claim 5, wherein the image processing apparatus is extracted. 画像を入力する画像入力工程と、
前記画像入力工程において入力された画像から目領域を検出する目領域検出工程と、
前記目領域検出工程で検出された目領域における画像の輝度分布に基づいて、瞳領域を抽出する瞳領域抽出工程と、
を具備することを特徴とする画像処理方法。
An image input process for inputting an image;
An eye region detection step of detecting an eye region from the image input in the image input step;
A pupil region extraction step of extracting a pupil region based on the luminance distribution of the image in the eye region detected in the eye region detection step;
An image processing method comprising:
前記瞳領域抽出工程では、前記目領域における画像の射影成分分布に基づいて瞳領域を抽出することを特徴とする請求項10に記載の画像処理方法。   The image processing method according to claim 10, wherein in the pupil region extracting step, a pupil region is extracted based on a projected component distribution of the image in the eye region. 前記瞳領域抽出工程では、前記目領域における画像の射影成分分布に基づいて、瞳の左右端候補を選出することを特徴とする請求項10に記載の画像処理方法。   The image processing method according to claim 10, wherein in the pupil region extracting step, left and right edge candidates of the pupil are selected based on a projected component distribution of the image in the eye region. 前記瞳の左右端候補は、前記目領域における画像の上下方向輝度和の左右方向の差分分布に基づいて選出されることを特徴とする請求項12に記載の画像処理方法。   The image processing method according to claim 12, wherein the left and right edge candidates of the pupil are selected based on a difference distribution in a horizontal direction of a vertical luminance sum of an image in the eye region. 前記瞳領域抽出工程では、前記瞳の左右端候補から、瞳の左端及び右端を一対とした瞳の左右端の候補対を選出し、選出された候補対に基づいて瞳領域を抽出することを特徴とする請求項12に記載の画像処理方法。   In the pupil region extracting step, from the left and right edge candidates of the pupil, selecting a candidate pair of left and right ends of the pupil with a left end and a right end of the pupil as a pair, and extracting a pupil region based on the selected candidate pair The image processing method according to claim 12, wherein: 前記瞳領域抽出工程では、前記瞳の左右端の候補対を、前記目領域における画像の上下方向輝度和の左右方向分布の極大値および極小値の位置と、前記瞳の左右端候補の位置とに基づいて選出することを特徴とする請求項14に記載の画像処理方法。   In the pupil region extracting step, the left and right edge candidate pairs of the pupil are determined as the maximum and minimum positions of the horizontal distribution of the vertical luminance sum of the image in the eye region, and the left and right edge candidate positions of the pupil. The image processing method according to claim 14, wherein selection is performed based on the image. 前記瞳領域抽出工程では、前記瞳の左右端の候補対を、前記目領域における画像の輝度分布を前記目領域の左側からスキャン、又は右側からスキャン、又は左右双方からスキャンすることによって選出することを特徴とする請求項15に記載の画像処理方法。   In the pupil region extraction step, candidate pairs at the left and right ends of the pupil are selected by scanning the luminance distribution of the image in the eye region from the left side of the eye region, from the right side, or from both the left and right sides. The image processing method according to claim 15. 前記目領域における画像の輝度分布を平滑化した後に、前記スキャンを行なうことを特徴とする請求項16に記載の画像処理方法。   The image processing method according to claim 16, wherein the scan is performed after the luminance distribution of the image in the eye region is smoothed. 前記瞳領域抽出工程では、前記瞳の左右端の候補対内で輝度閾値を設定し、前記候補対内の最大輝度位置を中心として前記輝度閾値以上の輝度を有する領域の円形度に基づいて瞳領域を抽出することを特徴とする請求項14に記載の画像処理方法。   In the pupil region extraction step, a luminance threshold is set in the candidate pair at the left and right ends of the pupil, and the pupil region is determined based on the circularity of a region having a luminance equal to or higher than the luminance threshold with the maximum luminance position in the candidate pair as a center. The image processing method according to claim 14, wherein extraction is performed. 請求項10乃至18のいずれか1項に記載の画像処理方法をコンピュータに実行させることを特徴とするプログラム。   A program for causing a computer to execute the image processing method according to any one of claims 10 to 18. 請求項19に記載のプログラムを記憶したことを特徴とするコンピュータ読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 19.
JP2006024738A 2006-02-01 2006-02-01 Image processor, image processing method, program and storage medium Withdrawn JP2007206963A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006024738A JP2007206963A (en) 2006-02-01 2006-02-01 Image processor, image processing method, program and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006024738A JP2007206963A (en) 2006-02-01 2006-02-01 Image processor, image processing method, program and storage medium

Publications (1)

Publication Number Publication Date
JP2007206963A true JP2007206963A (en) 2007-08-16

Family

ID=38486381

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006024738A Withdrawn JP2007206963A (en) 2006-02-01 2006-02-01 Image processor, image processing method, program and storage medium

Country Status (1)

Country Link
JP (1) JP2007206963A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150059213A (en) * 2013-11-21 2015-06-01 삼성전자주식회사 Method and apparatus for processing palm print image
JP2015204021A (en) * 2014-04-15 2015-11-16 株式会社デンソー Visual line detection device and visual line detection method
KR101601541B1 (en) * 2014-11-19 2016-03-08 현대자동차주식회사 Gaze Tracker and Method for Detecting Pupil thereof
US9875418B2 (en) 2015-10-20 2018-01-23 Samsung Electronics Co., Ltd. Method and apparatus for detecting biometric region for user authentication

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150059213A (en) * 2013-11-21 2015-06-01 삼성전자주식회사 Method and apparatus for processing palm print image
KR102166333B1 (en) * 2013-11-21 2020-10-16 삼성전자주식회사 Method and apparatus for processing palm print image
JP2015204021A (en) * 2014-04-15 2015-11-16 株式会社デンソー Visual line detection device and visual line detection method
KR101601541B1 (en) * 2014-11-19 2016-03-08 현대자동차주식회사 Gaze Tracker and Method for Detecting Pupil thereof
US9875418B2 (en) 2015-10-20 2018-01-23 Samsung Electronics Co., Ltd. Method and apparatus for detecting biometric region for user authentication

Similar Documents

Publication Publication Date Title
US8477390B2 (en) Image processor, image processing method, and computer program product
JP4952625B2 (en) Perspective transformation distortion generating document image correcting apparatus and method
CN107316047B (en) Image processing apparatus, image processing method, and storage medium
US7813553B2 (en) Image region detection method, recording medium, and device therefor
US20150262346A1 (en) Image processing apparatus, image processing method, and image processing program
KR100537235B1 (en) Image angle detector and scanning line interpolating apparatus
US9082181B2 (en) Image processing method and apparatus
US9930306B2 (en) Image processing apparatus, image processing method, and computer-readable storage medium
US10970845B2 (en) Image processing apparatus, image processing method, and storage medium
US20110058718A1 (en) Extracting method and apparatus of blood vessel crossing/branching portion
US11281930B2 (en) System and method for object detection
US20160350615A1 (en) Image processing apparatus, image processing method, and storage medium storing program for executing image processing method
WO2018147059A1 (en) Image processing device, image processing method, and program
KR101377910B1 (en) Image processing method and image processing apparatus
US20180158203A1 (en) Object detection device and object detection method
KR100923935B1 (en) Method and system for evaluating document image automatically for optical character recognition
JP4296617B2 (en) Image processing apparatus, image processing method, and recording medium
JP2007206963A (en) Image processor, image processing method, program and storage medium
JP2018109824A (en) Electronic control device, electronic control system, and electronic control method
US10332259B2 (en) Image processing apparatus, image processing method, and program
US10346680B2 (en) Imaging apparatus and control method for determining a posture of an object
US20240070903A1 (en) Image processing apparatus and control method for same
JP5185072B2 (en) Frame detection method, frame detection apparatus, and frame detection program
JP2020201525A (en) Image processing device, image processing method, program, and recording medium
JP2003208567A (en) Image processor, image processing method, and program used in the method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090407