JP2007206963A - Image processor, image processing method, program and storage medium - Google Patents
Image processor, image processing method, program and storage medium Download PDFInfo
- Publication number
- JP2007206963A JP2007206963A JP2006024738A JP2006024738A JP2007206963A JP 2007206963 A JP2007206963 A JP 2007206963A JP 2006024738 A JP2006024738 A JP 2006024738A JP 2006024738 A JP2006024738 A JP 2006024738A JP 2007206963 A JP2007206963 A JP 2007206963A
- Authority
- JP
- Japan
- Prior art keywords
- pupil
- region
- image
- eye
- luminance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、静止画像や動画像から対象物体、特に、顔や目を検出及び抽出する技術に関するものである。 The present invention relates to a technique for detecting and extracting a target object, in particular, a face and eyes from a still image or a moving image.
従来より、画像認識の分野において、認識対象及び背景を含む画像から、認識対象を検出する技術が考案されている。特に、顔や目を特定の認識対象として検出する技術は、検出後の処理も含めて、デジタルカメラなどの民生品からセキュリティなどの公共システムに至る様々な分野で非常に有用な技術である。さらに、目の中の瞳を検出する技術は、目を検出する精度を上げるための補助として利用されたり、視線方向を検出するのに利用されたりしている。 Conventionally, in the field of image recognition, a technique for detecting a recognition target from an image including the recognition target and a background has been devised. In particular, a technique for detecting a face or eyes as a specific recognition target is a very useful technique in various fields ranging from consumer products such as digital cameras to public systems such as security, including post-detection processing. Furthermore, the technique for detecting the pupil in the eye is used as an aid for increasing the accuracy of detecting the eye, or is used for detecting the line-of-sight direction.
これらの瞳を検出する技術としては、例えば、特開平08−327887号公報(特許文献1)に開示されている視線検出装置が知られている。この装置では、目近傍の画像から黒目を横切る水平方向輝度レベル分布を平滑化し、それを微分して絶対値をとった値を求め、閾値を設定して閾値と一致する場所の中間点を瞳の水平方向中心位置としている。
しかしながら、このような従来の瞳を検出する技術においては、画像の解像度が低い場合や、高感度で撮影された画像である場合には、輝度レベル分布に本来の被写体にはないノイズ等が載ることがあるため、瞳を誤検出する可能性があるという問題点があった。 However, in such conventional pupil detection technology, when the resolution of the image is low or when the image is taken with high sensitivity, noise or the like that does not exist in the original subject is included in the luminance level distribution. Therefore, there is a problem that the pupil may be erroneously detected.
従って、本発明は上述した課題に鑑みてなされたものであり、その目的は、画像から瞳を検出する場合の検出精度を向上させることである。 Therefore, the present invention has been made in view of the above-described problems, and an object of the present invention is to improve detection accuracy when a pupil is detected from an image.
上述した課題を解決し、目的を達成するために、本発明に係わる画像処理装置は、画像を入力する画像入力手段と、前記画像入力手段により入力された画像から目領域を検出する目領域検出手段と、前記目領域検出手段で検出された目領域における画像の輝度分布に基づいて、瞳領域を抽出する瞳領域抽出手段と、を具備することを特徴とする。 In order to solve the above-described problems and achieve the object, an image processing apparatus according to the present invention includes an image input unit that inputs an image, and an eye region detection that detects an eye region from the image input by the image input unit. And pupil area extracting means for extracting a pupil area based on the luminance distribution of the image in the eye area detected by the eye area detecting means.
また、本発明に係わる画像処理方法は、画像を入力する画像入力工程と、前記画像入力工程において入力された画像から目領域を検出する目領域検出工程と、前記目領域検出工程で検出された目領域における画像の輝度分布に基づいて、瞳領域を抽出する瞳領域抽出工程と、を具備することを特徴とする。 The image processing method according to the present invention is detected in the image input step of inputting an image, the eye region detection step of detecting an eye region from the image input in the image input step, and the eye region detection step. A pupil region extracting step of extracting a pupil region based on the luminance distribution of the image in the eye region.
また、本発明に係わるプログラムは、上記の画像処理方法をコンピュータに実行させることを特徴とする。 A program according to the present invention causes a computer to execute the above image processing method.
また、本発明に係わる記憶媒体は、上記のプログラムを記憶したことを特徴とする。 A storage medium according to the present invention stores the above program.
本発明によれば、画像から瞳を検出する場合の検出精度を向上させることが可能となる。 According to the present invention, it is possible to improve detection accuracy when detecting a pupil from an image.
以下、本発明の好適な実施形態について、添付図面を参照して詳細に説明する。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the accompanying drawings.
(第1の実施形態)
図1は、本発明の第1の実施形態に係わる画像処理装置の構成を示す図である。
(First embodiment)
FIG. 1 is a diagram showing a configuration of an image processing apparatus according to the first embodiment of the present invention.
図1において、100は、レンズ及びCCDやCMOSセンサ等の撮像素子を含む撮像部、あるいはスキャナ、あるいは画像ファイルを読み込む入力部等の画像入力部である。101は、入力された画像から目領域を抽出する目領域検出部である。102は、目領域検出部101で検出された目領域から瞳領域を抽出する瞳領域抽出部である。103は、瞳領域抽出部102で瞳領域候補として選出された結果を保持するメモリである。104は、画像入力部100で入力された画像や、目領域検出部101で検出された目領域の検出結果や、瞳領域抽出部102で抽出された瞳領域の抽出結果を保持するメモリである。105は、全体を制御するシステム制御部であり、目領域検出動作の指示や瞳領域抽出動作の指示などを司る。106は、画像入力部100で入力された画像や、目領域検出部101で検出された目領域の検出結果や、瞳領域抽出部102で抽出された瞳領域の抽出結果を表示する表示部である。107は、画像入力部100で入力された画像や、目領域検出部101で検出された目領域の検出結果や、瞳領域抽出部102で抽出された瞳領域の抽出結果を記録する記録部である。
In FIG. 1,
図2から図18を参照して、第1の実施形態の瞳抽出動作について説明する。 The pupil extraction operation of the first embodiment will be described with reference to FIGS.
図2は、瞳抽出動作の主ルーチンを示すフローチャートである。 FIG. 2 is a flowchart showing a main routine of the pupil extraction operation.
システム制御部105は、画像入力部100により被写体を撮影したり、画像を読み込んだりして、画像を取り込み(ステップS201)、目領域検出部101で目領域を検出する(ステップS202)。目領域検出部101では、図示しない顔領域検出部などで顔領域検出後にその結果を使用して目領域検出を行ったり、入力画像から直接、目領域検出を行ったりする。ただし、目領域が検出される方法であれば他の方法でもよい。目領域を検出すると、瞳領域抽出部102で瞳領域を抽出する(ステップS203)。瞳領域抽出部102で瞳領域が抽出されると(ステップS203)、表示部106に表示を行ったり(ステップS204)、記録部107に記録を行ったりする(ステップS204)。
The
図3は、図2のステップS203における瞳領域抽出処理ルーチンを示すフローチャートである。 FIG. 3 is a flowchart showing the pupil region extraction processing routine in step S203 of FIG.
図3を用いて、瞳領域抽出処理の概要について説明する。 The outline of the pupil region extraction process will be described with reference to FIG.
システム制御部105は、目領域検出部101で検出された目領域画像を瞳領域抽出部102に入力すると、瞳領域抽出部102では、まず瞳の左端、右端と想定される位置を結ぶ水平線と概ね直交する上下方向ラインを選出する(ステップS301)。次に、これら選出された瞳左端右端候補群の中から瞳の左端と右端を一対にした候補を選出する(ステップS302)。最後に、瞳の複数の左右端候補対があれば、その中から瞳の左端、右端を選出し(ステップS303)、その間に挟まれた領域を瞳領域として抽出する(ステップS304)。
When the
以下に、それぞれの選出方法の詳細について説明する。 Below, the detail of each selection method is demonstrated.
図4は、図3のステップS301における瞳左端右端候補群選出処理ルーチンを示すフローチャートである。 FIG. 4 is a flowchart showing a pupil left end / right end candidate group selection processing routine in step S301 of FIG.
システム制御部105は、瞳領域抽出部102において、目領域検出部101で検出された目領域内の画素の輝度を縦方向の1ライン毎に上下方向に足し合わせた値を計算する(ステップS401)。そして、計算された輝度和の水平方向(左右方向)分布のグラフを作成する(ステップS402)。求めた水平方向の輝度和に対してその分布を平滑化するものとしないものを準備する(ステップS403)。これは、入力された画像が粗い場合などには、分布を平滑化することによって、画像に載っているノイズ分を減少させることができるためである。
In the pupil
次に、1つの縦ラインの輝度和とその隣の縦ラインの輝度和との差を計算し(ステップS404)、その差が増加しているすべての差分値の平均値、及びその差が減少しているすべての差分値の平均値をそれぞれ計算する(ステップS405)。そこで、隣の縦ラインの輝度和との差が減少しており、且つ減少している差分値の平均値以上に変化している縦ラインを瞳左端候補ラインとする。また、隣の縦ラインの輝度和との差が増加しており、且つ増加している差分値の平均値以上に変化している縦ラインを瞳右端候補ラインとする。そして、それらを瞳左端右端候補群として選出する(ステップS406)。つまり、隣の縦ラインの輝度和との差が大きく減少しているところは、白っぽい領域から黒っぽい領域に、隣の縦ラインの輝度和との差が大きく増加しているところは、黒っぽい領域から白っぽい領域に、変化していると考えられる。そのため、上記のようにして瞳左端右端候補群を選出することができる。 Next, the difference between the luminance sum of one vertical line and the luminance sum of the adjacent vertical line is calculated (step S404), and the average value of all the difference values that have increased, and the difference decreased. An average value of all the difference values being calculated is calculated (step S405). Therefore, a vertical line in which the difference from the luminance sum of the adjacent vertical lines has decreased and has changed to be equal to or greater than the average value of the decreased difference values is set as a pupil left end candidate line. Further, a vertical line in which the difference from the luminance sum of the adjacent vertical lines has increased and has changed to be equal to or greater than the average value of the increased difference values is set as a pupil right end candidate line. Then, they are selected as a pupil left end right end candidate group (step S406). In other words, where the difference from the brightness sum of the adjacent vertical line is greatly reduced, it is from the whitish area to the dark area, and where the difference from the brightness sum of the adjacent vertical line is greatly increased is from the dark area. It is thought that it has changed to a whitish area. Therefore, the pupil left end right end candidate group can be selected as described above.
図5は、瞳左端右端候補群を選出する方法を表す模式図である。 FIG. 5 is a schematic diagram showing a method for selecting a candidate group for the left and right pupil ends.
この例では、輝度和分布の中で、隣の縦ラインとの差が減少している差分値の平均値以上の縦ラインが2本あり、増加している差分値の平均値以上の縦ラインが1本選出されている。また、減少している差分値の平均値以上に減少するラインが連続していたり、増加している差分値の平均値以上に増加するラインが連続していたりする場合は、それぞれ、瞳の左端の一連の領域、瞳の右端の一連の領域であると考えられる。そのため、連続して減少または増加している縦ラインの中からそれぞれ一つを瞳左端候補、瞳右端候補として選出するようにしてもよい。このように、それぞれ白から黒、黒から白に大きく変化する縦ラインを瞳の左端、右端に相当する候補として選出すれば、正しい瞳左端候補、瞳右端候補を抽出できる可能性が高いと考えられる。 In this example, in the luminance sum distribution, there are two vertical lines that are equal to or greater than the average value of the difference values in which the difference from the adjacent vertical line is decreasing, and the vertical lines that are equal to or greater than the average value of the increasing difference values. Is elected. In addition, if there are continuous lines that decrease more than the average value of the difference values that are decreasing, or continuous lines that increase more than the average value of the difference values that are increasing, respectively, the left edge of the pupil It is considered that this is a series of areas of the right end of the pupil. For this reason, one of the vertical lines continuously decreasing or increasing may be selected as the pupil left end candidate and the pupil right end candidate. In this way, if vertical lines that greatly change from white to black and black to white are selected as candidates corresponding to the left and right pupils of the pupil, it is highly likely that the correct left and right pupil candidates can be extracted. It is done.
図6は、図3のステップS302における瞳左右端候補対選出処理ルーチンを示すフローチャートである。 FIG. 6 is a flowchart showing the pupil left / right end candidate pair selection processing routine in step S302 of FIG.
システム制御部105は、瞳領域抽出部102において、縦ライン輝度和分布を平滑化するものとしないものを準備する(ステップS601)。ただし、図3の瞳左端右端候補群選出処理ステップS301において、縦ライン輝度和分布を平滑化している場合には、ステップS601では平滑化は行わない。つまり、瞳左端右端候補群選出処理ステップS301において平滑化したものと、瞳左右端候補対選出処理ステップS302において平滑化したものと、平滑化を行わないものの3種類の輝度和分布データがその後の処理に使用されることになる。
The
次に、輝度和分布の極大値、極小値を計算する(ステップS602)。計算した極小値の数が、1つの場合には(ステップS603)、瞳左端候補群の中で、極小値よりも目尻側にスキャンして最初に存在する瞳左端候補を瞳左右端候補対の左端側とする(ステップS604)。さらに、瞳右端候補群の中で、極小値よりも目頭側にスキャンして最初に存在する瞳右端候補を瞳左右端候補対の右端側とする(ステップS605)。これは、極小値の数が1つの場合は、黒い領域が瞳領域のみで、その極小値を挟んで左方向に瞳左端、右方向に瞳右端があると考えられるためである。 Next, the maximum value and the minimum value of the luminance sum distribution are calculated (step S602). When the calculated number of minimum values is one (step S603), the left pupil candidate that first exists in the pupil left end candidate group by scanning to the outer corner of the eye from the minimum value is the left-right end candidate pair of pupils. The left end side is set (step S604). Further, in the right pupil candidate group, the right pupil candidate that first exists after scanning toward the top of the eye from the minimum value is set as the right end of the left and right pupil candidate pair (step S605). This is because when the number of local minimum values is one, the black region is only the pupil region, and it is considered that the left end of the pupil is located on the left side and the right end of the pupil is located on the right side across the local minimum value.
計算した極小値の数が、2つの場合には(ステップS603)、瞳左端候補群の中で、目尻側からスキャンして最初の極小値よりも目尻側の方向に最初に存在する瞳左端候補を、瞳左右端候補対の左端側とする(ステップS606)。さらに、瞳右端候補群の中で、目尻側からスキャンして最初の極小値の次にある極小値よりも目頭側の方向に最初に存在する瞳右端候補を、瞳左右端候補対の右端側とする(ステップS607)。これは、極小値の数が2つの場合は、瞳の中心付近にキャッチライトと呼ばれる光源が写り込んだ高輝度な小領域が存在し、極小値がキャッチライトを挟んだ2つの瞳領域を表していると考えられるからである。そして、キャッチライトの左側の極小値の左方向に瞳左端、キャッチライトの右側の極小値の右方向に瞳右端があると考えられるためである。 When the number of calculated local minimum values is two (step S603), the left pupil candidate that first exists in the direction of the outer corner of the eye from the lower left corner group in the pupil left end candidate group. Is the left end side of the candidate pair of left and right pupil ends (step S606). Furthermore, in the right pupil candidate group, the right pupil candidate that is first present in the direction of the head of the eye after the first minimum value after scanning from the outer corner of the eye is the right end side of the left and right pupil candidate pair. (Step S607). This means that when the number of local minimums is 2, there is a high-luminance small area where a light source called catchlight is reflected near the center of the pupil, and the local minimum represents two pupil areas sandwiching the catchlight. It is because it is thought that it is. This is because it is considered that the left end of the pupil is on the left side of the minimum value on the left side of the catchlight and the right end of the pupil is on the right side of the minimum value on the right side of the catchlight.
計算した極小値の数が、1つ、2つ以外の場合には(ステップS603)、瞳左端候補群の中で、目尻側からスキャンして最初の極大値の次にある極小値よりも目尻側の方向に最初に存在する瞳左端候補を瞳左右端候補対の左端側とする(ステップS608)。さらに、瞳右端候補群の中で、目尻側からスキャンして最初の極大値の次にある極小値のさらにその次にある極小値よりも目頭側の方向に最初に存在する瞳右端候補を、瞳左右端候補対の右端側とする(ステップS609)。また、瞳左端候補群の中で、目頭側からスキャンして最初の極大値の次にある極小値のさらにその次にある極小値よりも目尻側の方向に最初に存在する瞳左端候補を、瞳左右端候補対の左端側とする(ステップS610)。さらに、瞳右端候補群の中で、目頭側からスキャンして最初の極大値の次にある極小値よりも目頭側の方向に最初に存在する瞳右端候補を、瞳左右端候補対の右端側とする(ステップS611)。 When the calculated number of local minimum values is other than 1 or 2 (step S603), the eye corners are compared with the local minimum value next to the first local maximum value after scanning from the outer corner of the pupil left end candidate group. The pupil left end candidate that first exists in the direction of the side is defined as the left end side of the left and right pupil candidate pair (step S608). Further, in the right pupil candidate group, the right pupil candidate that first exists in the direction of the head of the eye from the minimum next to the first maximum after scanning from the outer corner of the eye, It is set as the right end side of the right and left pupil candidate pair (step S609). In addition, in the left pupil candidate group, the left pupil candidate that first exists in the direction of the outer corner of the eye after the minimum following the first maximum after scanning from the top of the eye, The left and right pupil candidate pairs are set to the left end side (step S610). Further, in the right pupil candidate group, the right pupil candidate first present in the direction of the head side from the minimum value next to the first maximum value scanned from the top of the eye is the right end side of the left and right pupil candidate pair. (Step S611).
即ち、極小値の数が1つ、2つ以外の場合は、瞳領域以外にも黒い領域が存在し、スキャン方向によって、瞳左右端候補対が異なる可能性があるため、目尻側からと目頭側からのスキャンを行い、それぞれ瞳左右端候補対を選出する。 That is, when the number of local minimum values is other than one or two, there is a black region in addition to the pupil region, and the left and right pupil candidate pairs may differ depending on the scanning direction. Scan from the side and select candidate left and right edge pairs for each.
以上のように、輝度和分布の極小値の数に応じて瞳左右端候補対の選出方法を変えて、正しい瞳左右端対を外すことのないようにする。 As described above, the selection method of the left and right pupil candidate pairs is changed according to the number of minimum values of the luminance sum distribution so that the right and left pupil right pair is not removed.
図7乃至図14は、図3のステップS302における瞳左右端候補対を選出する方法を表す模式図である。 7 to 14 are schematic diagrams showing a method of selecting the left and right pupil candidate pairs in step S302 of FIG.
図7の例は、輝度和分布の極小値が1つの場合を示している。この例では、極小値701は瞳の中心付近の縦ライン部分で、そこから左方向に最初に存在する瞳左端候補702が瞳左右端候補対の左端に選出される。また、極小値701の右方向に最初に存在する瞳右端候補703が瞳左右端候補対の右端に選出される。
The example of FIG. 7 shows a case where the minimum value of the luminance sum distribution is one. In this example, the
図8の例は、輝度和分布の極小値が2つの場合を示している。この例では、極小値801、極小値802は瞳の中心付近のキャッチライト部を挟んだ瞳領域の縦ライン部分で、極小値801から左方向に最初に存在する瞳左端候補803が瞳左右端候補対の左端に選出される。また、極小値802から右方向に最初に存在する瞳右端候補804が瞳左右端候補対の右端に選出される。
The example of FIG. 8 shows a case where the minimum value of the luminance sum distribution is two. In this example, the
図7、図8のいずれの場合も、目尻側からスキャンした結果と目頭側からスキャンした結果が同じになるため、目尻側からのスキャンのみを行えばよいことになる。 In either case of FIG. 7 or FIG. 8, the result of scanning from the corner of the eye is the same as the result of scanning from the head of the eye, so that only the scanning from the corner of the eye needs to be performed.
図9、図10の例は、輝度和分布の極小値が1つ、2つ以外の場合を示している。極小値は瞳の中心付近のキャッチライト部を挟んだ瞳領域の縦ライン部分と、瞳領域外の部分や、ノイズ部分などに存在する。 The example of FIGS. 9 and 10 shows a case where the minimum value of the luminance sum distribution is not one or two. The minimum value exists in the vertical line portion of the pupil region sandwiching the catch light portion near the center of the pupil, the portion outside the pupil region, the noise portion, and the like.
図9は、目尻側からスキャンした結果を示している。目尻側からスキャンすると、最初に存在する極大値901が瞳の左側にある白目領域付近の縦ライン部分で、その次に存在する極小値902がキャッチライトより目尻側の瞳領域の縦ライン部分となる。また、その次に存在する極大値がキャッチライト部の縦ライン部分で、その次に存在する極小値903がキャッチライトより目頭側の瞳領域の縦ライン部分となる。最初に存在する極大値901の次に存在する極小値902から左方向に最初に存在する瞳左端候補904が瞳左右端候補対の左端に選出され、その次に存在する極小値903から右方向に最初に存在する瞳右端候補905が瞳左右端候補対の右端に選出される。
FIG. 9 shows the result of scanning from the corner of the eye. When scanning from the outer corner of the eye, the
図10は、目頭側からスキャンした結果を示している。目頭側からスキャンすると、最初に存在する極大値1001が瞳の右側の白目領域付近に存在するノイズ端付近の縦ライン部分で、その次に存在する極小値1002がノイズ付近の縦ライン部分となる。その次の極大値が瞳の右側の白目領域付近に存在するノイズ端の左側付近の縦ライン部分で、その次に存在する極小値1003が、キャッチライトより目頭側の瞳領域の縦ライン部分となる。最初に存在する極大値1001の次に存在する極小値1002から右方向に最初に存在する瞳右端候補1004はノイズ右端になり、その次に存在する極小値1003から左方向に最初に存在する瞳左端候補1005はキャッチライト右端になる。即ち、選出された瞳左右端候補対としては間違ったところを示していることになる。
FIG. 10 shows the result of scanning from the eye side. When scanning from the front of the eye, the
図9、図10で示したように、目領域にノイズがある場合にも、目尻側からのスキャン、目頭側からのスキャンを行うことにより、正しい瞳左右端が選出される可能性が高くなる。 As shown in FIGS. 9 and 10, even when there is noise in the eye area, the right pupil right and left ends are more likely to be selected by performing the scan from the corner of the eye and the scan from the top of the eye. .
図11、図12の例は、輝度和分布の極小値が1つ、2つ以外の場合で、且つ瞳が目の中で左側に寄っている場合を示している。極小値は瞳の中心付近のキャッチライト部を挟んだ瞳領域の縦ライン部分と、ノイズ部分などに存在する。 The example of FIGS. 11 and 12 shows a case where the luminance sum distribution has a minimum value other than one or two and the pupil is closer to the left side in the eye. The minimum value exists in the vertical line portion of the pupil region sandwiching the catch light portion near the center of the pupil, the noise portion, and the like.
図11は、目尻側からスキャンした結果を示している。目尻側からスキャンすると、最初に存在する極大値1101がキャッチライト部の縦ライン部分で、その次に存在する極小値1102がキャッチライトより目頭側の瞳領域の縦ライン部分となる。その次の極大値が瞳の右側にある白目領域付近の縦ライン部分で、その次に存在する極小値1103が瞳の右側の白目領域付近に存在するノイズ付近の縦ライン部分となる。最初に存在する極大値1101の次に存在する極小値1102から左方向に最初に存在する瞳左端候補1104は、キャッチライト右端になり、その次に存在する極小値1103から右方向に最初に存在する瞳右端候補はないため選出されない。
FIG. 11 shows the result of scanning from the corner of the eye. When scanning from the outer corner of the eye, the
図12は、目頭側からスキャンした結果を示している。目頭側からスキャンすると、最初に存在する極大値1201が瞳の右側にある白目領域付近の縦ライン部分で、その次に存在する極小値1202がキャッチライトより目頭側の瞳領域の縦ライン部分となる。その次の極大値がキャッチライト部の縦ライン部分で、その次に存在する極小値1203がキャッチライトより目尻側の瞳領域の縦ライン部分となる。最初に存在する極大値1201の次に存在する極小値1202から右方向に最初に存在する瞳右端候補1204が瞳左右端候補対の右端に選出され、その次に存在する極小値から左方向に最初に存在する瞳左端候補1205が瞳左右端候補対の左端に選出される。
FIG. 12 shows the result of scanning from the eye side. When scanning from the front of the eye, the maximum value 1201 that exists first is the vertical line portion near the white eye region on the right side of the pupil, and the next
図11、図12で示したように、瞳が目の中で左側に寄っている場合にも、目尻側からのスキャン、目頭側からのスキャンを行うことにより、正しい瞳左右端が選出される可能性が高くなる。また、瞳が目の中で右側に寄っている場合にも、同様にして、正しい瞳左右端が選出される可能性が高くなる。さらに、図11、図12において、目領域にノイズがない場合にも、極小値が2つの場合(図8)の例と同様の選出方法で、瞳左右端候補対を選出することができる。 As shown in FIGS. 11 and 12, even when the pupil is on the left side in the eye, the right and left ends of the right pupil are selected by performing the scan from the outer corner of the eye and the scan from the front of the eye. The possibility increases. Similarly, when the pupil is on the right side of the eye, the possibility that the right and left ends of the pupil are selected in the same manner is increased. Furthermore, in FIG. 11 and FIG. 12, even when there is no noise in the eye area, a candidate pair of left and right ends of the pupil can be selected by the same selection method as in the case of two minimum values (FIG. 8).
図13、図14の例は、目領域にノイズがある場合(図9、図10)に対して、輝度和分布の平滑化を行った場合を示している。図を見ても明らかなように、ノイズ部分の輝度和分布が滑らかになり、極小値が2つの場合(図8)の例と同様の選出方法で、瞳左右端候補対を選出することができる。 The example of FIGS. 13 and 14 shows a case where the luminance sum distribution is smoothed when there is noise in the eye region (FIGS. 9 and 10). As is apparent from the figure, the right and left edge candidate pair can be selected by the same selection method as in the case where the luminance sum distribution in the noise portion is smooth and there are two minimum values (FIG. 8). it can.
図4のステップS403で輝度和分布の平滑化を行った場合には、その後の処理ステップも平滑化された輝度和分布に対して行われる。つまり、瞳左端右端候補群を選出するステップでは、平滑化された輝度和分布が計算に使用される。一方、図6のステップS601で輝度和分布の平滑化を行った場合には、それ以前のステップである瞳左端右端候補群を選出するステップでは、平滑化されていない輝度和分布が計算に使用される。また、瞳左右端候補対を選出するための輝度和分布の極大値、極小値を計算するステップでは、平滑化された輝度和分布が使用される。このように輝度和分布の平滑化を、瞳左端右端候補群を選出するステップの前で行うか、または瞳左端右端候補群を選出するステップと瞳左右端候補対を選出するステップとの間で行うかを選択することができる。これにより、ノイズ等に影響されずに正しい瞳左右端候補対を選出できる可能性を高くすることができる。また、輝度和分布の平滑化を行わない場合も含めて、複数の瞳左右端候補対を選出することができ、正しい瞳左右端候補対を選出する可能性をより高くすることができる。 When the luminance sum distribution is smoothed in step S403 of FIG. 4, the subsequent processing steps are also performed on the smoothed luminance sum distribution. That is, in the step of selecting the pupil left end right end candidate group, the smoothed luminance sum distribution is used for the calculation. On the other hand, when the luminance sum distribution is smoothed in step S601 of FIG. 6, the luminance sum distribution that has not been smoothed is used in the calculation in the previous step of selecting the left and right pupil candidate groups. Is done. In the step of calculating the maximum value and the minimum value of the luminance sum distribution for selecting the left and right pupil candidate pairs, a smoothed luminance sum distribution is used. Thus, the smoothing of the luminance sum distribution is performed before the step of selecting the pupil left end right end candidate group, or between the step of selecting the pupil left end right end candidate group and the step of selecting the pupil left and right end candidate pair. You can choose what to do. As a result, it is possible to increase the possibility of selecting the right and left pupil candidate pairs without being affected by noise or the like. In addition, even when the luminance sum distribution is not smoothed, a plurality of left and right pupil candidate pairs can be selected, and the possibility of selecting the right and left pupil candidate pairs can be further increased.
図15は、図3のステップS303における瞳左右端選出処理ルーチンを示すフローチャートである。 FIG. 15 is a flowchart showing the pupil left and right edge selection processing routine in step S303 of FIG.
システム制御部105は、瞳領域抽出部102において、瞳左右端候補対で挟まれた領域内で輝度分布を測定し、黒と白に二値化する輝度閾値を設定する(ステップS1501)。閾値の決定方法としては、輝度分布の平均値や「大津の方法」によるクラス間分散クラス内分散比を最大にする値などが挙げられるが、閾値を決定できる方法であれば他の方法でもよい。
In the pupil
次に、瞳左右端候補対で挟まれた領域内で最大輝度の画素を選出する(ステップS1502)。正しい瞳左右端候補対であれば、中心付近にキャッチライトに相当する部分があると考えられるため、最大輝度の画素を選出する領域を瞳左右端候補対で挟まれた領域のさらに中心付近に限定してもよい。そして、最大輝度の画素が含まれる輝度閾値以上の領域の円形度を計算する(ステップS1503)。最後に、各条件で選出された瞳左右端候補対で挟まれた領域について、最大輝度の画素が含まれる輝度閾値以上の領域の円形度を比較して、円形度が最大になるものを瞳左右端とする(ステップS1504)。例えば、最大輝度の画素が含まれる輝度閾値以上の領域がキャッチライト部分であれば、他の部分が選択された場合に比べて、円形度は大きくなる。以下に、円形度計算処理方法の詳細について説明する。 Next, the pixel having the maximum luminance is selected within the region sandwiched between the left and right pupil candidate pairs (step S1502). If it is a correct pair of left and right pupil candidates, it is considered that there is a part corresponding to the catchlight near the center, so the area for selecting the pixel with the highest brightness is further near the center of the area sandwiched between the left and right pupil candidate pairs. It may be limited. Then, the circularity of an area equal to or higher than the luminance threshold including the pixel with the maximum luminance is calculated (step S1503). Finally, for the area between the candidate pair of left and right pupils selected under each condition, the circularity of the area above the luminance threshold that contains the pixel with the highest luminance is compared, and the one with the highest circularity is compared with the pupil. The left and right ends are set (step S1504). For example, if the region above the luminance threshold including the pixel with the maximum luminance is a catchlight portion, the circularity is greater than when other portions are selected. Details of the circularity calculation processing method will be described below.
図16は、瞳左右端候補対で挟まれた領域の円形度計算処理ルーチンのフローチャートである。 FIG. 16 is a flowchart of the circularity calculation processing routine for the region sandwiched between the left and right edge candidate pairs.
システム制御部105は、瞳領域抽出部102において、最大輝度の画素から外側に向かって輝度閾値以下の領域に初めて移行する画素までの距離を求める(ステップS1601)。次に、その距離を回転方向に45°ずつ一周360°求めていく(ステップS1602)。X軸に回転方向を、Y軸に求めた距離をとったグラフに回転角度と距離をプロットし(ステップS1603)、プロットした点の近似直線(y=bで表される直線)を求める(ステップS1604)。最後に、プロットした点と近似直線との最小二乗誤差を計算する(ステップS1605)。より円形に近ければ、最大輝度の画素から外側に向かって輝度閾値以下の領域に初めて移行する画素までの距離はより一定になるので、プロットした点と近似直線との最小二乗誤差はより小さくなる。したがって、最小二乗誤差が小さいものほど、円形度が大きいものとする(ステップS1606)。
In the pupil
図17、図18は、瞳左右端を選出する方法を表す模式図である。 17 and 18 are schematic diagrams showing a method for selecting the left and right ends of the pupil.
図17の例は、瞳左右端候補対が正しい瞳左右端である場合を示しており、最大輝度の画素がキャッチライト部分内に存在している。この場合、キャッチライト部分が最大輝度の画素が含まれる輝度閾値以上の領域、キャッチライト部分の外側にある瞳部分が輝度閾値以下の領域になる。そのため、最大輝度の画素から外側に向かって輝度閾値以下の領域に初めて移行する画素までの距離は、キャッチライトの縁までの距離となる。つまり、キャッチライト部分が円形に近い形状である可能性が高いため、距離も一定になる可能性が高くなり、回転角度と距離のグラフにプロットした点とその近似直線との最小二乗誤差が小さくなる可能性が高い。この例では、最小二乗誤差は0になる。 The example in FIG. 17 shows a case where the right and left pupil candidate pair is the right and left pupils, and the pixel with the maximum luminance exists in the catchlight portion. In this case, the catchlight portion is an area that is equal to or higher than the luminance threshold including pixels with the maximum luminance, and the pupil portion outside the catchlight portion is an area that is equal to or lower than the luminance threshold. Therefore, the distance from the pixel having the maximum luminance to the pixel that first shifts to the area below the luminance threshold toward the outside is the distance to the edge of the catchlight. In other words, since the catchlight portion is likely to have a nearly circular shape, the distance is likely to be constant, and the least square error between the points plotted on the graph of rotation angle and distance and its approximate line is small. Is likely to be. In this example, the least square error is zero.
図18の例は、瞳左右端候補対が、瞳右側のノイズの影響で、瞳右側の白目部分になっている場合を示しており、最大輝度の画素が白目部分内に存在している。円形度を図17の例と同様に計算すると、最大輝度の画素から外側に向かって輝度閾値以下の領域に初めて移行する画素までの距離がまちまちになり、回転角度と距離のグラフにプロットした点とその近似直線との最小二乗誤差はある程度大きさを持った値になる。 The example of FIG. 18 shows a case where the left and right edge candidate pair is a white-eye portion on the right side of the pupil due to the influence of noise on the right side of the pupil, and a pixel with the maximum luminance exists in the white-eye portion. When the circularity is calculated in the same manner as in the example of FIG. 17, the distance from the pixel having the maximum luminance to the pixel that first shifts to the region below the luminance threshold value varies outwardly, and is plotted in the graph of the rotation angle and the distance And the least square error between the approximate line and the approximate straight line have a certain size.
図17、図18で示したように、瞳左右端候補対が正しい瞳左右端である場合は、正しくない場合に比べて、最大輝度の画素から外側に向かって輝度閾値以下の領域に初めて移行する画素までの距離が一定になる。そのため、距離を回転方向に見ていった時の回転角度と距離のグラフにプロットした点とその近似直線との最小二乗誤差が小さくなることから、瞳左右端を正しく選出することができる。 As shown in FIG. 17 and FIG. 18, when the right and left pupil candidate pair is the right and left right pupil pair, the transition from the pixel with the highest luminance to the region below the luminance threshold value is made for the first time as compared with the incorrect case. The distance to the target pixel is constant. Therefore, since the least square error between the point plotted on the graph of the rotation angle and distance when the distance is viewed in the rotation direction and the approximate straight line becomes small, the left and right ends of the pupil can be correctly selected.
(第2の実施形態)
第2の実施形態は、第1の実施形態で示したような、瞳左右端候補対で挟まれた領域内で最大輝度の画素から外側に向かって輝度閾値以下の領域に初めて移行する画素までの距離を計算することは行わない。そのかわりに、最大輝度の画素がある輝度閾値以上の領域とその外側に存在する輝度閾値以下の領域との境界線を追跡して円形度を求める。
(Second Embodiment)
In the second embodiment, as shown in the first embodiment, from the pixel having the maximum luminance within the region sandwiched between the left and right pupil candidate pairs to the pixel that first shifts to the region below the luminance threshold toward the outside. The distance is not calculated. Instead, the degree of circularity is obtained by tracking the boundary line between a region having a maximum luminance pixel equal to or higher than a certain luminance threshold and a region existing outside the luminance threshold equal to or lower than the luminance threshold.
図19は、第2の実施形態の瞳左右端選出処理ルーチンのフローチャートである。 FIG. 19 is a flowchart of the pupil left / right end selection processing routine of the second embodiment.
図1から図14までは、第1の実施形態と同じである。 1 to 14 are the same as those in the first embodiment.
図19を用いて、瞳左右端選出処理について詳しく説明する。 The pupil left and right edge selection processing will be described in detail with reference to FIG.
システム制御部105は、瞳領域抽出部102において、瞳左右端候補対に挟まれた領域内で左上から右下に向かってスキャンを行う。そして、最大輝度の画素がある輝度閾値以上の領域に初めて移行する画素を求め(ステップS1901)、その画素を注目画素とする(ステップS1902)。次に、注目画素を中心に反時計回りに輝度閾値以上の画素を探索し(ステップS1903)、注目画素から探索した画素までの距離を求める(ステップS1904)。この時、探索した画素が注目画素の上下左右隣であれば、距離は1、斜めであれば、距離は√2となる。探索した画素が最初の注目画素と同じ画素になければ(ステップS1905)、ステップS1902に戻り、探索した画素を注目画素とし(ステップS1902)、再度、注目画素を中心に反時計回りに輝度閾値以上の画素を探索する(ステップS1903)。そして、注目画素から探索した画素までの距離を求める(ステップS1904)。探索した画素が最初の注目画素と同じ画素になったら(ステップS1905)、最初の画素から同じ画素に戻るまでの総距離Lを求める(ステップS1906)。そして、最大輝度の画素がある輝度閾値以上の領域の総画素数Sを求める(ステップS1907)。最後に、L2/4πSが1に近いものを円形度が大きいものとする(ステップS1908)。
In the pupil
以上説明したように、上記の第1及び第2の実施形態によれば、目や瞳の特徴や位置関係によって複数の瞳候補を抽出し、最終的に瞳と思われる領域をひとつに絞り込んでいる。そのため、画像の輝度レベル分布に本来の被写体にはないノイズ等が載ることがある場合にも、瞳を正確に検出することが可能となる。 As described above, according to the first and second embodiments described above, a plurality of pupil candidates are extracted based on the characteristics and positional relationship of the eyes and pupils, and finally a region that seems to be a pupil is narrowed down to one. Yes. For this reason, it is possible to accurately detect the pupil even when the luminance level distribution of the image includes noise or the like that is not present in the original subject.
(他の実施形態)
また、各実施形態の目的は、次のような方法によっても達成される。すなわち、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給する。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行する。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、本発明には次のような場合も含まれる。すなわち、プログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される。
(Other embodiments)
The object of each embodiment is also achieved by the following method. That is, a storage medium (or recording medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded is supplied to the system or apparatus. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but the present invention includes the following cases. That is, based on the instruction of the program code, an operating system (OS) running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.
さらに、次のような場合も本発明に含まれる。すなわち、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される。 Furthermore, the following cases are also included in the present invention. That is, the program code read from the storage medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program code, the CPU or the like provided in the function expansion card or function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.
本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明した手順に対応するプログラムコードが格納されることになる。 When the present invention is applied to the above storage medium, the storage medium stores program codes corresponding to the procedure described above.
100 画像入力部
101 顔領域検出部
102 中間結果メモリ
103 目領域抽出部
104 メモリ
105 システム制御部
106 表示部
107 記録部
DESCRIPTION OF
Claims (20)
前記画像入力手段により入力された画像から目領域を検出する目領域検出手段と、
前記目領域検出手段で検出された目領域における画像の輝度分布に基づいて、瞳領域を抽出する瞳領域抽出手段と、
を具備することを特徴とする画像処理装置。 An image input means for inputting an image;
Eye area detecting means for detecting an eye area from the image input by the image input means;
A pupil region extraction unit that extracts a pupil region based on a luminance distribution of an image in the eye region detected by the eye region detection unit;
An image processing apparatus comprising:
前記画像入力工程において入力された画像から目領域を検出する目領域検出工程と、
前記目領域検出工程で検出された目領域における画像の輝度分布に基づいて、瞳領域を抽出する瞳領域抽出工程と、
を具備することを特徴とする画像処理方法。 An image input process for inputting an image;
An eye region detection step of detecting an eye region from the image input in the image input step;
A pupil region extraction step of extracting a pupil region based on the luminance distribution of the image in the eye region detected in the eye region detection step;
An image processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006024738A JP2007206963A (en) | 2006-02-01 | 2006-02-01 | Image processor, image processing method, program and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006024738A JP2007206963A (en) | 2006-02-01 | 2006-02-01 | Image processor, image processing method, program and storage medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007206963A true JP2007206963A (en) | 2007-08-16 |
Family
ID=38486381
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006024738A Withdrawn JP2007206963A (en) | 2006-02-01 | 2006-02-01 | Image processor, image processing method, program and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007206963A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150059213A (en) * | 2013-11-21 | 2015-06-01 | 삼성전자주식회사 | Method and apparatus for processing palm print image |
JP2015204021A (en) * | 2014-04-15 | 2015-11-16 | 株式会社デンソー | Visual line detection device and visual line detection method |
KR101601541B1 (en) * | 2014-11-19 | 2016-03-08 | 현대자동차주식회사 | Gaze Tracker and Method for Detecting Pupil thereof |
US9875418B2 (en) | 2015-10-20 | 2018-01-23 | Samsung Electronics Co., Ltd. | Method and apparatus for detecting biometric region for user authentication |
-
2006
- 2006-02-01 JP JP2006024738A patent/JP2007206963A/en not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150059213A (en) * | 2013-11-21 | 2015-06-01 | 삼성전자주식회사 | Method and apparatus for processing palm print image |
KR102166333B1 (en) * | 2013-11-21 | 2020-10-16 | 삼성전자주식회사 | Method and apparatus for processing palm print image |
JP2015204021A (en) * | 2014-04-15 | 2015-11-16 | 株式会社デンソー | Visual line detection device and visual line detection method |
KR101601541B1 (en) * | 2014-11-19 | 2016-03-08 | 현대자동차주식회사 | Gaze Tracker and Method for Detecting Pupil thereof |
US9875418B2 (en) | 2015-10-20 | 2018-01-23 | Samsung Electronics Co., Ltd. | Method and apparatus for detecting biometric region for user authentication |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8477390B2 (en) | Image processor, image processing method, and computer program product | |
JP4952625B2 (en) | Perspective transformation distortion generating document image correcting apparatus and method | |
CN107316047B (en) | Image processing apparatus, image processing method, and storage medium | |
US7813553B2 (en) | Image region detection method, recording medium, and device therefor | |
US20150262346A1 (en) | Image processing apparatus, image processing method, and image processing program | |
KR100537235B1 (en) | Image angle detector and scanning line interpolating apparatus | |
US9082181B2 (en) | Image processing method and apparatus | |
US9930306B2 (en) | Image processing apparatus, image processing method, and computer-readable storage medium | |
US10970845B2 (en) | Image processing apparatus, image processing method, and storage medium | |
US20110058718A1 (en) | Extracting method and apparatus of blood vessel crossing/branching portion | |
US11281930B2 (en) | System and method for object detection | |
US20160350615A1 (en) | Image processing apparatus, image processing method, and storage medium storing program for executing image processing method | |
WO2018147059A1 (en) | Image processing device, image processing method, and program | |
KR101377910B1 (en) | Image processing method and image processing apparatus | |
US20180158203A1 (en) | Object detection device and object detection method | |
KR100923935B1 (en) | Method and system for evaluating document image automatically for optical character recognition | |
JP4296617B2 (en) | Image processing apparatus, image processing method, and recording medium | |
JP2007206963A (en) | Image processor, image processing method, program and storage medium | |
JP2018109824A (en) | Electronic control device, electronic control system, and electronic control method | |
US10332259B2 (en) | Image processing apparatus, image processing method, and program | |
US10346680B2 (en) | Imaging apparatus and control method for determining a posture of an object | |
US20240070903A1 (en) | Image processing apparatus and control method for same | |
JP5185072B2 (en) | Frame detection method, frame detection apparatus, and frame detection program | |
JP2020201525A (en) | Image processing device, image processing method, program, and recording medium | |
JP2003208567A (en) | Image processor, image processing method, and program used in the method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20090407 |