JP6510451B2 - Device, method and program for specifying the pupil area of a person in an image - Google Patents

Device, method and program for specifying the pupil area of a person in an image Download PDF

Info

Publication number
JP6510451B2
JP6510451B2 JP2016054167A JP2016054167A JP6510451B2 JP 6510451 B2 JP6510451 B2 JP 6510451B2 JP 2016054167 A JP2016054167 A JP 2016054167A JP 2016054167 A JP2016054167 A JP 2016054167A JP 6510451 B2 JP6510451 B2 JP 6510451B2
Authority
JP
Japan
Prior art keywords
pixel
luminance value
weighting factor
pupil
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016054167A
Other languages
Japanese (ja)
Other versions
JP2017167940A (en
Inventor
知伸 吉野
知伸 吉野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2016054167A priority Critical patent/JP6510451B2/en
Publication of JP2017167940A publication Critical patent/JP2017167940A/en
Application granted granted Critical
Publication of JP6510451B2 publication Critical patent/JP6510451B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)

Description

本発明は、画像内の人物の瞳孔領域を特定する瞳孔特定技術に関する。   The present invention relates to pupil identification technology for identifying a pupil area of a person in an image.

例えば、視覚刺激に対する人の感情を推定する方法の1つとして、当該人の瞳孔径の変化を利用する方法がある。特許文献1は、高精度に瞳孔径を測定する装置を開示している。しかしながら、特許文献1に記載の構成は、被測定者に対する拘束性が強く、かつ、測定するための装置が複雑であり高価となる。一方、非特許文献1は、画像データから、画像内の人物の瞳孔領域を特定する構成を開示している。具体的には、瞳孔付近の輝度を二値化処理することで瞳孔領域を特定している。   For example, there is a method of using a change in pupil diameter of a person as one of methods of estimating a person's emotion to a visual stimulus. Patent Document 1 discloses an apparatus for measuring a pupil diameter with high accuracy. However, the configuration described in Patent Document 1 is strongly restricted to the subject, and the apparatus for measuring is complicated and expensive. On the other hand, Non-Patent Document 1 discloses a configuration for specifying a pupil area of a person in an image from image data. Specifically, the pupil region is specified by binarizing the brightness in the vicinity of the pupil.

特開2014−79374号公報JP, 2014-79374, A

"Pupil detection from an eye image",[online],[平成28年3月9日検索],インターネット<URL:http://opencv−code.com/tutorials/pupil−detection−from−an−eye−image/>"Pupil detection from an eye image", [online], [search on March 9, 2016], Internet <URL: http://opencv-code.com/tutorials/pupil-detection-from-an-eye- image />

非特許文献1の構成は、顔を略正面から撮影した場合には精度良く瞳孔領域を特定できる。しかしながら、斜め方向等から撮影した画像では、目における光の反射等により精度良く瞳孔領域を検出することができない。   According to the configuration of Non-Patent Document 1, the pupil region can be identified with high accuracy when the face is photographed from substantially the front. However, in an image captured from an oblique direction or the like, the pupil region can not be detected with high accuracy due to the reflection of light in the eye or the like.

本発明は、顔の向きに拘らず、精度良く画像内の瞳孔領域を特定できる特定装置、特定方法及びプログラムを提供するものである。   The present invention provides a specifying device, a specifying method, and a program that can specify a pupil area in an image with high accuracy regardless of the face orientation.

本発明の一側面によると、特定装置は、目を含む画像の各画素の輝度値と第1閾値とを比較して瞳孔及び虹彩を含む領域を判定し、判定した領域内の基準位置を特定する第1特定手段と、前記画像の各画素の輝度値を前記基準位置からの距離に応じて修正する修正手段と、前記修正手段が修正した各画素の輝度値と第2閾値とを比較して前記瞳孔の領域を特定する第2特定手段と、を備えていることを特徴とする。   According to one aspect of the present invention, the identification device compares the luminance value of each pixel of the image including the eye with the first threshold to determine the region including the pupil and the iris, and identifies the reference position within the determined region. First identifying means for correcting the luminance value of each pixel of the image according to the distance from the reference position, and comparing the second threshold value with the luminance value of each pixel corrected by the correcting means; And second specifying means for specifying the region of the pupil.

本発明によると、顔の向きに拘らず、精度良く画像内の瞳孔領域を特定することができる。   According to the present invention, the pupil region in the image can be specified with high accuracy regardless of the orientation of the face.

一実施形態による特定装置の構成図。The block diagram of the specific apparatus by one Embodiment. 一実施形態による特定装置の構成図。The block diagram of the specific apparatus by one Embodiment. 目を含む画像と、瞳孔領域の特定結果を示す図。The figure which shows the identification result of the image containing an eye, and a pupil area | region. 一実施形態による角度と扁平率との関係を示す図。FIG. 6 is a diagram illustrating the relationship between the angle and the aspect ratio according to one embodiment.

以下、本発明の例示的な実施形態について図面を参照して説明する。なお、以下の実施形態は例示であり、本発明を実施形態の内容に限定するものではない。また、以下の各図においては、実施形態の説明に必要ではない構成要素については図から省略する。   Hereinafter, exemplary embodiments of the present invention will be described with reference to the drawings. The following embodiment is an exemplification, and the present invention is not limited to the contents of the embodiment. Further, in each of the following drawings, components that are not necessary for the description of the embodiment will be omitted from the drawings.

<第一実施形態>
図1は、本実施形態による特定装置の構成図である。保持部5には、瞳孔領域の特定に使用する各種情報が予め保持され、特定装置の他の機能ブロックがこれら情報を使用する。特定装置の重心判定部1には、図3(A)に示す様な、人の目を含む画像に対応する画像データが入力される。なお、人の顔全体を含む画像データを特定装置に入力し、公知の顔認識技術を使用することで人の目を含む矩形領域を判定し、判定した矩形領域の画像データを重心判定部1に入力する構成であっても良い。
First Embodiment
FIG. 1 is a block diagram of a specifying device according to the present embodiment. The holding unit 5 holds various information used to specify the pupil area in advance, and other functional blocks of the specific device use the information. Image data corresponding to an image including human eyes as shown in FIG. 3A is input to the center-of-gravity determination unit 1 of the specific device. Note that image data including the entire face of a person is input to a specific device, and a rectangular area including human eyes is determined by using known face recognition technology, and image data of the determined rectangular area is determined by the gravity center determination unit 1 May be input to the

重心判定部1は、入力される画像データの各画素の輝度値を、保持部5が保持する第1閾値と比較することで、瞳孔及び虹彩に対応する画素と、それ以外の画素を判定する。通常、瞳孔及び虹彩の部分は、目のそれ以外の部分より輝度が低いため、第1閾値を適切に設定することで、瞳孔及び虹彩に対応する領域を検出することができる。重心判定部1は、第1閾値により判定した瞳孔及び虹彩に対応する領域の重心位置を求め、この重心位置を輝度値修正部2に出力する。   The center-of-gravity determination unit 1 compares the luminance value of each pixel of the input image data with the first threshold held by the holding unit 5 to determine the pixel corresponding to the pupil and the iris and the other pixels. . Normally, the pupil and the iris part have lower luminance than the other parts of the eye, so that the area corresponding to the pupil and the iris can be detected by appropriately setting the first threshold. The center-of-gravity determination unit 1 obtains the center-of-gravity position of the area corresponding to the pupil and the iris determined by the first threshold, and outputs the center-of-gravity position to the luminance value correction unit 2.

輝度値修正部2は、画像データの各画素について、重心判定部1が判定した重心位置からの距離dに応じてその輝度値pを修正する。具体的には、輝度値修正部2は、距離dに基づき重み係数wを求める。本例では、重み係数wを、正規分布の確率密度関数f(d)により求める。なお、重み係数w=f(d)は、dが0のときに1となる様にスケールする。また、正規分布の平均μ及び標準偏差σについては、予め決定して保持部5に保存しておく。輝度値修正部2は、重み係数wに基づき、輝度値pの修正後の輝度値p´を以下の式(1)により求める。
p´=pmax×(1−w)+p×w
=pmax−(pmax−p)×w (1)
なお、pmaxは、輝度値の最大値である。式(1)においては、輝度値が同じであると、重み係数wが小さくなる程、修正後の輝度値は、より高い値になる。ここで、重み係数w=f(d)であるため、重み係数wは距離dが大きくなる程小さくなる。したがって、式(1)によると、同じ輝度値の画素が、距離d1と距離d1より大きい距離d2にあると、距離d2にある画素の修正後の輝度値は、距離d1にある画素の修正後の輝度値より高い値になる。また、距離dが同じ(つまり、重み係数wが同じ)である画素の修正後の輝度値は、元の画素の輝度値に比例して高くなる。輝度値修正部2は、この様に修正した画素値を二値化部3に出力する。
The luminance value correction unit 2 corrects, for each pixel of the image data, the luminance value p in accordance with the distance d from the gravity center position determined by the gravity center determination unit 1. Specifically, the luminance value correction unit 2 obtains the weighting coefficient w based on the distance d. In this example, the weighting factor w is determined by the probability density function f (d) of normal distribution. The weighting factor w = f (d) is scaled to 1 when d is 0. The average μ and the standard deviation σ of the normal distribution are determined in advance and stored in the holding unit 5. The luminance value correction unit 2 obtains the luminance value p ′ after the correction of the luminance value p based on the weight coefficient w according to the following equation (1).
p '= pmax x (1-w) + p x w
= Pmax-(pmax-p) x w (1)
Here, pmax is the maximum value of the luminance value. In equation (1), when the luminance value is the same, the corrected luminance value becomes higher as the weight coefficient w becomes smaller. Here, since the weighting factor w = f (d), the weighting factor w becomes smaller as the distance d becomes larger. Therefore, according to the equation (1), when the pixel of the same luminance value is at the distance d2 larger than the distance d1 and the distance d1, the corrected luminance value of the pixel at the distance d2 is after the correction of the pixel at the distance d1. Higher than the luminance value of. In addition, the corrected luminance value of the pixel having the same distance d (that is, the same weighting factor w) becomes higher in proportion to the luminance value of the original pixel. The luminance value correction unit 2 outputs the pixel value thus corrected to the binarization unit 3.

二値化部3は、修正後の画像データが示す各画素の修正後の輝度値を二値化処理し、二値化データを出力する。具体的には、画素の修正後の輝度値が、保持部5が保持する第2閾値以下であると、1を出力し、第2閾値より大きいと0を出力する。特定部4は、二値化データの画素値が1の領域を瞳孔領域として特定する。   The binarization unit 3 binarizes the corrected luminance value of each pixel indicated by the corrected image data, and outputs binarized data. Specifically, 1 is output when the corrected luminance value of the pixel is less than or equal to the second threshold held by the holding unit 5, and 0 is output when the luminance value is greater than the second threshold. The identifying unit 4 identifies a region where the pixel value of the binarized data is 1 as a pupil region.

図3(B)は、非特許文献1に記載の様に、図3(A)の画像に対応する画像データの各画素値を、直接、閾値処理して検出した瞳孔領域であり、図3(C)は、上述した様に、画素の輝度値を、虹彩及び瞳孔を含む領域の重心からの距離により修正し、修正後の画素値を閾値処理して検出した瞳孔領域を示している。なお、図3(B)及び(C)において、白色の部分が検出した瞳孔領域を示している。図3(B)においては、虹彩領域も瞳孔領域として検出されている。一方、本実施形態では、虹彩及び瞳孔を含む領域の重心からの距離により画素値を修正するため、虹彩領域を瞳孔領域と誤検出する可能性が低くなり、精度良く、瞳孔領域を検出することができる。   FIG. 3 (B) shows a pupil region detected by directly thresholding each pixel value of the image data corresponding to the image of FIG. 3 (A) as described in Non-Patent Document 1, and FIG. As described above, (C) shows the pupil area detected by correcting the luminance value of the pixel according to the distance from the center of gravity of the area including the iris and the pupil, and thresholding the corrected pixel value. In FIGS. 3B and 3C, the white area indicates the detected pupil area. In FIG. 3 (B), the iris area is also detected as a pupil area. On the other hand, in the present embodiment, since the pixel value is corrected by the distance from the center of gravity of the area including the iris and the pupil, the possibility of misdetecting the iris area as the pupil area is reduced, and the pupil area is accurately detected. Can.

例えば、人物を正面から撮影した画像においては、瞳孔と虹彩の色値又は輝度値には差があるが、人物を斜め方向から撮影した画像においては、光の当たり加減により、瞳孔と虹彩の色値又は輝度値の差が小さくなる場合がある。さらには、人物を斜め方向から撮影した画像においては、光の当たり加減により、目頭付近の輝度値が低くなり、目頭付近の領域を瞳孔領域として誤検出する場合がある。さらには、まつ毛や瞼による影を瞳孔領域として誤検出することも生じ得る。本実施形態では、上述した様に、虹彩及び瞳孔を含む領域の重心からの距離が大きくなる程、輝度値が高くなる様に修正することで、人物の撮影方向に拘らず瞳孔領域を精度良く検出することができる。   For example, in an image taken from the front of a person, there is a difference between the color value or the luminance value of the pupil and the iris, but in an image taken from an oblique direction of the person, the colors of the pupil and the iris The difference between the values or the luminance values may be small. Furthermore, in an image obtained by photographing a person from an oblique direction, the brightness value near the eyes may be lowered due to the collision of light and a region near the eyes may be erroneously detected as a pupil region. Furthermore, false detection of a shadow due to eyelashes or eyebrows may also occur as a pupil region. In the present embodiment, as described above, by correcting the luminance value to be higher as the distance from the center of gravity of the area including the iris and the pupil becomes larger, the pupil area is accurately adjusted regardless of the photographing direction of the person. It can be detected.

なお、上記実施形態では、重み係数wの算出に正規分布の確率密度関数を使用したが、距離dが大きくなると、重み係数wが小さくなる様にすれば良く、距離dと重み係数wの関係は正規分布の確率密度関数に限定されない。また、同じ輝度値の画素については、距離dが大きくなる程、修正後の輝度値を高くすれば良く、修正後の輝度値の算出方法は、式(1)に限定されない。   In the above embodiment, the probability density function of the normal distribution is used to calculate the weighting factor w. However, if the distance d is increased, the weighting factor w may be decreased, and the relationship between the distance d and the weighting factor w Is not limited to the probability density function of normal distribution. In addition, for pixels with the same luminance value, the luminance value after correction may be increased as the distance d increases, and the method of calculating the luminance value after correction is not limited to Formula (1).

また、式(1)は、pmaxに(1−w)を乗じ、pに重み係数wを乗じ、その和を修正後の輝度値とするものであった。しかしながら、第1の重み係数と第2の重み係数をそれぞれ求め、pmaxに第2の重み係数を乗じ、pに第1の重み係数を乗じ、その和を修正後の輝度値とする構成であっても良い。このとき、第1の重み係数は、距離dが大きくなると小さくなり、第2の重み係数は、距離dが大きくなると大きくなる値とする。   In addition, equation (1) was to multiply pmax by (1-w), multiply p by the weighting coefficient w, and use the sum as the corrected luminance value. However, the configuration is such that the first weighting factor and the second weighting factor are obtained, pmax is multiplied by the second weighting factor, p is multiplied by the first weighting factor, and the sum is the corrected luminance value. It is good. At this time, the first weighting factor becomes smaller as the distance d becomes larger, and the second weighting factor becomes a value larger as the distance d becomes larger.

<第二実施形態>
続いて、本発明の第二実施形態について、第一実施形態との相違点を中心に説明する。本実施形態の特定装置の構成は図1と同様である。しかしながら、本実施形態では、輝度値修正部2における処理が第一実施形態とは異なる。まず、本実施形態においては、特定装置に入力する画像データを取得した際の、カメラの光軸方向に対する人物の顔の向きの角度Dを保持部5に設定しておく。なお、角度Dは、水平面内における角度であり、人物がカメラに対して正面を向いているときの角度Dが0度であり、真横を向いているときの角度Dが90度である。また、角度Dは、人物の顔がどちらの方向を向いていても正の値とする。また、角度Dは、凡その角度で良く、その取得方法は任意である。例えば、画像データに対応する画像から角度Dを判定しても良い。
Second Embodiment
Subsequently, a second embodiment of the present invention will be described focusing on differences from the first embodiment. The configuration of the identification device of this embodiment is the same as that of FIG. However, in the present embodiment, the processing in the luminance value correction unit 2 is different from that in the first embodiment. First, in the present embodiment, the angle D of the direction of the face of the person with respect to the optical axis direction of the camera when the image data to be input to the specific device is acquired is set in the holding unit 5. Note that the angle D is an angle in the horizontal plane, the angle D when the person is facing the front with respect to the camera is 0 degrees, and the angle D when the person is facing right is 90 degrees. Further, the angle D is a positive value regardless of which direction the face of the person is facing. Also, the angle D may be approximately that angle, and the acquisition method is arbitrary. For example, the angle D may be determined from an image corresponding to image data.

また、本実施形態においては、角度と瞳孔の扁平率との関係を示す情報を保持部5に予め設定しておく。なお、瞳孔の扁平率は、瞳孔を包含する最も小さい方形の長辺と短辺の差の長辺に対する比として定義される。例えば、図4は、角度と瞳孔の扁平率との関係を示す情報である。なお、図4において、角度が0のときに扁平率が0となっていないのは、人間の目は、顔の正面方向に対してある角度の方向を向いているからである。よって、角度と扁平率の関係は、右目と左目それぞれに対して用意しておく。そして、右目から瞳孔領域を特定する際には、右目に対する角度と扁平率の関係を使用し、左目から瞳孔領域を特定する際には、左目に対する角度と扁平率の関係を使用する。   Further, in the present embodiment, information indicating the relationship between the angle and the flattening of the pupil is set in the holding unit 5 in advance. Note that the flattening of the pupil is defined as the ratio to the long side of the difference between the long side and the short side of the smallest square containing the pupil. For example, FIG. 4 is information indicating the relationship between the angle and the flattening of the pupil. In FIG. 4, the reason why the flatness is not 0 when the angle is 0 is that the human eye is facing at a certain angle with respect to the front direction of the face. Therefore, the relationship between the angle and the flattening is prepared for each of the right eye and the left eye. Then, when identifying the pupil region from the right eye, the relationship between the angle to the right eye and the aspect ratio is used, and when identifying the pupil region from the left eye, the relationship between the angle to the left eye and the aspect ratio is used.

輝度値修正部2は、角度Dと、図4に示す情報から、画像に含まれる瞳孔の扁平率Rを求める。そして、画素の重み係数wを、以下の式(2)により求める。なお、関数fxは、平均μ及び標準偏差(1−R)σの正規分布の確率密度関数であり、関数fyは、平均μ及び標準偏差σの正規分布の確率密度関数である。
w=fx(dx)×fy(dy) (2)
ここで、dx及びdyは、それぞれ、画素の重心位置からの水平方向距離及び垂直方向距離である。輝度値修正部2は、式(2)で求めた重み係数wに基づき、式(1)により輝度値を修正する。
From the angle D and the information shown in FIG. 4, the luminance value correction unit 2 obtains the flattening R of the pupil included in the image. Then, the weight coefficient w of the pixel is obtained by the following equation (2). The function fx is a probability density function of a normal distribution of the mean μ and the standard deviation (1-R) σ, and the function fy is a probability density function of a normal distribution of the mean μ and the standard deviation σ.
w = fx (dx) x fy (dy) (2)
Here, dx and dy are the horizontal distance and the vertical distance from the barycentric position of the pixel, respectively. The luminance value correction unit 2 corrects the luminance value according to Expression (1) based on the weighting coefficient w obtained by Expression (2).

本実施形態においても、修正後の輝度値は、第一実施形態と同様に、同じ輝度値の画素については、重心からの距離が大きくなる程、輝度値が高くなる。しかしながら、本実施形態では、距離を水平方向と垂直方向に分解し、水平方向においては、扁平率Rに応じて重み係数wを調整する。具体的には、角度Dが大きくなると、画像上における瞳孔は縦長となり扁平率Rは大きくなる。扁平率Rが大きくなる程、水平方向距離の増加に対するfx(dx)の減少速度は高くなる。したがって、重心位置からの水平方向距離が同じ画素については、扁平率Rが大きくなる程、輝度値が高くなる様に修正される。この様に輝度値を修正することで、人物の顔の向きに拘らず、瞳孔領域を精度良く検出することができる。   Also in the present embodiment, as in the first embodiment, the luminance value of the pixel having the same luminance value increases as the distance from the center of gravity increases, as in the first embodiment. However, in the present embodiment, the distance is decomposed in the horizontal direction and the vertical direction, and in the horizontal direction, the weighting factor w is adjusted according to the flatness ratio R. Specifically, as the angle D increases, the pupil on the image becomes vertically long, and the aspect ratio R increases. The decrease rate of fx (dx) with respect to the increase of the horizontal distance increases as the aspect ratio R increases. Therefore, for pixels having the same horizontal distance from the position of the center of gravity, the luminance value is corrected to be higher as the aspect ratio R is larger. By correcting the luminance value in this manner, it is possible to detect the pupil region accurately regardless of the direction of the face of the person.

<第三実施形態>
続いて、本発明の第三実施形態について、第一実施形態との相違点を中心に説明する。図2は、本実施形態による特定装置の構成図である。図1に示す第一実施形態との相違点は、重心判定部1と輝度値修正部2との間に重心修正部6を設けたことである。本実施形態においては、第二実施形態で述べた角度Dと重心位置の修正量との関係を予め実験的に求め、この関係を示す情報を予め保持部5に保存しておく。例えば、係数a、b、c、dを保持部5に保持させておき、水平方向の修正量Δxと、垂直方向の修正量Δyを、それぞれ、以下の式(3)及び(4)により求める。
Δx=a×D+b (3)
Δy=c×D+d (4)
重心修正部6は、重心判定部1が判定した重心位置の座標が(G1,G2)であると、修正後の重心位置を(G1+Δx,G2+Δy)として輝度値修正部2に出力する。そして、輝度値修正部2は、修正後の重心位置(G1+Δx,G2+Δy)からの距離dに基づき第一実施形態と同様に各画素の輝度値を修正する。
Third Embodiment
Subsequently, a third embodiment of the present invention will be described focusing on differences from the first embodiment. FIG. 2 is a block diagram of the identification device according to the present embodiment. A difference from the first embodiment shown in FIG. 1 is that a gravity center correction unit 6 is provided between the gravity center determination unit 1 and the luminance value correction unit 2. In the present embodiment, the relationship between the angle D and the correction amount of the center of gravity described in the second embodiment is experimentally obtained in advance, and information indicating the relationship is stored in the holding unit 5 in advance. For example, the coefficients a, b, c, d are held in the holding unit 5, and the correction amount .DELTA.x in the horizontal direction and the correction amount .DELTA.y in the vertical direction are calculated by the following equations (3) and (4), respectively. .
Δx = a × D + b (3)
Δy = c × D + d (4)
If the coordinates of the center-of-gravity position determined by the center-of-gravity determination unit 1 are (G1, G2), the center-of-gravity correction unit 6 outputs the corrected center-of-gravity position as (G1 + Δx, G2 + Δy) to the luminance value correction unit 2. Then, the luminance value correction unit 2 corrects the luminance value of each pixel as in the first embodiment, based on the distance d from the corrected gravity center position (G1 + Δx, G2 + Δy).

重心判定部1は、虹彩及び瞳孔を含む全体の領域の重心を求めるものであるが、顔の方向が変化すると、虹彩及び瞳孔を含む全体の領域の重心と、瞳孔の重心とのずれが変化する。本実施形態では、重心判定部1が判定する虹彩及び瞳孔を含む領域の重心を、顔の方向の角度に基づき、より瞳孔の重心に近づく様に修正する。これにより、人物の顔の向きに拘らず、瞳孔領域を精度良く検出することができる。なお、本実施形態では、水平方向(x軸方向)のみならず、垂直方向(y軸方向)についてもその位置を修正しているが、水平方向のみについて重心位置を修正する構成であっても良い。   The center of gravity determination unit 1 calculates the center of gravity of the entire area including the iris and the pupil, but when the direction of the face changes, the deviation between the center of gravity of the entire area including the iris and the pupil and the center of gravity of the pupil changes Do. In the present embodiment, the center of gravity of the area including the iris and the pupil determined by the center of gravity determining unit 1 is corrected to be closer to the center of gravity of the pupil based on the angle of the face direction. Thus, the pupil region can be detected with high accuracy regardless of the direction of the face of the person. In this embodiment, the position is corrected not only in the horizontal direction (x-axis direction) but also in the vertical direction (y-axis direction), but even if the barycentric position is corrected only in the horizontal direction good.

<その他>
なお、第二実施形態及び第三実施形態においては、人物が顔の方向の正面を見ているとの前提のもと顔の角度Dにより瞳孔の扁平率Rを求めたが、人物が顔の方向に対して目だけを横に向けている状態もあるため、目の方向を角度Dとすることもできる。具体的には、目の瞳孔の方向とカメラの光軸の方向との角度を角度Dとする構成であっても良い。
<Others>
In the second embodiment and the third embodiment, the flat rate R of the pupil is determined from the angle D of the face under the premise that the person is looking at the front of the face direction, but the person is The direction of the eye can also be an angle D, as only the eye is directed to the side with respect to the direction. Specifically, the angle between the direction of the pupil of the eye and the direction of the optical axis of the camera may be an angle D.

また、第一実施形態から第三実施形態において、特定部4は、二値化データに基づき瞳孔領域を特定していた。ここで、特定部4は、特定した瞳孔領域が正確であるか否かを判定する構成とすることもできる。例えば、特定部4は、第三実施形態で述べた、角度Dと扁平率との関係を示す情報に基づき扁平率Rを求める。そして、検出した瞳孔領域を含む最小の方形を判定し、その長辺と短辺の差に対する長辺の比Kを求める。つまり、検出した瞳孔領域の扁平率を求める。そして、例えば、KがRを含む所定範囲内の値であるか否かを判定する。例えば、所定値をΔRとし、Kが、R−ΔR〜R+ΔRの間に有るか否かを判定する。KがRを含む所定範囲内の値であると、特定部4は、瞳孔領域を正しく特定できていると判定する。一方、KがRを含む所定範囲内にない場合、特定部4は、瞳孔領域を正しく特定できていないと判定する。そして、特定部4は、少なくとも瞳孔領域を正しく特定できていないと判定した場合、その旨をユーザに通知・表示する。   In the first to third embodiments, the identifying unit 4 identifies the pupil region based on the binarized data. Here, the specifying unit 4 may be configured to determine whether or not the specified pupil region is correct. For example, the specifying unit 4 obtains the flatness R based on the information indicating the relationship between the angle D and the flatness described in the third embodiment. Then, the smallest square including the detected pupil area is determined, and the ratio K of the long side to the difference between the long side and the short side is determined. That is, the flattening of the detected pupil region is determined. Then, for example, it is determined whether K is a value within a predetermined range including R. For example, with a predetermined value being ΔR, it is determined whether K is between R-ΔR and R + ΔR. If K is a value within a predetermined range including R, the identifying unit 4 determines that the pupil region has been correctly identified. On the other hand, when K is not within the predetermined range including R, the identifying unit 4 determines that the pupil region has not been correctly identified. Then, when it is determined that at least the pupil region can not be specified correctly, the specifying unit 4 notifies and displays that effect to the user.

さらに、上記実施形態において、重心判定部1は、瞳孔及び虹彩を含む領域の重心位置を判定していた。しかしながら、瞳孔及び虹彩を含む領域の中心付近の画素を判定すれば良く、本発明は重心位置を求めることに限定されない。つまり、瞳孔及び虹彩を含む領域のエッジの各画素からの距離の差が所定値以下である画素の位置を基準位置とし、この基準位置からの距離により輝度値を修正する構成であっても良い。   Furthermore, in the above embodiment, the gravity center determination unit 1 determines the gravity center position of the area including the pupil and the iris. However, it suffices to determine pixels near the center of the area including the pupil and the iris, and the present invention is not limited to determining the barycentric position. That is, the luminance value may be corrected based on the distance from the reference position, with the position of the pixel whose difference in distance from each pixel of the region including the pupil and the iris is less than a predetermined value. .

なお、本発明による特定装置は、コンピュータを上記特定装置として動作させるプログラムにより実現することができる。これらコンピュータプログラムは、コンピュータが読み取り可能な記憶媒体に記憶されて、又は、ネットワーク経由で配布が可能なものである。   The specific device according to the present invention can be realized by a program that causes a computer to operate as the above-mentioned specific device. These computer programs are stored in a computer readable storage medium or can be distributed via a network.

1:重心判定部、2:輝度値修正部、3:二値化部、4:特定部、5:保持部   1: center of gravity determination unit, 2: brightness value correction unit, 3: binarization unit, 4: identification unit, 5: holding unit

Claims (11)

目を含む画像の各画素の輝度値と第1閾値とを比較して瞳孔及び虹彩を含む領域を判定し、判定した領域内の基準位置を特定する第1特定手段と、
前記画像の各画素の輝度値を前記基準位置からの距離に応じて修正する修正手段と、
前記修正手段が修正した各画素の輝度値と第2閾値とを比較して前記瞳孔の領域を特定する第2特定手段と、
を備えていることを特徴とする特定装置。
First specifying means for determining a region including a pupil and an iris by comparing a luminance value of each pixel of an image including eyes with a first threshold, and specifying a reference position within the determined region;
A correction unit that corrects the luminance value of each pixel of the image in accordance with the distance from the reference position;
Second specifying means for specifying the area of the pupil by comparing the luminance value of each pixel corrected by the correcting means with a second threshold value;
A specific device characterized by comprising:
前記第1特定手段は、前記瞳孔及び虹彩を含む領域の重心位置を前記基準位置として特定することを特徴とする請求項1に記載の特定装置。   The identification apparatus according to claim 1, wherein the first identification unit identifies, as the reference position, a barycentric position of a region including the pupil and the iris. 前記第1特定手段は、前記瞳孔及び虹彩を含む領域の重心位置を判定し、前記目の方向と前記重心位置の修正量との関係を示す情報に基づき前記重心位置を修正した位置を前記基準位置として特定することを特徴とする請求項1に記載の特定装置。   The first specifying means determines the barycentric position of the area including the pupil and the iris, and the position obtained by correcting the barycentric position based on information indicating the relationship between the direction of the eye and the correction amount of the barycentric position is the reference The identification device according to claim 1, wherein the identification device is identified as a position. 前記修正手段は、輝度値が最大である画素以外の画素について、輝度値が同じであると、前記基準位置からの距離が大きくなる程、修正後の輝度値が高くなる様に輝度値を修正することを特徴とする請求項1から3のいずれか1項に記載の特定装置。   The correction means corrects the luminance value such that the luminance value after correction becomes higher as the distance from the reference position becomes larger if the luminance value is the same for pixels other than the pixel having the largest luminance value. The identification device according to any one of claims 1 to 3, characterized in that: 前記修正手段は、前記基準位置からの距離が同じ場合、輝度値が高い画素程、修正後の輝度値が高くなる様に輝度値を修正することを特徴とする請求項1から4のいずれか1項に記載の特定装置。   The correction method according to any one of claims 1 to 4, wherein, when the distance from the reference position is the same, the luminance value is corrected such that the luminance value after correction becomes higher as the luminance value is higher. The specific device described in item 1. 前記修正手段は、画素と前記基準位置との距離により第1の重み係数と第2の重み係数を求め、前記第1の重み係数と当該画素の輝度値の積である第1の値と、前記第2の重み係数と輝度値の最大値との積である第2の値とを求め、前記第1の値と前記第2の値との和に基づき当該画素の修正後の輝度値を求め、
前記第1の重み係数は、画素と前記基準位置との距離が大きくなると小さくなり、
前記第2の重み係数は、画素と前記基準位置との距離が大きくなると大きくなることを特徴とする請求項1から3のいずれか1項に記載の特定装置。
The correction means obtains a first weighting factor and a second weighting factor from the distance between the pixel and the reference position, and a first value which is a product of the first weighting factor and the luminance value of the pixel. A second value which is the product of the second weighting factor and the maximum value of the luminance value is determined, and the corrected luminance value of the pixel is calculated based on the sum of the first value and the second value. Ask for
The first weighting factor decreases as the distance between the pixel and the reference position increases.
The identification device according to any one of claims 1 to 3, wherein the second weighting factor increases as the distance between a pixel and the reference position increases.
前記第1の重み係数は0から1の間の値であり、前記第2の重み係数は、1から前記第1の重み係数を減じた値であることを特徴とする請求項6に記載の特定装置。   7. The apparatus according to claim 6, wherein the first weighting factor is a value between 0 and 1, and the second weighting factor is a value obtained by subtracting 1 from the first weighting factor. Specific device. 前記修正手段は、画素と前記基準位置との水平距離と、前記目の方向により第3の重み係数を求め、画素と前記基準位置との垂直距離により第4の重み係数を求め、前記第3の重み係数と前記第4の重み係数の積により前記第1の重み係数を求め、
前記第3の重み係数は、画素と前記基準位置との水平距離が大きくなると小さくなり、
前記第4の重み係数は、画素と前記基準位置との垂直距離が大きくなると小さくなり、
前記第3の重み係数が前記水平距離の増加に応じて小さくなる率は、前記目の方向が、画像に対して横に向くほど大きくなることを特徴とする請求項6又は7に記載の特定装置。
The correction means obtains a third weight coefficient from the horizontal distance between the pixel and the reference position and the direction of the eye, and obtains a fourth weight coefficient from the vertical distance between the pixel and the reference position. Determining the first weighting factor by the product of the fourth weighting factor and the weighting factor of
The third weighting factor decreases as the horizontal distance between the pixel and the reference position increases.
The fourth weighting factor decreases as the vertical distance between the pixel and the reference position increases.
The specification according to claim 6 or 7, characterized in that the rate at which the third weighting factor decreases as the horizontal distance increases is such that the direction of the eye is oriented to the side with respect to the image. apparatus.
前記第2特定手段は、特定した前記瞳孔の領域の扁平率を求め、求めた前記扁平率が前記目の方向に基づく値を含む所定範囲内にあるか否かを判定することを特徴とする請求項1から8のいずれか1項に記載の特定装置。   The second specification means determines the flatness of the specified area of the pupil, and determines whether the calculated flatness is within a predetermined range including a value based on the direction of the eye. The specific device according to any one of claims 1 to 8. 目を含む画像から瞳孔の領域を特定する装置における特定方法であって、
前記画像の各画素の輝度値と第1閾値とを比較して瞳孔及び虹彩を含む領域を判定し、判定した領域内の基準位置を特定する第1特定ステップと、
前記画像の各画素の輝度値を前記基準位置からの距離に応じて修正する修正ステップと、
前記修正ステップで修正した各画素の輝度値と第2閾値とを比較して前記瞳孔の領域を特定する第2特定ステップと、
を含むことを特徴とする特定方法。
An identification method in an apparatus for identifying a pupil area from an image including an eye, comprising:
A first identification step of comparing a luminance value of each pixel of the image with a first threshold to determine a region including a pupil and an iris, and specifying a reference position within the determined region;
Correcting the luminance value of each pixel of the image according to the distance from the reference position;
A second identification step of identifying the area of the pupil by comparing the luminance value of each pixel corrected in the correction step with a second threshold value;
A specific method characterized by including.
請求項1から9のいずれか1項に記載の特定装置としてコンピュータを機能させることを特徴とするプログラム。   A program that causes a computer to function as the specific device according to any one of claims 1 to 9.
JP2016054167A 2016-03-17 2016-03-17 Device, method and program for specifying the pupil area of a person in an image Expired - Fee Related JP6510451B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016054167A JP6510451B2 (en) 2016-03-17 2016-03-17 Device, method and program for specifying the pupil area of a person in an image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016054167A JP6510451B2 (en) 2016-03-17 2016-03-17 Device, method and program for specifying the pupil area of a person in an image

Publications (2)

Publication Number Publication Date
JP2017167940A JP2017167940A (en) 2017-09-21
JP6510451B2 true JP6510451B2 (en) 2019-05-08

Family

ID=59913755

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016054167A Expired - Fee Related JP6510451B2 (en) 2016-03-17 2016-03-17 Device, method and program for specifying the pupil area of a person in an image

Country Status (1)

Country Link
JP (1) JP6510451B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109961553A (en) * 2017-12-26 2019-07-02 航天信息股份有限公司 Invoice number recognition methods, device and tax administration self-service terminal system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2836238B2 (en) * 1990-11-07 1998-12-14 日産自動車株式会社 Driving car eye position detection device and state detection device
JP4008282B2 (en) * 2002-04-24 2007-11-14 沖電気工業株式会社 Pupil / iris circle detector
JP4435809B2 (en) * 2002-07-08 2010-03-24 株式会社東芝 Virtual makeup apparatus and method
JP3808014B2 (en) * 2002-07-10 2006-08-09 松下電器産業株式会社 Eye image pickup device and individual authentication device
JP2010246053A (en) * 2009-04-10 2010-10-28 Seiko Epson Corp Apparatus, method, and program for processing image, and printer
JP6241107B2 (en) * 2013-07-23 2017-12-06 リコーイメージング株式会社 Gaze direction detection device and gaze direction detection method

Also Published As

Publication number Publication date
JP2017167940A (en) 2017-09-21

Similar Documents

Publication Publication Date Title
US9866820B1 (en) Online calibration of cameras
JP6582604B2 (en) Pupil detection program, pupil detection method, pupil detection device, and gaze detection system
US9723979B2 (en) Method, apparatus and computer program product for positioning pupil
JP4739870B2 (en) Sunglasses detection device and face center position detection device
WO2016111880A1 (en) Gaze detection offset for gaze tracking models
JP5661043B2 (en) External light reflection determination device, line-of-sight detection device, and external light reflection determination method
US10254831B2 (en) System and method for detecting a gaze of a viewer
JP6073858B2 (en) Face position detection
WO2016107638A1 (en) An image face processing method and apparatus
US10496874B2 (en) Facial detection device, facial detection system provided with same, and facial detection method
US20160232399A1 (en) System and method of detecting a gaze of a viewer
US10503969B2 (en) Hand-raising detection device, non-transitory computer readable medium, and hand-raising detection method
JP2009223459A (en) Information processor and method, and program
US20210142490A1 (en) Information processing apparatus, control method, and program
JP2007114029A (en) Face center position detector, face center position detection method, and program
JP2014067193A (en) Image processing apparatus and image processing method
US11462052B2 (en) Image processing device, image processing method, and recording medium
US11036974B2 (en) Image processing apparatus, image processing method, and storage medium
JP6477348B2 (en) Self-position estimation apparatus and self-position estimation method
JP6510451B2 (en) Device, method and program for specifying the pupil area of a person in an image
JP6772059B2 (en) Electronic control devices, electronic control systems and electronic control methods
JP2017084065A (en) Identity theft detection device
JP7028814B2 (en) External shape recognition device, external shape recognition system and external shape recognition method
JPWO2017130407A1 (en) INFORMATION GENERATION APPARATUS, INFORMATION GENERATION METHOD, INFORMATION GENERATION PROGRAM, AND RECORDING MEDIUM
KR101806710B1 (en) System and Method for Detecting Pupil which is strong Intensity Change of Illumination

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190404

R150 Certificate of patent or registration of utility model

Ref document number: 6510451

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees