JP4510562B2 - Circle center position detection method, apparatus, and program - Google Patents

Circle center position detection method, apparatus, and program Download PDF

Info

Publication number
JP4510562B2
JP4510562B2 JP2004262386A JP2004262386A JP4510562B2 JP 4510562 B2 JP4510562 B2 JP 4510562B2 JP 2004262386 A JP2004262386 A JP 2004262386A JP 2004262386 A JP2004262386 A JP 2004262386A JP 4510562 B2 JP4510562 B2 JP 4510562B2
Authority
JP
Japan
Prior art keywords
voting
value
center position
image
circle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004262386A
Other languages
Japanese (ja)
Other versions
JP2005108206A (en
Inventor
誠 與那覇
涛 陳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2004262386A priority Critical patent/JP4510562B2/en
Publication of JP2005108206A publication Critical patent/JP2005108206A/en
Application granted granted Critical
Publication of JP4510562B2 publication Critical patent/JP4510562B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明はデジタル写真画像から、円、例えば瞳などの中心位置を検出する円中心位置検出する方法および装置並びにそのためのプログラムに関するものである。   The present invention relates to a method and apparatus for detecting a center position of a circle, for example, a center position of a circle such as a pupil from a digital photographic image, and a program therefor.

機械における円形部品の中心位置の確定や、顔写真画像における瞳の位置の確定など、様々な分野において、デジタル写真画像から円の中心位置を検出ことが必要である。従来、被検体を撮影してデジタル写真画像から円を検出するために、テンプレートマッチングやハフ変換など様々な方法が用いられている。これらの方法のうち、不完全な円、例えばノイズなどにより破損が生じた円や、目つぶりによって一部しか現れない瞳なども検出できる方法としてハフ変換が用いられる(特許文献1参照)。具体的には、まず、デジタル写真画像に対して2値化処理を行って2値画像を得、この2値画像からエッジを検出し、検出されたエッジの画素データを用いて、円環を検出するための3つのパラメータ(円心のX座標,円心のY座標,半径r)に対応するハフ空間に投票を行う。投票の結果、最も高い票数を得た座標を取得し、該座標により円環の3つのパラメータの値を決定し、決定された円環の中心座標値(X,Y)を検出したい円の中心とするようにして円の中心位置を検出する。
特開2003−70742号公報
In various fields, such as the determination of the center position of a circular part in a machine and the determination of the position of a pupil in a face photographic image, it is necessary to detect the center position of a circle from a digital photographic image. Conventionally, various methods such as template matching and Hough transform are used to detect a circle from a digital photographic image by photographing a subject. Among these methods, Hough transform is used as a method for detecting an incomplete circle, for example, a circle damaged by noise or the like, or a pupil that appears only partially due to blinking (see Patent Document 1). Specifically, first, a binarization process is performed on a digital photographic image to obtain a binary image, an edge is detected from the binary image, and a ring is formed using pixel data of the detected edge. Voting is performed on the Hough space corresponding to the three parameters for detection (the X coordinate of the center, the Y coordinate of the center, and the radius r). As a result of voting, obtain the coordinates with the highest number of votes, determine the values of the three parameters of the ring based on the coordinates, and determine the center coordinates (X, Y) of the determined circle Thus, the center position of the circle is detected.
JP 2003-70742 A

しかしながら、上述のようにハフ変換を行って円の中心位置を検出する方法は、欠損のある円およびその中心位置を検出することに大きな効果を奏するが、デジタル写真画像中のエッジの画素データのみを用いるため、ノイズの影響を受けやすい欠点がある。   However, the method of detecting the center position of the circle by performing the Hough transform as described above has a great effect on detecting the circle having the defect and the center position thereof, but only the pixel data of the edge in the digital photographic image. Therefore, there is a drawback that it is easily affected by noise.

本発明は、上記事情に鑑み、欠損のある円の中心位置を検出することができると共に、ノイズの影響に強い円中心位置検出方法および装置並びにそのためのプログラムを提供することを目的とするものである。   SUMMARY OF THE INVENTION In view of the above circumstances, an object of the present invention is to provide a circle center position detection method and apparatus that can detect the center position of a circle having a defect and is resistant to the influence of noise, and a program therefor. is there.

本発明の第1の円中心位置検出方法は、写真画像から、該写真画像に含まれる円の中心位置を検出する円中心位置検出方法において、
該写真画像の各画素の座標を、円環のハフ空間(円中心点のX座標,円中心点のY座標,半径方向座標r)上に投票し、投票された前記ハフ空間上の各投票位置(X,Y,r)の、投票された回数を求めて得た該投票位置の投票値を第1の統合投票値とし、
最も大きい前記第1の統合投票値を有する前記投票位置の前記(X,Y)座標値により示される位置を前記円の中心とすることを特徴とするものである。
A first circle center position detection method of the present invention is a circle center position detection method for detecting a center position of a circle included in a photographic image from a photographic image.
The coordinates of each pixel of the photographic image are voted on an annular Hough space (X coordinate of the circle center point, Y coordinate of the circle center point, radial coordinate r), and each vote on the voted Hough space. The voting value at the voting position obtained by determining the number of times the position (X, Y, r) has been voted is defined as the first integrated voting value,
The position indicated by the (X, Y) coordinate value of the voting position having the largest first integrated voting value is the center of the circle.

すなわち、本発明の第1の円中心位置検出方法は、エッジ画素のみを用いて円環のハフ空間に投票して最も大きい投票値を有する投票位置を円環として見付けるようによって円の中心位置を検出する方法と異なり、円を多数の同心円環として捉え、処理対象となるグレースケール写真画像の全画素のデータを用いて円環のハフ空間に投票して各投票位置の投票値(第1の統合投票値)に基づいて、最も大きい投票値を有する投票位置の(X,Y)座標値により示される位置を円の中心位置として検出する。この方法は、多数の同心円環は夫々半径が異なるものの円心の位置が同じであるので、この円心位置に対応する(X,Y)座標値を有する投票位置が最も多く投票されるはずであることに基づいたものである。   That is, in the first circle center position detection method of the present invention, the center position of the circle is determined by voting to the Hough space of the ring using only the edge pixels and finding the vote position having the largest vote value as the ring. Unlike the detection method, the circle is regarded as a large number of concentric rings, and the voting value (first value of each voting position) is voted on the Hough space of the ring using the data of all pixels of the grayscale photographic image to be processed. Based on the integrated vote value), the position indicated by the (X, Y) coordinate value of the vote position having the largest vote value is detected as the center position of the circle. In this method, since many concentric rings have different radii, but the positions of the circle centers are the same, the voting positions having the (X, Y) coordinate values corresponding to the circle positions should be voted the most. It is based on something.

本発明の第2の円中心位置検出方法は、写真画像から、該写真画像に含まれる円の中心位置を検出する円中心位置検出方法において、
該写真画像の各画素の座標を、円環のハフ空間(円中心点のX座標,円中心点のY座標,半径方向座標r)上に投票し、投票された前記ハフ空間上の各投票位置(X,Y,r)の、投票された回数を求めて該投票位置の投票値を得、
各前記投票位置のうちの、前記(X,Y)座標値が同じである前記投票位置の前記投票値を加算して第2の統合投票値を得、
最も大きい前記第2の統合投票値に対応する前記(X,Y)座標値により示される位置を前記円の中心とすることを特徴とするものである。
A second circle center position detection method of the present invention is a circle center position detection method for detecting a center position of a circle included in a photographic image from a photographic image.
The coordinates of each pixel of the photographic image are voted on an annular Hough space (X coordinate of the circle center point, Y coordinate of the circle center point, radial coordinate r), and each vote on the voted Hough space. Obtain the vote value of the voting position by determining the number of times the position (X, Y, r) has been voted,
Of each of the voting positions, the voting value of the voting position having the same (X, Y) coordinate value is added to obtain a second integrated voting value,
The position indicated by the (X, Y) coordinate value corresponding to the largest second integrated vote value is the center of the circle.

すなわち、本発明の第2の円中心位置検出方法は、エッジの画素のデータのみを用いて円環のハフ空間に投票して最も大きい投票値を有する投票位置を円環として見付けるようによって円の中心位置を検出する方法と異なり、円を多数の同心円環として捉え、処理対象となるグレースケール写真画像の全画素のデータを用いて円環のハフ空間に投票し、(X,Y)座標値が同じである前記投票位置(これらの投票位置が同じ(X,Y)座標値を有するため、半径が異なる同心円となる)の前記投票値を加算して得た第2の統合投票値に基づいて、最も大きい第2の統合投票値が対応する前記(X,Y)座標値により示される位置を円の中心位置として検出する。   That is, according to the second circle center position detection method of the present invention, the voting position having the largest vote value is found as a ring by voting on the Hough space of the ring using only the pixel data of the edge. Unlike the method of detecting the center position, the circle is regarded as a large number of concentric rings, and the data of all pixels of the grayscale photographic image to be processed is used to vote for the Hough space of the ring, and the (X, Y) coordinate value Based on the second integrated vote value obtained by adding the vote values of the same vote position (they have the same (X, Y) coordinate values and therefore have different concentric radii). Thus, the position indicated by the (X, Y) coordinate value corresponding to the largest second integrated vote value is detected as the center position of the circle.

また、本発明の第2の円中心位置検出方法は、前記(X,Y)座標値が同じである前記投票位置のうちの、前記円の半径範囲内にある前記投票位置の前記投票値のみを加算して前記第2の統合投票値を得ることが好ましい。   In the second circle center position detection method of the present invention, only the voting values of the voting positions within the radius range of the circle among the voting positions having the same (X, Y) coordinate values. Is preferably added to obtain the second integrated vote value.

前記写真画像において、目的の円以外に他の円も存在する可能性があるため、目的の円の半径の大きさの範囲が知られている場合、この半径範囲内で前記投票値を加算するようにして前記第2の統合投票値を得るようにすることが望ましい。このようにすれば、複数の円が存在する写真画像から検出した円の中心位置は目的の円の中心位置となる確率が高い。   In the photographic image, there may be other circles in addition to the target circle. Therefore, when the radius range of the target circle is known, the vote value is added within the radius range. Thus, it is desirable to obtain the second integrated vote value. In this way, there is a high probability that the center position of a circle detected from a photographic image having a plurality of circles will be the center position of the target circle.

ここで、円の半径範囲とは、所定の大きさ以上から所定の大きさ以下のような上下限とも規定された範囲に限らず、所定の大きさ以下、所定の大きさ以上のように、上限のみまたは下限のみにより規定される範囲であってもよい。   Here, the radius range of the circle is not limited to a range defined as upper and lower limits such as a predetermined size or more and a predetermined size or less, but a predetermined size or less, a predetermined size or more, It may be a range defined by only the upper limit or only the lower limit.

本発明の円中心位置検出方法は、瞳を含む写真画像から瞳の中心位置を検出ことに適用することができる。2
本発明の円中心位置検出方法により瞳の中心位置を検出する際に、投票をした前記画素の有色度が大きいほど重みが小さくなるように、各前記画素の投票回数を重み付け加算して得た値を前記投票値とすることが好ましい。
The circle center position detection method of the present invention can be applied to the detection of the center position of a pupil from a photographic image including the pupil. 2
When the center position of the pupil is detected by the circle center position detection method of the present invention, the number of votes of each pixel is obtained by weighted addition so that the weight becomes smaller as the chromaticity of the voted pixel increases. The value is preferably the vote value.

ここで、画素の「有色度」は、その画素の色合いがグレー軸から離れた距離の大きさを示すことができるものであればいかなるパラメータを用いてもよく、例えば、下記の式(1)を用いて画素の有色度を求めてもよい。   Here, the “chromaticity” of a pixel may use any parameter as long as the color of the pixel can indicate the distance away from the gray axis. For example, the following formula (1) May be used to determine the chromaticity of the pixel.


U=(R−G)+(G―B)+(B−R) (1)
但し、U:画素の有色度
R,G,B:画素のR値、G値、B値

すなわち、本発明の円中心位置検出方法は、1つの投票位置に対して、1つの画素から投票があれば(1つの画素は1つの投票位置に対して1回しか投票しない)、その投票値を1として累積計上するようにして各投票位置の投票値を得るようにしてもよいが(この場合、投票位置の投票値がこの投票位置に投票した画素の数に相当する)、瞳を含む写真画像、すなわち顔写真画像の場合には、その他の部分に対して、瞳の部分の有色度が低いので、有色度が大きいほど重みが小さくなるように各画素の投票回数を重み付け加算して当該投票位置の投票値とするようにすれば、顔写真画像に含まれた眼鏡のカラーフレームや、色染めされた髪や、肌などのノイズによる影響を軽減することができ、より正確な検出結果を得ることができる。

U = (R−G) 2 + (GB) 2 + (B−R) 2 (1)
Where U: Pixel color
R, G, B: R value, G value, B value of the pixel

That is, according to the circle center position detection method of the present invention, if there is a vote from one pixel for one voting position (one pixel votes only once for one voting position), the vote value It is possible to obtain a vote value at each voting position by accumulating 1 as 1 (in this case, the voting value at the voting position corresponds to the number of pixels that have voted at this voting position), but including the pupil In the case of a photographic image, that is, a facial photographic image, the chromaticity of the pupil part is lower than the other parts, so the number of votes for each pixel is weighted and added so that the weight becomes smaller as the chromaticity increases. By using the voting value at the voting position, the effects of noise such as the color frame of the eyeglasses included in the face photo image, the dyed hair, and the skin can be reduced for more accurate detection. The result can be obtained.

本発明の円中心位置検出方法は、グレースケール写真画像は勿論、カラー写真画像にも対応することができる。なお、カラー写真画像に対しては、グレー変換を施してグレースケール写真画像を得、該グレースケール写真画像を用いて円中心位置の検出を行うようにしてもよい。   The circle center position detection method of the present invention can deal with not only grayscale photographic images but also color photographic images. Note that the color photographic image may be subjected to gray conversion to obtain a grayscale photographic image, and the circle center position may be detected using the grayscale photographic image.

さらに、グレースケール写真画像、またはカラー画像をグレー変換して得たグレースケール写真画像を用いて円中心位置の検出を行う際に、該グレースケール写真画像を所定の閾値で2値化して2値画像を得、該2値画像を用いて円中心位置の検出を行うことが好ましく、こうすることによって、処理を高速化することができ、検出のための演算に必要なメモリを節約することができる。   Further, when detecting the center position of a circle using a grayscale photographic image or a grayscale photographic image obtained by converting a color image into gray, the grayscale photographic image is binarized with a predetermined threshold value to obtain a binary value. It is preferable to obtain an image and detect the center position of the circle using the binary image. By doing so, the processing can be speeded up, and the memory required for calculation for detection can be saved. it can.

なお、2値化する際に用いられる2値化用の前記所定の閾値は、前記グレースケール写真画像の画素数および各前記画素の輝度に基づいて求められたものであることが好ましい。   The predetermined threshold for binarization used for binarization is preferably obtained based on the number of pixels of the grayscale photographic image and the luminance of each pixel.

本発明の円中心位置検出方法により瞳の中心位置を検出する際に、投票をした前記画素の輝度が小さいほど重みが大きくなるように、各前記画素の投票回数を重み付け加算して得た値を前記投票値とすることが好ましい。   When detecting the center position of the pupil by the circle center position detection method of the present invention, a value obtained by weighted addition of the number of votes of each pixel so that the weight increases as the luminance of the voted pixel decreases. Is preferably set as the vote value.

すなわち、本発明の円中心位置検出方法は、1つの投票位置に対して、1つの画素から投票があれば(1つの画素は1つの投票位置に対して1回しか投票しない)、その投票値を1として累積計上するようにして各投票位置の投票値を得るようにしてもよく(この場合、投票位置の投票値がこの投票位置に投票した画素の数に相当する)、瞳のような中心に近いほど輝度が小さい(すなわち暗い)円に対して各投票位置の投票値を求める際に、該投票位置に投票した画素の輝度が小さいほど、重みが大きくなるように各画素の投票回数(1つの画素の投票回数が1回となるが)を重み付け加算して当該投票位置の投票値とすることが好ましい。   That is, according to the circle center position detection method of the present invention, if there is a vote from one pixel for one voting position (one pixel votes only once for one voting position), the vote value It is possible to obtain a vote value at each voting position by accumulating 1 as 1 (in this case, the voting value at the voting position corresponds to the number of pixels that have voted at this voting position). When determining the voting value at each voting position for a circle whose luminance is smaller (ie, darker) as it is closer to the center, the number of votes of each pixel is such that the lower the luminance of the pixel that has voted at the voting position, the greater the weight It is preferable to weight and add (although the vote count of one pixel is 1) to obtain a vote value at the vote position.

また、前記瞳を含む写真画像は、目の近傍を外枠にして、顔写真画像をトリミングして得たトリミング画像とすることができる。   Further, the photographic image including the pupil can be a trimmed image obtained by trimming a face photographic image with the vicinity of the eyes as an outer frame.

本発明の第1の円中心位置検出装置は、写真画像から、該写真画像に含まれる円の中心位置を検出する円中心位置検出装置であって、
該写真画像の各画素の座標を、円環のハフ空間(円中心点のX座標,円中心点のY座標,半径方向座標r)上に投票し、投票された前記ハフ空間上の各投票位置(X,Y,r)の、投票された回数を求めて得た該投票位置の投票値を第1の統合投票値とする投票値取得手段と、
最も大きい前記第1の統合投票値を有する前記投票位置の前記(X,Y)座標値により示される位置を前記円の中心として決定する中心位置決定手段とを有してなることを特徴とするものである。
A first circle center position detection device of the present invention is a circle center position detection device that detects a center position of a circle included in a photographic image from a photographic image,
The coordinates of each pixel of the photographic image are voted on an annular Hough space (X coordinate of the circle center point, Y coordinate of the circle center point, radial coordinate r), and each vote on the voted Hough space. A voting value acquisition means having a voting value at the voting position obtained by calculating the number of times that the position (X, Y, r) has been voted as a first integrated voting value;
Center position determining means for determining the position indicated by the (X, Y) coordinate value of the voting position having the largest first integrated voting value as the center of the circle. Is.

本発明の第2の円中心位置検出装置は、写真画像から、該写真画像に含まれる円の中心位置を検出する円中心位置検出装置であって、
該写真画像の各画素の座標を、円環のハフ空間(円中心点のX座標,円中心点のY座標,半径方向座標r)上に投票し、投票された前記ハフ空間上の各投票位置(X,Y,r)の、投票された回数を求めて該投票位置の投票値を得る投票値取得手段と、
各前記投票位置のうちの、前記(X,Y)座標値が同じである前記投票位置の前記投票値を加算して第2の統合投票値を得る投票値統合手段と、
最も大きい前記第2の統合投票値に対応する前記(X,Y)座標値により示される位置を前記円の中心とする中心位置決定手段とを有してなることを特徴とするものである。
The second circle center position detection device of the present invention is a circle center position detection device for detecting the center position of a circle included in the photographic image from a photographic image,
The coordinates of each pixel of the photographic image are voted on an annular Hough space (X coordinate of the circle center point, Y coordinate of the circle center point, radial coordinate r), and each vote on the voted Hough space. Voting value acquisition means for obtaining the voting value of the voting position by determining the number of times the position (X, Y, r) has been voted;
Among the voting positions, voting value integrating means for adding the voting values at the voting positions having the same (X, Y) coordinate value to obtain a second integrated voting value;
Center position determining means having a position indicated by the (X, Y) coordinate value corresponding to the largest second integrated vote value as the center of the circle is provided.

また、前記投票値統合手段は、前記(X,Y)座標値が同じである前記投票位置のうちの、前記円の半径範囲内にある前記投票位置の前記投票値のみを加算して前記第2の統合投票値を得るものであることが好ましい。   The voting value integration means adds only the voting values of the voting positions within the radius range of the circle among the voting positions having the same (X, Y) coordinate value. It is preferable to obtain an integrated vote value of 2.

本発明の円中心位置検出装置は、瞳を含む写真画像から瞳の中心位置を検出することに適用することができる。   The circle center position detection apparatus of the present invention can be applied to detecting the center position of a pupil from a photographic image including the pupil.

本発明の円中心位置検出手段は、瞳の中心位置を検出する際に、前記投票値取得手段が、前記画素の有色度が大きいほど重みが小さくなるように、各前記画素の投票回数を重み付け加算して得た値を前記投票値とするものであることが好ましい。   When detecting the center position of the pupil, the circle center position detection unit according to the present invention weights the number of votes of each pixel so that the vote value acquisition unit decreases the weight as the chromaticity of the pixel increases. It is preferable that a value obtained by addition is used as the vote value.

本発明の円中心位置検出装置は、グレースケール写真画像は勿論、カラー写真画像にも適用することができる。なお、本発明の円中心位置検出装置は、カラー写真画像をグレー変換してグレースケール写真画像を得る画像変換手段を備え、前記投票値取得手段が、前記グレースケール写真画像を用いて前記投票を行うものであってもよい。   The circle center position detection apparatus of the present invention can be applied not only to a gray scale photographic image but also to a color photographic image. The circle center position detection device of the present invention includes image conversion means for obtaining a grayscale photographic image by converting a color photographic image into gray, and the voting value acquisition means performs the voting using the grayscale photographic image. You may do it.

本発明の円中心位置検出装置は、2値化手段を備え、該2値化手段により、グレースケール写真画像、または前記画像変換手段によりカラー画像をグレー変換して得たグレースケール写真を所定の閾値で2値化して2値化画像を得、前記投票値取得手段が、該2値化画像を用いて前記投票を行うことが好ましい。   The circle center position detection apparatus of the present invention includes binarization means, and by the binarization means, a grayscale photograph image or a grayscale photograph obtained by performing gray conversion on a color image by the image conversion means It is preferable that a binarized image is obtained by binarization with a threshold value, and the vote value acquisition means performs the vote using the binarized image.

本発明の円中心位置検出手段は、瞳の中心位置を検出する際に、前記投票値取得手段が、投票をした前記画素の輝度が小さいほど重みが大きくなるように、各前記画素の投票回数を重み付け加算して得た値を前記投票値とするものであることが好ましい。   When detecting the center position of the pupil, the circle center position detection means of the present invention is configured so that the vote value acquisition means counts the number of votes of each pixel so that the weight increases as the brightness of the voted pixel decreases. It is preferable that a value obtained by weighted addition is used as the vote value.

瞳の中心位置を検出する本発明の円中心位置検出装置は、目の近傍を外枠にして、顔写真画像をトリミングして得たトリミング画像を前記写真画像とするトリミング手段をさらに備えたことが好ましい。   The center position detection device of the present invention for detecting the center position of the pupil further comprises trimming means for using the trimmed image obtained by trimming the face photo image with the vicinity of the eyes as the outer frame as the photo image. Is preferred.

また、本発明の円中心位置検出装置において、操作者により手動で前記「目の近傍」を指定するようにしてもよいが、前記顔写真画像から前記目の位置を検出して、該検出された前記目の位置を示す情報を前記トリミング手段に供する目位置検出手段をさらに備え、該目の位置を示す情報に基づいて前記「目の近傍」を規定するようにしてもよい。   Further, in the circle center position detection device of the present invention, the “near eye” may be manually designated by an operator, but the position of the eye is detected from the face photograph image. Further, eye position detecting means for providing information indicating the eye position to the trimming means may be further provided, and the “near eye” may be defined based on the information indicating the eye position.

また、瞳の中心位置を検出するための本発明の円中心位置検出装置は、左目の前記トリミング画像と右目の前記トリミング画像とを夫々用いて求められた左瞳の中心位置と右瞳の中心位置との差が、前記左目と前記右目との距離に応じた所定の範囲内であることを基準として前記瞳の中心位置が正しいか否かを判別すると共に、前記中心位置が正しいであるように判別されるまで、前回に求められた前記中心位置に対応する前記統合投票値の次に大きい統合投票値を求め、該次に大きい統合投票値に対応する前記(X,Y)座標値により示される位置を前記瞳の中心として求め直す照合手段をさらに備えたことが好ましい。   Further, the circle center position detection apparatus of the present invention for detecting the center position of the pupil is the center position of the left pupil and the center of the right pupil determined using the trimmed image of the left eye and the trimmed image of the right eye, respectively. Whether or not the center position of the pupil is correct is determined based on whether the difference from the position is within a predetermined range according to the distance between the left eye and the right eye, and the center position is correct Until the next largest integrated vote value corresponding to the previously determined central position is obtained, and the (X, Y) coordinate value corresponding to the next largest integrated vote value is obtained. It is preferable to further include collation means for re-determining the indicated position as the center of the pupil.

ここで、「統合投票値」は、前記第1の統合投票値(すなわち、投票値)または前記第2の統合投票値のいずれか1つを意味する。   Here, the “integrated vote value” means any one of the first integrated vote value (that is, the vote value) or the second integrated vote value.

同じ顔にある左目と右目は、上下方向の目の位置の差が通常僅かである。瞳は目の中に位置するので、左瞳の中心位置と右瞳の中心位置の上下方向の差も僅かな大きさの範囲(左目と右目との距離をD画素数とすると、例えば範囲D/50)以内であるはず。また、左瞳の中心位置と右瞳の中心位置との差、すなわち両瞳の中心位置間の距離が、左目と右目の距離(D画素数)と略同である理由から、左瞳の中心位置と右瞳の中心位置との差を例えば0.8×D〜1.2×Dの範囲内にすることができる。本発明の円中心位置検出装置における前記照合手段は、この点に着目し、同じ顔画像にある左瞳の中心位置と右瞳の中心位置(上下方向の位置および/または左右方向の位置)の差が、両目の位置に応じた所定の範囲にあるべきことを基準にして、瞳の中心位置が正しか否かを判別する。   The left eye and the right eye on the same face usually have a slight difference in the position of the eyes in the vertical direction. Since the pupil is located in the eye, the vertical difference between the center position of the left pupil and the center position of the right pupil is also in a slightly small range (for example, the range D is the distance D between the left eye and the right eye). / 50) should be within. Further, since the difference between the center position of the left pupil and the center position of the right pupil, that is, the distance between the center positions of both pupils is substantially the same as the distance between the left eye and the right eye (number of D pixels), the center of the left pupil The difference between the position and the center position of the right pupil can be set within a range of 0.8 × D to 1.2 × D, for example. The collation means in the circle center position detection apparatus of the present invention pays attention to this point, and calculates the center position of the left pupil and the center position of the right pupil (the vertical position and / or the horizontal position) in the same face image. Whether or not the center position of the pupil is positive is determined based on the fact that the difference should be within a predetermined range corresponding to the position of both eyes.

さらに、前記照合手段は、前回に求められた前記中心位置に対応する前記統合投票値の次に大きい統合投票値を求める際に、全ての統合投票値からではなく、前回に求められた前記中心位置から所定の距離以上に離れた位置を示す(X,Y)座標値に対応する各々の前記統合投票値から前記次に大きい統合投票値を求めるものであることが好ましい。   Further, the collating means, when obtaining the integrated vote value next to the integrated vote value corresponding to the center position obtained last time, the center obtained last time, not from all the integrated vote values. It is preferable that the next largest integrated vote value is obtained from each of the integrated vote values corresponding to the (X, Y) coordinate values indicating a position separated from the position by a predetermined distance or more.

すなわち、求められた中心位置が、例えば目の近傍の痣などの他の円の中心位置であって、瞳の中心位置ではない(瞳の中心位置が正しくない)と判別されたとき、この中心位置の近くに瞳の中心位置がある可能性が少ないので、この中心位置に対応する前記統合投票値の次に大きい統合投票値を求める際に、全ての統合投票値からではなく、この中心位置から所定の距離以上に離れた位置を示す(X,Y)座標値に対応する各々の前記統合投票値から前記次に大きい統合投票値を求めるようにすれば、より早く真の瞳の中心位置を検出することができる。   That is, when it is determined that the obtained center position is the center position of another circle such as a eyelid near the eyes and not the center position of the pupil (the center position of the pupil is not correct), Since it is unlikely that there is a center position of the pupil near the position, when determining the next largest integrated vote value of the integrated vote value corresponding to this center position, this center position is not from all the integrated vote values. If the next largest integrated vote value is obtained from each of the integrated vote values corresponding to the (X, Y) coordinate values indicating a position more than a predetermined distance from the center position of the true pupil more quickly Can be detected.

また、前記「所定の距離」は、両目間の距離に基づいて求められた値であることが望ましく、例えばD/30(Dは両目間の距離を示す画素数)を用いることができる。   The “predetermined distance” is preferably a value obtained based on the distance between the eyes, and for example, D / 30 (D is the number of pixels indicating the distance between the eyes) can be used.

瞳の中心位置を検出するための本発明の円中心位置検出装置は、前記写真画像に対して穴埋め処理を行い、該穴埋め処理がされた前記写真画像を前記投票値取得手段に供する前処理手段をさらに備えたことが好ましい。   A circle center position detection apparatus of the present invention for detecting the center position of a pupil performs pre-filling processing on the photographic image, and uses the photographic image subjected to the hole filling processing for the vote value acquisition means. Is preferably further provided.

なお、顔写真画像をトリミングするトリミング手段と、グレー変換を行う画像変換手段とを備えた本発明の円中心位置検出装置の場合、グレー変換をした後にトリミングしてもよいが、演算量を軽減し、早い処理を図るために、トリミング手段によるトリミングの後に、画像変換手段によりグレー変換を行うことが望ましい。   In the case of the circle center position detection device of the present invention having a trimming means for trimming a face photo image and an image conversion means for performing gray conversion, trimming may be performed after gray conversion, but the amount of calculation is reduced. However, for fast processing, it is desirable to perform gray conversion by the image conversion means after the trimming by the trimming means.

本発明の円中心位置検出方法は、コンピュータに実行させるプログラムとして提供するようにしてもよい。   The circle center position detection method of the present invention may be provided as a program to be executed by a computer.

本発明の円中心位置検出方法および装置並びにプログラムによれば、写真画像から、該写真画像に含まれる円の中心位置を検出する際に、円を多数の同心円環の集合として捉え、写真画像の全画素の座標を円環のハフ空間に投票し、投票された各投票位置の投票値そのもの、または投票された各投票位置のうち、同じ(円心のX座標値,円心のY座標値)を有する投票位置の投票値を加算して得た値を統合投票値(夫々第1の統合投票値、第2の統合投票値)とし、最も大きい統合投票値に対応する(X,Y)座標値により示される位置を円中心の位置として検出するようにしているので、欠損のある円の中心位置も検出することができるハフ変換の長所を生かすと共に、エッジの画素のみを用いる従来の技術よりノイズの影響を受けにくく、より正確に円の中心位置を検出することができる。   According to the circle center position detection method, apparatus, and program of the present invention, when detecting the center position of a circle included in a photographic image from a photographic image, the circle is regarded as a set of many concentric rings, Vote the coordinates of all pixels in the Hough space of the ring, and the voting value of each voted position itself or the same among the voted voting positions (the X coordinate value of the circle center, the Y coordinate value of the circle center) ) Are added to the voting values at the voting positions having the integrated voting values (first integrated voting value and second integrated voting value, respectively) and correspond to the largest integrated voting value (X, Y). Since the position indicated by the coordinate value is detected as the position of the center of the circle, the conventional technique using only the edge pixel while taking advantage of the Hough transform that can also detect the center position of a circle with a defect Less susceptible to noise It is possible to detect the center position of more accurately circular.

また、第2の統合投票値を得る際に、目的の円の半径範囲内の投票位置の投票値のみを加算するようにすれば、複数の半径が異なる円が存在するグレースケール写真画像において、目的の円の中心位置を検出する確率が高くなる。   Further, when obtaining the second integrated vote value, if only the vote values at the voting position within the radius range of the target circle are added, in a grayscale photographic image in which a plurality of circles having different radii exist, The probability of detecting the center position of the target circle is increased.

本発明の円中心位置検出方法および装置並びにそのためのプログラムを、顔写真画像から瞳の中心位置を検出することに適用する際に、瞳の中心に近いほど輝度が小さい特徴を利用して、各投票位置に対して、投票する画素の輝度が小さいほど重みが大きくなるように、各画素の投票回数を重み付け加算して得た値を当該投票位置の投票値としているので、より正確に瞳の中心位置を検出することができる。   When applying the circle center position detection method and apparatus of the present invention and the program therefor to the detection of the center position of the pupil from the face photograph image, each feature is utilized by utilizing the feature that the brightness is smaller as it is closer to the center of the pupil. Since the value obtained by weighted addition of the number of times of voting of each pixel is used as the voting value of the voting position so that the weight increases as the luminance of the voting pixel decreases, the voting position of the voting position becomes more accurate. The center position can be detected.

また、本発明の円中心位置検出装置を瞳の中心位置の検出に適用する際に、照合手段を設け、同じ顔にある両目の瞳の中心位置の差が所定の範囲内であることを基準にして検出された瞳の中心位置が正しいか否かを判別し、瞳の位置が正しくなければ求め直すようにすることによって、目の近傍の痣などの他の円の中心位置を瞳の中心位置として検出してしまうことを防ぐことができるので、より正確に瞳の中心位置を検出することができる。   Further, when applying the center position detection device of the present invention to the detection of the center position of the pupil, a collating means is provided, and the difference between the center positions of the eyes of both eyes on the same face is within a predetermined range. The center position of other circles such as eyelids in the vicinity of the eyes is determined as the center of the pupil by determining whether the center position of the detected pupil is correct. Since it can prevent detecting as a position, the center position of a pupil can be detected more correctly.

以下、図面を参照して、本発明の実施形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の円中心位置検出方法および装置並びにそのためのプログラムの第1の実施形態となる瞳中心位置検出装置の実施形態を示すブロック図である。図示のように、本実施形態の瞳中心位置検出装置は、入力された写真画像S0に顔部分が含まれているか否かを識別すると共に、顔部分が含まれていない場合には写真画像S0をそのまま後述する出力部50に出力する一方、顔部分が含まれている場合にはさらに左目と右目を検出し、両目の位置および両目間の距離Dを含む情報Qを後述するトリミング部10および照合部40に出力する検出部1と、検出部1からの情報Qに基づいて、写真画像S0をトリミングして左目と右目とを夫々含むトリミング画像S1a、S1b(以下、区別して説明する必要がない場合には、両方を指す意味でS1という)を得るトリミング部10と、トリミング画像S1に対してグレー変換を行い、トリミング画像S1のグレースケール画像S2(S2a,S2b)を得るグレー変換部12と、グレースケール画像S2に対して前処理を行って前処理済み画像S3(S3a,S3b)を得る前処理部14と、前処理済み画像S3を2値化するための閾値Tを算出する2値化閾値算出部18を有し、該2値化閾値算出部18により得られた閾値Tを用いて前処理済み画像S3を2値化処理して2値画像S4(S4a,S4b)を得る2値化部20と、2値画像S4の各画素の座標を円環のハフ空間に投票し、投票された各投票位置の投票値を得ると共に、同じ円心座標を有する投票位置の統合投票値W(Wa,Wb)を算出する投票部35と、投票部35により得られた各統合投票値のうちの最も大きい統合投票値が対応する円心座標を中心位置候補G(Ga,Gb)とすると共に、後述する照合部40から次の中心位置候補を探すように指示されたとき、次の中心位置候補を求める中心位置候補取得部35と、中心位置候補取得部35により取得した中心位置候補は照合基準に満たしているか否かを判別し、照合基準に満たしていればこの中心位置候補を瞳の中心位置として後述する微調整部45に出力する一方、照合基準に満たしていなければ中心位置候補取得部35に中心位置候補を取得し直すことをさせると共に、中心位置候補取得部35により取得された中心位置候補が照合基準を満たすようになるまで中心位置候補取得部35に中心位置候補の取得し直しを繰り返させる照合部40と、照合部40から出力されてきた瞳の中心位置G(Ga,Gb)に対して微調整を行い、最終中心位置G’(G’a,G’b)を出力部50に出力する微調整部45と、検出部1から出力されてきた写真画像S0(顔部分が含まれない写真画像)および微調整部45からの中心位置Gを出力する出力部50とを有してなるものである。   FIG. 1 is a block diagram showing an embodiment of a pupil center position detection apparatus as a first embodiment of a circle center position detection method and apparatus and a program therefor according to the present invention. As shown in the figure, the pupil center position detection apparatus of the present embodiment identifies whether or not a face part is included in the input photographic image S0, and if the face part is not included, the photographic image S0 is identified. Is output to the output unit 50 to be described later, and when the face portion is included, the left eye and the right eye are further detected, and information Q including the position of both eyes and the distance D between the eyes is trimmed by the trimming unit 10 and Based on the detection unit 1 output to the collation unit 40 and the information Q from the detection unit 1, trimming the photographic image S0 and trimming images S1a and S1b including the left eye and the right eye respectively (hereinafter, need to be described separately) If not, the trimming unit 10 that obtains both of them is referred to as S1, and the trimmed image S1 is subjected to gray conversion, and the grayscale image S2 (S2a, 2b), the pre-processing unit 14 that pre-processes the grayscale image S2 to obtain the pre-processed image S3 (S3a, S3b), and binarizes the pre-processed image S3. A binarized threshold value calculating unit 18 for calculating a threshold value T for the binarized image, and binarizing the preprocessed image S3 using the threshold value T obtained by the binarized threshold value calculating unit 18 The binarization unit 20 that obtains S4 (S4a, S4b) and the coordinates of each pixel of the binary image S4 are voted on the Hough space of the ring to obtain the vote value of each voted position and the same circle center A voting unit 35 that calculates an integrated voting value W (Wa, Wb) of a voting position having coordinates, and the center integrated coordinate corresponding to the largest integrated voting value among the integrated voting values obtained by the voting unit 35 The position candidate G (Ga, Gb) and a collation unit to be described later When instructed to search for the next center position candidate from 0, the center position candidate acquisition unit 35 for obtaining the next center position candidate, and whether the center position candidate acquired by the center position candidate acquisition unit 35 satisfies the collation criteria If the collation criterion is satisfied, the center position candidate is output to the fine adjustment unit 45 described later as the center position of the pupil. If the collation criterion is not satisfied, the center position candidate acquisition unit 35 receives the center position. Collation that causes a candidate to be reacquired and causes the center position candidate acquisition unit 35 to repeat reacquisition of the center position candidate until the center position candidate acquired by the center position candidate acquisition unit 35 satisfies the verification criteria Fine adjustment is performed on the center position G (Ga, Gb) of the pupil output from the unit 40 and the collation unit 40, and the final center position G ′ (G′a, G′b) is output to the output unit 50. A fine adjustment unit 45 to be applied, and a photographic image S0 (a photographic image that does not include a face part) output from the detection unit 1 and an output unit 50 that outputs the center position G from the fine adjustment unit 45. It will be.

以下、図1に示す瞳中心位置検出装置の各構成の詳細について説明する。   Details of each component of the pupil center position detection device shown in FIG. 1 will be described below.

まず、検出部1の詳細について説明する。   First, details of the detection unit 1 will be described.

図2は、検出部1の詳細構成を示すブロック図である。図示のように、検出部1は、写真画像S0から特徴量C0を算出する特徴量算出部2と、後述する第1および第2の参照データE1,E2が格納されている記憶部4と、特徴量算出部2が算出した特徴量C0と記憶部4内の第1の参照データE1とに基づいて、写真画像S0に人物の顔が含まれているか否かを識別する第1の識別部5と、第1の識別部5により写真画像S0に顔が含まれていると識別された場合に、特徴量算出部2が算出した顔の画像内の特徴量C0と記憶部4内の第2の参照データE2とに基づいて、その顔に含まれる目の位置を識別する第2の識別部6と、並びに第1の出力部7とを備えてなる。   FIG. 2 is a block diagram illustrating a detailed configuration of the detection unit 1. As shown in the figure, the detection unit 1 includes a feature amount calculation unit 2 that calculates a feature amount C0 from a photographic image S0, a storage unit 4 that stores first and second reference data E1 and E2 described later, A first identification unit for identifying whether or not a photographic image S0 includes a human face based on the feature amount C0 calculated by the feature amount calculation unit 2 and the first reference data E1 in the storage unit 4. 5 and when the first identification unit 5 identifies that the face is included in the photographic image S0, the feature amount C0 in the face image calculated by the feature amount calculation unit 2 and the first in the storage unit 4 On the basis of the second reference data E2, a second identification unit 6 for identifying the position of an eye included in the face and a first output unit 7 are provided.

なお、検出部1により識別される目の位置とは、顔における目尻から目頭の間の中心位置(図3中×で示す)であり、図3(a)に示すように真正面を向いた目の場合においては瞳の中心位置と同様であるが、図3(b)に示すように右を向いた目の場合は瞳の中心位置ではなく、瞳の中心から外れた位置または白目部分に位置する。   The eye position identified by the detection unit 1 is the center position (indicated by x in FIG. 3) between the corners of the eyes and the eyes on the face, and the eyes facing directly in front as shown in FIG. In this case, the position is the same as the center position of the pupil. However, as shown in FIG. 3B, in the case of the eyes facing right, not the center position of the pupil but the position deviated from the center of the pupil or the white eye portion. To do.

特徴量算出部2は、顔の識別に用いる特徴量C0を写真画像S0から算出する。また、写真画像S0に顔が含まれると識別された場合には、後述するように抽出された顔の画像から同様の特徴量C0を算出する。具体的には、勾配ベクトル(すなわち写真画像S0上および顔画像上の各画素における濃度が変化する方向および変化の大きさ)を特徴量C0として算出する。以下、勾配ベクトルの算出について説明する。まず、特徴量算出部2は、写真画像S0に対して図4(a)に示す水平方向のエッジ検出フィルタによるフィルタリング処理を施して写真画像S0における水平方向のエッジを検出する。また、特徴量算出部2は、写真画像S0に対して図4(b)に示す垂直方向のエッジ検出フィルタによるフィルタリング処理を施して写真画像S0における垂直方向のエッジを検出する。そして、写真画像S0上の各画素における水平方向のエッジの大きさHおよび垂直方向のエッジの大きさVとから、図5に示すように、各画素における勾配ベクトルKを算出する。また、顔画像についても同様に勾配ベクトルKを算出する。なお、特徴量算出部2は、後述するように写真画像S0および顔画像の変形の各段階において特徴量C0を算出する。   The feature amount calculation unit 2 calculates a feature amount C0 used for face identification from the photograph image S0. When it is identified that the photograph image S0 includes a face, a similar feature amount C0 is calculated from the extracted face image as described later. Specifically, the gradient vector (that is, the direction in which the density of each pixel on the photographic image S0 and the face image changes and the magnitude of the change) is calculated as the feature amount C0. Hereinafter, calculation of the gradient vector will be described. First, the feature amount calculation unit 2 performs a filtering process on the photographic image S0 using a horizontal edge detection filter shown in FIG. 4A to detect a horizontal edge in the photographic image S0. Further, the feature amount calculation unit 2 performs a filtering process on the photographic image S0 by a vertical edge detection filter shown in FIG. 4B to detect a vertical edge in the photographic image S0. Then, a gradient vector K at each pixel is calculated from the horizontal edge size H and vertical edge size V at each pixel on the photographic image S0, as shown in FIG. Similarly, the gradient vector K is calculated for the face image. Note that the feature amount calculation unit 2 calculates a feature amount C0 at each stage of deformation of the photographic image S0 and the face image, as will be described later.

なお、このようにして算出された勾配ベクトルKは、図6(a)に示すような人物の顔の場合、図6(b)に示すように、目および口のように暗い部分においては目および口の中央を向き、鼻のように明るい部分においては鼻の位置から外側を向くものとなる。また、口よりも目の方が濃度の変化が大きいため、勾配ベクトルKは口よりも目の方が大きくなる。   Note that the gradient vector K calculated in this way is an eye in a dark portion such as the eyes and mouth as shown in FIG. 6B in the case of a human face as shown in FIG. It faces the center of the mouth and faces outward from the position of the nose in a bright part like the nose. Further, since the change in density is larger in the eyes than in the mouth, the gradient vector K is larger in the eyes than in the mouth.

そして、この勾配ベクトルKの方向および大きさを特徴量C0とする。なお、勾配ベクトルKの方向は、勾配ベクトルKの所定方向(例えば図5におけるx方向)を基準とした0から359度の値となる。   The direction and magnitude of the gradient vector K are defined as a feature amount C0. The direction of the gradient vector K is a value from 0 to 359 degrees with reference to a predetermined direction of the gradient vector K (for example, the x direction in FIG. 5).

ここで、勾配ベクトルKの大きさは正規化される。この正規化は、写真画像S0の全画素における勾配ベクトルKの大きさのヒストグラムを求め、その大きさの分布が写真画像S0の各画素が取り得る値(8ビットであれば0〜255)に均一に分布されるようにヒストグラムを平滑化して勾配ベクトルKの大きさを修正することにより行う。例えば、勾配ベクトルKの大きさが小さく、図7(a)に示すように勾配ベクトルKの大きさが小さい側に偏ってヒストグラムが分布している場合には、大きさが0〜255の全領域に亘るものとなるように勾配ベクトルKの大きさを正規化して図7(b)に示すようにヒストグラムが分布するようにする。なお、演算量を低減するために、図7(c)に示すように、勾配ベクトルKのヒストグラムにおける分布範囲を例えば5分割し、5分割された頻度分布が図7(d)に示すように0〜255の値を5分割した範囲に亘るものとなるように正規化することが好ましい。   Here, the magnitude of the gradient vector K is normalized. This normalization obtains a histogram of the magnitude of the gradient vector K in all the pixels of the photographic image S0, and the distribution of the magnitudes is a value that each pixel of the photographic image S0 can take (0 to 255 if 8 bits). The histogram is smoothed so as to be uniformly distributed, and the magnitude of the gradient vector K is corrected. For example, when the gradient vector K is small and the histogram is distributed with the gradient vector K biased toward the small side as shown in FIG. The magnitude of the gradient vector K is normalized so that it extends over the region so that the histogram is distributed as shown in FIG. In order to reduce the amount of computation, as shown in FIG. 7C, the distribution range in the histogram of the gradient vector K is divided into, for example, five, and the frequency distribution divided into five is shown in FIG. 7D. It is preferable to normalize so that the value of 0 to 255 is in a range divided into five.

記憶部4内に格納されている第1および第2の参照データE1,E2は、後述するサンプル画像から選択された複数画素の組み合わせからなる複数種類の画素群のそれぞれについて、各画素群を構成する各画素における特徴量C0の組み合わせに対する識別条件を規定したものである。   The first and second reference data E1 and E2 stored in the storage unit 4 constitute each pixel group for each of a plurality of types of pixel groups composed of a combination of a plurality of pixels selected from a sample image to be described later. The identification condition for the combination of the feature amount C0 in each pixel is defined.

第1および第2の参照データE1,E2中の、各画素群を構成する各画素における特徴量C0の組み合わせおよび識別条件は、顔であることが分かっている複数のサンプル画像と顔でないことが分かっている複数のサンプル画像とからなるサンプル画像群の学習により、あらかじめ決められたものである。   In the first and second reference data E1 and E2, the combination and identification condition of the feature amount C0 in each pixel constituting each pixel group may not be a plurality of sample images and faces that are known to be faces. This is determined in advance by learning a sample image group including a plurality of known sample images.

なお、本実施形態においては、第1の参照データE1を生成する際には、顔であることが分かっているサンプル画像として、30×30画素サイズを有し、図8に示すように、1つの顔の画像について両目の中心間の距離が10画素、9画素および11画素であり、両目の中心間距離において垂直に立った顔を平面上±15度の範囲において3度単位で段階的に回転させた(すなわち、回転角度が−15度,−12度,−9度,−6度,−3度,0度,3度,6度,9度,12度,15度)サンプル画像を用いるものとする。したがって、1つの顔の画像につきサンプル画像は3×11=33通り用意される。なお、図8においては−15度、0度および+15度に回転させたサンプル画像のみを示す。また、回転の中心はサンプル画像の対角線の交点である。ここで、両目の中心間の距離が10画素のサンプル画像であれば、目の中心位置はすべて同一となっている。この目の中心位置をサンプル画像の左上隅を原点とする座標上において(x1,y1)、(x2,y2)とする。また、図面上上下方向における目の位置(すなわちy1,y2)はすべてのサンプル画像において同一である。   In the present embodiment, when the first reference data E1 is generated, the sample image known to be a face has a 30 × 30 pixel size, and as shown in FIG. The distance between the centers of both eyes in the image of one face is 10 pixels, 9 pixels, and 11 pixels, and a face standing vertically at the distance between the centers of both eyes is stepped in units of 3 degrees within a range of ± 15 degrees on the plane. Sample images that have been rotated (that is, the rotation angles are −15 degrees, −12 degrees, −9 degrees, −6 degrees, −3 degrees, 0 degrees, 3 degrees, 6 degrees, 9 degrees, 12 degrees, and 15 degrees). Shall be used. Therefore, 3 × 11 = 33 sample images are prepared for one face image. In FIG. 8, only sample images rotated at −15 degrees, 0 degrees, and +15 degrees are shown. The center of rotation is the intersection of the diagonal lines of the sample image. Here, if the distance between the centers of both eyes is a 10-pixel sample image, the center positions of the eyes are all the same. The center position of this eye is set to (x1, y1) and (x2, y2) on the coordinates with the upper left corner of the sample image as the origin. In addition, the eye positions in the vertical direction in the drawing (ie, y1, y2) are the same in all sample images.

また、第2の参照データE2を生成する際には、顔であることが分かっているサンプル画像として、30×30画素サイズを有し、図9に示すように、1つの顔の画像について両目の中心間の距離が10画素、9.7画素および10.3画素であり、各両目の中心間距離において垂直に立った顔を平面上±3度の範囲において1度単位で段階的に回転させた(すなわち、回転角度が−3度,−2度,−1度,0度,1度,2度,3度)サンプル画像を用いるものとする。したがって、1つの顔の画像につきサンプル画像は3×7=21通り用意される。なお、図9においては−3度、0度および+3度に回転させたサンプル画像のみを示す。また、回転の中心はサンプル画像の対角線の交点である。ここで、図面上上下方向における目の位置はすべてのサンプル画像において同一である。なお、両目の中心間の距離を9.7画素および10.3画素とするためには、両目の中心間の距離が10画素のサンプル画像を9.7倍あるいは10.3倍に拡大縮小して、拡大縮小後のサンプル画像のサイズを30×30画素とすればよい。   Further, when the second reference data E2 is generated, the sample image known to be a face has a 30 × 30 pixel size, and as shown in FIG. The distance between the centers is 10 pixels, 9.7 pixels, and 10.3 pixels, and the face standing vertically at the distance between the centers of each eye is rotated step by step in a range of ± 3 degrees on the plane. It is assumed that the sample image (that is, the rotation angle is −3 degrees, −2 degrees, −1 degrees, 0 degrees, 1 degree, 2 degrees, 3 degrees) is used. Therefore, 3 × 7 = 21 sample images are prepared for one face image. Note that FIG. 9 shows only sample images rotated to −3 degrees, 0 degrees, and +3 degrees. The center of rotation is the intersection of the diagonal lines of the sample image. Here, the positions of the eyes in the vertical direction in the drawing are the same in all the sample images. In order to set the distance between the centers of both eyes to 9.7 pixels and 10.3 pixels, the sample image whose distance between the centers of both eyes is 10 pixels is enlarged or reduced to 9.7 times or 10.3 times. Thus, the size of the sample image after enlargement / reduction may be set to 30 × 30 pixels.

そして、第2の参照データE2の学習に用いられるサンプル画像における目の中心位置を、本実施形態において識別する目の位置とする。   Then, the center position of the eye in the sample image used for learning the second reference data E2 is set as the eye position to be identified in the present embodiment.

また、顔でないことが分かっているサンプル画像としては、30×30画素サイズを有する任意の画像を用いるものとする。   As a sample image that is known not to be a face, an arbitrary image having a 30 × 30 pixel size is used.

ここで、顔であることが分かっているサンプル画像として、両目の中心間距離が10画素であり、平面上の回転角度が0度(すなわち顔が垂直な状態)のもののみを用いて学習を行った場合、第1および第2の参照データE1,E2を参照して顔または目の位置であると識別されるのは、両目の中心間距離が10画素で全く回転していない顔のみである。写真画像S0に含まれる可能性がある顔のサイズは一定ではないため、顔が含まれるか否かあるいは目の位置を識別する際には、後述するように写真画像S0を拡大縮小して、サンプル画像のサイズに適合するサイズの顔および目の位置を識別できるようにしている。しかしながら、両目の中心間距離を正確に10画素とするためには、写真画像S0のサイズを拡大率として例えば1.1単位で段階的に拡大縮小しつつ識別を行う必要があるため、演算量が膨大なものとなる。   Here, as a sample image that is known to be a face, learning is performed using only a center image whose distance between the centers of both eyes is 10 pixels and the rotation angle on the plane is 0 degree (that is, the face is vertical). When performed, the face or eye position is identified with reference to the first and second reference data E1 and E2 only for a face that is not rotated at all with a center-to-center distance of both eyes of 10 pixels. is there. Since the size of the face that may be included in the photographic image S0 is not constant, when identifying whether or not a face is included or the position of the eyes, the photographic image S0 is enlarged or reduced as described later. The position of the face and eyes that match the size of the sample image can be identified. However, in order to accurately set the distance between the centers of both eyes to 10 pixels, the size of the photographic image S0 needs to be identified while being enlarged or reduced in steps of, for example, 1.1 units as an enlargement ratio. Will be enormous.

また、写真画像S0に含まれる可能性がある顔は、図10(a)に示すように平面上の回転角度が0度のみではなく、図10(b)、(c)に示すように回転している場合もある。しかしながら、両目の中心間距離が10画素であり、顔の回転角度が0度のサンプル画像のみを使用して学習を行った場合、顔であるにも拘わらず、図10(b)、(c)に示すように回転した顔については識別を行うことができなくなってしまう。   Further, the face that may be included in the photographic image S0 is not only rotated at 0 degree on the plane as shown in FIG. 10A, but also rotated as shown in FIGS. 10B and 10C. Sometimes it is. However, when learning is performed using only a sample image in which the distance between the centers of both eyes is 10 pixels and the rotation angle of the face is 0 degrees, FIGS. As shown in (), the rotated face cannot be identified.

このため、本実施形態においては、顔であることが分かっているサンプル画像として、図8に示すように両目の中心間距離が9,10,11画素であり、各距離において平面上±15度の範囲にて3度単位で段階的に顔を回転させたサンプル画像を用いて、第1の参照データE1の学習に許容度を持たせるようにしたものである。これにより、後述する第1の識別部5において識別を行う際には、写真画像S0を拡大率として11/9単位で段階的に拡大縮小すればよいため、写真画像S0のサイズを例えば拡大率として例えば1.1単位で段階的に拡大縮小する場合と比較して、演算時間を低減できる。また、図10(b)、(c)に示すように回転している顔も識別することができる。   Therefore, in this embodiment, as a sample image known to be a face, the distance between the centers of both eyes is 9, 10, 11 pixels as shown in FIG. 8, and ± 15 degrees on the plane at each distance. In this range, a sample image obtained by rotating the face step by step in increments of 3 degrees is used to allow the learning of the first reference data E1. As a result, when the identification is performed in the first identification unit 5 described later, the size of the photographic image S0 can be set to, for example, the enlargement ratio because the photographic image S0 can be enlarged or reduced in steps of 11/9. For example, the calculation time can be reduced as compared with a case where the enlargement / reduction is performed in units of 1.1. Further, as shown in FIGS. 10B and 10C, a rotating face can also be identified.

一方、第2の参照データE2の学習には、図9に示すように両目の中心間距離が9.7,10,10.3画素であり、各距離において平面上±3度の範囲にて1度単位で段階的に顔を回転させたサンプル画像を用いているため、第1の参照データE1と比較して学習の許容度は小さい。また、後述する第2の識別部6において識別を行う際には、写真画像S0を拡大率として10.3/9.7単位で拡大縮小する必要があるため、第1の識別部5において行われる識別よりも演算に長時間を要する。しかしながら、第2の識別部6において識別を行うのは第1の識別部5が識別した顔内の画像のみであるため、写真画像S0の全体を用いる場合と比較して目の位置の識別を行うための演算量を低減することができる。   On the other hand, in learning of the second reference data E2, as shown in FIG. 9, the distance between the centers of both eyes is 9.7, 10, 10.3 pixels, and each distance is within a range of ± 3 degrees on the plane. Since the sample image obtained by rotating the face step by step in units of 1 degree is used, the learning tolerance is smaller than that of the first reference data E1. Further, when the identification is performed by the second identification unit 6 to be described later, the photographic image S0 needs to be enlarged / reduced in units of 10.3 / 9.7 as an enlargement ratio. It takes a longer time to calculate than the identification. However, since only the image in the face identified by the first identification unit 5 is identified by the second identification unit 6, the eye position is identified as compared with the case where the entire photographic image S0 is used. The amount of calculation for performing can be reduced.

以下、図11のフローチャートを参照しながらサンプル画像群の学習手法の一例を説明する。なお、ここでは第1の参照データE1の学習について説明する。   Hereinafter, an example of a learning method for the sample image group will be described with reference to the flowchart of FIG. Here, learning of the first reference data E1 will be described.

学習の対象となるサンプル画像群は、顔であることが分かっている複数のサンプル画像と、顔でないことが分かっている複数のサンプル画像とからなる。なお、顔であることが分かっているサンプル画像は、上述したように1つのサンプル画像につき両目の中心位置が9,10,11画素であり、各距離において平面上±15度の範囲にて3度単位で段階的に顔を回転させたものを用いる。各サンプル画像には、重みすなわち重要度が割り当てられる。まず、すべてのサンプル画像の重みの初期値が等しく1に設定される(S1)。   The group of sample images to be learned includes a plurality of sample images that are known to be faces and a plurality of sample images that are known not to be faces. As described above, the sample image that is known to be a face has 9, 10, 11 pixels in the center position of both eyes for one sample image, and is 3 in a range of ± 15 degrees on the plane at each distance. Use a face rotated stepwise in degrees. Each sample image is assigned a weight or importance. First, the initial value of the weight of all sample images is set equal to 1 (S1).

次に、サンプル画像における複数種類の画素群のそれぞれについて識別器が作成される(S2)。ここで、それぞれの識別器とは、1つの画素群を構成する各画素における特徴量C0の組み合わせを用いて、顔の画像と顔でない画像とを識別する基準を提供するものである。本実施形態においては、1つの画素群を構成する各画素における特徴量C0の組み合わせについてのヒストグラムを識別器として使用する。   Next, a discriminator is created for each of a plurality of types of pixel groups in the sample image (S2). Here, each discriminator provides a reference for discriminating between a face image and a non-face image by using a combination of feature amounts C0 in each pixel constituting one pixel group. In the present embodiment, a histogram for a combination of feature amounts C0 in each pixel constituting one pixel group is used as a discriminator.

図12を参照しながらある識別器の作成について説明する。図12の左側のサンプル画像に示すように、この識別器を作成するための画素群を構成する各画素は、顔であることが分かっている複数のサンプル画像上における、右目の中心にある画素P1、右側の頬の部分にある画素P2、額の部分にある画素P3および左側の頬の部分にある画素P4である。そして顔であることが分かっているすべてのサンプル画像について全画素P1〜P4における特徴量C0の組み合わせが求められ、そのヒストグラムが作成される。ここで、特徴量C0は勾配ベクトルKの方向および大きさを表すが、勾配ベクトルKの方向は0〜359の360通り、勾配ベクトルKの大きさは0〜255の256通りあるため、これをそのまま用いたのでは、組み合わせの数は1画素につき360×256通りの4画素分、すなわち(360×256)4通りとなってしまい、学習および検出のために多大なサンプルの数、時間およびメモリを要することとなる。このため、本実施形態においては、勾配ベクトルの方向を0〜359を0〜44と315〜359(右方向、値:0),45〜134(上方向値:1),135〜224(左方向、値:2),225〜314(下方向、値3)に4値化し、勾配ベクトルの大きさを3値化(値:0〜2)する。そして、以下の式を用いて組み合わせの値を算出する。 The creation of a classifier will be described with reference to FIG. As shown in the sample image on the left side of FIG. 12, each pixel constituting the pixel group for creating the discriminator is a pixel at the center of the right eye on a plurality of sample images that are known to be faces. P1, a pixel P2 on the right cheek, a pixel P3 on the forehead, and a pixel P4 on the left cheek. Then, combinations of feature amounts C0 in all the pixels P1 to P4 are obtained for all sample images that are known to be faces, and a histogram thereof is created. Here, the feature amount C0 represents the direction and magnitude of the gradient vector K. Since the gradient vector K has 360 directions from 0 to 359 and the gradient vector K has 256 sizes from 0 to 255, If used as they are, the number of combinations is 360 × 256 four pixels per pixel, that is, (360 × 256) four , and the number of samples, time and memory for learning and detection are large. Will be required. For this reason, in this embodiment, the gradient vector directions are 0 to 359, 0 to 44, 315 to 359 (right direction, value: 0), 45 to 134 (upward value: 1), and 135 to 224 (left). Direction, value: 2), 225-314 (downward, value 3), and quaternarization, and the gradient vector magnitude is ternarized (value: 0-2). And the value of a combination is computed using the following formula | equation.

組み合わせの値=0(勾配ベクトルの大きさ=0の場合)
組み合わせの値=((勾配ベクトルの方向+1)×勾配ベクトルの大きさ(勾配ベクトルの大きさ>0の場合)
これにより、組み合わせ数が94通りとなるため、特徴量C0のデータ数を低減できる。
Combination value = 0 (when gradient vector size = 0)
Combination value = ((gradient vector direction + 1) × gradient vector magnitude (gradient vector magnitude> 0)
Thus, since the number of combinations is nine patterns 4, it can reduce the number of data of the characteristic amounts C0.

同様に、顔でないことが分かっている複数のサンプル画像についても、ヒストグラムが作成される。なお、顔でないことが分かっているサンプル画像については、顔であることが分かっているサンプル画像上における上記画素P1〜P4の位置に対応する画素が用いられる。これらの2つのヒストグラムが示す頻度値の比の対数値を取ってヒストグラムで表したものが、図12の一番右側に示す、識別器として用いられるヒストグラムである。この識別器のヒストグラムが示す各縦軸の値を、以下、識別ポイントと称する。この識別器によれば、正の識別ポイントに対応する特徴量C0の分布を示す画像は顔である可能性が高く、識別ポイントの絶対値が大きいほどその可能性は高まると言える。逆に、負の識別ポイントに対応する特徴量C0の分布を示す画像は顔でない可能性が高く、やはり識別ポイントの絶対値が大きいほどその可能性は高まる。ステップS2では、識別に使用され得る複数種類の画素群を構成する各画素における特徴量C0の組み合わせについて、上記のヒストグラム形式の複数の識別器が作成される。   Similarly, histograms are created for a plurality of sample images that are known not to be faces. For the sample image that is known not to be a face, pixels corresponding to the positions of the pixels P1 to P4 on the sample image that is known to be a face are used. The histogram used as the discriminator shown on the right side of FIG. 12 is a histogram obtained by taking logarithmic values of the ratios of the frequency values indicated by these two histograms. The value of each vertical axis indicated by the histogram of the discriminator is hereinafter referred to as an identification point. According to this classifier, an image showing the distribution of the feature quantity C0 corresponding to the positive identification point is highly likely to be a face, and it can be said that the possibility increases as the absolute value of the identification point increases. Conversely, an image showing the distribution of the feature quantity C0 corresponding to the negative identification point is highly likely not to be a face, and the possibility increases as the absolute value of the identification point increases. In step S <b> 2, a plurality of classifiers in the above-described histogram format are created for combinations of feature amounts C <b> 0 in the respective pixels constituting a plurality of types of pixel groups that can be used for identification.

続いて、ステップS2で作成した複数の識別器のうち、画像が顔であるか否かを識別するのに最も有効な識別器が選択される。最も有効な識別器の選択は、各サンプル画像の重みを考慮して行われる。この例では、各識別器の重み付き正答率が比較され、最も高い重み付き正答率を示す識別器が選択される(S3)。すなわち、最初のステップS3では、各サンプル画像の重みは等しく1であるので、単純にその識別器によって画像が顔であるか否かが正しく識別されるサンプル画像の数が最も多いものが、最も有効な識別器として選択される。一方、後述するステップS5において各サンプル画像の重みが更新された後の2回目のステップS3では、重みが1のサンプル画像、重みが1よりも大きいサンプル画像、および重みが1よりも小さいサンプル画像が混在しており、重みが1よりも大きいサンプル画像は、正答率の評価において、重みが1のサンプル画像よりも重みが大きい分多くカウントされる。これにより、2回目以降のステップS3では、重みが小さいサンプル画像よりも、重みが大きいサンプル画像が正しく識別されることに、より重点が置かれる。   Subsequently, the most effective classifier for identifying whether or not the image is a face is selected from the plurality of classifiers created in step S2. The most effective classifier is selected in consideration of the weight of each sample image. In this example, the weighted correct answer rate of each classifier is compared, and the classifier showing the highest weighted correct answer rate is selected (S3). That is, in the first step S3, since the weight of each sample image is equal to 1, the number of sample images in which the image is correctly identified by the classifier is simply the largest. Selected as a valid discriminator. On the other hand, in the second step S3 after the weight of each sample image is updated in step S5, which will be described later, a sample image with a weight of 1, a sample image with a weight greater than 1, and a sample image with a weight less than 1 The sample images having a weight greater than 1 are counted more in the evaluation of the correct answer rate because the weight is larger than the sample images having a weight of 1. Thereby, in step S3 after the second time, more emphasis is placed on correctly identifying a sample image having a large weight than a sample image having a small weight.

次に、それまでに選択した識別器の組み合わせの正答率、すなわち、それまでに選択した識別器を組み合わせて使用して各サンプル画像が顔の画像であるか否かを識別した結果が、実際に顔の画像であるか否かの答えと一致する率が、所定の閾値を超えたか否かが確かめられる(S4)。ここで、組み合わせの正答率の評価に用いられるのは、現在の重みが付けられたサンプル画像群でも、重みが等しくされたサンプル画像群でもよい。所定の閾値を超えた場合は、それまでに選択した識別器を用いれば画像が顔であるか否かを十分に高い確率で識別できるため、学習は終了する。所定の閾値以下である場合は、それまでに選択した識別器と組み合わせて用いるための追加の識別器を選択するために、ステップS6へと進む。   Next, the correct answer rate of the classifiers selected so far, that is, the result of identifying whether each sample image is a face image using a combination of the classifiers selected so far, is actually It is ascertained whether or not the rate that matches the answer indicating whether the image is a face image exceeds a predetermined threshold (S4). Here, the sample image group to which the current weight is applied or the sample image group to which the weight is equal may be used for evaluating the correct answer rate of the combination. When the predetermined threshold value is exceeded, learning can be completed because it is possible to identify whether the image is a face with a sufficiently high probability by using the classifier selected so far. If it is less than or equal to the predetermined threshold, the process advances to step S6 to select an additional classifier to be used in combination with the classifier selected so far.

ステップS6では、直近のステップS3で選択された識別器が再び選択されないようにするため、その識別器が除外される。   In step S6, the discriminator selected in the most recent step S3 is excluded so as not to be selected again.

次に、直近のステップS3で選択された識別器では顔であるか否かを正しく識別できなかったサンプル画像の重みが大きくされ、画像が顔であるか否かを正しく識別できたサンプル画像の重みが小さくされる(S5)。このように重みを大小させる理由は、次の識別器の選択において、既に選択された識別器では正しく識別できなかった画像を重要視し、それらの画像が顔であるか否かを正しく識別できる識別器が選択されるようにして、識別器の組み合わせの効果を高めるためである。   Next, the weight of the sample image that could not be correctly identified as a face by the classifier selected in the most recent step S3 is increased, and the sample image that can be correctly identified as whether or not the image is a face is increased. The weight is reduced (S5). The reason for increasing or decreasing the weight in this way is that in selecting the next discriminator, an image that cannot be discriminated correctly by the already selected discriminator is regarded as important, and whether or not those images are faces can be discriminated correctly. This is to increase the effect of the combination of the discriminators by selecting the discriminators.

続いて、ステップS3へと戻り、上記したように重み付き正答率を基準にして次に有効な識別器が選択される。   Subsequently, the process returns to step S3, and the next valid classifier is selected based on the weighted correct answer rate as described above.

以上のステップS3からS6を繰り返して、顔が含まれるか否かを識別するのに適した識別器として、特定の画素群を構成する各画素における特徴量C0の組み合わせに対応する識別器が選択されたところで、ステップS4で確認される正答率が閾値を超えたとすると、顔が含まれるか否かの識別に用いる識別器の種類と識別条件とが確定され(S7)、これにより第1の参照データE1の学習を終了する。   By repeating the above steps S3 to S6, the classifier corresponding to the combination of the feature amount C0 in each pixel constituting the specific pixel group is selected as a classifier suitable for identifying whether or not a face is included. If the correct answer rate confirmed in step S4 exceeds the threshold value, the type of the discriminator used for discriminating whether or not a face is included and the discriminating condition are determined (S7). The learning of the reference data E1 is finished.

そして、上記と同様に識別器の種類と識別条件とを求めることにより第2の参照データE2の学習がなされる。   Then, the second reference data E2 is learned by obtaining the classifier type and identification conditions in the same manner as described above.

なお、上記の学習手法を採用する場合において、識別器は、特定の画素群を構成する各画素における特徴量C0の組み合わせを用いて顔の画像と顔でない画像とを識別する基準を提供するものであれば、上記のヒストグラムの形式のものに限られずいかなるものであってもよく、例えば2値データ、閾値または関数等であってもよい。また、同じヒストグラムの形式であっても、図12の中央に示した2つのヒストグラムの差分値の分布を示すヒストグラム等を用いてもよい。   In the case of adopting the above learning method, the discriminator provides a reference for discriminating between a face image and a non-face image using a combination of feature amounts C0 in each pixel constituting a specific pixel group. As long as it is not limited to the above histogram format, it may be anything, for example, binary data, a threshold value, a function, or the like. Further, even in the same histogram format, a histogram or the like indicating the distribution of difference values between the two histograms shown in the center of FIG. 12 may be used.

また、学習の方法としては上記手法に限定されるものではなく、ニューラルネットワーク等他のマシンラーニングの手法を用いることができる。   Further, the learning method is not limited to the above method, and other machine learning methods such as a neural network can be used.

第1の識別部5は、複数種類の画素群を構成する各画素における特徴量C0の組み合わせのすべてについて第1の参照データE1が学習した識別条件を参照して、各々の画素群を構成する各画素における特徴量C0の組み合わせについての識別ポイントを求め、すべての識別ポイントを総合して写真画像S0に顔が含まれるか否かを識別する。この際、特徴量C0である勾配ベクトルKの方向は4値化され大きさは5値化される。本実施形態では、すべての識別ポイントを加算して、その加算値の正負によって識別を行うものとする。例えば、識別ポイントの総和が正の値である場合には写真画像S0には顔が含まれると判断し、負の値である場合には顔は含まれないと判断する。なお、第1の識別部5が行う写真画像S0に顔が含まれるか否かの識別を第1の識別と称する。   The first identification unit 5 configures each pixel group with reference to the identification conditions learned by the first reference data E1 for all combinations of the feature amounts C0 in the respective pixels constituting the plurality of types of pixel groups. An identification point for the combination of the feature amount C0 in each pixel is obtained, and all the identification points are combined to identify whether or not a face is included in the photographic image S0. At this time, the direction of the gradient vector K, which is the feature amount C0, is quaternized and the magnitude is quinary. In the present embodiment, all the identification points are added, and identification is performed based on the positive / negative of the added value. For example, when the sum of the identification points is a positive value, it is determined that the photograph image S0 includes a face, and when the sum is negative, it is determined that no face is included. The identification performed by the first identification unit 5 as to whether or not a face is included in the photographic image S0 is referred to as a first identification.

ここで、写真画像S0のサイズは30×30画素のサンプル画像とは異なり、各種サイズを有するものとなっている。また、顔が含まれる場合、平面上における顔の回転角度が0度であるとは限らない。このため、第1の識別部5は、図13に示すように、写真画像S0を縦または横のサイズが30画素となるまで段階的に拡大縮小するとともに平面上で段階的に360度回転させつつ(図13においては縮小する状態を示す)、各段階において拡大縮小された写真画像S0上に30×30画素サイズのマスクMを設定し、マスクMを拡大縮小された写真画像S0上において1画素ずつ移動させながら、マスク内の画像が顔の画像であるか否かの識別を行うことにより、写真画像S0に顔が含まれるか否かを識別する。   Here, the size of the photographic image S0 is different from the sample image of 30 × 30 pixels and has various sizes. When a face is included, the rotation angle of the face on the plane is not always 0 degrees. For this reason, as shown in FIG. 13, the first identification unit 5 scales the photographic image S0 stepwise until the vertical or horizontal size becomes 30 pixels and rotates it 360 degrees stepwise on the plane. However, a mask M having a size of 30 × 30 pixels is set on the photographic image S0 enlarged and reduced at each stage, and the mask M is set to 1 on the enlarged photographic image S0. While moving pixel by pixel, it is identified whether the image in the mask is a face image, thereby identifying whether the face is included in the photographic image S0.

なお、第1参照データE1の生成時に学習したサンプル画像として両目の中心位置の画素数が9,10,11画素のものを使用しているため、写真画像S0の拡大縮小時の拡大率は11/9とすればよい。また、第1および第2の参照データE1,E2の生成時に学習したサンプル画像として、顔が平面上で±15度の範囲において回転させたものを使用しているため、写真画像S0は30度単位で360度回転させればよい。   Since the sample image learned at the time of generating the first reference data E1 has 9, 10, and 11 pixels at the center position of both eyes, the enlargement ratio at the time of enlargement / reduction of the photographic image S0 is 11 / 9. In addition, since the sample image learned at the time of generating the first and second reference data E1 and E2 is a sample image whose face is rotated in a range of ± 15 degrees on a plane, the photographic image S0 is 30 degrees. What is necessary is just to rotate 360 degree | times in a unit.

なお、特徴量算出部2は、写真画像S0の拡大縮小および回転という変形の各段階において特徴量C0を算出する。   Note that the feature amount calculation unit 2 calculates a feature amount C0 at each stage of deformation of enlargement / reduction and rotation of the photographic image S0.

そして、写真画像S0に顔が含まれるか否かの識別を拡大縮小および回転の全段階の写真画像S0について行い、一度でも顔が含まれると識別された場合には、写真画像S0には顔が含まれると識別し、顔が含まれると識別された段階におけるサイズおよび回転角度の写真画像S0から、識別されたマスクMの位置に対応する30×30画素の領域を顔の画像として抽出する。   Then, whether or not a face is included in the photographic image S0 is identified for the photographic image S0 at all stages of enlargement / reduction and rotation. If it is identified that the face is included even once, the photographic image S0 includes a face. And a 30 × 30 pixel region corresponding to the position of the identified mask M is extracted as a face image from the photographic image S0 of the size and rotation angle at the stage where the face is identified. .

第2の識別部6は、第1の識別部5が抽出した顔の画像上において、複数種類の画素群を構成する各画素における特徴量C0の組み合わせのすべてについて第2の参照データE2が学習した識別条件を参照して、各々の画素群を構成する各画素における特徴量C0の組み合わせについての識別ポイントを求め、すべての識別ポイントを総合して顔に含まれる目の位置を識別する。この際、特徴量C0である勾配ベクトルKの方向は4値化され大きさは5値化される。   The second identification unit 6 learns the second reference data E2 for all the combinations of the feature amounts C0 in the respective pixels constituting the plurality of types of pixel groups on the face image extracted by the first identification unit 5. With reference to the identification conditions, the identification points for the combination of the feature amounts C0 in the respective pixels constituting each pixel group are obtained, and the positions of the eyes included in the face are identified by combining all the identification points. At this time, the direction of the gradient vector K, which is the feature amount C0, is quaternized and the magnitude is quinary.

ここで、第2の識別部6は、第1の識別部5が抽出した顔画像のサイズを段階的に拡大縮小するとともに平面上で段階的に360度回転させつつ、各段階において拡大縮小された顔画像上に30×30画素サイズのマスクMを設定し、マスクMを拡大縮小された顔上において1画素ずつ移動させながら、マスク内の画像における目の位置の識別を行う。   Here, the second discriminating unit 6 enlarges / reduces the size of the face image extracted by the first discriminating unit 5 stepwise and is enlarged / reduced at each step while rotating stepwise 360 degrees on the plane. A mask M having a 30 × 30 pixel size is set on the face image, and the eye position in the image in the mask is identified while moving the mask M pixel by pixel on the enlarged / reduced face.

なお、第2参照データE2の生成時に学習したサンプル画像として両目の中心位置の画素数が9.07,10,10.3画素のものを使用しているため、顔画像の拡大縮小時の拡大率は10.3/9.7とすればよい。また、第2の参照データE2の生成時に学習したサンプル画像として、顔が平面上で±3度の範囲において回転させたものを使用しているため、顔画像は6度単位で360度回転させればよい。   Since the sample image learned at the time of generating the second reference data E2 has the number of pixels at the center position of both eyes of 9.07, 10, and 10.3 pixels, enlargement when the face image is enlarged or reduced The rate may be 10.3 / 9.7. Further, as the sample image learned at the time of generating the second reference data E2, a face image rotated in a range of ± 3 degrees on the plane is used, so the face image is rotated 360 degrees in units of 6 degrees. Just do it.

なお、特徴量算出部2は、顔画像の拡大縮小および回転という変形の各段階において特徴量C0を算出する。   Note that the feature amount calculation unit 2 calculates the feature amount C0 at each stage of deformation such as enlargement / reduction and rotation of the face image.

そして、本実施形態では、抽出された顔画像の変形の全段階においてすべての識別ポイントを加算し、加算値が最も大きい変形の段階における30×30画素のマスクM内の顔画像において、左上隅を原点とする座標を設定し、サンプル画像における目の位置の座標(x1,y1)、(x2,y2)に対応する位置を求め、変形前の写真画像S0におけるこの位置に対応する位置を目の位置と識別する。   In this embodiment, all the identification points are added at all stages of deformation of the extracted face image, and the upper left corner of the face image in the mask M of 30 × 30 pixels at the stage of deformation having the largest added value is obtained. The coordinates corresponding to the coordinates (x1, y1) and (x2, y2) of the eye position in the sample image are obtained, and the position corresponding to this position in the photographic image S0 before deformation is set as the coordinate. Identify the location.

第1の出力部7は、第1の識別部5が写真画像S0に顔が含まれないと識別した場合には、写真画像S0をそのまま出力部50に出力する一方、第1の識別部5が写真画像S0に顔が含まれると認識した場合には、第2の識別部6が識別した両目の位置から両目間の距離Dを求め、両目の位置および両目間の距離Dを情報Qとしてトリミング部10および照合部40に出力する。   When the first identification unit 5 identifies that the photographic image S0 does not include a face, the first output unit 7 outputs the photographic image S0 as it is to the output unit 50, while the first identification unit 5 Recognizes that a face is included in the photographic image S0, the distance D between both eyes is obtained from the position of both eyes identified by the second identification unit 6, and the position D of both eyes and the distance D between both eyes are used as information Q. The data is output to the trimming unit 10 and the collation unit 40.

図14は本実施形態における検出部1の動作を示すフローチャートである。写真画像S0に対して、まず、特徴量算出部2が写真画像S0の拡大縮小および回転の各段階において、写真画像S0の勾配ベクトルKの方向および大きさを特徴量C0として算出する(S12)。そして、第1の識別部5が記憶部4から第1の参照データE1を読み出し(S13)、写真画像S0に顔が含まれるか否かの第1の識別を行う(S14)。   FIG. 14 is a flowchart showing the operation of the detection unit 1 in this embodiment. For the photographic image S0, first, the feature amount calculation unit 2 calculates the direction and size of the gradient vector K of the photographic image S0 as the feature amount C0 at each stage of enlargement / reduction and rotation of the photographic image S0 (S12). . Then, the first identification unit 5 reads the first reference data E1 from the storage unit 4 (S13), and performs first identification as to whether or not a face is included in the photographic image S0 (S14).

第1の識別部5は、写真画像S0に顔が含まれると判別する(S14:Yes)と、写真画像S0から顔を抽出する(S15)。ここでは、1つの顔に限らず複数の顔を抽出してもよい。次いで、特徴量算出部2が顔画像の拡大縮小および回転の各段階において、顔画像の勾配ベクトルKの方向および大きさを特徴量C0として算出する(S16)。そして、第2の識別部6が記憶部4から第2の参照データE2を読み出し(S17)、顔に含まれる目の位置を識別する第2の識別を行う(S18)。   When determining that the face is included in the photographic image S0 (S14: Yes), the first identification unit 5 extracts the face from the photographic image S0 (S15). Here, not only one face but a plurality of faces may be extracted. Next, the feature amount calculation unit 2 calculates the direction and size of the gradient vector K of the face image as the feature amount C0 at each stage of enlargement / reduction and rotation of the face image (S16). Then, the second identification unit 6 reads the second reference data E2 from the storage unit 4 (S17), and performs second identification for identifying the position of the eyes included in the face (S18).

続いて、第1の出力部7が写真画像S0から識別された目の位置および、この目の位置に基づいて求められた両目間の距離Dを情報Qとしてトリミング部10および照合部40に出力する(S19)。   Subsequently, the first output unit 7 outputs the eye position identified from the photographic image S0 and the distance D between both eyes obtained based on the eye position as information Q to the trimming unit 10 and the collation unit 40. (S19).

一方、ステップS14において、写真画像S0に顔が含まれていないと判別される(S14:No)と、第1の出力部7は、写真画像S0をそのまま出力部50に出力する(S19)。 On the other hand, if it is determined in step S14 that no face is included in the photographic image S0 (S14: No), the first output unit 7 outputs the photographic image S0 as it is to the output unit 50 (S19).

トリミング部10は、検出部1から出力されてきた情報Qに基づいて、左目のみと右目のみとを夫々含む所定の範囲を切り出してトリミング画像S1aとS1bを得るものである。ここで、トリミングする際の所定の範囲とは、夫々の目の近傍を外枠にした範囲であり、例えば、図15に示す斜線範囲のように、検出部1より識別した目の位置(目の中心点)を中心とした、図示X方向とY方向の長さが夫々Dと0.5Dである長方形の範囲とすることができる。なお、図示斜線範囲は、図中の左目のトリミングの範囲であるが、右目についても同様である。   The trimming unit 10 cuts out a predetermined range including only the left eye and only the right eye based on the information Q output from the detection unit 1 to obtain trimmed images S1a and S1b. Here, the predetermined range at the time of trimming is a range in which the vicinity of each eye is an outer frame. For example, the eye position (eye) identified by the detection unit 1 as shown by the hatched range in FIG. Centered around the center point), the lengths in the X direction and the Y direction in the figure are D and 0.5D, respectively. The hatched area shown in the figure is the trimming range of the left eye in the figure, but the same applies to the right eye.

グレー変換部12は、トリミング部10により得られたトリミング画像S1に対して下記の式(2)に従ってグレー変換処理を行ってグレースケール画像S2を得る。   The gray conversion unit 12 performs a gray conversion process on the trimmed image S1 obtained by the trimming unit 10 according to the following equation (2) to obtain a grayscale image S2.


Y=0.299×R+0.587×G+0.114×B (2)
但し、Y:輝度値
R,G,B:R、G、B値

前処理部14は、グレースケール画像S2に対して前処理を行うものであり、ここでは、前処理として、平滑化処理と穴埋め処理が行われる。また、平滑化処理は、例えばカウシアンフィルタを適用することによって行われ、穴埋め処理は、補間処理とすることができる。

Y = 0.299 × R + 0.587 × G + 0.114 × B (2)
Y: Luminance value
R, G, B: R, G, B values

The preprocessing unit 14 performs preprocessing on the grayscale image S2, and here, smoothing processing and hole filling processing are performed as preprocessing. The smoothing process is performed by applying, for example, a Kaussian filter, and the hole filling process can be an interpolation process.

図3に示すように、写真画像における瞳の部分において、中心より上が部分的に明るくなる傾向があるため、穴埋め処理を行ってこの部分のデータを補間することにより瞳の中心位置の検出精度を向上させることができる。   As shown in FIG. 3, in the pupil portion of the photographic image, there is a tendency that the portion above the center is partially brightened. Therefore, the detection accuracy of the center position of the pupil is obtained by performing hole filling processing and interpolating the data of this portion. Can be improved.

2値化部20は、2値化閾値算出部18を有し、該2値化閾値算出部18により算出した閾値Tを用いて、前処理部14により得られた前処理済み画像S3を2値化して2値画像S4を得るものである。2値化閾値算出部18は、具体的には前処理済み画像S3に対して、図16に示す輝度のヒストグラムを作成し、前処理済み画像S3の全画素数の数分の1(図示では1/5となる20%)に相当する出現頻度に対応する輝度値を2値化用の閾値Tとして求める。2値化部20は、この閾値Tを用いて前処理済み画像S3を2値化して2値画像S4を得る。   The binarization unit 20 includes a binarization threshold value calculation unit 18, and uses the threshold value T calculated by the binarization threshold value calculation unit 18 to store the preprocessed image S <b> 3 obtained by the preprocessing unit 14. The binary image S4 is obtained by digitization. Specifically, the binarization threshold value calculation unit 18 creates a luminance histogram shown in FIG. 16 for the preprocessed image S3, and is a fraction of the total number of pixels in the preprocessed image S3 (in the drawing, The luminance value corresponding to the appearance frequency corresponding to 1/5 (20%) is obtained as the threshold T for binarization. The binarization unit 20 binarizes the preprocessed image S3 using this threshold T to obtain a binary image S4.

投票部30は、まず、2値化画像S4における各画素(画素値が1となる画素)の座標を円環のハフ空間(円中心点X座標,円中心点Y座標,半径r)に投票して、各投票位置の投票値を算出する。通常、1つの投票位置がある画素により投票されると、1回投票されたとして投票値に1が加算されるようにして各投票位置の投票値を求めるようにしているが、ここでは、1つの投票位置がある画素に投票されると、投票値に1を加算するのではなく、投票した画素の輝度値を参照して、輝度値が小さいほど、大きい重みを付けて加算するようにして各投票位置の投票値を求める。図17は、図1に示す実施形態の瞳中心位置検出装置における投票部30に使用された重付け係数のテーブルを示している。なお、図中Tは、2値化閾値算出部18により算出された2値化用の閾値Tである。   The voting unit 30 first votes the coordinates of each pixel (pixel having a pixel value of 1) in the binarized image S4 to the annular Hough space (circle center point X coordinate, circle center point Y coordinate, radius r). Then, the voting value at each voting position is calculated. Normally, when one vote position is voted by a pixel, the vote value at each vote position is obtained by adding 1 to the vote value as if it was voted once. When one vote is voted for a certain pixel, instead of adding 1 to the vote value, the brightness value of the voted pixel is referred to, and the smaller the brightness value, the higher the weight is added. The voting value at each voting position is obtained. FIG. 17 shows a table of weighting coefficients used in the voting unit 30 in the pupil center position detection apparatus of the embodiment shown in FIG. Note that T in the figure is a binarization threshold T calculated by the binarization threshold calculation unit 18.

投票部30は、このようにして各投票位置の投票値を求めた後、これらの投票位置のうち、円環中心点座標値、即ち円環ハフ空間(X,Y,r)における(X,Y)座標値が同じである投票位置同士の投票値を加算して各々の(X,Y)座標値に対応する統合投票値Wを得て、相対応する(X,Y)座標値と対応付けて中心位置候補取得部35に出力する。   After the voting unit 30 obtains the voting value of each voting position in this way, among these voting positions, the coordinate value of the center point of the ring, that is, (X, Y, r) in the ring Hough space (X, Y, r). Y) The vote values of the vote positions having the same coordinate value are added to obtain an integrated vote value W corresponding to each (X, Y) coordinate value, and corresponding to the corresponding (X, Y) coordinate value Then, the data is output to the center position candidate acquisition unit 35.

中心位置候補取得部35は、まず、投票部30からの各々の統合投票値から、最も大きい統合投票値に対応する(X,Y)座標値を、瞳の中心位置候補Gとして取得して、照合部40に出力する。ここで、中心位置候補取得部35により取得された中心位置候補Gは、左瞳の中心位置Gaと右瞳の中心位置Gbとの2つであり、照合部40は、検出部1により出力された両目間の距離Dに基づいて、2つの中心位置Ga、Gbの照合を行う。   The center position candidate acquisition unit 35 first acquires (X, Y) coordinate values corresponding to the largest integrated vote value as the center position candidate G of the pupil from each integrated vote value from the voting unit 30. Output to the verification unit 40. Here, the center position candidate G acquired by the center position candidate acquisition unit 35 is two, that is, the center position Ga of the left pupil and the center position Gb of the right pupil, and the collation unit 40 is output by the detection unit 1. Based on the distance D between the eyes, the two center positions Ga and Gb are collated.

具体的には、照合部40は、次の2つの照合基準に基づいて照合を行う。   Specifically, the collation unit 40 performs collation based on the following two collation criteria.

1. 左瞳の中心位置と右瞳の中心位置とのY座標値の差が(D/50)以下。 1. The difference in Y coordinate value between the center position of the left pupil and the center position of the right pupil is (D / 50) or less.

2. 左瞳の中心位置と右瞳の中心位置とのX座標値の差が(0.8×D〜1.2×D)の範囲内。 2. The X coordinate value difference between the center position of the left pupil and the center position of the right pupil is within the range of (0.8 × D to 1.2 × D).


照合部40は、中心位置候補取得部35からの2つの瞳の中心位置候補Ga、Gbが上記2つの照合基準を満たしているか否かを判別し、2つの基準とも満たしていれば(以下照合基準を満たしているという)、瞳の中心位置候補Ga、Gbを瞳の中心位置として微調整部45に出力する。一方、2つの基準または2つの基準のうちの1つを満たしていなければ(以下照合基準を満たしていないという)、中心位置候補取得部35に次の中心位置候補を取得するように指示すると共に、中心位置候補取得部35により取得された次の中心位置候補に対して上述した照合、照合基準を満たしている場合の中心位置出力、照合基準を満たしていない場合の中心位置候補を再取得する指示などの処理を、照合基準を満たすようになるまで繰り返す。

The collation unit 40 determines whether or not the two pupil center position candidates Ga and Gb from the center position candidate acquisition unit 35 satisfy the above two collation criteria. The pupil center position candidates Ga and Gb are output to the fine adjustment unit 45 as the pupil center position. On the other hand, if one of the two criteria or one of the two criteria is not satisfied (hereinafter referred to as not satisfying the collation criteria), the center position candidate acquisition unit 35 is instructed to acquire the next center position candidate. , For the next center position candidate acquired by the center position candidate acquisition unit 35, the above-described collation, the center position output when the collation criteria are satisfied, and the center position candidate when the collation criteria are not met are reacquired. Processing such as instructions is repeated until the verification criteria are satisfied.

片方、中心位置候補取得部35は、照合部40から次の中心位置候補の取得が指示されると、まず、片方(ここでは、左瞳)の中心位置を固定して、もう片方(ここでは右瞳)の各々の統合投票値Wbから、下記の3つの条件に合う投票位置の(X,Y)座標値を次の中心位置候補として取得する。   When the acquisition of the next center position candidate is instructed from the collation unit 40, one of the center position candidate acquisition units 35 first fixes the center position of one side (here, the left pupil) and the other side (here, the left center position). The (X, Y) coordinate value of the voting position satisfying the following three conditions is acquired as the next center position candidate from each integrated voting value Wb of (right pupil).


1.最後に照合部40に出力した中心位置候補の(X、Y)座標値により示される位置とD/30以上(D:両目間の距離)離れている。

1. Finally, it is separated from the position indicated by the (X, Y) coordinate value of the center position candidate output to the collating unit 40 by D / 30 or more (D: distance between both eyes).

2.相対応する統合投票値が、条件1を満たす(X,Y)座標値に対応する統合投票値のうち、最後に照合部40に出力した中心位置候補の(X,Y)座標値に対応する統合投票値の次に大きい。 2. The corresponding integrated voting value corresponds to the (X, Y) coordinate value of the center position candidate that is finally output to the collation unit 40 among the integrated voting values corresponding to the (X, Y) coordinate value satisfying the condition 1. Next to the integrated vote value.

3.相対応する統合投票値が、1回目に照合部40に出力した中心位置候補の(X,Y)座標値に対応する統合投票値(最も大きい統合投票値)の10パーセント以上である。 3. The corresponding integrated voting value is 10% or more of the integrated voting value (the largest integrated voting value) corresponding to the (X, Y) coordinate value of the center position candidate output to the collation unit 40 for the first time.


中心位置候補取得部35は、まず、左瞳の中心位置を固定して、右瞳に対して求められた統合投票値Wbに基づいて上記3つの条件を満たす右瞳の中心位置候補を探すが、上記3つの条件を満たす候補を見つからない場合には、右瞳の中心位置を固定して、左瞳に対して求められた統合投票値Waに基づいて上記の3つの条件を満たす左瞳の中心位置を探す。

The center position candidate acquisition unit 35 first fixes the center position of the left pupil and searches for a center position candidate of the right pupil that satisfies the above three conditions based on the integrated vote value Wb obtained for the right pupil. If no candidate satisfying the above three conditions is found, the center position of the right pupil is fixed, and the left pupil satisfying the above three conditions is determined based on the integrated vote value Wa obtained for the left pupil. Find the center position.

微調整部45は、照合部40から出力してきた瞳の中心位置G(照合基準を満たしている中心位置候補)に対して微調整を行うものである。まず、左瞳の中心位置の微調整を説明する。微調整部45は、2値化部20により得られた左目のトリミング画像S1aの2値画像S4aに対して、サイズが9×9で、オール1のマスクを用いてマスク演算を3回繰り返し、このマスク演算の結果により得られた最大結果値を有する画素の位置(Gmとする)に基づいて、照合部40から出力してきた左瞳の中心位置Gaに対して微調整を行う。具体的には、例えば、位置Gmと中心位置Gaとの平均を取って得た平均位置を瞳の最終中心位置G’aとするようにしてもよいし、中心位置Gaの方に重みを付けて平均演算して得た平均位置を瞳の最終中心位置G’aとするようにしてもよい。ここでは、中心位置Gaの方に重みを付けて平均演算することにする。   The fine adjustment unit 45 performs fine adjustment on the pupil center position G output from the collation unit 40 (center position candidate satisfying the collation criteria). First, fine adjustment of the center position of the left pupil will be described. The fine adjustment unit 45 repeats the mask calculation three times using a mask of size 9 × 9 and all 1 for the binary image S4a of the left-eye trimmed image S1a obtained by the binarization unit 20, Based on the position (Gm) of the pixel having the maximum result value obtained as a result of this mask calculation, fine adjustment is performed on the center position Ga of the left pupil output from the matching unit 40. Specifically, for example, the average position obtained by taking the average of the position Gm and the center position Ga may be set as the final center position G′a of the pupil, or the center position Ga is weighted. The average position obtained by the average calculation may be used as the final center position G′a of the pupil. Here, an average calculation is performed with weights applied to the center position Ga.

また、右瞳の中心位置の微調整は、右目のトリミング画像S1bの2値画像S4bを用いて上記と同じように行われる。   Further, the fine adjustment of the center position of the right pupil is performed in the same manner as described above using the binary image S4b of the trimmed image S1b of the right eye.

微調整部45は、このようにして、照合部40から出力してきた瞳の中心位置Ga、Gbに対して微調整を行って得た最終中心位置G’a、G’bを出力部50に出力する。   In this way, the fine adjustment unit 45 provides the output unit 50 with final center positions G′a and G′b obtained by performing fine adjustment on the pupil center positions Ga and Gb output from the collation unit 40. Output.

出力部50は、検出部1からの写真画像S0(顔が含まれていない写真画像)に「顔が含まれていない」旨の識別情報を付けて記録媒体に出力して記録させる一方、微調整部45からの中心位置G’とこの中心位置G’に対応する写真画像S0とを対応付けて記録媒体に出力して記録させる。   The output unit 50 attaches identification information “no face included” to the photographic image S0 (photo image that does not include a face) from the detection unit 1 and outputs and records it on a recording medium. The center position G ′ from the adjustment unit 45 and the photographic image S0 corresponding to the center position G ′ are output in association with the recording medium and recorded.

図18は、図1に示す実施形態の瞳中心位置検出装置の処理を示すフローチャートである。図示のように、写真画像S0は、まず検出部1において顔が含まれているか否かの判別がされる(S110)。判別の結果、写真画像S0に顔が含まれていなければ(S115:No)、写真画像S0は検出部1から出力部50に出力される一方、写真画像S0に顔が含まれていれば(S115:Yes)、さらに、検出部1において写真画像S0における目の位置が検出され、両目の位置および両目間の距離Dが情報Qとしてトリミング部10に出力される(S120)。トリミング部10において、写真画像S0がトリミングされ、左目のみを含むトリミング画像S1aと右目のみを含むトリミング画像S1bが得られる(S125)。トリミング画像S1は、グレー変換部12によりグレー変換されてグレースケール画像S2となる(S130)。グレースケール画像S2は、前処理部14により平滑化処理と穴埋め処理を施され、さらに2値化部20により2値化処理されて2値画像S4となる(S135、S140)。投票部30において、2値画像S4の各画素の座標は円環のハフ空間に投票され、その結果、各々の円中心点を示す(X,Y)座標値に対応する統合投票値Wが得られる(S145)。中心位置候補取得部35は、まず、最も大きい統合投票値に対応する(X,Y)座標値を瞳の中心位置候補Gとして照合部40に出力する(S150)。照合部40は、前述した照合基準に基づいて中心位置候補取得部35からの2つの中心位置候補Ga、Gbに対して照合を行い(S115)、2つの中心位置候補Ga、Gbが照合基準を満たしていれば(S160:Yes)、この2つの中心位置候補Ga、Gbを中心位置として微調整部45に出力する一方、2つの中心位置候補Ga、Gbが照合基準を満たしていなければ(S160:No)、中心位置候補取得部35に次の中心位置候補を探すように指示する(S150)。ステップS150からステップS160までの処理が、照合部40により、中心位置候補取得部35からの中心位置候補Gが照合基準を満たすと判別されるまで繰り返される。   FIG. 18 is a flowchart showing processing of the pupil center position detection apparatus of the embodiment shown in FIG. As shown in the figure, the photographic image S0 is first discriminated whether or not a face is included in the detection unit 1 (S110). As a result of the determination, if the photographic image S0 does not include a face (S115: No), the photographic image S0 is output from the detection unit 1 to the output unit 50, while if the photographic image S0 includes a face ( Further, the position of the eyes in the photographic image S0 is detected by the detection unit 1, and the position of both eyes and the distance D between the eyes are output as information Q to the trimming unit 10 (S120). In the trimming unit 10, the photographic image S0 is trimmed to obtain a trimmed image S1a including only the left eye and a trimmed image S1b including only the right eye (S125). The trimmed image S1 is gray-converted by the gray converter 12 to become a grayscale image S2 (S130). The grayscale image S2 is subjected to smoothing processing and hole filling processing by the preprocessing unit 14, and further binarized by the binarizing unit 20 to become a binary image S4 (S135, S140). In the voting unit 30, the coordinates of each pixel of the binary image S4 are voted on the Hough space of the ring, and as a result, an integrated vote value W corresponding to the (X, Y) coordinate value indicating each circle center point is obtained. (S145). The center position candidate acquisition unit 35 first outputs the (X, Y) coordinate value corresponding to the largest integrated vote value to the collation unit 40 as the pupil center position candidate G (S150). The collation unit 40 collates the two center position candidates Ga and Gb from the center position candidate acquisition unit 35 based on the collation reference described above (S115), and the two center position candidates Ga and Gb use the collation reference. If the two are satisfied (S160: Yes), the two center position candidates Ga and Gb are output to the fine adjustment unit 45 as the center position, while the two center position candidates Ga and Gb do not satisfy the collation criteria (S160). : No), the center position candidate acquisition unit 35 is instructed to search for the next center position candidate (S150). The processing from step S150 to step S160 is repeated until the collation unit 40 determines that the center position candidate G from the center position candidate acquisition unit 35 satisfies the collation criteria.

微調整部45は、照合部40から出力された中心位置Gに対して微調整を行い、最終中心位置G’を得て出力部50に出力する(S165)。   The fine adjustment unit 45 performs fine adjustment on the center position G output from the collation unit 40, obtains the final center position G ', and outputs it to the output unit 50 (S165).

出力部50は、検出部1からの写真画像S0(S115:No)に「顔が含まれていない」旨の識別情報を付けて記録媒体に出力して記録させる一方、微調整部45からの中心位置G’とこの中心位置G’に対応する写真画像S0とを対応付けて記録媒体に出力して記録させる。   The output unit 50 attaches identification information “no face is included” to the photographic image S0 (S115: No) from the detection unit 1 and outputs and records it on a recording medium. The center position G ′ and the photographic image S0 corresponding to the center position G ′ are output in association with the recording medium and recorded.

このように、本実施形態の瞳中心検出装置によれば、円となる瞳を多数の同心円環の集合として捉え、トリミング画像S1の2値画像S4の全画素の座標を円環のハフ空間に投票し、投票された各投票位置のうち、同じ(円心のX座標値,円心のY座標値)を有する投票位置の投票値を加算して統合投票値得、最も大きい投票値に対応する(X,Y)座標値により示される位置を円中心の位置として検出するようにしているので、欠損のある円(例えば目瞑り写真画像中の瞳や、前髪が目に部分的にかかった写真画像中の瞳など)の中心位置も検出することができるハフ変換の長所を生かすと共に、エッジの画素のみを用いる従来の技術よりノイズの影響を受けにくく、正確に瞳の中心位置を検出することができる。   As described above, according to the pupil center detection apparatus of the present embodiment, the circle pupil is regarded as a set of a large number of concentric rings, and the coordinates of all the pixels of the binary image S4 of the trimmed image S1 are set in the Hough space of the ring. Vote, and add the vote value of the vote position that has the same (X coordinate value of the center of the circle, Y coordinate value of the center of the circle) among the voted vote positions, to obtain an integrated vote value, corresponding to the largest vote value Since the position indicated by the (X, Y) coordinate value is detected as the position of the center of the circle, a circle with a defect (for example, eyes in a meditation photo image or bangs partially covered the eyes) The center position of a pupil in a photographic image can be detected, and the center position of the pupil is accurately detected while being less susceptible to noise than conventional techniques using only edge pixels. be able to.

また、本実施形態の瞳中心位置検出装置は、瞳の中心に近いほど輝度が小さい特徴を利用して、各投票位置に対して、投票する画素の輝度が小さいほど重みが大きくなるように、各画素の投票回数を重み付け加算して得た値を当該投票位置の投票値としているので、より正確に瞳の中心位置を検出することができる。   Further, the pupil center position detection device of the present embodiment uses a feature that the luminance is smaller as it is closer to the center of the pupil, and for each voting position, the weight is increased as the luminance of the voting pixel is smaller. Since the value obtained by weighted addition of the number of votes of each pixel is used as the vote value of the vote position, the center position of the pupil can be detected more accurately.

さらに、本実施形態の瞳中心位置検出装置において、照合部40が設けられており、照合部40により同じ顔にある両目の瞳の中心位置の差が所定の範囲内であることを基準にして検出された瞳の中心位置が正しいか否かを判別し、瞳の位置が正しくなければ求め直すようにすることによって、目の近傍の痣などの他の円の中心位置を瞳の中心位置として検出してしまうことを防ぐことができるので、より正確に瞳の中心位置を検出することができる。   Furthermore, in the pupil center position detection apparatus of the present embodiment, a collation unit 40 is provided, and the collation unit 40 uses the difference between the center positions of the eyes of both eyes on the same face to be within a predetermined range. Determine whether the detected pupil center position is correct, and if it is not correct, recalculate it so that the center position of other circles such as eyelids near the eyes is the center position of the pupil. Since it can prevent detecting, the center position of a pupil can be detected more correctly.

さらに、目の近傍は肌色しかないことに着目して、目の近傍を外枠にしてトリミングして得たトリミング画像を瞳の検出に用いていることによって、高い検出率で瞳の中心位置を検出することができる。   Furthermore, paying attention to the fact that only the skin color is near the eyes, the center position of the pupil can be determined with a high detection rate by using a trimmed image obtained by trimming the vicinity of the eyes for the outer frame. Can be detected.

図19は、本発明の第2の実施形態となる瞳中心位置検出装置の構成を示すブロック図である。なお、本実施形態の瞳中心位置検出装置は、後述する投票部30’が、図1に示す第1の実施形態の瞳中心位置検出装置の投票部30と異なる点を除いて、他の全ての構成が図1に示す瞳中心位置検出装置の相対応する構成と同様であるので、図19において、図1に示す実施形態の瞳中心位置検出装置の相対応する構成と同様な構成については同じ符号を付与すると共に、投票部30’の動作についてのみ説明する。   FIG. 19 is a block diagram showing a configuration of a pupil center position detection apparatus according to the second embodiment of the present invention. Note that the pupil center position detection device of the present embodiment is all other than that the voting unit 30 ′ described later is different from the voting unit 30 of the pupil center position detection device of the first embodiment shown in FIG. Is the same as the corresponding configuration of the pupil center position detecting device shown in FIG. 1, and therefore, in FIG. 19, the same configuration as the corresponding configuration of the pupil center position detecting device of the embodiment shown in FIG. The same reference numerals are given, and only the operation of the voting unit 30 ′ will be described.

図19に示す本発明の第2の実施形態の瞳中心位置検出装置における投票部30’は、まず、2値化画像S4における各画素(画素値が1となる画素)の座標を円環のハフ空間(円中心点X座標,円中心点Y座標,半径r)に投票して、各投票位置の投票値を算出する。通常、1つの投票位置がある画素により投票されると、1回投票されたとして投票値に1が加算されるようにして各投票位置の投票値を求めるようにしているが、ここでは、1つの投票位置がある画素に投票されると、投票値に1を加算するのではなく、投票した画素の輝度値を参照して、輝度値が小さいほど、大きい重みを付けて加算するようにして各投票位置の投票値を求める。ここで、投票部30’は、図17に示す重付け係数のテーブルを用いて投票値の重み付けを行って得た値を各投票位置の統合投票値Wとし、相対応する投票位置の(X,Y,r)座標値と対応付けて中心位置候補取得部35に出力する。   The voting unit 30 ′ in the pupil center position detection apparatus according to the second embodiment of the present invention shown in FIG. 19 first sets the coordinates of each pixel (pixel having a pixel value of 1) in the binarized image S4 as a ring. Vote on the Hough space (circle center point X coordinate, circle center point Y coordinate, radius r), and calculate the vote value of each vote position. Normally, when one vote position is voted by a pixel, the vote value at each vote position is obtained by adding 1 to the vote value as if it was voted once. When one vote is voted for a certain pixel, instead of adding 1 to the vote value, the brightness value of the voted pixel is referred to, and the smaller the brightness value, the higher the weight is added. The voting value at each voting position is obtained. Here, the voting unit 30 ′ uses the weighted voting value by using the weighting coefficient table shown in FIG. 17 as the integrated voting value W of each voting position, and (X , Y, r) are output to the center position candidate acquisition unit 35 in association with the coordinate values.

図19に示すような、投票部30’を備えた瞳中心位置検出装置は、図1に示す瞳中心位置検出装置と比べ、瞳の中心位置の検出精度が低いが、照合部40や、微調整部45などを備えているので、正確に瞳の中心位置を検出することができる。また、各投票位置の投票値そのものを統合投票値としているため、演算量が少なく、高速な処理を図ることができる。   The pupil center position detection device including the voting unit 30 ′ as shown in FIG. 19 has lower detection accuracy of the pupil center position than the pupil center position detection device shown in FIG. Since the adjustment unit 45 is provided, the center position of the pupil can be accurately detected. Further, since the vote value itself at each vote position is used as an integrated vote value, the amount of calculation is small and high-speed processing can be achieved.

以上、本発明の望ましい実施形態について説明したが、本発明の円中心位置検出方法および装置並びにそのためのプログラムは、本実施形態に限られることがなく、本発明の主旨から逸脱しない限り、種々の変更、増減を加えることができる。   The preferred embodiment of the present invention has been described above. However, the circle center position detecting method and apparatus of the present invention and the program therefor are not limited to the present embodiment, and various methods can be used without departing from the gist of the present invention. You can change and increase / decrease.

例えば、図1および図19に示す実施形態の瞳中心位置検出装置は、写真画像S0をトリミングして得た目近傍の画像(トリミング画像S1)をグレー変換してグレースケール画像S2を得、グレースケール画像S2に対して前処理部14からの処理を行って瞳中心位置を検出するようにしているが、グレー変換を施さずにトリミング画像S1に対して前処理部14からの処理を行って瞳中心位置を検出するするようにしてもよい。   For example, the pupil center position detection apparatus of the embodiment shown in FIGS. 1 and 19 obtains a grayscale image S2 by performing gray conversion on an image in the vicinity of the eyes (trimming image S1) obtained by trimming the photographic image S0. The scale image S2 is processed from the preprocessing unit 14 to detect the pupil center position, but the trimming image S1 is processed from the preprocessing unit 14 without performing gray conversion. The pupil center position may be detected.

また、図1および図9に示す実施形態の瞳中心位置検出装置は、処理の高速化およびメモリの節約を図るため、グレースケール画像S2を2値化してからハフ空間への投票を行うようにしているが、2値化せずに、直接グレースケール画像S2を用いてハフ空間への投票を行うようにしてもよい。   In addition, the pupil center position detection apparatus of the embodiment shown in FIGS. 1 and 9 performs voting to the Hough space after binarizing the grayscale image S2 in order to speed up the processing and save memory. However, the voting to the Hough space may be performed directly using the gray scale image S2 without binarization.

また、図1および図9に示す実施形態の瞳中心位置検出装置において、投票部30および投票部30’は、瞳は、中心に近いほど輝度が小さいことに着目し、画素の輝度が小さいほど重みが大きくなるように、各画素の投票回数を重み付け加算するようにし、検出の精度向上を図っている。さらに、瞳は、肌部分や、カラー眼鏡のフレーム部分や、色染めした髪の部分より有色度が低いことを利用し、例えば、図20(a)に示すように、画素の有色度が大きいほど重み(前述した輝度に応じた重みと異なる)が小さくなるように、各画素の投票回数を重み付け加算するようにしてもよい。こうすることによって、瞳以外の有色部分のノイズの影響を軽減することができ、検出の精度をより高めることができる。また、重みの付け方についても、図20(a)に示すような方法に限られるものではなく、例えば、図20(b)に示すような、画素の有色度に応じた加算値を、該画素の投票回数に加算するようにしてもよい。   Further, in the pupil center position detection apparatus of the embodiment shown in FIGS. 1 and 9, the voting unit 30 and the voting unit 30 ′ pay attention to the fact that the pupil is closer to the center, and the luminance is lower. In order to increase the weight, the number of votes of each pixel is weighted and added to improve detection accuracy. Furthermore, the pupil uses the fact that the chromaticity is lower than that of the skin portion, the frame portion of the color glasses, and the color-dyed hair portion. For example, as shown in FIG. The number of votes of each pixel may be weighted and added so that the weight (different from the weight according to the luminance described above) becomes smaller. By doing so, it is possible to reduce the influence of noise in the colored portion other than the pupil, and the detection accuracy can be further increased. Also, the weighting method is not limited to the method shown in FIG. 20A. For example, an addition value corresponding to the chromaticity of the pixel as shown in FIG. You may make it add to the number of votes of.

また、眼鏡フレームや髪のノイズを除去する工夫をさらに加えてもよい。例えば、投票されたハフ空間上の各投票位置(X,Y、r)の投票された回数をX−Y平面に対して投影してその分布を見ると、瞳の中心位置に対応する座標((X0,Y0)とする)点において、回数が明らかなピークになることに着目し、図21に示すような、回数のピーク部分が点にならず、連続的に延びる分布を有する場合、これらの部位を、眼鏡フレームや髪のノイズとして判定して、瞳の中心位置の候補から除外するようにすることができる。   Further, a device for removing spectacle frames and hair noise may be further added. For example, when the number of votes of each vote position (X, Y, r) on the voted Hough space is projected on the XY plane and the distribution is viewed, coordinates corresponding to the center position of the pupil ( Focusing on the fact that the number of times becomes a clear peak at the point (X0, Y0), and when the peak part of the number of times is not a point and has a continuously extending distribution as shown in FIG. This part can be determined as a spectacle frame or hair noise and excluded from the candidate for the center position of the pupil.

また、顔写真画像の場合、瞳は赤く写されることがある。本発明の円中心位置検出方法および装置は、赤く写された瞳(赤目)の中心位置を検出することにも適用することができる。さらに、カラーの顔写真画像をグレー変換せずに瞳の中心位置を検出すると共に、このカラーの顔写真画像をグレー変換してから瞳の中心位置を検出し、検出された2つの中心位置の差を比較することによって、顔写真画像中の瞳が赤目になっているか否かを判断することに適用してもよい。勿論、例えば、赤目になっていると判断した場合、赤目補正などの処理を施すようにしてもよい。   In the case of a face photo image, the pupil may be displayed in red. The circle center position detection method and apparatus of the present invention can also be applied to the detection of the center position of a pupil (red eye) displayed in red. Further, the center position of the pupil is detected without gray-converting the color face photo image, and the center position of the pupil is detected after gray-converting the color face photo image, and the two detected center positions are detected. You may apply to determining whether the pupil in a face photograph image has red eyes by comparing a difference. Of course, for example, when it is determined that the eye is red-eyed, processing such as red-eye correction may be performed.

また、図1に示す実施形態の瞳中心位置検出装置において、目の近傍を外枠にしてトリミングして得たトリミング画像には通常、瞳以外に円がないことと、照合部40による照合がされることから、投票部30は、各々の投票位置のうち、円環中心点座標値、即ち円環ハフ空間(X,Y,r)における(X,Y)座標値が同じである投票位置同士の投票値を加算して各々の(X,Y)座標値に対応する統合投票値を求める際に、加算される投票位置の半径rの範囲を限定していないが、例えば、検出しようとする円(ここでは瞳)の半径の範囲が分かっていれば、この半径の範囲内にある投票位置の投票値のみを加算して統合投票値を得るようにしてもよい。こうすることによって、この半径範囲外の半径を有する円の中心位置を、検出しようとする円の中心位置として誤検出することを防ぐことができる。本実施形態の瞳中心位置においては、例えば、両目間の距離Dに基づいて、瞳の半径範囲を規定して統合投票値を求めるようにすることができる。   In the pupil center position detection apparatus of the embodiment shown in FIG. 1, the trimming image obtained by trimming the vicinity of the eyes as the outer frame usually has no circle other than the pupil and the collation by the collation unit 40 is performed. Therefore, the voting unit 30 determines the voting position where the coordinate value of the center point of the ring, that is, the (X, Y) coordinate value in the ring Hough space (X, Y, r) is the same among the voting positions. When the integrated vote value corresponding to each (X, Y) coordinate value is calculated by adding the vote values of each other, the range of the radius r of the vote position to be added is not limited. If the radius range of the circle (here pupil) is known, only the vote values at the voting positions within the radius range may be added to obtain the integrated vote value. By doing so, it is possible to prevent erroneous detection of the center position of a circle having a radius outside this radius range as the center position of the circle to be detected. In the pupil center position of this embodiment, for example, based on the distance D between both eyes, the radius range of the pupil can be defined to obtain the integrated vote value.

また、図1および図19に示す実施形態の瞳中心位置検出装置において、検出部1により顔が含まれているか否かの検出を行っているが、証明写真など顔が含まれているデジタル写真画像のみを対象とする場合には、顔の検出を行わずに、直接目の位置を検出するようにしてもよい。   Further, in the pupil center position detection device of the embodiment shown in FIGS. 1 and 19, the detection unit 1 detects whether or not a face is included, but a digital photograph including a face such as an ID photo When only the image is targeted, the eye position may be directly detected without detecting the face.

また、顔の検出方法、目の位置の検出方法も、検出部1に用いられた方法に限られず、従来公知の方法を用いてもよい。   Further, the face detection method and the eye position detection method are not limited to the methods used in the detection unit 1, and a conventionally known method may be used.

また、自動検出せずに、操作者により目の近傍位置を指定し、指定された位置に基づいてトリミングするようにしてもよい。   In addition, instead of automatic detection, a position near the eye may be designated by the operator, and trimming may be performed based on the designated position.

また、図1および図19に示す実施形態の瞳中心位置検出装置は、検出された瞳の中心位置の精度を高めるために、微調整部45を設けて、検出された瞳の中心位置に対して微調整しているが、微調整は、必ずしも必要ではない。   The pupil center position detection apparatus of the embodiment shown in FIGS. 1 and 19 is provided with a fine adjustment unit 45 to increase the accuracy of the detected center position of the pupil, However, fine adjustment is not always necessary.

さらに、微調整を行う際にも、2値画像の代わりに前処理されたグレースケール画像に対してマスク演算を数回行って、その結果最大値を有する画素の位置を得、この位置に基づいて瞳の中心位置を微調整するようにしてもよい。なお、マスク演算する際のマスクも、本実施形態の瞳検出装置の微調整部45に用いられた9×9のサイズに限られることがなく、5×5などの他のサイズのマスクを用いてもよい。   In addition, when performing fine adjustment, the mask operation is performed several times on the preprocessed grayscale image instead of the binary image, and as a result, the position of the pixel having the maximum value is obtained. Then, the center position of the pupil may be finely adjusted. Note that the mask used for the mask calculation is not limited to the 9 × 9 size used in the fine adjustment unit 45 of the pupil detection device of the present embodiment, and other size masks such as 5 × 5 are used. May be.

また、検出された瞳の中心位置の出力方法も、本実施形態の瞳中心位置検出装置のように、写真画像と対応付けて記録媒体に記録することに限らず、瞳の中心位置に応じた画像処理を行う画像処理システムに出力したり、瞳の中心位置に基づいて顔の写真画像をトリミングする装置に出力したりするなど、瞳の中心位置を必要とする処理系に供するようにしてもよい。   Further, the output method of the detected center position of the pupil is not limited to being recorded on the recording medium in association with the photographic image as in the pupil center position detecting device of the present embodiment, but also according to the center position of the pupil. For example, it may be output to an image processing system that performs image processing or output to a device that trims a photographic image of a face based on the center position of the pupil. Good.

さらに、本発明は、瞳に限らず、いかなる円の中心位置の検出にも適用することができる。   Furthermore, the present invention is not limited to the pupil, and can be applied to detection of the center position of any circle.

本発明の第1の実施形態となる瞳中心位置検出装置の構成を示すブロック図The block diagram which shows the structure of the pupil center position detection apparatus used as the 1st Embodiment of this invention. 図1に示す瞳中心位置検出装置の検出部1の構成を示すブロック図The block diagram which shows the structure of the detection part 1 of the pupil center position detection apparatus shown in FIG. 目の中心位置を説明するための図Diagram for explaining the center position of eyes (a)は水平方向のエッジ検出フィルタを示す図、(b)は垂直方向のエッジ検出フィルタを示す図(A) is a diagram showing a horizontal edge detection filter, (b) is a diagram showing a vertical edge detection filter 勾配ベクトルの算出を説明するための図Diagram for explaining calculation of gradient vector (a)は人物の顔を示す図、(b)は(a)に示す人物の顔の目および口付近の勾配ベクトルを示す図(A) is a figure which shows a person's face, (b) is a figure which shows the gradient vector of eyes and mouth vicinity of the person's face shown to (a). (a)は正規化前の勾配ベクトルの大きさのヒストグラムを示す図、(b)は正規化後の勾配ベクトルの大きさのヒストグラムを示す図、(c)は5値化した勾配ベクトルの大きさのヒストグラムを示す図、(d)は正規化後の5値化した勾配ベクトルの大きさのヒストグラムを示す図(A) is a diagram showing a histogram of the magnitude of a gradient vector before normalization, (b) is a diagram showing a histogram of the magnitude of a gradient vector after normalization, and (c) is a magnitude of a gradient vector obtained by quinarization. The figure which shows the histogram of the length, (d) is a figure which shows the histogram of the magnitude | size of the quinary gradient vector after normalization 第1の参照データの学習に用いられる顔であることが分かっているサンプル画像の例を示す図The figure which shows the example of the sample image known to be a face used for learning of 1st reference data 第2の参照データの学習に用いられる顔であることが分かっているサンプル画像の例を示す図The figure which shows the example of the sample image known to be a face used for learning of 2nd reference data 顔の回転を説明するための図Illustration for explaining face rotation 参照データの学習手法を示すフローチャートFlow chart showing learning method of reference data 識別器の導出方法を示す図Diagram showing how to derive a classifier 識別対象画像の段階的な変形を説明するための図The figure for demonstrating the stepwise deformation | transformation of an identification object image 検出部1の処理を示すフローチャートThe flowchart which shows the process of the detection part 1. トリミング部10がトリミングする位置を説明するための図The figure for demonstrating the position which the trimming part 10 trims 2値化閾値の求め方を説明するための図The figure for demonstrating how to obtain | require a binarization threshold value 投票値の重み付けを説明するための図A diagram for explaining the weighting of voting values 図1に示す実施形態の瞳中心位置検出装置の処理を示すフローチャートThe flowchart which shows the process of the pupil center position detection apparatus of embodiment shown in FIG. 本発明の第2の実施形態となる瞳中心位置検出装置の構成を示すブロック図The block diagram which shows the structure of the pupil center position detection apparatus used as the 2nd Embodiment of this invention. 画素の有色度に応じた投票回数の加算方法を説明するための図The figure for demonstrating the addition method of the number of votes according to the chromaticity of a pixel 投票回数のX−Y平面に対する分布に基づいたノイズの判断を説明するための図The figure for demonstrating the judgment of the noise based on distribution with respect to XY plane of the number of votes

符号の説明Explanation of symbols

1 検出部
10 トリミング部
12 グレー変換部
14 前処理部
18 2値化閾値算出部
20 2値化部
30,30’ 投票部
35 中心位置候補取得部
40 照合部
45 微調整部
50 出力部
S0 写真画像
S1 トリミング画像
S2 グレースケール画像
S3 前処理済み画像
S4 2値画像
DESCRIPTION OF SYMBOLS 1 Detection part 10 Trimming part 12 Gray conversion part 14 Pre-processing part 18 Binarization threshold value calculation part 20 Binarization part 30,30 'Voting part 35 Center position candidate acquisition part 40 Collation part 45 Fine adjustment part 50 Output part S0 Photograph Image S1 Trimmed image S2 Grayscale image S3 Preprocessed image S4 Binary image

Claims (27)

写真画像から、該写真画像に含まれる円の中心位置を検出する円中心位置検出方法において、
該写真画像を構成する画素のうち0以外の値を有する各画素の座標を、円環のハフ空間(円中心点のX座標,円中心点のY座標,半径方向座標r)上に投票し、
投票された前記ハフ空間上の各投票位置(X,Y,r)の、投票された回数を求め
前記円が前記写真に含まれる瞳であるときに、投票をした前記画素の有色度が大きいほど重みが小さくなるように、各前記画素の投票回数を重み付け加算して該投票位置の投票値を得、
該投票位置の投票値を第1の統合投票値とし、
最も大きい前記第1の統合投票値を有する前記投票位置の前記(X,Y)座標値により示される位置を前記円の中心とすることを特徴とする円中心位置検出方法。
In a circle center position detection method for detecting a center position of a circle included in the photographic image from a photographic image,
The coordinates of each pixel having a value other than 0 among the pixels constituting the photographic image are voted on an annular Hough space (X coordinate of the circle center point, Y coordinate of the circle center point, radial coordinate r). ,
The number of times that each vote position (X, Y, r) on the voted Hough space has been voted is obtained ,
When the circle is a pupil included in the photograph, the voting value at the voting position is obtained by weighted addition of the number of votes of each pixel so that the weight becomes smaller as the chromaticity of the voted pixel increases. Get
The voting value at the voting position is the first integrated voting value,
A circle center position detecting method, wherein a position indicated by the (X, Y) coordinate value of the voting position having the largest first integrated voting value is the center of the circle.
写真画像から、該写真画像に含まれる円の中心位置を検出する円中心位置検出方法において、
該写真画像を構成する画素のうち0以外の値を有する各画素の座標を、円環のハフ空間(円中心点のX座標,円中心点のY座標,半径方向座標r)上に投票し、投票された前記ハフ空間上の各投票位置(X,Y,r)の、投票された回数を求め
前記円が前記写真に含まれる瞳であるときに、投票をした前記画素の有色度が大きいほど重みが小さくなるように、各前記画素の投票回数を重み付け加算して該投票位置の投票値を得、
各前記投票位置のうちの、前記(X,Y)座標値が同じである前記投票位置の前記投票値を加算して第2の統合投票値を得、
最も大きい前記第2の統合投票値に対応する前記(X,Y)座標値により示される位置を前記円の中心とすることを特徴とする円中心位置検出方法。
In a circle center position detection method for detecting a center position of a circle included in the photographic image from a photographic image,
The coordinates of each pixel having a value other than 0 among the pixels constituting the photographic image are voted on an annular Hough space (X coordinate of the circle center point, Y coordinate of the circle center point, radial coordinate r). The number of times that each voted position (X, Y, r) in the Hough space that has been voted has been voted for ,
When the circle is a pupil included in the photograph, the voting value at the voting position is obtained by weighted addition of the number of votes of each pixel so that the weight becomes smaller as the chromaticity of the voted pixel increases. Get
Of each of the voting positions, the voting value of the voting position having the same (X, Y) coordinate value is added to obtain a second integrated voting value,
A circle center position detection method, wherein a position indicated by the (X, Y) coordinate value corresponding to the second integrated vote value is the center of the circle.
前記(X,Y)座標値が同じである前記投票位置のうちの、前記円の半径範囲内にある前記投票位置の前記投票値のみを加算して前記第2の統合投票値を得ることを特徴とする請求項2記載の円中心位置検出方法。   Of the voting positions having the same (X, Y) coordinate value, only the voting values of the voting positions within the radius range of the circle are added to obtain the second integrated voting value. The circle center position detecting method according to claim 2, wherein: カラー画像である前記写真画像をグレースケール写真画像に変換し、該グレースケール写真画像を用いて前記投票を行うことを特徴とする請求項1から3のいずれか1項記載の円中心位置検出方法。 Converting said photographic image is a color image into a gray-scale image, the circle center position detection method according to any one of claims 1 to 3, characterized in that said voting by using the gray-scale image . 前記グレースケール写真画像を所定の閾値で2値化して2値画像を得、該2値画像を用いて前記投票を行うことを特徴とする請求項記載の円中心位置検出方法。 5. The circle center position detection method according to claim 4, wherein the gray scale photographic image is binarized with a predetermined threshold value to obtain a binary image, and the voting is performed using the binary image. 投票をした前記画素の輝度が小さいほど重みが大きくなるように、各前記画素の投票回数を重み付け加算して得た値を前記投票値とすることを特徴とする請求項からのいずれか1記載の円中心位置検出方法。 As the weight as low brightness of the pixel in which the vote is increased, either the 5 values obtained by weighting and adding the voting count of each of the pixels from claim 1, characterized in that said voting value The circle center position detection method according to 1. 目の近傍を外枠にして、顔写真画像をトリミングして得たトリミング画像を前記写真画像とする請求項からのいずれか1項記載の円中心位置検出方法。 The circle center position detecting method according to any one of claims 1 to 6 , wherein a trimmed image obtained by trimming a face photographic image with the vicinity of eyes as an outer frame is used as the photographic image. 前記顔写真画像から目の位置を検出し、
検出された前記目の位置に基づいて前記トリミングを行うことを特徴とする請求項記載の円中心位置検出方法。
Detecting the eye position from the face photo image,
The circle center position detection method according to claim 7, wherein the trimming is performed based on the detected eye position.
写真画像から、該写真画像に含まれる円の中心位置を検出する円中心位置検出装置であって、
該写真画像を構成する画素のうち0以外の値を有する各画素の座標を、円環のハフ空間(円中心点のX座標,円中心点のY座標,半径方向座標r)上に投票し、投票された前記ハフ空間上の各投票位置(X,Y,r)の、投票された回数を求め、前記円が前記写真に含まれる瞳であるときに、投票をした前記画素の有色度が大きいほど重みが小さくなるように、各前記画素の投票回数を重み付け加算して該投票位置の投票値を得、該投票位置の投票値を第1の統合投票値とする投票値取得手段と、
最も大きい前記第1の統合投票値を有する前記投票位置の前記(X,Y)座標値により示される位置を前記円の中心として決定する中心位置決定手段とを有してなることを特徴とする円中心位置検出装置。
A circle center position detection device for detecting a center position of a circle included in a photographic image from a photographic image,
The coordinates of each pixel having a value other than 0 among the pixels constituting the photographic image are voted on an annular Hough space (X coordinate of the circle center point, Y coordinate of the circle center point, radial coordinate r). The voting frequency of each vote position (X, Y, r) on the voted Hough space is obtained , and when the circle is a pupil included in the photograph, the chromaticity of the voted pixel Voting value acquisition means that obtains a voting value at the voting position by weighting and adding the voting times of each pixel so that the weight becomes smaller as the value increases, and the voting value at the voting position is a first integrated voting value; ,
Center position determining means for determining the position indicated by the (X, Y) coordinate value of the voting position having the largest first integrated voting value as the center of the circle. Circle center position detection device.
写真画像から、該写真画像に含まれる円の中心位置を検出する円中心位置検出装置であって、
該写真画像を構成する画素のうち0以外の値を有する各画素の座標を、円環のハフ空間(円中心点のX座標,円中心点のY座標,半径方向座標r)上に投票し、投票された前記ハフ空間上の各投票位置(X,Y,r)の、投票された回数を求め、前記円が前記写真に含まれる瞳であるときに、投票をした前記画素の有色度が大きいほど重みが小さくなるように、各前記画素の投票回数を重み付け加算して該投票位置の投票値を得る投票値取得手段と、
各前記投票位置のうちの、前記(X,Y)座標値が同じである前記投票位置の前記投票値を加算して第2の統合投票値を得る投票値統合手段と、
最も大きい前記第2の統合投票値に対応する前記(X,Y)座標値により示される位置を前記円の中心とする中心位置決定手段とを有してなることを特徴とする円中心位置検出装置。
A circle center position detection device for detecting a center position of a circle included in a photographic image from a photographic image,
The coordinates of each pixel having a value other than 0 among the pixels constituting the photographic image are voted on an annular Hough space (X coordinate of the circle center point, Y coordinate of the circle center point, radial coordinate r). The voting frequency of each vote position (X, Y, r) on the voted Hough space is obtained , and when the circle is a pupil included in the photograph, the chromaticity of the voted pixel Voting value acquisition means for obtaining a voting value at the voting position by weighted addition of the number of votes of each pixel so that the weight becomes smaller as the
Among the voting positions, voting value integrating means for adding the voting values at the voting positions having the same (X, Y) coordinate value to obtain a second integrated voting value;
Center position determination means having center position determining means with the position indicated by the (X, Y) coordinate value corresponding to the second integrated vote value being the largest as the center of the circle apparatus.
前記投票値統合手段が、前記(X,Y)座標値が同じである前記投票位置のうちの、前記円の半径範囲内にある前記投票位置の前記投票値のみを加算して前記第2の統合投票値を得るものであることを特徴とする請求項10記載の円中心位置検出装置。 The voting value integration means adds only the voting values of the voting positions within the radius range of the circle out of the voting positions having the same (X, Y) coordinate value, and 11. The circle center position detecting device according to claim 10 , wherein an integrated vote value is obtained. カラー画像である前記写真画像をグレー変換してグレースケール写真画像を得る画像変換手段を備え、
前記投票値取得手段が、前記グレースケール写真画像を用いて前記投票を行うことを特徴とする請求項9から11のいずれか1項記載の円中心位置検出装置。
Image conversion means for obtaining a grayscale photographic image by converting the photographic image that is a color image into gray,
The circle center position detection device according to claim 9 , wherein the vote value acquisition unit performs the vote using the grayscale photographic image.
前記グレースケール写真画像を所定の閾値で2値化して2値化画像を得る2値化手段を備え、
前記投票値取得手段が、該2値化画像を用いて前記投票を行うことを特徴とする請求項12記載の円中心位置検出装置。
Binarization means for binarizing the grayscale photographic image with a predetermined threshold to obtain a binarized image;
The circle center position detection apparatus according to claim 12 , wherein the vote value acquisition unit performs the vote using the binarized image.
前記投票値取得手段が、投票をした前記画素の輝度が小さいほど重みが大きくなるように、各前記画素の投票回数を重み付け加算して得た値を前記投票値とするものであることを特徴とする請求項から13のいずれか1項記載の円中心位置検出装置。 The voting value acquisition means uses, as the voting value, a value obtained by weighting and adding the number of votes of each pixel so that the weight increases as the luminance of the voted pixel decreases. The circle center position detection device according to any one of claims 9 to 13 . 目の近傍を外枠にして、顔写真画像をトリミングして得たトリミング画像を前記写真画像とするトリミング手段をさらに備えたことを特徴とする請求項から14のいずれか1項記載の円中心位置検出装置。 The circle according to any one of claims 9 to 14 , further comprising trimming means that uses a trimmed image obtained by trimming a face photo image with the vicinity of the eyes as an outer frame, as the photo image. Center position detection device. 前記顔写真画像から前記目の位置を検出して、該検出された前記目の位置を示す情報を前記トリミング手段に供する目位置検出手段をさらに備えたことを特徴とする請求項15記載の円中心位置検出装置。 The circle according to claim 15 , further comprising eye position detecting means for detecting the position of the eyes from the face photograph image and providing information indicating the detected eye positions to the trimming means. Center position detection device. 左目の前記トリミング画像と右目の前記トリミング画像とを夫々用いて求められた左瞳の中心位置と右瞳の中心位置との差が、前記左目と前記右目との距離に応じた所定の範囲内であることを基準として前記瞳の中心位置が正しいか否かを判別すると共に、前記中心位置が正しいであるように判別されるまで、前回に求められた前記中心位置に対応する前記統合投票値の次に大きい統合投票値を求め、該次に大きい統合投票値に対応する前記(X,Y)座標値により示される位置を前記瞳の中心として求め直す照合手段とをさらに備えたことを特徴とする請求項15または16記載の円中心位置検出装置。 The difference between the center position of the left pupil and the center position of the right pupil determined using the cropped image of the left eye and the cropped image of the right eye is within a predetermined range according to the distance between the left eye and the right eye. It is determined whether or not the center position of the pupil is correct with reference to the above, and the integrated vote value corresponding to the center position obtained last time until it is determined that the center position is correct And a collating unit that obtains the next largest integrated vote value and obtains the position indicated by the (X, Y) coordinate value corresponding to the next largest integrated vote value as the center of the pupil. The circle center position detecting device according to claim 15 or 16 . 前記照合手段が、前回に求められた前記中心位置から所定の距離以上に離れた位置を示す(X,Y)座標値に対応する各々の前記統合投票値から前記次に大きい統合投票値を求めることを特徴とする請求項17記載の円中心位置検出装置。 The collation means obtains the next largest integrated vote value from each of the integrated vote values corresponding to the (X, Y) coordinate values indicating a position more than a predetermined distance from the center position obtained last time. The circle center position detecting device according to claim 17, wherein: 前記写真画像に対して穴埋め処理を行い、該穴埋め処理がされた前記写真画像を前記投票値取得手段に供する前処理手段をさらに備えたことを特徴とする請求項から18のいずれか1項記載の円中心位置検出装置。 Performs filling processing to the photographic image, any one of the photographic images bore filling process has been claim 9, further comprising a pre-processing means for subjecting the voting value obtaining means 18 The center position detection device of description. 写真画像から、該写真画像に含まれる円の中心位置を検出する円中心位置検出処理をコンピュータに実行させるプログラムであって、
前記円中心位置検出処理が、該写真画像を構成する画素のうち0以外の値を有する各画素の座標を、円環のハフ空間(円中心点のX座標,円中心点のY座標,半径方向座標r)上に投票し、投票された前記ハフ空間上の各投票位置(X,Y,r)の、投票された回数を求め、前記円が前記写真に含まれる瞳であるときに、投票をした前記画素の有色度が大きいほど重みが小さくなるように、各前記画素の投票回数を重み付け加算して該投票位置の投票値を得、該投票位置の投票値を第1の統合投票値とする投票値取得処理と、
最も大きい前記第1の統合投票値を有する前記投票位置の前記(X,Y)座標値により示される位置を前記円の中心として決定する中心位置決定処理とを有することを特徴とするプログラム。
A program for causing a computer to execute circle center position detection processing for detecting a center position of a circle included in the photographic image from a photographic image,
In the circle center position detection processing, the coordinates of each pixel having a value other than 0 among the pixels constituting the photographic image are converted into an annular Hough space (X coordinate of the circle center point, Y coordinate of the circle center point, radius) Voting on directional coordinates r), and determining the number of votes for each vote position (X, Y, r) on the voted Hough space, and when the circle is a pupil included in the photo, The voting value of each voting position is obtained by weighting and adding the number of voting times of each pixel so that the weight becomes smaller as the chromaticity of the voted pixel becomes larger, and the voting value at the voting position is obtained as a first integrated vote. Voting value acquisition processing as a value,
And a center position determining process for determining a position indicated by the (X, Y) coordinate value of the voting position having the largest first integrated voting value as the center of the circle.
写真画像から、該写真画像に含まれる円の中心位置を検出する円中心位置検出処理をコンピュータに実行させるプログラムであって、
前記円中心位置検出処理が、該写真画像を構成する画素のうち0以外の値を有する各画素の座標を、円環のハフ空間(円中心点のX座標,円中心点のY座標,半径方向座標r)上に投票し、投票された前記ハフ空間上の各投票位置(X,Y,r)の、投票された回数を求め、前記円が前記写真に含まれる瞳であるときに、投票をした前記画素の有色度が大きいほど重みが小さくなるように、各前記画素の投票回数を重み付け加算して該投票位置の投票値を得る投票値取得処理と、
各前記投票位置のうちの、前記(X,Y)座標値が同じである前記投票位置の前記投票値を加算して第2の統合投票値を得る投票値統合処理と、
最も大きい前記第2の統合投票値に対応する前記(X,Y)座標値により示される位置を前記円の中心とする中心位置決定処理とを有してなることを特徴とするプログラム。
A program for causing a computer to execute circle center position detection processing for detecting a center position of a circle included in the photographic image from a photographic image,
In the circle center position detection processing, the coordinates of each pixel having a value other than 0 among the pixels constituting the photographic image are converted into an annular Hough space (X coordinate of the circle center point, Y coordinate of the circle center point, radius) Voting on directional coordinates r), and determining the number of votes for each vote position (X, Y, r) on the voted Hough space, and when the circle is a pupil included in the photo, Voting value acquisition processing for obtaining a voting value at the voting position by weighted addition of the number of voting times of each pixel so that the weight becomes smaller as the chromaticity of the pixel that has voted increases ,
A voting value integration process of adding the voting values at the voting positions having the same (X, Y) coordinate value among the voting positions to obtain a second integrated voting value;
And a center position determination process in which the position indicated by the (X, Y) coordinate value corresponding to the second integrated vote value is the center of the circle.
前記投票値統合処理が、前記(X,Y)座標値が同じである前記投票位置のうちの、前記円の半径範囲内にある前記投票位置の前記投票値のみを加算して前記第2の統合投票値を得ることを特徴とする請求項21記載のプログラム。 The voting value integration processing adds only the voting values of the voting positions within the radius range of the circle among the voting positions having the same (X, Y) coordinate value, and adds the second voting value. The program according to claim 21 , wherein an integrated vote value is obtained. 前記円中心位置検出処理が、カラー画像である前記写真画像をグレー変換してグレースケール写真画像を得る画像変換処理を有し、
前記投票値取得処理が、前記グレースケール写真画像を用いて前記投票を行うことを特徴とする請求項20から22のいずれか1項記載のプログラム。
The circle center position detection process includes an image conversion process for obtaining a grayscale photographic image by performing gray conversion on the photographic image that is a color image,
The voting value acquisition processing, claim 20 to 22 set forth in any one program which is characterized in that the voting by using the gray-scale image.
前記円中心位置検出処理が、前記グレースケール写真画像を所定の閾値で2値化して2値化画像を得る2値化処理を有し、
前記投票値取得処理が、該2値化画像を用いて前記投票を行うことを特徴とする請求項23記載のプログラム。
The circle center position detection process includes a binarization process that binarizes the grayscale photographic image with a predetermined threshold to obtain a binarized image;
The program according to claim 23, wherein the vote value acquisition process performs the vote using the binarized image.
前記投票値取得処理が、投票をした前記画素の輝度が小さいほど重みが大きくなるように、各前記画素の投票回数を重み付け加算して得た値を前記投票値とすることを特徴とする請求項20から24のいずれか1項記載のプログラム。 The voting value acquisition process uses, as the voting value, a value obtained by weighting and adding the voting count of each pixel so that the weight increases as the luminance of the voted pixel decreases. Item 25. The program according to any one of Items 20 to 24 . 前記円中心位置検出処理が、目の近傍を外枠にして、顔写真画像をトリミングして得たトリミング画像を前記写真画像とするトリミング処理をさらに有することを特徴とする請求項20から25のいずれか1項記載のプログラム。 The circle center position detecting process, the vicinity of the eyes in the outer frame, a claim 20, further comprising a trimming process for trimming image obtained by trimming the face image and the photographic image 25 of The program according to any one of the above. 前記トリミング処理が、前記顔写真画像から前記目の位置を検出する目位置検出処理を有し、該目検出処理により検出された前記目の位置に基づいて前記トリミングを行うことを特徴とする請求項26記載のプログラム。 The trimming process includes an eye position detection process for detecting the position of the eye from the face photograph image, and the trimming is performed based on the eye position detected by the eye detection process. Item 26. The program according to item 26 .
JP2004262386A 2003-09-09 2004-09-09 Circle center position detection method, apparatus, and program Expired - Fee Related JP4510562B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004262386A JP4510562B2 (en) 2003-09-09 2004-09-09 Circle center position detection method, apparatus, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003317577 2003-09-09
JP2004262386A JP4510562B2 (en) 2003-09-09 2004-09-09 Circle center position detection method, apparatus, and program

Publications (2)

Publication Number Publication Date
JP2005108206A JP2005108206A (en) 2005-04-21
JP4510562B2 true JP4510562B2 (en) 2010-07-28

Family

ID=34554243

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004262386A Expired - Fee Related JP4510562B2 (en) 2003-09-09 2004-09-09 Circle center position detection method, apparatus, and program

Country Status (1)

Country Link
JP (1) JP4510562B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK2012304T3 (en) 2007-07-06 2012-11-19 Zero To One Technology Comscope Methods for electronic analysis of a dialogue and similar systems
JP5316017B2 (en) * 2009-01-22 2013-10-16 日本電気株式会社 Image processing apparatus, biometric authentication apparatus, image processing method, and program
IL215883A0 (en) * 2011-10-24 2012-03-01 Iriss Medical Technologies Ltd System and method for indentifying eye conditions
CN109657088A (en) * 2018-09-30 2019-04-19 阿里巴巴集团控股有限公司 A kind of picture risk checking method, device, equipment and medium
CN112329576B (en) * 2020-10-27 2023-11-28 南京大学 Method for identifying position of coil spring of automobile safety belt
CN115018834B (en) * 2022-08-08 2022-10-25 山东光岳九州半导体科技有限公司 Semiconductor wafer image alignment method
CN116400642B (en) * 2023-06-09 2023-10-03 成都飞机工业(集团)有限责任公司 Machine tool precision compensation method and device, storage medium and electronic equipment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003070742A (en) * 2001-08-31 2003-03-11 Japan Science & Technology Corp Device and method to detect visual line
JP2004062393A (en) * 2002-07-26 2004-02-26 Japan Science & Technology Corp Method and device for determining attention

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6016354A (en) * 1997-10-23 2000-01-18 Hewlett-Packard Company Apparatus and a method for reducing red-eye in a digital image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003070742A (en) * 2001-08-31 2003-03-11 Japan Science & Technology Corp Device and method to detect visual line
JP2004062393A (en) * 2002-07-26 2004-02-26 Japan Science & Technology Corp Method and device for determining attention

Also Published As

Publication number Publication date
JP2005108206A (en) 2005-04-21

Similar Documents

Publication Publication Date Title
US8577099B2 (en) Method, apparatus, and program for detecting facial characteristic points
US7920725B2 (en) Apparatus, method, and program for discriminating subjects
US7542591B2 (en) Target object detecting method, apparatus, and program
US7035461B2 (en) Method for detecting objects in digital images
US20050196069A1 (en) Method, apparatus, and program for trimming images
US7680357B2 (en) Method and apparatus for detecting positions of center points of circular patterns
CN103902958A (en) Method for face recognition
JP2007213378A (en) Method for detecting face of specific expression, imaging control method, device and program
US20050117802A1 (en) Image processing method, apparatus, and program
US20060126964A1 (en) Method of and system for image processing and computer program
JP4795864B2 (en) Feature point detection apparatus and method, and program
JP4510562B2 (en) Circle center position detection method, apparatus, and program
JP4749879B2 (en) Face discrimination method, apparatus, and program
JP2011170890A (en) Face detecting method, face detection device, and program
JP2005332382A (en) Image processing method, device and program
JP2006285959A (en) Learning method of face recognition device, and method, device and program for face recognition
CN113436735A (en) Body weight index prediction method, device and storage medium based on face structure measurement
JP4795737B2 (en) Face detection method, apparatus, and program
JP2006202276A (en) Image processing method, system, and program
JP2005084979A (en) Face authentication system, method and program
JP2006244385A (en) Face-discriminating apparatus, program and learning method for the apparatus
JP4493448B2 (en) Object identification device and method, and program
JP4541806B2 (en) Object identification device and method, and program
JP2005108207A (en) Image processing method, device, and program
JP2006053854A (en) Image processing method, device and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061208

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100420

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100430

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4510562

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140514

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees