JP2007188407A - Image processing device and image processing program - Google Patents

Image processing device and image processing program Download PDF

Info

Publication number
JP2007188407A
JP2007188407A JP2006007423A JP2006007423A JP2007188407A JP 2007188407 A JP2007188407 A JP 2007188407A JP 2006007423 A JP2006007423 A JP 2006007423A JP 2006007423 A JP2006007423 A JP 2006007423A JP 2007188407 A JP2007188407 A JP 2007188407A
Authority
JP
Japan
Prior art keywords
separability
feature point
detection
area
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006007423A
Other languages
Japanese (ja)
Other versions
JP4533849B2 (en
Inventor
Mayumi Yuasa
真由美 湯浅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2006007423A priority Critical patent/JP4533849B2/en
Publication of JP2007188407A publication Critical patent/JP2007188407A/en
Application granted granted Critical
Publication of JP4533849B2 publication Critical patent/JP4533849B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To stably detect an eyebrow part from a person's face image. <P>SOLUTION: The image processing device 10 comprises: a reference characteristic point detecting part 14 for detecting characteristic points other than the characteristic point of an eyebrow; a search range setting part 16 for determining the search range of the characteristic points to be detected based on the detected reference characteristic points; a separability map creating part 18 for calculating the output of a separability filter estimated from the positional relationships of the reference characteristic points; a region dividing part 20 for dividing the separability map into a plurality of connected regions; and a region determination part 22 for determining whether or not each region includes a characteristic point. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像処理装置及び画像処理プログラムに関する。   The present invention relates to an image processing apparatus and an image processing program.

従来の眉を検出する技術には、特許文献1に開示されているように、探索領域において画像の2値化により、黒い部分を眉として取り出すものがあったが、照明条件や画質によっては正しく眉が検出できないという問題点があった。   As a conventional technique for detecting eyebrows, as disclosed in Patent Document 1, there is a technique in which a black portion is extracted as eyebrows by binarizing an image in a search area. However, depending on illumination conditions and image quality, There was a problem that the eyebrows could not be detected.

また、良好な画像であったとしても、個人によって眉が薄い場合や、眉毛の色が黒くない場合などに、正しく検出できないという問題点があった。   Even if the image is good, there is a problem that it cannot be detected correctly when the eyebrows are thin by an individual or when the color of the eyebrows is not black.

また、顔特徴点を検出する技術としては、特許文献2に開示されているように、円形分離度フィルタを用いて瞳、鼻孔などの特徴点を検出するものがあったが、検出できる特徴点は円形またはそれに近い形状を示すものに限られるという問題点があった。
特開2000‐31124公報 特許第3279913号公報
Further, as a technique for detecting facial feature points, as disclosed in Patent Document 2, there is a technique for detecting feature points such as pupils and nostrils using a circular separability filter. Has a problem that it is limited to those showing a circular shape or a shape close thereto.
JP 2000-31124 A Japanese Patent No. 3279913

上述したように、従来技術には眉が薄い場合や、眉毛の色が黒くない場合などに、正しく検出できないという問題があった。また、円形またはそれに近い形状のものしか検出できないという問題点があった。   As described above, the conventional technique has a problem that it cannot be detected correctly when the eyebrows are thin or the color of the eyebrows is not black. In addition, there is a problem that only a circular shape or a shape close thereto can be detected.

そこで本発明は、上記従来技術の問題点を解決するためになされたものであって、安定的に人物の特徴点や領域を検出する画像処理装置及び画像処理プログラムを提供することを目的とする。   Accordingly, the present invention has been made to solve the above-described problems of the prior art, and an object thereof is to provide an image processing apparatus and an image processing program for stably detecting a feature point or region of a person. .

本発明は、画像中の人物の顔の特徴点、または、領域を検出する画像処理装置において、前記検出すべき検出特徴点、または、検出領域以外の特徴点を基準特徴点として検出する基準特徴点検出手段と、前記基準特徴点の位置に基づいて、前記検出特徴点または前記検出領域の探索範囲を決定する探索範囲設定手段と、前記探索範囲内の領域を、分離度フィルタの分離度値を用いて分離度マップを作成する分離度マップ作成手段と、前記分離度マップを、前記分離度値に基づいて複数の連結領域に分割する領域分割手段と、前記各連結領域が前記検出領域であるか、または、前記検出特徴点を含む領域であるか否かについて、前記各連結領域が所定の条件を具備するか否かで判定する領域判定手段と、を備えることを特徴とする画像処理装置である。   The present invention provides a reference feature for detecting, as a reference feature point, a detection feature point to be detected or a feature point other than the detection region in an image processing apparatus that detects a feature point or region of a human face in an image. A point detection unit, a search range setting unit for determining a search range of the detection feature point or the detection region based on the position of the reference feature point, and a region within the search range, the separability value of the separability filter A separability map creating means for creating a separability map using the image, an area dividing means for dividing the separability map into a plurality of connected areas based on the separability values, and each connected area in the detection area And an area determination unit that determines whether each connected area has a predetermined condition as to whether or not the area includes the detected feature point. apparatus A.

また、本発明は、画像中の人物の顔の特徴点、または、領域を検出する画像処理装置において、前記検出すべき検出特徴点、または、検出領域以外の特徴点を基準特徴点として検出する基準特徴点検出手段と、前記基準特徴点の位置に基づいて、前記検出特徴点または前記検出領域の探索範囲を決定する探索範囲設定手段と、前記探索範囲内の領域を、一または複数の分離度フィルタの分離度値を用いて分離度マップを作成する分離度マップ作成手段と、前記分離度マップを、前記分離度値に基づいて複数の連結領域に分割する領域分割手段と、前記各連結領域が前記検出領域であるか、または、前記検出特徴点を含む領域であるか否かについて、前記各連結領域が所定の条件を具備するか否かで判定する領域判定手段と、前記検出特徴点が人物の眉の端点、または、前記検出領域が眉領域であり、前記基準特徴点が前記人物の左右の瞳中心、または、目端の内の少なくとも2点以上であって、前記連結領域の端点を検出する端点検出手段と、を備え、前記領域判定手段は、前記端点の位置と前記各基準特徴点の位置との角度、距離の少なくとも一方から前記端点が前記人物の眉の端点であるか否かを判定することを特徴とする画像処理装置である。   According to the present invention, in the image processing apparatus that detects a feature point or region of a person's face in an image, the detection feature point to be detected or a feature point other than the detection region is detected as a reference feature point. One or more separation of a reference feature point detection unit, a search range setting unit that determines a search range of the detection feature point or the detection region based on the position of the reference feature point, and a region within the search range A separability map creating means for creating a separability map using a separability value of the degree filter; an area dividing means for dividing the separability map into a plurality of connected areas based on the separability value; A region determination means for determining whether each of the connected regions has a predetermined condition as to whether the region is the detection region or a region including the detection feature point; and the detection feature The point is The eyebrow end point of the object or the detection area is an eyebrow area, and the reference feature point is at least two or more of the left and right pupil centers of the person or the eye end, and the end point of the connection area Whether the end point is an end point of the eyebrow of the person from at least one of an angle and a distance between the position of the end point and the position of each reference feature point. It is an image processing apparatus characterized by determining whether or not.

本発明によれば、安定的に人物の顔特徴点や領域を検出することが可能となる。   According to the present invention, it is possible to stably detect facial feature points and regions of a person.

以下、本発明の実施形態に係わる画像処理装置10について図面に基づいて説明する。   Hereinafter, an image processing apparatus 10 according to an embodiment of the present invention will be described with reference to the drawings.

(第1の実施形態)
第1の実施形態に係わる画像処理装置10について図1から図5に基づいて説明する。本実施形態においては、眉の内側の端点を検出する例を示す。
(First embodiment)
An image processing apparatus 10 according to the first embodiment will be described with reference to FIGS. In the present embodiment, an example in which an end point inside the eyebrows is detected is shown.

(1)画像処理装置10の構成
図1は、画像処理装置10を示すブロック図である。
(1) Configuration of Image Processing Device 10 FIG. 1 is a block diagram showing the image processing device 10.

画像処理装置10は、画像を入力する画像入力部12と、検出すべき特徴点または領域以外の特徴点を検出する基準特徴点検出部14と、検出された基準特徴点を元に所定の方法で検出すべき特徴点または領域の探索範囲を決定する探索範囲設定部16と、基準特徴点の位置関係から推定される一つまたは複数の大きさの分離度フィルタの出力を計算する分離度マップ作成部18と、分離度マップを複数の連結領域に分割する領域分割部20と、各領域が検出対象であるかまたは特徴点を含む領域であるかどうかを判定する領域判定部22と、結果を出力する出力部24を備えている。   An image processing apparatus 10 includes an image input unit 12 that inputs an image, a reference feature point detection unit 14 that detects a feature point or a feature point other than a region to be detected, and a predetermined method based on the detected reference feature point A search range setting unit 16 that determines a search range of a feature point or region to be detected in step S1, and a separability map that calculates the output of a separability filter of one or more sizes estimated from the positional relationship of the reference feature points A creating unit 18; a region dividing unit 20 that divides the separability map into a plurality of connected regions; a region determining unit 22 that determines whether each region is a detection target or a region including feature points; and a result Is output.

各部12〜22の機能は、コンピュータに記憶されたプログラムによって実現できる。   The function of each part 12-22 is realizable with the program memorize | stored in the computer.

(2)画像処理装置10の動作
次に、図1を用いて画像処理装置10の動作について説明する。
(2) Operation of Image Processing Device 10 Next, the operation of the image processing device 10 will be described with reference to FIG.

(2−1)画像入力部12
まず、画像入力部12は、対象とする画像を入力する。
(2-1) Image input unit 12
First, the image input unit 12 inputs a target image.

(2−2)基準特徴点検出部14
次に、基準特徴点検出部14は基準となる特徴点を検出する。本実施形態においては、左右の瞳の中心点を検出するものとする。
(2-2) Reference feature point detector 14
Next, the reference feature point detection unit 14 detects a reference feature point. In the present embodiment, the center point of the left and right pupils is detected.

瞳を検出する方法としては、例えば、特許文献2で開示されている分離度フィルタとパターン照合を組み合わせた方法を用いる。   As a method for detecting the pupil, for example, a method combining a resolution filter and pattern matching disclosed in Patent Document 2 is used.

(2−3)探索範囲設定部16
探索範囲設定部16は、基準特徴点検出部14で検出された基準特徴点を元に、探索範囲を設定する。図2は設定された探索範囲を示す図である。
(2-3) Search range setting unit 16
The search range setting unit 16 sets a search range based on the reference feature points detected by the reference feature point detection unit 14. FIG. 2 is a diagram showing the set search range.

図2に示すように、基準特徴点(ここでは瞳)の位置を基準として、予め統計的に取得した眉内端位置の分布を元に決定しておいたパラメータを使用して探索範囲を決定する。まず、両瞳を結ぶ直線が水平だった場合を想定する。   As shown in FIG. 2, the search range is determined using parameters determined based on the statistically acquired distribution of the position of the inner edge of the eyebrow, based on the position of the reference feature point (here, the pupil). To do. First, assume that the straight line connecting both pupils is horizontal.

図3は詳細な探索範囲決定法を表わす図である。ここでは左眉を例にして説明するが、右も同様である。探索範囲は図3に示すように、左瞳中心301を基準に、パラメータxmin,ymin,xmax,ymaxで表現される矩形の探索領域302を設定する。   FIG. 3 is a diagram showing a detailed search range determination method. Here, the left eyebrow will be described as an example, but the same applies to the right eyebrow. As shown in FIG. 3, a rectangular search area 302 expressed by parameters xmin, ymin, xmax, and ymax is set as the search range, with the left pupil center 301 as a reference.

各パラメータは正規化されており、例えば両瞳間距離で正規化されている場合には、正規化パラメータに両瞳間距離を乗じたものを用いる。   Each parameter is normalized. For example, when normalized by the distance between both pupils, a value obtained by multiplying the distance between both pupils by the normalized parameter is used.

両瞳を結ぶ直線が水平とは限らないので、両瞳を結ぶ直線と水平線との角度θを算出し、両瞳を結ぶ線分の中点を中心にして、角度−θだけ回転させた画像を用いる。今後の処理はこの回転された空間内につき、探索領域の範囲内でのみ処理を行なうものとし、最後に得られた結果を、両瞳の中点を中心に角度θだけ回転させることにより、元の座標に戻すこととする。   Since the straight line connecting both pupils is not necessarily horizontal, the angle θ between the straight line connecting both pupils and the horizontal line is calculated, and the image is rotated by an angle −θ around the midpoint of the line segment connecting both pupils. Is used. In the future processing, this rotated space will be processed only within the range of the search area, and the result obtained at the end is rotated by an angle θ around the midpoint of both pupils. Return to the coordinates of.

(2−4)分離度マップ作成部18
分離度マップ作成部18においては、探索領域内の画像の各画素iに対して、円形分離度フィルタの出力値を計算して分離度マップを作成する。分離度値ηは、2つの領域間の分離度合いを表わす指標であり、数1で計算される値である。
(2-4) Separability map creation unit 18
The separability map creating unit 18 creates the separability map by calculating the output value of the circular separability filter for each pixel i of the image in the search area. The degree of separation value η is an index representing the degree of separation between two regions, and is a value calculated by Equation 1.

通常は輝度Piとしては白黒画像における各画素iの輝度値を用いる。   Usually, the luminance value of each pixel i in the monochrome image is used as the luminance Pi.

領域1、2は、図4に示す円形分離度フィルタにおいて、半径rの円の外側(図4の領域1)と内側の(図4の領域2)として、2つの領域の分離度マップを作成する。   Regions 1 and 2 create a separation map of two regions as the outer side (region 1 in FIG. 4) and the inner side (region 2 in FIG. 4) of the circle of radius r in the circular separability filter shown in FIG. To do.

こうした形状の分離度フィルタにより、円形を示す形状部分の対象物を抽出することが可能なものであるが、同様に半径rの2倍と同じ幅を持つ細長い対象物についても抽出することが可能である。   The separability filter having such a shape can extract an object having a circular shape, but it can also extract an elongated object having the same width as twice the radius r. It is.

スケールを表わすパラメータである半径rは、両瞳間の距離を基準として所定の係数をかけて算出する。具体的には、瞳間の距離から、標準の顔の大きさがわかり、この顔の大きさから標準的な眉の太さがわかるため、この太さから係数を算出する。   The radius r, which is a parameter representing the scale, is calculated by multiplying a predetermined coefficient with reference to the distance between both pupils. Specifically, since the standard face size is known from the distance between the pupils, and the standard eyebrow thickness is known from the face size, the coefficient is calculated from this thickness.

分離度マップの例は図5の502に示す通りである。また、眉部分は通常背景となる肌色領域より暗いことが多い。そのため、さらに数2のように、分離度フィルタの2領域の平均値の差を分離度値ηに加えて分離度値η’としてもよい。但し、αは所定の定数である。
An example of the separability map is as indicated by 502 in FIG. Further, the eyebrows are often darker than the skin color region that is usually the background. Therefore, as in Equation 2, the difference between the average values of the two areas of the separation degree filter may be added to the separation degree value η to obtain the separation degree value η ′. Where α is a predetermined constant.

また、この半径rは単一である必要はなく、複数用いてもよい。その場合にはその数だけ分離度マップを作成することになる。   Further, the radius r need not be single, and a plurality of radiuses may be used. In that case, the same number of separability maps will be created.

(2−5)領域分割部20
次に、領域分割部20においては、まず、分離度マップ作成部18で得られた分離度マップの2値化を行なう。2値化は分離度マップ内の各点の分離度値が、所定の閾値以上ならば値を1に、そうでなければ値を0にする。2値化した画像の例を図5の503に示す。
(2-5) Region dividing unit 20
Next, the region dividing unit 20 first binarizes the separability map obtained by the separability map creating unit 18. Binarization sets the value to 1 if the separability value of each point in the separability map is equal to or greater than a predetermined threshold, and to 0 otherwise. An example of the binarized image is shown at 503 in FIG.

2値は分離度値のみならず、前記分離度フィルタの2領域の平均値の差に対しても閾値を設けて2値化してもよい、その場合は、両方の条件を満たすものを1にそれ以外を0とするものとする。ここでは便宜的に値を0または1に2値化したが、この値自体はこれに限らない。   The binary value may be binarized by providing a threshold value not only for the separability value but also for the difference between the average values of the two areas of the separability filter. The other values are set to 0. Here, the value is binarized to 0 or 1 for convenience, but this value itself is not limited to this.

次に、分離度マップに対してラベリング処理を行なう。ラベリング処理は、値がある(0でない)画素が連結している場合には同じラベルに属するとして、分離度マップ内の値がある画素を複数の連結領域に分割する処理である。例えば次のような4近傍による方法を用いる。   Next, a labeling process is performed on the separability map. The labeling process is a process of dividing a pixel having a value in the separability map into a plurality of connected regions, assuming that pixels having a value (non-zero) are connected, belonging to the same label. For example, the following four-neighbor method is used.

まず、画像上でラベルが付加されていない画素を見つけ、新しいラベルを付加する。   First, a pixel to which no label is added is found on the image, and a new label is added.

次に、画素に4方向に連結している画素に同じラベルを付加する。画像内にラベルを付加する画像がある限り、この操作を繰り返す。   Next, the same label is added to the pixels connected to the pixels in four directions. This operation is repeated as long as there is an image to add a label in the image.

これにより、分離度マップ内が、2値化の値が「0」の連結領域と2値化の値が「1」の連結領域とに分割される。   As a result, the separation degree map is divided into a connected region having a binarized value of “0” and a connected region having a binarized value of “1”.

(2−6)領域判定部22
次に領域判定部22においては、領域分割部20において分割された各連結領域について、これらの連結領域が、目的とする特徴点(ここでは眉内端)を含むものであるかの判定を行なう。すなわち、ラベリングされた座標値の最大値、最小値を求め、端点を求める。
(2-6) Region determination unit 22
Next, the area determination unit 22 determines whether each of the connected areas divided by the area dividing unit 20 includes a target feature point (here, the inner edge of the eyebrows). That is, the maximum and minimum values of the labeled coordinate values are obtained, and the end points are obtained.

判定は各連結領域が探索領域の右端に接し、かつ、上端、下端、左端に接しないという条件で行なう。   The determination is made on the condition that each connected area touches the right end of the search area and does not touch the upper end, the lower end, and the left end.

ここでこの条件を満たした候補のうち、連結領域の左端の点が所定の基準点に最も近いものを選択する。予め統計的に取得した眉内端位置の分布を元に決定しておく。   Here, out of candidates that satisfy this condition, the one with the leftmost point of the connected region closest to the predetermined reference point is selected. It is determined based on the distribution of the eyebrow inner edge position statistically acquired in advance.

ここまで左眉内端の場合について述べたが、右の場合は左右を逆にして同様の処理を行なう。   Up to this point, the case of the inner edge of the left eyebrow has been described, but in the case of the right eye, the same processing is performed with the left and right reversed.

(2−7)出力部24
出力部24においては、検出された眉内端点の位置を出力する。
(2-7) Output unit 24
The output unit 24 outputs the position of the detected end point of the eyebrow.

(3)効果
このように、第1の実施形態に係わる画像処理装置10によれば、円形分離度フィルタを用いることで一定の幅の領域を抽出することにより、照明条件など良好でない画像に対しても安定に眉端点を検出することが可能となる。
(3) Effect As described above, according to the image processing apparatus 10 according to the first embodiment, by extracting a region having a certain width by using the circular separability filter, it is possible to reduce the illumination condition and the like. However, the eyebrow end point can be detected stably.

(第2の実施形態)
次に本発明の第2の実施形態について図6に基づいて説明する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described with reference to FIG.

図6は、第2の実施形態に係わる画像処理装置10を示すブロック図である。本実施形態においては、特徴点(眉内端)が検出されなかった場合、あるいは検出された左右の眉内端が所定の条件を満たさない場合について述べる。   FIG. 6 is a block diagram showing an image processing apparatus 10 according to the second embodiment. In the present embodiment, a case where a feature point (inner eyebrow end) is not detected, or a case where the detected right and left eyebrow inner ends do not satisfy a predetermined condition will be described.

本実施形態の画像処理装置10の構成は、第1の実施形態の画像処理装置10に端点推定部26を追加したものであり、これ以外の構成は第1の実施形態と同様である。   The configuration of the image processing apparatus 10 of the present embodiment is obtained by adding an end point estimation unit 26 to the image processing apparatus 10 of the first embodiment, and the other configuration is the same as that of the first embodiment.

領域判定部22において、所定の条件を満たす領域が存在しない場合には、端点推定部26において、領域判定部22において用いた基準点を検出された端点の代わりに用いる。   When there is no region that satisfies the predetermined condition in the region determination unit 22, the end point estimation unit 26 uses the reference point used in the region determination unit 22 instead of the detected end point.

但し、このようにして推定した点の場合には、信頼度を、実際に条件を満たす領域が存在する場合と比較して低くするものとする。   However, in the case of the points estimated in this way, the reliability is assumed to be lower than when there is an area that actually satisfies the condition.

また、このようにして検出された左右の端点に対して、これらの端点を結ぶ直線と、左右の瞳中心を結ぶ直線との結ぶ角度が所定の角度(例えば、10度〜20度)より小さいという条件を満たす場合には双方の端点を検出された点とする。   Further, with respect to the left and right end points thus detected, an angle between a straight line connecting these end points and a straight line connecting the left and right pupil centers is smaller than a predetermined angle (for example, 10 degrees to 20 degrees). If the above condition is satisfied, both end points are detected points.

条件を満たさない場合には、左右で先に述べた信頼度に差がある場合には、信頼度の高い方を活かし、信頼度の低い方に関しては、信頼度が高い方の点を探索領域内において、信頼度が低い側に左右対称となる位置を検出結果とする。信頼度に差がない場合は、基準点からの距離が近い方を信用し、信頼度に差がある場合と同様、逆側について、左右対称となる位置を検出結果とする。   When the conditions are not met, if there is a difference in the reliability described above on the left and right, use the higher reliability, and for the lower reliability, search for the point with the higher reliability. In the figure, a position that is symmetrical with respect to the low reliability side is taken as a detection result. If there is no difference in reliability, the one closer to the reference point is trusted, and a position that is symmetrical on the opposite side is set as the detection result as in the case where there is a difference in reliability.

(変更例)
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
(Example of change)
Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

上記実施形態では基準特徴点として、左右の瞳中心を用いたが、これに限定されるものではない。例えば、目尻、目頭等の目の端点それぞれ、または目尻目頭の中点等も同様に基準特徴点として用いることができる。   In the above embodiment, the left and right pupil centers are used as the reference feature points, but the present invention is not limited to this. For example, each of the end points of the eyes such as the corners of the eyes and the eyes, or the midpoints of the corners of the eyes and the like can be used as the reference feature points.

また、領域分割方法として2値化分離度マップをラベリングする方法について述べたが、これに限るものではなく、例えば距離変換を用いる方法、尾根線を求める方法なども考えられる。   Moreover, although the method of labeling the binarization separation map has been described as the region dividing method, the method is not limited to this, and for example, a method using distance conversion, a method for obtaining a ridge line, and the like are also conceivable.

また、端点を求める例を述べたが、領域そのものを出力してもよいし、眉の外側の端点を検出してもよい、また、眉端のみならず、目端、口端等も適切な探索範囲を設定することにより、同様に検出可能である。   Moreover, although the example which calculates | requires an end point was described, the area | region itself may be output, the end point of the outer side of an eyebrow may be detected, and not only an eyebrow end but an eye end, a mouth end, etc. are suitable. By setting the search range, detection is possible in the same manner.

また、上記実施形態における円形分離度フィルタに限らず、楕円形、多角形の分離度フィルタを用いてもよい。   Further, not only the circular separability filter in the above embodiment, but also an elliptical or polygonal separability filter may be used.

本発明の第1の実施形態に係わる画像処理装置10の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image processing apparatus 10 according to a first embodiment of the present invention. 設定された探索範囲を示す図である。It is a figure which shows the set search range. 設定された探索範囲の詳細を示す図である。It is a figure which shows the detail of the set search range. 分離度フィルタの例を示す図である。It is a figure which shows the example of a separability filter. 処理結果の例を示す図である。It is a figure which shows the example of a process result. 第2の実施形態に係わる画像処理装置10の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus 10 concerning 2nd Embodiment.

符号の説明Explanation of symbols

10 画像処理装置
12 画像入力部
14 基準特徴点検出部
16 探索範囲設定部
18 分離度マップ作成部
20 領域分割部
22 領域判定部
24 出力部
DESCRIPTION OF SYMBOLS 10 Image processing apparatus 12 Image input part 14 Reference | standard feature point detection part 16 Search range setting part 18 Separation degree map creation part 20 Area division part 22 Area determination part 24 Output part

Claims (11)

画像中の人物の顔の特徴点、または、領域を検出する画像処理装置において、
前記検出すべき検出特徴点、または、検出領域以外の特徴点を基準特徴点として検出する基準特徴点検出手段と、
前記基準特徴点の位置に基づいて、前記検出特徴点または前記検出領域の探索範囲を決定する探索範囲設定手段と、
前記探索範囲内の領域を、一または複数の分離度フィルタの分離度値を用いて分離度マップを作成する分離度マップ作成手段と、
前記分離度マップを、前記分離度値に基づいて複数の連結領域に分割する領域分割手段と、
前記各連結領域が前記検出領域であるか、または、前記検出特徴点を含む領域であるか否かについて、前記各連結領域が所定の条件を具備するか否かで判定する領域判定手段と、
を備える
ことを特徴とする画像処理装置。
In an image processing apparatus for detecting feature points or areas of a person's face in an image,
Reference feature point detection means for detecting the detection feature point to be detected or a feature point other than the detection region as a reference feature point;
Search range setting means for determining a search range of the detection feature point or the detection region based on the position of the reference feature point;
A separability map creating means for creating a separability map using the separability values of one or a plurality of separability filters for the area within the search range;
Area dividing means for dividing the separability map into a plurality of connected areas based on the separability value;
An area determination means for determining whether each of the connected areas has a predetermined condition as to whether or not each of the connected areas is the detection area or an area including the detected feature points;
An image processing apparatus comprising:
画像中の人物の顔の特徴点、または、領域を検出する画像処理装置において、
前記検出すべき検出特徴点、または、検出領域以外の特徴点を基準特徴点として検出する基準特徴点検出手段と、
前記基準特徴点の位置に基づいて、前記検出特徴点または前記検出領域の探索範囲を決定する探索範囲設定手段と、
前記探索範囲内の領域を、一または複数の分離度フィルタの分離度値を用いて分離度マップを作成する分離度マップ作成手段と、
前記分離度マップを、前記分離度値に基づいて複数の連結領域に分割する領域分割手段と、
前記各連結領域が前記検出領域であるか、または、前記検出特徴点を含む領域であるか否かについて、前記各連結領域が所定の条件を具備するか否かで判定する領域判定手段と、
前記検出特徴点が人物の眉の端点、または、前記検出領域が眉領域であり、前記基準特徴点が前記人物の左右の瞳中心、または、目端の内の少なくとも2点以上であって、前記連結領域の端点を検出する端点検出手段と、
を備え、
前記領域判定手段は、前記端点の位置と前記各基準特徴点の位置との角度、距離の少なくとも一方から前記端点が前記人物の眉の端点であるか否かを判定する
ことを特徴とする画像処理装置。
In an image processing apparatus for detecting feature points or areas of a person's face in an image,
Reference feature point detection means for detecting the detection feature point to be detected or a feature point other than the detection region as a reference feature point;
Search range setting means for determining a search range of the detection feature point or the detection region based on the position of the reference feature point;
A separability map creating means for creating a separability map using the separability values of one or a plurality of separability filters for the area within the search range;
Area dividing means for dividing the separability map into a plurality of connected areas based on the separability value;
An area determination means for determining whether each of the connected areas has a predetermined condition as to whether or not each of the connected areas is the detection area or an area including the detected feature points;
The detection feature point is an end point of a person's eyebrow, or the detection region is an eyebrow region, and the reference feature point is at least two or more of the left and right pupil centers of the person, or the eye edge, Endpoint detection means for detecting an endpoint of the connected region;
With
The region determining means determines whether or not the end point is an end point of the eyebrow of the person based on at least one of an angle and a distance between the position of the end point and the position of each reference feature point. Processing equipment.
前記領域判定手段は、
前記所定の条件を具備する連結領域がないときは、前記各連結領域が第2の条件を具備するか否かで判定する
ことを特徴とする請求項2記載の画像処理装置。
The area determination means includes
The image processing apparatus according to claim 2, wherein when there is no connected area that satisfies the predetermined condition, it is determined whether or not each connected area satisfies the second condition.
前記分離度フィルタは、円形、楕円形、多角形である
ことを特徴とする請求項2または3記載の画像処理装置。
The image processing apparatus according to claim 2, wherein the separability filter is circular, elliptical, or polygonal.
前記分離度フィルタの分離度値が、2領域の輝度値のクラス間分散の和をクラス間分散の和で割った値である
ことを特徴とする請求項2から4の少なくとも一項に記載の画像処理装置。
5. The at least one of claims 2 to 4, wherein the separability value of the separability filter is a value obtained by dividing the sum of inter-class variances of luminance values of two regions by the sum of inter-class variances. Image processing device.
前記分離度フィルタの分離度値が、2領域の輝度値の平均値の差の値である
ことを特徴とする請求項2から5の少なくとも一項に記載の画像処理装置。
6. The image processing apparatus according to claim 2, wherein the separation degree value of the separation degree filter is a difference value between average values of luminance values in two regions.
画像中の人物の顔の特徴点、または、領域をコンピュータによって検出する画像処理プログラムにおいて、
前記検出すべき検出特徴点、または、検出領域以外の特徴点を基準特徴点として検出する基準特徴点検出機能と、
前記基準特徴点の位置に基づいて、前記検出特徴点または前記検出領域の探索範囲を決定する探索範囲設定機能と、
前記探索範囲内の領域を、分離度フィルタの分離度値を用いて分離度マップを作成する分離度マップ作成機能と、
前記分離度マップを、前記分離度値に基づいて複数の連結領域に分割する領域分割機能と、
前記各連結領域が前記検出領域であるか、または、前記検出特徴点を含む領域であるか否かについて、前記各連結領域が所定の条件を具備するか否かで判定する領域判定機能と、
前記検出特徴点が人物の眉の端点、または、前記検出領域が眉領域であり、前記基準特徴点が前記人物の左右の瞳中心、または、目端の内の少なくとも2点以上であって、前記連結領域の端点を検出する端点検出機能と、
を実現し、
前記領域判定機能は、前記端点の位置と前記各基準特徴点の位置との角度、距離の少なくとも一方から前記端点が前記人物の眉の端点であるか否かを判定する
ことを特徴とする画像処理プログラム。
In an image processing program for detecting a feature point or region of a human face in an image by a computer,
A reference feature point detection function for detecting the detection feature point to be detected or a feature point other than the detection region as a reference feature point;
A search range setting function for determining a search range of the detection feature point or the detection region based on the position of the reference feature point;
A separability map creating function for creating a separability map using the separability value of the separability filter for the area within the search range;
A region dividing function for dividing the separation map into a plurality of connected regions based on the separation value;
An area determination function for determining whether each of the connected areas has a predetermined condition as to whether or not each of the connected areas is the detection area or an area including the detection feature point;
The detection feature point is an end point of a person's eyebrow, or the detection region is an eyebrow region, and the reference feature point is at least two or more of the left and right pupil centers of the person, or the eye edge, An endpoint detection function for detecting an endpoint of the connected region;
Realized,
The area determination function determines whether the end point is an end point of the person's eyebrows from at least one of an angle and a distance between the position of the end point and the position of each reference feature point. Processing program.
前記領域判定機能は、
前記所定の条件を具備する連結領域がないときは、前記各連結領域が第2の条件を具備するか否かで判定する
ことを特徴とする請求項7記載の画像処理プログラム。
The area determination function is
The image processing program according to claim 7, wherein when there is no connected area satisfying the predetermined condition, it is determined whether or not each connected area satisfies the second condition.
前記分離度フィルタは、円形、楕円形、多角形である
ことを特徴とする請求項7または8記載の画像処理プログラム。
The image processing program according to claim 7 or 8, wherein the separability filter is circular, elliptical, or polygonal.
前記分離度フィルタの分離度値が、2領域の輝度値のクラス間分散の和をクラス間分散の和で割った値である
ことを特徴とする請求項7から9の少なくとも一項に記載の画像処理プログラム。
10. The at least one of claims 7 to 9, wherein the separability value of the separability filter is a value obtained by dividing the sum of inter-class variances of luminance values of two regions by the sum of inter-class variances. Image processing program.
前記分離度フィルタの分離度値が、2領域の輝度値の平均値の差の値である
ことを特徴とする請求項7から10の少なくとも一項に記載の画像処理プログラム。
The image processing program according to at least one of claims 7 to 10, wherein the separability value of the separability filter is a difference value between average values of luminance values in two regions.
JP2006007423A 2006-01-16 2006-01-16 Image processing apparatus and image processing program Expired - Fee Related JP4533849B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006007423A JP4533849B2 (en) 2006-01-16 2006-01-16 Image processing apparatus and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006007423A JP4533849B2 (en) 2006-01-16 2006-01-16 Image processing apparatus and image processing program

Publications (2)

Publication Number Publication Date
JP2007188407A true JP2007188407A (en) 2007-07-26
JP4533849B2 JP4533849B2 (en) 2010-09-01

Family

ID=38343518

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006007423A Expired - Fee Related JP4533849B2 (en) 2006-01-16 2006-01-16 Image processing apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP4533849B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101493887B (en) * 2009-03-06 2012-03-28 北京工业大学 Eyebrow image segmentation method based on semi-supervision learning and Hash index
WO2013133086A1 (en) * 2012-03-05 2013-09-12 日産自動車株式会社 White line detection device, white line detection filter device, and white line detection method
JP2013210991A (en) * 2012-03-02 2013-10-10 Nissan Motor Co Ltd Apparatus and method for detecting crossing
JP2013228915A (en) * 2012-04-26 2013-11-07 Nissan Motor Co Ltd Pedestrian detecting device and method for detecting pedestrian
EP3040939A4 (en) * 2013-08-30 2016-09-07 Panasonic Ip Man Co Ltd Makeup support device, makeup support method, and makeup support program
JP2019068872A (en) * 2017-10-05 2019-05-09 株式会社顔分析パーソナルメイクアップ研究所 Film and face analyzer

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09190522A (en) * 1996-01-09 1997-07-22 Taito Corp Method for compositing and processing picture and its device
JP2000259833A (en) * 1999-03-08 2000-09-22 Toshiba Corp Face image processor and processing method therefor
JP3279913B2 (en) * 1996-03-18 2002-04-30 株式会社東芝 Person authentication device, feature point extraction device, and feature point extraction method
JP3319408B2 (en) * 1998-10-12 2002-09-03 株式会社豊田中央研究所 Facial feature extraction device
JP2004094917A (en) * 2002-07-08 2004-03-25 Toshiba Corp Virtual makeup device and method therefor
JP2004318205A (en) * 2003-04-10 2004-11-11 Sony Corp Image processing device, image processing method, and photographing device
JP3732881B2 (en) * 1996-01-22 2006-01-11 株式会社タイトー Image feature point detection method and apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09190522A (en) * 1996-01-09 1997-07-22 Taito Corp Method for compositing and processing picture and its device
JP3732881B2 (en) * 1996-01-22 2006-01-11 株式会社タイトー Image feature point detection method and apparatus
JP3279913B2 (en) * 1996-03-18 2002-04-30 株式会社東芝 Person authentication device, feature point extraction device, and feature point extraction method
JP3319408B2 (en) * 1998-10-12 2002-09-03 株式会社豊田中央研究所 Facial feature extraction device
JP2000259833A (en) * 1999-03-08 2000-09-22 Toshiba Corp Face image processor and processing method therefor
JP2004094917A (en) * 2002-07-08 2004-03-25 Toshiba Corp Virtual makeup device and method therefor
JP2004318205A (en) * 2003-04-10 2004-11-11 Sony Corp Image processing device, image processing method, and photographing device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101493887B (en) * 2009-03-06 2012-03-28 北京工业大学 Eyebrow image segmentation method based on semi-supervision learning and Hash index
JP2013210991A (en) * 2012-03-02 2013-10-10 Nissan Motor Co Ltd Apparatus and method for detecting crossing
WO2013133086A1 (en) * 2012-03-05 2013-09-12 日産自動車株式会社 White line detection device, white line detection filter device, and white line detection method
JPWO2013133086A1 (en) * 2012-03-05 2015-07-30 日産自動車株式会社 White line detection device, white line detection filter device, and white line detection method
JP2013228915A (en) * 2012-04-26 2013-11-07 Nissan Motor Co Ltd Pedestrian detecting device and method for detecting pedestrian
EP3040939A4 (en) * 2013-08-30 2016-09-07 Panasonic Ip Man Co Ltd Makeup support device, makeup support method, and makeup support program
JPWO2015029392A1 (en) * 2013-08-30 2017-03-02 パナソニックIpマネジメント株式会社 Makeup support device, makeup support method, and makeup support program
US9858473B2 (en) 2013-08-30 2018-01-02 Panasonic Intellectual Property Management Co., Ltd. Makeup supporting device, makeup supporting method, and non-transitory computer-readable recording medium
JP2019068872A (en) * 2017-10-05 2019-05-09 株式会社顔分析パーソナルメイクアップ研究所 Film and face analyzer

Also Published As

Publication number Publication date
JP4533849B2 (en) 2010-09-01

Similar Documents

Publication Publication Date Title
EP1970839B1 (en) Apparatus, method, and program for face feature point detection
JP5538909B2 (en) Detection apparatus and method
JP3549013B2 (en) Eye position detection method, eye position detection device, and recording medium recording eye position detection program
CN111435438A (en) Graphical fiducial mark recognition for augmented reality, virtual reality and robotics
WO2019174276A1 (en) Method, device, equipment and medium for locating center of target object region
JP2009211179A (en) Image processing method, pattern detection method, pattern recognition method, and image processing device
JPH0877334A (en) Automatic feature point extracting method for face image
JP2008234208A (en) Facial region detection apparatus and program
JP2007272435A (en) Face feature extraction device and face feature extraction method
JP4533849B2 (en) Image processing apparatus and image processing program
EP2639743A2 (en) Image processing device, image processing program, and image processing method
JP2008269182A (en) Image processing method, image processor, image processing system, and computer program
KR20160115663A (en) Image processing apparatus and image processing method
JP2000105819A (en) Face image area detecting device
JP4729188B2 (en) Gaze detection device
WO2017061106A1 (en) Information processing device, image processing system, image processing method, and program recording medium
CN108205641B (en) Gesture image processing method and device
Arsic et al. Improved lip detection algorithm based on region segmentation and edge detection
CN112818983A (en) Method for judging character inversion by using picture acquaintance
KR101014486B1 (en) Method and system for classifying harmful image by detecting adaptive skin color
JPH07311833A (en) Human face detecting device
EP2541469A2 (en) Image recognition device, image recognition method and image recognition program
JP2007219899A (en) Personal identification device, personal identification method, and personal identification program
JP2006163662A (en) Device and method for recognizing number of fingers
EP1865443A2 (en) Facial feature detection method and device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100309

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100518

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100614

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130618

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees