JP2007286923A - Face part position detection method and system - Google Patents

Face part position detection method and system Download PDF

Info

Publication number
JP2007286923A
JP2007286923A JP2006113893A JP2006113893A JP2007286923A JP 2007286923 A JP2007286923 A JP 2007286923A JP 2006113893 A JP2006113893 A JP 2006113893A JP 2006113893 A JP2006113893 A JP 2006113893A JP 2007286923 A JP2007286923 A JP 2007286923A
Authority
JP
Japan
Prior art keywords
mouth
eyes
pixels
circumscribed rectangle
nose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006113893A
Other languages
Japanese (ja)
Other versions
JP4530173B2 (en
Inventor
Hiroshi Ikeda
浩 池田
Keiichi Moriya
圭一 森谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kao Corp
Original Assignee
Kao Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kao Corp filed Critical Kao Corp
Priority to JP2006113893A priority Critical patent/JP4530173B2/en
Priority to EP06843356.4A priority patent/EP1970859B1/en
Priority to PCT/JP2006/325972 priority patent/WO2007074844A1/en
Priority to CN200680053540XA priority patent/CN101390128B/en
Priority to US12/159,509 priority patent/US8131013B2/en
Priority to TW095149419A priority patent/TWI378396B/en
Publication of JP2007286923A publication Critical patent/JP2007286923A/en
Application granted granted Critical
Publication of JP4530173B2 publication Critical patent/JP4530173B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To automatically and reliably detect positions of eyes, a mouse, and a nose from a face image by means of a simple method. <P>SOLUTION: A plurality of gray-scale images having sequentially varied lightness are formed from the face image. As the gray-scale images fade in from a fade-out state of a high lightness to a low lightness, a method (or a fade-in method) for detecting the block areas of pixels to sequentially appear in the faded-out face area is performed. The positions of the eyes are specified on the basis of the appearance frequency of the detected block areas of the pixels appearing in pairs all over the gray-scale images. On the other hand, the mouth position and the nose position are specified on the basis of the positional relations of the pixel block areas, to the two eyes, which are detected by the fade-in method and the pixels sequentially appearing stops in growth. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、顔画像から目、口、鼻といった顔パーツの位置を自動的に検出する方法に関する。   The present invention relates to a method for automatically detecting positions of facial parts such as eyes, mouths, and noses from facial images.

顔画像における目、口、鼻といった顔パーツの位置の検出は、被験者の顔画像の目、口、鼻、その他の顔パーツの部分ないしそれらの周辺領域に色画像などを重ねてメイクアップシミュレーション画像を形成する場合に必要とされている。   Detection of the position of facial parts such as eyes, mouth, and nose in the facial image is performed by overlaying color images on the eyes, mouth, nose, other facial parts of the subject's facial image, and their surrounding areas Is needed when forming.

この他、目の位置の検出は、被験者の顔画像に髪型のモデル画像を重ねて髪型シミュレーション画像を形成する場合に、画像の大きさの調整や位置合わせのためになされており、また、顔画像の目隠し処理、顔画像のフレーム処理、個人認証用画像の作成等においてもなされている。   In addition, the detection of the eye position is performed to adjust the size and position of the image when a hairstyle simulation image is formed by overlaying the model image of the hairstyle on the face image of the subject. It is also used in image blindfolding, face image frame processing, creation of personal authentication images, and the like.

従来、顔画像から目の位置を検出する方法としては、肌色領域の抽出により顔を検出し、さらにパターンマッチング等により目を検出する方法等が使用されている(非特許文献
1、特許文献1)。
Conventionally, as a method for detecting an eye position from a face image, a method of detecting a face by extracting a skin color region and further detecting an eye by pattern matching or the like has been used (Non-Patent Document 1, Patent Document 1). ).

2005年第5回LSI IPデザインアワード受賞論文「高速・高信頼な顔検出を可能とする顔候補点検出法」(日経BP社)2005 5th LSI IP Design Award Winning Paper “Face candidate point detection method that enables fast and reliable face detection” (Nikkei Business Publications) 特開2004−94917JP 2004-94917 A

しかしながら、肌色領域の抽出は照明環境の影響を受ける。そのため、種々の照明環境で撮られた不特定多数の顔画像を対象とする場合には信頼性が問題となる。また、パターンマッチングの手法は、計算量が莫大となるという問題がある。   However, the extraction of the skin color area is affected by the lighting environment. Therefore, reliability becomes a problem when an unspecified number of face images taken in various lighting environments are targeted. Further, the pattern matching method has a problem that the amount of calculation becomes enormous.

これに対し、本発明は、顔画像から目、口及び鼻の位置を、簡便な手法で信頼性高く自動的に検出できるようにすることを目的とする。   On the other hand, an object of the present invention is to enable automatic and reliable detection of positions of eyes, mouth and nose from a face image.

本発明者らは、顔画像から、明度が逐次変化した複数のグレースケール画像を作成し、高明度側のフェードアウトした画像から順次フェードインした画像を観察した場合に、フェードアウトした顔領域に最初に現れる画素が瞳領域のものであること、この場合、瞳領域の画素は対になって現れること、対をなして現れた画素領域の全グレースケール画像にわたる出現度数を集積すると、その集積結果に基づいて目の位置を特定できること、さらに、フェードアウトした画像から順次フェードインした画像を観察した場合に得られる画素の固まりのうち、目の位置と特定の関係にあるものを選択し、それら相互の位置関係について条件を付加することにより、口の位置や鼻の位置も特定できることを見出した。   When the present inventors create a plurality of grayscale images with successively changing brightness from the face image and observe the images that are faded in sequentially from the faded-out images on the high brightness side, If the appearing pixels belong to the pupil region, in this case, the pixels in the pupil region appear in pairs, and if the frequency of appearance over all grayscale images of the pixel regions that appear in pairs is accumulated, The position of the eyes can be specified, and from among the cluster of pixels obtained when the images faded in sequentially from the faded-out image are observed, the one having a specific relationship with the eye position is selected and It was found that the position of the mouth and the position of the nose can be specified by adding conditions for the positional relationship.

即ち、本発明は、顔画像から、明度が逐次変化した複数のグレースケール画像を作成し、グレースケール画像が高明度でフェードアウトした状態から低明度へフェードインするのに伴い、フェードアウトした顔領域に漸次現れる画素の固まり領域を検出する方法(以下、フェードイン法という)を行い、検出された画素の固まり領域のうち、対となって現れたものを目の位置候補として選択し、各目の位置候補の全グレースケール画像にわたる出現度数に基づいて目の位置を特定し、
フェードイン法で検出された画素の固まり領域であって漸次現れる画素の成長が停止したものを、縦方向の位置が重なるものごとにグループ化し、
グループ化した画素の固まり領域ごとに外接矩形を形成し、
外接矩形のうち、両目との位置関係から予測される所定領域内にあるものを口の位置候補とし、
口の位置候補とした外接矩形のうち、横幅が最大のものを口の位置として特定する顔パーツの位置の検出方法を提供する。
That is, according to the present invention, a plurality of grayscale images whose brightness changes sequentially from the face image are created, and the faded-out face area is faded in from the state where the grayscale image fades out from the high brightness to the low brightness. A method of detecting gradually appearing pixel mass regions (hereinafter referred to as a fade-in method) is performed, and among the detected pixel mass regions, those appearing in pairs are selected as eye position candidates. Identify eye positions based on frequency of occurrence across all grayscale images of position candidates,
Groups of pixels detected by the fade-in method that have gradually stopped growing, grouped by overlapping vertical positions,
A circumscribed rectangle is formed for each grouped pixel cluster area,
Out of the circumscribed rectangles, those within a predetermined region predicted from the positional relationship with both eyes are considered as mouth position candidates,
Provided is a method for detecting the position of a face part that identifies a rectangle having a maximum width among circumscribed rectangles as mouth position candidates as a mouth position.

また、本発明は、上述の方法で口の位置を特定した後、フェードイン法で検出された画素の固まり領域であって漸次現れる画素の成長が停止したものごとに外接矩形を形成し、
外接矩形のうち、両目の位置との位置関係から予測される所定領域内にあるものを鼻の位置候補とし、
鼻の位置候補とした外接矩形のうち、その下辺が、口の位置として特定した外接矩形の上辺よりも上方にあり、横幅が最大のものを鼻の位置として特定する顔パーツの位置の検出方法を提供する。
Further, the present invention forms a circumscribed rectangle for each of the clustered pixels detected by the fade-in method after the position of the mouth is determined by the above-described method, and the growth of pixels that gradually appear is stopped,
Among the circumscribed rectangles, those within a predetermined region predicted from the positional relationship with the positions of both eyes are the nose position candidates,
Among the circumscribed rectangles that are nose position candidates, the method of detecting the position of the face part that identifies the nose position with the lower side above the upper side of the circumscribed rectangle identified as the position of the mouth and the largest width I will provide a.

さらに、本発明は、顔画像の取得手段と演算手段を備えた、顔パーツの位置の検出システムであって、演算手段が、
顔画像から、明度が逐次変化した複数のグレースケール画像を作成する機能、
グレースケール画像が高明度でフェードアウトした状態から低明度へフェードインするのに伴い、フェードアウトした顔領域に漸次現れる画素の固まり領域を検出する機能、
検出した画素の固まり領域のうち、対となって現れたものを目の位置候補として選択する機能、
各目の位置候補の全グレースケール画像にわたる出現度数に基づいて目の位置を特定する機能、
検出した画素の固まり領域であって漸次現れる画素の成長が停止したもののうち、縦方向の位置が重なるものをグループ化する機能、
グループ化した画素の固まり領域ごとに外接矩形を形成する機能、
グループ化した画素の固まり領域の外接矩形のうち、両目との位置関係から予測される所定領域内にあるものを口の位置候補とする機能、
口の位置候補とした外接矩形のうち、横幅が最大のものを口の位置として選択する機能、
検出した画素の固まり領域であって漸次現れる画素の成長が停止したものごとに外接矩形を形成する機能、
検出した画素の固まり領域ごとの外接矩形のうち、両目との位置関係から予測される所定領域内にあるものを鼻の位置候補とする機能、
鼻の位置候補とした外接矩形のうち、その下辺が、口の位置として特定した外接矩形の上辺よりも上方にあり、横幅が最大のものを鼻の位置として特定する機能
を備えている検出システムを提供する。
Furthermore, the present invention is a face part position detection system comprising a face image acquisition means and a calculation means, wherein the calculation means comprises:
The ability to create multiple grayscale images with varying brightness from face images,
A function that detects a cluster area of pixels that gradually appear in the faded-out face area as the grayscale image fades out from a state that fades out at high brightness to low brightness.
A function of selecting a clustered region of detected pixels that appears as a pair as an eye position candidate,
The ability to identify eye positions based on the frequency of appearance across all grayscale images of each eye position candidate,
A function of grouping the detected pixel cluster areas where the growth of the pixels that appear gradually stops and the vertical positions overlap,
A function to form a circumscribed rectangle for each grouped pixel cluster area,
A function that makes a candidate for the position of the mouth among the circumscribed rectangles of the grouped pixel cluster area within a predetermined area predicted from the positional relationship with both eyes,
A function that selects the circumscribed rectangle as the mouth position candidate having the maximum width as the mouth position,
A function to form a circumscribed rectangle for each detected pixel cluster area where the gradually appearing pixel growth has stopped,
A function that makes a nose position candidate a circumscribed rectangle for each cluster area of detected pixels within a predetermined area predicted from the positional relationship with both eyes,
Among the circumscribed rectangles that are candidates for the position of the nose, the detection system has a function of identifying the one with the maximum width as the position of the nose with the lower side above the upper side of the circumscribed rectangle identified as the position of the mouth I will provide a.

本発明の顔パーツの位置の検出方法あるいは検出システムによれば、まず、フェードイン法で得られる画素の固まり領域を目の位置候補として検出し、目の位置候補の全グレースケール画像にわたる出現度数に基づいて目の位置を特定する。次に、フェードイン法で得られる画素の固まり領域であって漸次現れる画素の成長が停止したものをグループ化し、グループ化した画素の固まり領域の外接矩形を想定し、その外接矩形と目との位置関係及び外接矩形の横幅から口の位置を特定する。さらに、フェードイン法で得られる画素の固まり領域であって漸次現れる画素の成長が停止したものの外接矩形を想定し、その外接矩形と目との位置関係、口との位置関係及び外接矩形の横幅から鼻の位置を特定する。したがって、照明環境、被験者の肌色、被験者の瞳の色、顔画像における顔の向き等にかかわらず、目、口、鼻の位置を信頼性高く検出することができ、さらにパターンマッチングが不要であるため、高速の演算処理により目、口、鼻の位置を検出することができる。   According to the face part position detection method or detection system of the present invention, first, a cluster area of pixels obtained by the fade-in method is detected as an eye position candidate, and the appearance frequency over the entire gray scale image of the eye position candidate is detected. The position of the eye is specified based on. Next, a group of pixels obtained by the fade-in method, in which the growth of the gradually appearing pixels has stopped, is grouped, and a circumscribed rectangle of the grouped pixel cluster region is assumed. The position of the mouth is specified from the positional relationship and the width of the circumscribed rectangle. Furthermore, assuming a circumscribed rectangle that is a clustered area of pixels obtained by the fade-in method, and the growth of pixels that gradually appear is stopped, the position of the circumscribed rectangle and the eye, the position of the mouth, and the width of the circumscribed rectangle To identify the position of the nose. Therefore, regardless of the lighting environment, the skin color of the subject, the color of the pupil of the subject, the orientation of the face in the face image, etc., the positions of the eyes, mouth, and nose can be detected with high reliability, and pattern matching is unnecessary. Therefore, the positions of eyes, mouth, and nose can be detected by high-speed calculation processing.

よって、目の位置を基準に用いて種々のヘアスタイル画像を被験者の顔画像にフィッティングさせる髪型シミュレーション画像の形成や、化粧後の目、鼻、口といった顔パーツないしそれらの周辺領域の画像を被験者の顔画像にフィッティングさせるメイクアップシミュレーション画像の形成等において、自然さのあるシミュレーション画像を、演算装置を用いて自動的に簡便に形成することが可能となる。   Therefore, the subject forms a hairstyle simulation image that fits various hairstyle images to the face image of the subject using the eye position as a reference, and the facial parts such as the eyes, nose, and mouth after makeup, and images of their surrounding areas. In the formation of a makeup simulation image to be fitted to the face image, a natural simulation image can be automatically and simply formed using an arithmetic device.

以下、図面を参照しつつ本発明を詳細に説明する。   Hereinafter, the present invention will be described in detail with reference to the drawings.

図1は、目、口、鼻の位置を順次検出する本発明の一実施例の方法の流れ図であり、図2は、この方法を実施する顔パーツの位置の検出システムのブロック図である。   FIG. 1 is a flowchart of a method according to an embodiment of the present invention for sequentially detecting the positions of eyes, mouth, and nose, and FIG. 2 is a block diagram of a system for detecting the position of a facial part that implements this method.

このシステム10は、撮像装置1及びパソコン本体2からからなっており、パソコン本体2には、ディスプレイ3、イメージスキャナ4、プリンタ5等が接続されている。   The system 10 includes an imaging apparatus 1 and a personal computer main body 2, and a display 3, an image scanner 4, a printer 5, and the like are connected to the personal computer main body 2.

撮像装置1は、被験者の顔画像の取得手段として設けられており、市販のデジタルカメラを使用することができる。   The imaging device 1 is provided as means for acquiring a face image of a subject, and a commercially available digital camera can be used.

パソコン本体2は、明度が逐次変化した複数のグレースケール画像(例えば、256階調のグレースケール画像の階層において、画素値が2〜3階調ずつ変化したもの)を作成する画像処理機能を備えている。   The personal computer main body 2 has an image processing function for creating a plurality of gray scale images whose brightness has been changed successively (for example, one in which pixel values are changed by 2 to 3 gradations in a 256 gradation gray scale image layer). ing.

グレースケール画像の作成手法としては、各画素において、(1)R、G、Bの各値の最大値と最小値の平均を利用する方法、(2)R、G、Bの各値の平均を利用する方法、(3)R、G、Bの各値に所定の重み付け係数(NTSC等)を掛けた後、それらの平均をとる方法等があるが、本発明においては、(3)の手法において、例えば次式
Y(明度)=0.298912×R+0.568811×G+0.114478×B
を利用し、階調を2〜3階調ずつ変化させることが好ましい。このようなグレースケール化の画像処理機能は、例えば、アドビシステム社製フォトショップ等の市販のイメージ処理ソフトをパソコン本体2に搭載することにより得ることができる。
Gray scale image creation methods include (1) a method using the average of the maximum and minimum values of R, G, and B for each pixel, and (2) the average of each value of R, G, and B. (3) There is a method in which each value of R, G, B is multiplied by a predetermined weighting coefficient (NTSC, etc.) and then averaged, etc. In the present invention, In the method, for example, the following formula Y (lightness) = 0.298912 × R + 0.568811 × G + 0.114478 × B
It is preferable to change the gradation by 2 to 3 gradations using Such a gray scale image processing function can be obtained, for example, by installing in the personal computer main body 2 commercially available image processing software such as Adobe System Photoshop.

また、パソコン本体2は、明度の変化に伴ってコントラストを変化させる機能(例えば、明度を高くするにしたがいコントラストを下げ、また、明度を低くするにしたがいコントラストをあげる機能)、グレースケール画像の階層を明度の低い又は高い順にリスト番号を付けて管理する機能、グレースケール画像の階層において、明度が高明度でフェードアウトした状態から低明度へフェードインするのに伴い、フェードアウトした顔領域に漸次現れる画素の固まり領域を検出する機能、検出した画素の固まり領域のうち対となって現れたものを目の位置候補として選択する機能、及び各目の位置候補の全階層のグレースケール画像にわたる出現度数をカウントし、その値に基づいて目の位置を特定する機能、各目の位置候補の全グレースケール画像にわたる出現度数に基づいて目の位置を特定する機能を有し、また、検出した画素の固まり領域であって漸次現れる画素の成長が停止したもののうち、縦方向の位置が重なるものをグループ化する機能、グループ化した画素の固まり領域ごとに外接矩形を形成する機能、グループ化した画素の固まり領域の外接矩形のうち、両目と特定の位置関係にあるものを口の位置候補とする機能、口の位置候補とした外接矩形のうち、横幅が最大のものを口の位置として特定する機能を有し、さらに、検出した画素の固まり領域ごとに外接矩形を形成する機能、検出した画素の固まり領域ごとの外接矩形のうち、両目と特定の位置関係にあるものを鼻の位置候補とする機能、鼻の位置候補とした外接矩形のうち、その下辺が、口の位置として特定した外接矩形の上辺よりも上方にあり、横幅が最大のものを鼻の位置として特定する機能などを有している。   Further, the personal computer main body 2 has a function of changing the contrast in accordance with the change in brightness (for example, a function of decreasing the contrast as the brightness is increased and increasing the contrast as the brightness is decreased), and the grayscale image hierarchy. A function that assigns list numbers in order of low or high brightness, and in the grayscale image hierarchy, pixels that gradually appear in the faded-out face area as the brightness fades from low fade to high brightness A function for detecting the cluster area of the detected pixel, a function for selecting the detected pixel cluster area as a pair of eye positions, and the frequency of appearance of each eye position candidate over the grayscale image of all layers A function that counts and identifies the eye position based on the value, and all grayscales for each eye position candidate A group that has the function of specifying the position of the eyes based on the frequency of appearance over the image, and that overlaps the vertical positions of the detected pixel cluster areas where the growth of the gradually appearing pixels has stopped A function to form a circumscribed rectangle for each grouped pixel cluster area, and a function to make a mouth position candidate a circumscribed rectangle of the grouped pixel cluster area in a specific positional relationship with both eyes , Among the circumscribed rectangles that are candidates for the position of the mouth, the function of specifying the largest width as the position of the mouth, and the function of forming a circumscribed rectangle for each cluster area of the detected pixels, Among the circumscribed rectangles for each mass area, a function that makes a specific positional relationship with both eyes a candidate for the position of the nose, and among the circumscribed rectangles that are candidates for the nose position, the lower side of the rectangle is the mouth position. And there above the upper side of the circumscribed rectangle of the horizontal width has a like function to identify the largest of the position of the nose.

このシステム10を用いた顔パーツの位置の検出方法では、まず、顔パーツの位置の検出対象とする顔画像、好ましくは正立の顔画像をパソコン本体2に取得する。顔画像は、例えば、撮像装置1で対象者の顔画像を撮り、それをパソコン本体2に取り込ませてもよく、イメージスキャナ4を用いて対象者の顔写真を読み取ることによってもよく、インターネット等の通信回線を利用して取得してもよい。   In the face part position detection method using the system 10, first, a face image, preferably an erect face image, for which the face part position is to be detected is acquired in the personal computer main body 2. The face image may be obtained, for example, by taking a face image of the subject with the imaging device 1 and importing the face image into the personal computer main body 2 or reading the face photograph of the subject with the image scanner 4, such as the Internet. You may acquire using a communication line.

次に、必要に応じて、顔画像の画素数を顔パーツの位置の検出処理に適したサイズに調整する。より具体的には、顔画像の画素数が多すぎると検出処理に過度の負担が掛かり、少なすぎると顔パーツの位置の検出精度が低下するため、480×360〜320×240程度に画像サイズを変更する。   Next, if necessary, the number of pixels of the face image is adjusted to a size suitable for the face part position detection process. More specifically, if the number of pixels of the face image is too large, an excessive burden is imposed on the detection process, and if it is too small, the detection accuracy of the position of the face part decreases, so the image size is about 480 × 360 to 320 × 240. To change.

また、顔画像がシャープであると、後の画像処理で細かいエッジが多数現れ、目、口、鼻の各顔パーツの位置候補の検出のノイズとなるので、必要に応じて顔画像にぼかし処理を行う。この場合、ぼかしの程度は、弱〜中とすることが好ましく、例えば、各画素について、注目点の画素とその周囲の25画素に対して1〜5の重み付ぼかしフィルタを使用して輝度の平均値を出力するぼかし処理を行う。このぼかし処理は、必要に応じて複数回行っても良い。   In addition, if the face image is sharp, many fine edges will appear in the subsequent image processing, and this will cause noise in the detection of position candidates for each face part of the eyes, mouth, and nose. I do. In this case, it is preferable that the degree of blurring is weak to medium. For example, for each pixel, the weighting blur filter of 1 to 5 is used for the pixel of interest and the surrounding 25 pixels. Performs blurring to output the average value. This blurring process may be performed a plurality of times as necessary.

さらに、本発明の顔パーツの位置の検出方法においては、顔画像にカラー情報は不要であるため、取得した画像がカラー画像の場合には、後の処理量を低減させるため、グレースケール画像に変換する。   Furthermore, in the face part position detection method of the present invention, color information is not necessary for the face image. Therefore, when the acquired image is a color image, it is converted to a grayscale image in order to reduce the amount of subsequent processing. Convert.

次に、取得した顔画像において、目の位置を検出するが、その前に予め目の位置の検出対象領域を設定しておくことが好ましい。例えば、図3のように、グレースケール顔画像20に対し、目の位置の検出対象領域として矩形枠21を設定する。この矩形枠21の設定方法としては、顔画像20について、縦サイズの1/8をAとした場合に、縦3A、横4Aの領域を、その領域の中心Oが、顔画像20の中心座標と重なるように形成すればよく、ここで、顔画像20の中心座標は、顔画像20の横幅の中心線上で顔画像20の上辺から3.5Aの位置とすればよい。このように目の位置の検出対象領域として矩形枠21を設定する方法は、上半身が写っている任意の正立画像に対して適用することができる。   Next, the eye position is detected in the acquired face image, but it is preferable to set a detection target region for the eye position in advance. For example, as shown in FIG. 3, a rectangular frame 21 is set as the eye position detection target region for the grayscale face image 20. As a method for setting the rectangular frame 21, assuming that 1/8 of the vertical size of the face image 20 is A, the area of 3 A length and 4 A width is the center O of the area, and the center coordinates of the face image 20 Here, the center coordinate of the face image 20 may be a position 3.5A from the upper side of the face image 20 on the center line of the width of the face image 20. The method of setting the rectangular frame 21 as the eye position detection target area in this way can be applied to any upright image in which the upper body is shown.

次に、図4に示すように、明度が逐次変化した複数のグレースケール画像を形成する。より具体的には、例えば256階調のグレースケール画像において、完全にフェードアウトした画素値0の画像から30〜100階層程度作成する。この階層内の画素値で50〜130の中に目の部分が必ず現れる。この場合、明度を上げるにつれてコントラストを下げ、明度を下げるにつれてコントラストをあげると、フェードイン画像中に目の部分がより鮮明に現れるので好ましい。   Next, as shown in FIG. 4, a plurality of grayscale images whose brightness has been sequentially changed are formed. More specifically, for example, in a grayscale image with 256 gradations, about 30 to 100 layers are created from an image with a pixel value of 0 that is completely faded out. The eye part always appears in 50 to 130 in the pixel values in this hierarchy. In this case, it is preferable to lower the contrast as the brightness is increased and to increase the contrast as the brightness is decreased, because the eye part appears more clearly in the fade-in image.

図4からわかるように、グレースケール画像の明度をあげて完全にフェードアウトさせた画像から逐次明度を低下させてフェードイン画像の階層を形成していくと、通常、まず最初に瞳に画素の固まりが検出され、次に鼻や口に画素の固まりが検出される。また、瞳領域の画素の固まりは左右一対として現れるので、左右一対の画素の固まりを選択する。階層によっては、瞳の他に口元、眉、額等の領域にも、画素の固まり領域が対になって現れるが、この段階では、これらの画素の固まり領域も目の位置候補として選択する。   As can be seen from FIG. 4, when the brightness of a grayscale image is increased and the faded-in image layer is formed by successively reducing the brightness from an image that has been completely faded out, normally, the cluster of pixels is usually first in the pupil. Is detected, and then a block of pixels is detected in the nose and mouth. Further, since the cluster of pixels in the pupil region appears as a pair of left and right, the group of pixels of the pair of left and right is selected. Depending on the hierarchy, pixel cluster areas appear in pairs in areas such as the mouth, eyebrows, and forehead in addition to the pupils. At this stage, these pixel cluster areas are also selected as eye position candidates.

なお、画素の固まり領域の検出においては、画像処理を簡便に行えるようにする点から、逐次明度が変化したグレースケール画像の階調を、図5に示すように反転させることが好ましい。   In the detection of the cluster area of pixels, it is preferable to reverse the gradation of the grayscale image whose brightness has been sequentially changed as shown in FIG. 5 in order to facilitate image processing.

また、目の位置候補として検出する画素の固まりの条件として、前述のようにグレースケール顔画像20の縦サイズの1/8をAとした場合に、画素の固まりの領域の大きさを縦0.5A〜0.7A、横0.7A〜1.0Aの範囲内に設定しておくことが好ましい。通常、目の位置にある画素の固まり領域の大きさは、この範囲内の大きさを有するので、このような大きさの条件を設定しておくことにより、目の位置の検出に要する後の処理量を軽減することができる。   In addition, as a condition of the cluster of pixels to be detected as eye position candidates, when 1/8 of the vertical size of the grayscale face image 20 is A as described above, the size of the pixel cluster area is set to vertical 0. It is preferable to set within a range of 0.5 A to 0.7 A and lateral 0.7 A to 1.0 A. Usually, the size of the cluster area of the pixel at the eye position has a size within this range. By setting such a size condition, the size of the subsequent area required for detection of the eye position is set. The amount of processing can be reduced.

図6は、ある階層のフェードイン画像において、顔領域中に現れた画素の固まり領域の外接矩形を示し、さらにこれらのうち対をなしているものを直線で結んだものである。なお、図6では、画素の固まり領域の対をわかりやすくするために画素の固まり領域を外接矩形で囲っているが、目の位置の検出に際し、画素の固まり領域を外接矩形で囲むことは必ずしも必要ではない。   FIG. 6 shows a circumscribed rectangle of a clustered area of pixels appearing in a face area in a fade-in image of a certain hierarchy, and further, a pair of these is connected by a straight line. In FIG. 6, the pixel cluster region is surrounded by a circumscribed rectangle for easy understanding of the pixel cluster region pair. However, when detecting the position of the eye, the pixel cluster region is not necessarily surrounded by the circumscribed rectangle. Not necessary.

対をなしている画素の固まり領域のうち、目の位置候補として選択するものの条件として、予め次の(1)〜(4)を設定しておくことが好ましい。
(1)左右一対の画素の固まり領域の横方向の距離が一定の範囲にあること
(2)左右一対の画素の固まり領域の縦方向の距離が一定の範囲にあること
(3)左右一対の画素の固まり領域のうち、左側の画素の固まり領域が、顔画像の矩形枠21の左半分の領域にあること
(4)左右一対の画素の固まり領域のうち、右側の画素の固まり領域が、顔画像の矩形枠21の右半分の領域にあること
It is preferable that the following (1) to (4) are set in advance as conditions for selecting a candidate eye position from among the clustered pixel regions.
(1) The lateral distance of the cluster area of a pair of left and right pixels is within a certain range.
(2) The vertical distance between the left and right pixel cluster areas is within a certain range.
(3) Of the paired left and right pixel cluster regions, the left pixel cluster region is in the left half region of the rectangular frame 21 of the face image.
(4) Of the paired left and right pixel cluster regions, the right pixel cluster region is in the right half region of the rectangular frame 21 of the face image.

次に、図7に示すように、各フェードイン画像毎に現れている一対の目の位置候補をグレースケール画像の全階層にわたって集積し、その出現度数をカウントし、このカウント数の多い順にランキングリストを作成する。このカウントでは、フェードアウトした顔画像から段階的に明度を下げていった場合に最初に現れ、最終段階まで現れ続ける瞳領域の目の位置候補が通常、最大カウント(ランキング第1位)となる。そこで、原則的には、この最大カウントの目の位置候補の位置を目の位置と特定する。   Next, as shown in FIG. 7, a pair of eye position candidates appearing for each fade-in image is accumulated over all layers of the grayscale image, the appearance frequency is counted, and the ranking is performed in descending order of the count number. Create a list. In this count, the eye position candidate that appears first when the brightness is gradually reduced from the faded-out face image and continues to appear until the final stage is normally the maximum count (ranking first). Therefore, in principle, the position of the eye position candidate with the maximum count is specified as the eye position.

ただし、次の(a)〜(c)の条件を全て満たした場合、あるいは(d)の条件を満たした場合には、カウント数が2番目に多かった目の位置候補の位置を目の位置として特定する。
(a)ランキング第2位の目の位置候補が、ランキング第1位の目の位置候補より上方にある場合
(b)ランキング第2位の目の位置候補の中心間距離が、ランキング第1位の目の位置候補の中心間距離より長い場合
(c)ランキング第2位の目の位置候補の左右の瞳にあたる領域が、共にランキング第1位の目候補の左右の瞳にあたる位置よりも外側にある場合
(d)ランキング第1位の目の位置候補とランキング第2位の目の位置候補の縦方向の距離が、目と眉の距離程度に離れ、ランキング第1位の目の位置候補がランキング第2位の目の位置候補よりも上にある場合
However, if the following conditions (a) to (c) are all satisfied, or if the condition (d) is satisfied, the position of the eye position candidate with the second largest count is set as the eye position. As specified.
(a) When the second position candidate for the ranking is higher than the first position candidate for the ranking
(b) When the distance between the centers of the second-ranked position candidates is longer than the distance between the centers of the first-ranked position candidates
(c) When the left and right pupil regions of the second ranking eye position candidate are both outside the positions corresponding to the left and right pupils of the first ranking eye candidate
(d) The vertical distance between the first position candidate of the ranking and the second position candidate of the ranking is about the distance between the eyes and the eyebrows, and the first position candidate of the ranking is ranked first. When the position is above the second position candidate

このうち、(a)〜(c)は、ランキング第1位がまれに口領域になることがあるのに対し、口の位置を目の位置であると誤判定しないためのものであり、(d)は、目の周りの眉等を目の位置であると誤判定しないためのものである。   Of these, (a) to (c) are intended to prevent erroneous determination of the position of the mouth as the position of the eye, while the first ranking in the ranking may rarely be the mouth area. d) is for preventing erroneous determination that the eyebrows around the eyes are the positions of the eyes.

以上により、図8に示すように、顔画像(画像処理する前の元画像)において、目の位置(より正確には瞳の位置)を正確に検出することが可能となる。   As described above, as shown in FIG. 8, in the face image (original image before image processing), the eye position (more precisely, the position of the pupil) can be accurately detected.

本発明では、目の位置を検出した後、口の位置と鼻の位置を順次検出するが、顔画像が図9Aに示すように傾いている場合には、口の位置と鼻の位置の検出に先立ち、図9Bに示すように、両目の瞳を結ぶ直線が水平になるように顔画像の座標を回転させ、顔画像の傾きを補正することが好ましい。   In the present invention, after detecting the position of the eyes, the position of the mouth and the position of the nose are sequentially detected. When the face image is tilted as shown in FIG. 9A, the position of the mouth and the position of the nose are detected. Prior to this, as shown in FIG. 9B, it is preferable to correct the inclination of the face image by rotating the coordinates of the face image so that the straight line connecting the eyes of both eyes is horizontal.

また、顔画像中、口と鼻の検出対象領域とする矩形枠を予め設定しておくことが好ましい。例えば、図10に示すように、顔画像20について、縦サイズの1/8をAとした場合に、両目を2つの頂点とする逆正三角形から上下方向にそれぞれA,左右方向にそれぞれ0.5Aだけ幅だしした矩形枠21’を設定する。   Moreover, it is preferable to set in advance a rectangular frame as a detection target area of the mouth and nose in the face image. For example, as shown in FIG. 10, assuming that 1/8 of the vertical size is A for the face image 20, A is set in the vertical direction from the inverted regular triangle having both vertices as two vertices, and 0. A rectangular frame 21 ′ that is 5A wide is set.

口の位置の検出に際しては、目の位置の検出で使用したグレースケールの階層画像において、好ましくは設定した矩形枠21’内で、検出された画素の固まり領域であって漸次現れる画素の成長が停止したものを縦方向の位置が重なるものごとにグループ化する。例えば、図11に示すように、画素の固まり領域A、Bは一つのグループCにグループ化される。   When detecting the position of the mouth, in the grayscale hierarchical image used for detecting the position of the eyes, the growth of pixels that gradually appear in the clustered area of the detected pixels is preferably performed within the set rectangular frame 21 ′. The stopped items are grouped according to the overlapping vertical positions. For example, as shown in FIG. 11, the pixel cluster regions A and B are grouped into one group C.

なお、画素の固まり領域をグループ化するに際し、グループ化後の最大領域は、横方向が、両目の瞳の距離の1.1倍、縦方向が両目の瞳の距離の0.6倍を超えないようにする。これにより、不要なノイズを、口の位置を検出するための画素の固まり領域のグループから排除することができる。   When grouping pixel cluster areas, the maximum area after grouping is 1.1 times the distance between the eyes of the eyes in the horizontal direction and 0.6 times the distance of the eyes of the eyes in the vertical direction. Do not. Thereby, unnecessary noise can be excluded from the group of pixel cluster regions for detecting the position of the mouth.

グループ化した画素の固まり領域ごとに外接矩形を形成し、外接矩形のうち、両目の位置と特定の関係にあるもの、より具体的には、図12に示すように、両目の瞳の位置を左右の頂点とする逆正三角形Tを描き、その逆正三角形Tの下頂点を中心とする、直径が該逆正三角形の一辺長さの0.65〜1.0倍の円40を描き、一方、グループCの外接矩形30の中心を円の中心とする外接矩形30に内接する円41を描き、この円41が上述の円40と重なりを有する場合に、その重なりを有する円41と対応する外接矩形30を口の位置候補とする。   A circumscribed rectangle is formed for each grouped pixel cluster region, and the circumscribed rectangle has a specific relationship with the position of both eyes, more specifically, as shown in FIG. Draw an inverted equilateral triangle T as left and right vertices, draw a circle 40 centered on the lower apex of the inverted equilateral triangle T and whose diameter is 0.65 to 1.0 times the side length of the inverted equilateral triangle, On the other hand, when a circle 41 inscribed in the circumscribed rectangle 30 having the center of the circumscribed rectangle 30 of the group C as the center of the circle is drawn and this circle 41 overlaps the circle 40 described above, it corresponds to the circle 41 having the overlap. The circumscribed rectangle 30 to be used is set as a mouth position candidate.

そして、口の位置候補とした外接矩形が複数存在する場合、横幅が最大である外接矩形を口の位置として特定する。   When there are a plurality of circumscribed rectangles as mouth position candidates, the circumscribed rectangle having the maximum width is specified as the position of the mouth.

こうして口の位置とする外接矩形30を特定した後、その特定した外接矩形の横幅を、口を構成する画素の横幅とする。   After specifying the circumscribed rectangle 30 as the position of the mouth in this way, the horizontal width of the specified circumscribed rectangle is set as the horizontal width of the pixels constituting the mouth.

ここで、口の位置として選択した外接矩形の横幅が、両目の瞳を結ぶ直線の2等分線を(逆三角形の下頂点)を跨がない場合には、その2等分線を中心として、口の位置として選択した外接矩形が左右対称となるように、その外接矩形を横方向に伸張し、その伸張した矩形で口の位置を特定する。   Here, when the width of the circumscribed rectangle selected as the mouth position does not cross the bisector of the straight line connecting the eyes of both eyes (the lower vertex of the inverted triangle), the bisector is the center. The circumscribed rectangle is expanded in the horizontal direction so that the circumscribed rectangle selected as the position of the mouth is symmetric, and the position of the mouth is specified by the expanded rectangle.

なお、以上の処理で口の位置とする外接矩形となるものが存在しなかった場合には、フェードイン法による目の位置を次の目の位置候補(カウントランキングが次の順位の目の位置)に特定して口の検出をやり直す。   If there is no circumscribed rectangle as the mouth position in the above processing, the eye position by the fade-in method is set as the next eye position candidate (the eye position of the next rank in the count ranking). ) And repeat mouth detection.

本発明において、口の位置を特定した後は、鼻の位置を検出する。鼻の位置の検出に際しては、目の位置の検出で使用したグレースケールの階層画像において、好ましくは図11に示すように、設定した前述の矩形枠21’内において、検出された画素の固まり領域を格別グループ化することなく、各画素の固まり領域の外接矩形31、32、33、34を形成する。そして、形成した外接矩形31、32、33、34のうち、両目の位置と特定の関係にあるもの、より具体的には、口の位置の検出の場合と同様に、図12に示すように、両目の位置を左右の頂点とする逆正三角形Tを描き、その逆正三角形Tの下頂点を中心とする、直径が該逆正三角形の一辺長さの0.5〜0.7倍の円42を描き、一方、各外接矩形31、32、33、34の中心を円の中心とする各外接矩形31、32、33、34に内接する円を描き、その円が上述の円42と重なりを有する場合に、その重なりを有する円と対応する外接矩形32、33を鼻の位置候補とする。   In the present invention, after the position of the mouth is specified, the position of the nose is detected. When detecting the position of the nose, in the grayscale hierarchical image used in the detection of the eye position, preferably, as shown in FIG. 11, the cluster area of the detected pixels in the set rectangular frame 21 ′. The circumscribed rectangles 31, 32, 33, and 34 of the cluster region of each pixel are formed without specially grouping. Then, among the formed circumscribed rectangles 31, 32, 33, and 34, those having a specific relationship with the positions of both eyes, more specifically, as in the case of detecting the position of the mouth, as shown in FIG. Draw an inverted equilateral triangle T with the positions of both eyes at the left and right vertices, and center the lower vertex of the inverted equilateral triangle T, and the diameter is 0.5 to 0.7 times the length of one side of the inverted equilateral triangle. A circle 42 is drawn. On the other hand, a circle inscribed in each circumscribed rectangle 31, 32, 33, 34 having the center of each circumscribed rectangle 31, 32, 33, 34 as the center of the circle is drawn. When there is an overlap, circumscribed rectangles 32 and 33 corresponding to the circle having the overlap are used as nose position candidates.

そして、鼻の位置候補とした外接矩形32、33のうち、その下辺が、口の位置として特定した外接矩形30の上辺よりも上方にあり、横幅が最大のものを鼻の位置として、より詳細には、鼻の位置として特定した外接矩形の下辺により、鼻の下端の位置と幅を特定する。   Of the circumscribing rectangles 32 and 33 as nose position candidates, the lower side is above the upper side of the circumscribing rectangle 30 specified as the mouth position, and the one with the largest width is the nose position. The position and width of the lower end of the nose are specified by the lower side of the circumscribed rectangle specified as the position of the nose.

ここで、鼻の位置として特定した外接矩形の横幅が、両目の瞳を結ぶ直線の2等分線を(逆三角形の下頂点)を跨がない場合には、その2等分線を中心として、鼻の位置として選択した外接矩形が左右対称となるように、その外接矩形を横方向に伸張し、その伸張した矩形の下辺で鼻の下端の位置と幅を特定する。   Here, when the width of the circumscribed rectangle specified as the position of the nose does not cross the bisector of the straight line connecting the eyes of both eyes (the lower vertex of the inverted triangle), the bisector is the center. The circumscribed rectangle is expanded in the horizontal direction so that the circumscribed rectangle selected as the nose position is symmetrical, and the position and width of the lower end of the nose are specified by the lower side of the elongated rectangle.

こうして鼻と口の位置を特定するにあたり、図9Aに示したように、傾いている顔画像を、図9Bに示したように、傾きを補正した場合には、眼、鼻、口の位置を特定後、座標を逆回転させ、それらの位置を当初の傾いている顔画像における位置に変換する。   In specifying the positions of the nose and mouth in this way, as shown in FIG. 9A, when the tilted face image is corrected as shown in FIG. 9B, the positions of the eyes, nose and mouth are changed. After the identification, the coordinates are rotated in the reverse direction, and their positions are converted into positions in the initial tilted face image.

本発明は、目の位置、口の位置、鼻の位置の検出が必要とされる化粧シミュレーション画像の形成等において、有用となる。   The present invention is useful in forming a makeup simulation image that requires detection of the position of the eyes, the position of the mouth, and the position of the nose.

顔パーツの位置の検出方法の流れ図である。It is a flowchart of the detection method of the position of a face part. 顔パーツの位置の検出システムのブロック図である。It is a block diagram of the detection system of the position of a face part. 目の位置の検出対象領域の説明図である。It is explanatory drawing of the detection target area | region of the position of eyes. 明度を逐次変化させたグレースケール画像である。It is the gray scale image which changed lightness sequentially. 明度を逐次変化させたグレースケール画像の階調反転画像である。It is a grayscale inverted image of a gray scale image in which the brightness is sequentially changed. あるフェードイン画像における画素の固まり領域の説明図である。It is explanatory drawing of the cluster area | region of a pixel in a certain fade-in image. 目の位置候補を、グレースケール画像の全階層にわたって集積した状態の説明図である。It is explanatory drawing of the state which accumulated the position candidate of eyes over all the hierarchy of a gray scale image. 検出した目の位置を表示した元画像である。It is the original image which displayed the position of the detected eye. 傾いている顔画像である。It is a tilted face image. 傾きを補正した顔画像である。It is a face image with corrected inclination. 口の位置と鼻の位置の検出対象領域の説明図である。It is explanatory drawing of the detection object area | region of the position of a mouth and the position of a nose. 画素の固まり領域の外接矩形及びそのグループ化の説明図である。It is explanatory drawing of the circumscribed rectangle of the cluster area | region of a pixel, and its grouping. 口又は鼻の位置候補とする外接矩形の選択方法の説明図である。It is explanatory drawing of the selection method of the circumscribed rectangle made into the position candidate of a mouth or a nose.

符号の説明Explanation of symbols

1 撮像装置
2 パソコン本体
3 ディスプレイ
4 イメージスキャナ
5 プリンタ
10 顔パーツの位置の検出システム
20 グレースケール顔画像
21 目の位置の検出対象領域とする矩形枠
21’ 口の位置、鼻の位置の検出対象領域とする矩形枠
30 画素の固まり領域の外接矩形をグループ化した外接矩形
31、32、33、34 画素の固まり領域の外接矩形
40、41、42 円
DESCRIPTION OF SYMBOLS 1 Imaging device 2 Personal computer body 3 Display 4 Image scanner 5 Printer 10 Face part position detection system 20 Gray scale face image 21 Rectangular frame 21 ′ as a detection target area of eye position Detection target of mouth position and nose position A rectangular frame 30 as a region A circumscribed rectangle 31, 32, 33, 34 that groups the circumscribed rectangles of the clustered region of pixels 40, 41, 42 yen

Claims (5)

顔画像から、明度が逐次変化した複数のグレースケール画像を作成し、グレースケール画像が高明度でフェードアウトした状態から低明度へフェードインするのに伴い、フェードアウトした顔領域に漸次現れる画素の固まり領域を検出する方法(以下、フェードイン法という)を行い、検出された画素の固まり領域のうち、対となって現れたものを目の位置候補として選択し、各目の位置候補の全グレースケール画像にわたる出現度数に基づいて目の位置を特定し、
フェードイン法で検出された画素の固まり領域であって漸次現れる画素の成長の停止したものを、縦方向の位置が重なるものごとにグループ化し、
グループ化した画素の固まり領域ごとに外接矩形を形成し、
外接矩形のうち、両目との位置関係から予測される所定領域内にあるものを口の位置候補とし、
口の位置候補とした外接矩形のうち、横幅が最大のものを口の位置として特定する顔パーツの位置の検出方法。
Create multiple grayscale images with successively changing brightness from the face image, and as the grayscale image fades out from a state that fades out from high brightness to a low brightness, the cluster area of pixels that gradually appear in the faded-out face area Is detected (hereinafter referred to as a fade-in method), and a pair of detected pixel cluster regions is selected as an eye position candidate, and all gray scales of each eye position candidate are selected. Locate the eye based on the frequency of appearance across the image,
Groups of pixels that have been detected by the fade-in method and that have gradually stopped growing are grouped by overlapping vertical positions.
A circumscribed rectangle is formed for each grouped pixel cluster area,
Out of the circumscribed rectangles, those within a predetermined region predicted from the positional relationship with both eyes are considered as mouth position candidates,
A method for detecting the position of a face part that specifies a mouth rectangle having a maximum width among circumscribed rectangles as mouth position candidates.
両目の瞳を左右の頂点とする逆正三角形を描き、その逆正三角形の下頂点を中心とする、直径が該逆正三角形の一辺の長さの0.65〜1.0倍の円を描き、その円と、外接矩形の中心に位置する内接円とが重なる当該外接矩形を口の位置候補とする請求項1記載の顔パーツの位置の検出方法。   Draw an inverted equilateral triangle with the pupils of both eyes as left and right vertices, and draw a circle with a diameter 0.65 to 1.0 times the length of one side of the inverted equilateral triangle centered on the lower vertex of the inverted equilateral triangle. The face part position detection method according to claim 1, wherein the circumscribed rectangle in which the circle and the inscribed circle located at the center of the circumscribed rectangle overlap is used as a mouth position candidate. 請求項1記載の方法で口の位置を特定した後、フェードイン法で検出された画素の固まり領域であって漸次現れる画素の成長が停止したものごとに外接矩形を形成し、
外接矩形のうち、両目との位置関係から予測される所定領域内にあるものを鼻の位置候補とし、
鼻の位置候補とした外接矩形のうち、その下辺が、口の位置として特定した外接矩形の上辺よりも上方にあり、横幅が最大のものを鼻の位置として特定する顔パーツの位置の検出方法。
After specifying the position of the mouth by the method according to claim 1, forming a circumscribed rectangle for each of the pixel cluster areas detected by the fade-in method, where the growth of pixels that gradually appears is stopped,
Among the circumscribed rectangles, those within a predetermined region predicted from the positional relationship with both eyes are set as nose position candidates,
Among the circumscribed rectangles that are nose position candidates, the method of detecting the position of the face part that identifies the nose position with the lower side above the upper side of the circumscribed rectangle identified as the position of the mouth and the largest width .
両目の瞳を左右の頂点とする逆正三角形を描き、その逆正三角形の下頂点を中心とする、直径が該逆正三角形の一辺の長さの0.5〜0.7倍の円を描き、その円と、外接矩形の中心に位置する内接円とが重なる当該外接矩形を鼻の位置候補とする請求項3記載の顔パーツの位置の検出方法。   Draw an inverted equilateral triangle with the eyes of both eyes as the left and right vertices, and draw a circle with a diameter 0.5 to 0.7 times the length of one side of the inverted equilateral triangle centered on the lower vertex of the inverted equilateral triangle. The face part position detection method according to claim 3, wherein the circumscribed rectangle in which the circle and the inscribed circle located at the center of the circumscribed rectangle overlap each other is used as a nose position candidate. 顔画像の取得手段と演算手段を備えた、顔パーツの位置の検出システムであって、演算手段が、
顔画像から、明度が逐次変化した複数のグレースケール画像を作成する機能、
グレースケール画像が高明度でフェードアウトした状態から低明度へフェードインするのに伴い、フェードアウトした顔領域に漸次現れる画素の固まり領域を検出する機能、
検出した画素の固まり領域のうち、対となって現れたものを目の位置候補として選択する機能、
各目の位置候補の全グレースケール画像にわたる出現度数に基づいて目の位置を特定する機能、
検出した画素の固まり領域であって漸次現れる画素の成長が停止したもののうち、縦方向の位置が重なるものをグループ化する機能、
グループ化した画素の固まり領域ごとに外接矩形を形成する機能、
グループ化した画素の固まり領域の外接矩形のうち、両目との位置関係から予測される所定領域内にあるものを口の位置候補とする機能、
口の位置候補とした外接矩形のうち、横幅が最大のものを口の位置として特定する機能、
検出した画素の固まり領域であって漸次現れる画素の成長が停止したものごとに外接矩形を形成する機能、
検出した画素の固まり領域ごとの外接矩形のうち、両目との位置関係から予測される所定領域内にあるものを鼻の位置候補とする機能、
鼻の位置候補とした外接矩形のうち、その下辺が、口の位置として特定した外接矩形の上辺よりも上方にあり、横幅が最大のものを鼻の位置として特定する機能
を備えている顔パーツの位置の検出システム。
A face part position detection system comprising a face image acquisition means and a calculation means, wherein the calculation means comprises:
The ability to create multiple grayscale images with varying brightness from face images,
A function that detects a cluster area of pixels that gradually appear in the faded-out face area as the grayscale image fades out from a state that fades out at high brightness to low brightness.
A function of selecting a clustered region of detected pixels that appears as a pair as an eye position candidate,
The ability to identify eye positions based on the frequency of appearance across all grayscale images of each eye position candidate,
A function of grouping the detected pixel cluster areas where the growth of the pixels that appear gradually stops and the vertical positions overlap,
A function to form a circumscribed rectangle for each grouped pixel cluster area,
A function that makes a candidate for the position of the mouth among the circumscribed rectangles of the grouped pixel cluster area within a predetermined area predicted from the positional relationship with both eyes,
A function for specifying the mouth rectangle with the largest width among the circumscribed rectangles as mouth position candidates,
A function to form a circumscribed rectangle for each detected pixel cluster area where the gradually appearing pixel growth has stopped,
A function that makes a nose position candidate a circumscribed rectangle for each cluster area of detected pixels within a predetermined area predicted from the positional relationship with both eyes,
Among the circumscribed rectangles that are candidates for the position of the nose, the lower part is above the upper side of the circumscribed rectangle that is identified as the position of the mouth, and the face part has the function of identifying the largest width as the position of the nose Position detection system.
JP2006113893A 2005-12-28 2006-04-17 Method and system for detecting the position of a facial part Expired - Fee Related JP4530173B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2006113893A JP4530173B2 (en) 2006-04-17 2006-04-17 Method and system for detecting the position of a facial part
EP06843356.4A EP1970859B1 (en) 2005-12-28 2006-12-26 Detecting method and detecting system for positions of face parts
PCT/JP2006/325972 WO2007074844A1 (en) 2005-12-28 2006-12-26 Detecting method and detecting system for positions of face parts
CN200680053540XA CN101390128B (en) 2005-12-28 2006-12-26 Detecting method and detecting system for positions of face parts
US12/159,509 US8131013B2 (en) 2005-12-28 2006-12-26 Method and detecting system for positions of facial parts
TW095149419A TWI378396B (en) 2005-12-28 2006-12-28 Method and system for detecting positions of facial features

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006113893A JP4530173B2 (en) 2006-04-17 2006-04-17 Method and system for detecting the position of a facial part

Publications (2)

Publication Number Publication Date
JP2007286923A true JP2007286923A (en) 2007-11-01
JP4530173B2 JP4530173B2 (en) 2010-08-25

Family

ID=38758633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006113893A Expired - Fee Related JP4530173B2 (en) 2005-12-28 2006-04-17 Method and system for detecting the position of a facial part

Country Status (1)

Country Link
JP (1) JP4530173B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009232240A (en) * 2008-03-24 2009-10-08 Seiko Epson Corp Image processing unit, image processing method, and computer program for image processing
JP2010179012A (en) * 2009-02-09 2010-08-19 Shiseido Co Ltd Complexion measuring device, complexion measuring program, makeup simulation device and makeup simulation program
JP2014102713A (en) * 2012-11-21 2014-06-05 Casio Comput Co Ltd Face component extraction device, face component extraction method, and program
CN112883758A (en) * 2019-11-29 2021-06-01 杭州海康威视数字技术股份有限公司 Living body detection method and device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01314385A (en) * 1988-06-14 1989-12-19 Nec Corp Method and device for detecting face image
JP2000311248A (en) * 1999-04-28 2000-11-07 Sharp Corp Image processor
JP2004094917A (en) * 2002-07-08 2004-03-25 Toshiba Corp Virtual makeup device and method therefor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01314385A (en) * 1988-06-14 1989-12-19 Nec Corp Method and device for detecting face image
JP2000311248A (en) * 1999-04-28 2000-11-07 Sharp Corp Image processor
JP2004094917A (en) * 2002-07-08 2004-03-25 Toshiba Corp Virtual makeup device and method therefor

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009232240A (en) * 2008-03-24 2009-10-08 Seiko Epson Corp Image processing unit, image processing method, and computer program for image processing
JP2010179012A (en) * 2009-02-09 2010-08-19 Shiseido Co Ltd Complexion measuring device, complexion measuring program, makeup simulation device and makeup simulation program
JP2014102713A (en) * 2012-11-21 2014-06-05 Casio Comput Co Ltd Face component extraction device, face component extraction method, and program
CN112883758A (en) * 2019-11-29 2021-06-01 杭州海康威视数字技术股份有限公司 Living body detection method and device
CN112883758B (en) * 2019-11-29 2023-08-25 杭州海康威视数字技术股份有限公司 Living body detection method and device

Also Published As

Publication number Publication date
JP4530173B2 (en) 2010-08-25

Similar Documents

Publication Publication Date Title
US11250241B2 (en) Face image processing methods and apparatuses, and electronic devices
CN110660117B (en) Determining the position of an image key
US10255681B2 (en) Image matting using deep learning
CN108229276B (en) Neural network training and image processing method and device and electronic equipment
WO2007074844A1 (en) Detecting method and detecting system for positions of face parts
JP4414401B2 (en) Facial feature point detection method, apparatus, and program
CN107395958B (en) Image processing method and device, electronic equipment and storage medium
CN108734078B (en) Image processing method, image processing apparatus, electronic device, storage medium, and program
US11159717B2 (en) Systems and methods for real time screen display coordinate and shape detection
US20120120196A1 (en) Image counting method and apparatus
US20230237777A1 (en) Information processing apparatus, learning apparatus, image recognition apparatus, information processing method, learning method, image recognition method, and non-transitory-computer-readable storage medium
JP4530173B2 (en) Method and system for detecting the position of a facial part
US10803677B2 (en) Method and system of automated facial morphing for eyebrow hair and face color detection
JP4775599B2 (en) Eye position detection method
JP4831344B2 (en) Eye position detection method
JP7433849B2 (en) Information processing device, information processing method and program
JP4683236B2 (en) Eye position detection method
US8223220B2 (en) Image processing device, image processing method, and information storage medium
JP5093540B2 (en) Eye position detection method and detection system
JP4831361B2 (en) Eye position detection method and detection system
Herdtweck et al. Estimation of the horizon in photographed outdoor scenes by human and machine
Xu et al. Uncovering the Metaverse within Everyday Environments: a Coarse-to-Fine Approach
WO2005057496A1 (en) Method and device for detecting an object from image
KR101117543B1 (en) sign estimation system
CN111080743B (en) Character drawing method and device for connecting head and limb characteristic points

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100519

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100601

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130618

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees