JP2007286923A - Face part position detection method and system - Google Patents
Face part position detection method and system Download PDFInfo
- Publication number
- JP2007286923A JP2007286923A JP2006113893A JP2006113893A JP2007286923A JP 2007286923 A JP2007286923 A JP 2007286923A JP 2006113893 A JP2006113893 A JP 2006113893A JP 2006113893 A JP2006113893 A JP 2006113893A JP 2007286923 A JP2007286923 A JP 2007286923A
- Authority
- JP
- Japan
- Prior art keywords
- mouth
- eyes
- pixels
- circumscribed rectangle
- nose
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、顔画像から目、口、鼻といった顔パーツの位置を自動的に検出する方法に関する。 The present invention relates to a method for automatically detecting positions of facial parts such as eyes, mouths, and noses from facial images.
顔画像における目、口、鼻といった顔パーツの位置の検出は、被験者の顔画像の目、口、鼻、その他の顔パーツの部分ないしそれらの周辺領域に色画像などを重ねてメイクアップシミュレーション画像を形成する場合に必要とされている。 Detection of the position of facial parts such as eyes, mouth, and nose in the facial image is performed by overlaying color images on the eyes, mouth, nose, other facial parts of the subject's facial image, and their surrounding areas Is needed when forming.
この他、目の位置の検出は、被験者の顔画像に髪型のモデル画像を重ねて髪型シミュレーション画像を形成する場合に、画像の大きさの調整や位置合わせのためになされており、また、顔画像の目隠し処理、顔画像のフレーム処理、個人認証用画像の作成等においてもなされている。 In addition, the detection of the eye position is performed to adjust the size and position of the image when a hairstyle simulation image is formed by overlaying the model image of the hairstyle on the face image of the subject. It is also used in image blindfolding, face image frame processing, creation of personal authentication images, and the like.
従来、顔画像から目の位置を検出する方法としては、肌色領域の抽出により顔を検出し、さらにパターンマッチング等により目を検出する方法等が使用されている(非特許文献
1、特許文献1)。
Conventionally, as a method for detecting an eye position from a face image, a method of detecting a face by extracting a skin color region and further detecting an eye by pattern matching or the like has been used (Non-Patent
しかしながら、肌色領域の抽出は照明環境の影響を受ける。そのため、種々の照明環境で撮られた不特定多数の顔画像を対象とする場合には信頼性が問題となる。また、パターンマッチングの手法は、計算量が莫大となるという問題がある。 However, the extraction of the skin color area is affected by the lighting environment. Therefore, reliability becomes a problem when an unspecified number of face images taken in various lighting environments are targeted. Further, the pattern matching method has a problem that the amount of calculation becomes enormous.
これに対し、本発明は、顔画像から目、口及び鼻の位置を、簡便な手法で信頼性高く自動的に検出できるようにすることを目的とする。 On the other hand, an object of the present invention is to enable automatic and reliable detection of positions of eyes, mouth and nose from a face image.
本発明者らは、顔画像から、明度が逐次変化した複数のグレースケール画像を作成し、高明度側のフェードアウトした画像から順次フェードインした画像を観察した場合に、フェードアウトした顔領域に最初に現れる画素が瞳領域のものであること、この場合、瞳領域の画素は対になって現れること、対をなして現れた画素領域の全グレースケール画像にわたる出現度数を集積すると、その集積結果に基づいて目の位置を特定できること、さらに、フェードアウトした画像から順次フェードインした画像を観察した場合に得られる画素の固まりのうち、目の位置と特定の関係にあるものを選択し、それら相互の位置関係について条件を付加することにより、口の位置や鼻の位置も特定できることを見出した。 When the present inventors create a plurality of grayscale images with successively changing brightness from the face image and observe the images that are faded in sequentially from the faded-out images on the high brightness side, If the appearing pixels belong to the pupil region, in this case, the pixels in the pupil region appear in pairs, and if the frequency of appearance over all grayscale images of the pixel regions that appear in pairs is accumulated, The position of the eyes can be specified, and from among the cluster of pixels obtained when the images faded in sequentially from the faded-out image are observed, the one having a specific relationship with the eye position is selected and It was found that the position of the mouth and the position of the nose can be specified by adding conditions for the positional relationship.
即ち、本発明は、顔画像から、明度が逐次変化した複数のグレースケール画像を作成し、グレースケール画像が高明度でフェードアウトした状態から低明度へフェードインするのに伴い、フェードアウトした顔領域に漸次現れる画素の固まり領域を検出する方法(以下、フェードイン法という)を行い、検出された画素の固まり領域のうち、対となって現れたものを目の位置候補として選択し、各目の位置候補の全グレースケール画像にわたる出現度数に基づいて目の位置を特定し、
フェードイン法で検出された画素の固まり領域であって漸次現れる画素の成長が停止したものを、縦方向の位置が重なるものごとにグループ化し、
グループ化した画素の固まり領域ごとに外接矩形を形成し、
外接矩形のうち、両目との位置関係から予測される所定領域内にあるものを口の位置候補とし、
口の位置候補とした外接矩形のうち、横幅が最大のものを口の位置として特定する顔パーツの位置の検出方法を提供する。
That is, according to the present invention, a plurality of grayscale images whose brightness changes sequentially from the face image are created, and the faded-out face area is faded in from the state where the grayscale image fades out from the high brightness to the low brightness. A method of detecting gradually appearing pixel mass regions (hereinafter referred to as a fade-in method) is performed, and among the detected pixel mass regions, those appearing in pairs are selected as eye position candidates. Identify eye positions based on frequency of occurrence across all grayscale images of position candidates,
Groups of pixels detected by the fade-in method that have gradually stopped growing, grouped by overlapping vertical positions,
A circumscribed rectangle is formed for each grouped pixel cluster area,
Out of the circumscribed rectangles, those within a predetermined region predicted from the positional relationship with both eyes are considered as mouth position candidates,
Provided is a method for detecting the position of a face part that identifies a rectangle having a maximum width among circumscribed rectangles as mouth position candidates as a mouth position.
また、本発明は、上述の方法で口の位置を特定した後、フェードイン法で検出された画素の固まり領域であって漸次現れる画素の成長が停止したものごとに外接矩形を形成し、
外接矩形のうち、両目の位置との位置関係から予測される所定領域内にあるものを鼻の位置候補とし、
鼻の位置候補とした外接矩形のうち、その下辺が、口の位置として特定した外接矩形の上辺よりも上方にあり、横幅が最大のものを鼻の位置として特定する顔パーツの位置の検出方法を提供する。
Further, the present invention forms a circumscribed rectangle for each of the clustered pixels detected by the fade-in method after the position of the mouth is determined by the above-described method, and the growth of pixels that gradually appear is stopped,
Among the circumscribed rectangles, those within a predetermined region predicted from the positional relationship with the positions of both eyes are the nose position candidates,
Among the circumscribed rectangles that are nose position candidates, the method of detecting the position of the face part that identifies the nose position with the lower side above the upper side of the circumscribed rectangle identified as the position of the mouth and the largest width I will provide a.
さらに、本発明は、顔画像の取得手段と演算手段を備えた、顔パーツの位置の検出システムであって、演算手段が、
顔画像から、明度が逐次変化した複数のグレースケール画像を作成する機能、
グレースケール画像が高明度でフェードアウトした状態から低明度へフェードインするのに伴い、フェードアウトした顔領域に漸次現れる画素の固まり領域を検出する機能、
検出した画素の固まり領域のうち、対となって現れたものを目の位置候補として選択する機能、
各目の位置候補の全グレースケール画像にわたる出現度数に基づいて目の位置を特定する機能、
検出した画素の固まり領域であって漸次現れる画素の成長が停止したもののうち、縦方向の位置が重なるものをグループ化する機能、
グループ化した画素の固まり領域ごとに外接矩形を形成する機能、
グループ化した画素の固まり領域の外接矩形のうち、両目との位置関係から予測される所定領域内にあるものを口の位置候補とする機能、
口の位置候補とした外接矩形のうち、横幅が最大のものを口の位置として選択する機能、
検出した画素の固まり領域であって漸次現れる画素の成長が停止したものごとに外接矩形を形成する機能、
検出した画素の固まり領域ごとの外接矩形のうち、両目との位置関係から予測される所定領域内にあるものを鼻の位置候補とする機能、
鼻の位置候補とした外接矩形のうち、その下辺が、口の位置として特定した外接矩形の上辺よりも上方にあり、横幅が最大のものを鼻の位置として特定する機能
を備えている検出システムを提供する。
Furthermore, the present invention is a face part position detection system comprising a face image acquisition means and a calculation means, wherein the calculation means comprises:
The ability to create multiple grayscale images with varying brightness from face images,
A function that detects a cluster area of pixels that gradually appear in the faded-out face area as the grayscale image fades out from a state that fades out at high brightness to low brightness.
A function of selecting a clustered region of detected pixels that appears as a pair as an eye position candidate,
The ability to identify eye positions based on the frequency of appearance across all grayscale images of each eye position candidate,
A function of grouping the detected pixel cluster areas where the growth of the pixels that appear gradually stops and the vertical positions overlap,
A function to form a circumscribed rectangle for each grouped pixel cluster area,
A function that makes a candidate for the position of the mouth among the circumscribed rectangles of the grouped pixel cluster area within a predetermined area predicted from the positional relationship with both eyes,
A function that selects the circumscribed rectangle as the mouth position candidate having the maximum width as the mouth position,
A function to form a circumscribed rectangle for each detected pixel cluster area where the gradually appearing pixel growth has stopped,
A function that makes a nose position candidate a circumscribed rectangle for each cluster area of detected pixels within a predetermined area predicted from the positional relationship with both eyes,
Among the circumscribed rectangles that are candidates for the position of the nose, the detection system has a function of identifying the one with the maximum width as the position of the nose with the lower side above the upper side of the circumscribed rectangle identified as the position of the mouth I will provide a.
本発明の顔パーツの位置の検出方法あるいは検出システムによれば、まず、フェードイン法で得られる画素の固まり領域を目の位置候補として検出し、目の位置候補の全グレースケール画像にわたる出現度数に基づいて目の位置を特定する。次に、フェードイン法で得られる画素の固まり領域であって漸次現れる画素の成長が停止したものをグループ化し、グループ化した画素の固まり領域の外接矩形を想定し、その外接矩形と目との位置関係及び外接矩形の横幅から口の位置を特定する。さらに、フェードイン法で得られる画素の固まり領域であって漸次現れる画素の成長が停止したものの外接矩形を想定し、その外接矩形と目との位置関係、口との位置関係及び外接矩形の横幅から鼻の位置を特定する。したがって、照明環境、被験者の肌色、被験者の瞳の色、顔画像における顔の向き等にかかわらず、目、口、鼻の位置を信頼性高く検出することができ、さらにパターンマッチングが不要であるため、高速の演算処理により目、口、鼻の位置を検出することができる。 According to the face part position detection method or detection system of the present invention, first, a cluster area of pixels obtained by the fade-in method is detected as an eye position candidate, and the appearance frequency over the entire gray scale image of the eye position candidate is detected. The position of the eye is specified based on. Next, a group of pixels obtained by the fade-in method, in which the growth of the gradually appearing pixels has stopped, is grouped, and a circumscribed rectangle of the grouped pixel cluster region is assumed. The position of the mouth is specified from the positional relationship and the width of the circumscribed rectangle. Furthermore, assuming a circumscribed rectangle that is a clustered area of pixels obtained by the fade-in method, and the growth of pixels that gradually appear is stopped, the position of the circumscribed rectangle and the eye, the position of the mouth, and the width of the circumscribed rectangle To identify the position of the nose. Therefore, regardless of the lighting environment, the skin color of the subject, the color of the pupil of the subject, the orientation of the face in the face image, etc., the positions of the eyes, mouth, and nose can be detected with high reliability, and pattern matching is unnecessary. Therefore, the positions of eyes, mouth, and nose can be detected by high-speed calculation processing.
よって、目の位置を基準に用いて種々のヘアスタイル画像を被験者の顔画像にフィッティングさせる髪型シミュレーション画像の形成や、化粧後の目、鼻、口といった顔パーツないしそれらの周辺領域の画像を被験者の顔画像にフィッティングさせるメイクアップシミュレーション画像の形成等において、自然さのあるシミュレーション画像を、演算装置を用いて自動的に簡便に形成することが可能となる。 Therefore, the subject forms a hairstyle simulation image that fits various hairstyle images to the face image of the subject using the eye position as a reference, and the facial parts such as the eyes, nose, and mouth after makeup, and images of their surrounding areas. In the formation of a makeup simulation image to be fitted to the face image, a natural simulation image can be automatically and simply formed using an arithmetic device.
以下、図面を参照しつつ本発明を詳細に説明する。 Hereinafter, the present invention will be described in detail with reference to the drawings.
図1は、目、口、鼻の位置を順次検出する本発明の一実施例の方法の流れ図であり、図2は、この方法を実施する顔パーツの位置の検出システムのブロック図である。 FIG. 1 is a flowchart of a method according to an embodiment of the present invention for sequentially detecting the positions of eyes, mouth, and nose, and FIG. 2 is a block diagram of a system for detecting the position of a facial part that implements this method.
このシステム10は、撮像装置1及びパソコン本体2からからなっており、パソコン本体2には、ディスプレイ3、イメージスキャナ4、プリンタ5等が接続されている。
The system 10 includes an
撮像装置1は、被験者の顔画像の取得手段として設けられており、市販のデジタルカメラを使用することができる。
The
パソコン本体2は、明度が逐次変化した複数のグレースケール画像(例えば、256階調のグレースケール画像の階層において、画素値が2〜3階調ずつ変化したもの)を作成する画像処理機能を備えている。 The personal computer main body 2 has an image processing function for creating a plurality of gray scale images whose brightness has been changed successively (for example, one in which pixel values are changed by 2 to 3 gradations in a 256 gradation gray scale image layer). ing.
グレースケール画像の作成手法としては、各画素において、(1)R、G、Bの各値の最大値と最小値の平均を利用する方法、(2)R、G、Bの各値の平均を利用する方法、(3)R、G、Bの各値に所定の重み付け係数(NTSC等)を掛けた後、それらの平均をとる方法等があるが、本発明においては、(3)の手法において、例えば次式
Y(明度)=0.298912×R+0.568811×G+0.114478×B
を利用し、階調を2〜3階調ずつ変化させることが好ましい。このようなグレースケール化の画像処理機能は、例えば、アドビシステム社製フォトショップ等の市販のイメージ処理ソフトをパソコン本体2に搭載することにより得ることができる。
Gray scale image creation methods include (1) a method using the average of the maximum and minimum values of R, G, and B for each pixel, and (2) the average of each value of R, G, and B. (3) There is a method in which each value of R, G, B is multiplied by a predetermined weighting coefficient (NTSC, etc.) and then averaged, etc. In the present invention, In the method, for example, the following formula Y (lightness) = 0.298912 × R + 0.568811 × G + 0.114478 × B
It is preferable to change the gradation by 2 to 3 gradations using Such a gray scale image processing function can be obtained, for example, by installing in the personal computer main body 2 commercially available image processing software such as Adobe System Photoshop.
また、パソコン本体2は、明度の変化に伴ってコントラストを変化させる機能(例えば、明度を高くするにしたがいコントラストを下げ、また、明度を低くするにしたがいコントラストをあげる機能)、グレースケール画像の階層を明度の低い又は高い順にリスト番号を付けて管理する機能、グレースケール画像の階層において、明度が高明度でフェードアウトした状態から低明度へフェードインするのに伴い、フェードアウトした顔領域に漸次現れる画素の固まり領域を検出する機能、検出した画素の固まり領域のうち対となって現れたものを目の位置候補として選択する機能、及び各目の位置候補の全階層のグレースケール画像にわたる出現度数をカウントし、その値に基づいて目の位置を特定する機能、各目の位置候補の全グレースケール画像にわたる出現度数に基づいて目の位置を特定する機能を有し、また、検出した画素の固まり領域であって漸次現れる画素の成長が停止したもののうち、縦方向の位置が重なるものをグループ化する機能、グループ化した画素の固まり領域ごとに外接矩形を形成する機能、グループ化した画素の固まり領域の外接矩形のうち、両目と特定の位置関係にあるものを口の位置候補とする機能、口の位置候補とした外接矩形のうち、横幅が最大のものを口の位置として特定する機能を有し、さらに、検出した画素の固まり領域ごとに外接矩形を形成する機能、検出した画素の固まり領域ごとの外接矩形のうち、両目と特定の位置関係にあるものを鼻の位置候補とする機能、鼻の位置候補とした外接矩形のうち、その下辺が、口の位置として特定した外接矩形の上辺よりも上方にあり、横幅が最大のものを鼻の位置として特定する機能などを有している。 Further, the personal computer main body 2 has a function of changing the contrast in accordance with the change in brightness (for example, a function of decreasing the contrast as the brightness is increased and increasing the contrast as the brightness is decreased), and the grayscale image hierarchy. A function that assigns list numbers in order of low or high brightness, and in the grayscale image hierarchy, pixels that gradually appear in the faded-out face area as the brightness fades from low fade to high brightness A function for detecting the cluster area of the detected pixel, a function for selecting the detected pixel cluster area as a pair of eye positions, and the frequency of appearance of each eye position candidate over the grayscale image of all layers A function that counts and identifies the eye position based on the value, and all grayscales for each eye position candidate A group that has the function of specifying the position of the eyes based on the frequency of appearance over the image, and that overlaps the vertical positions of the detected pixel cluster areas where the growth of the gradually appearing pixels has stopped A function to form a circumscribed rectangle for each grouped pixel cluster area, and a function to make a mouth position candidate a circumscribed rectangle of the grouped pixel cluster area in a specific positional relationship with both eyes , Among the circumscribed rectangles that are candidates for the position of the mouth, the function of specifying the largest width as the position of the mouth, and the function of forming a circumscribed rectangle for each cluster area of the detected pixels, Among the circumscribed rectangles for each mass area, a function that makes a specific positional relationship with both eyes a candidate for the position of the nose, and among the circumscribed rectangles that are candidates for the nose position, the lower side of the rectangle is the mouth position. And there above the upper side of the circumscribed rectangle of the horizontal width has a like function to identify the largest of the position of the nose.
このシステム10を用いた顔パーツの位置の検出方法では、まず、顔パーツの位置の検出対象とする顔画像、好ましくは正立の顔画像をパソコン本体2に取得する。顔画像は、例えば、撮像装置1で対象者の顔画像を撮り、それをパソコン本体2に取り込ませてもよく、イメージスキャナ4を用いて対象者の顔写真を読み取ることによってもよく、インターネット等の通信回線を利用して取得してもよい。
In the face part position detection method using the system 10, first, a face image, preferably an erect face image, for which the face part position is to be detected is acquired in the personal computer main body 2. The face image may be obtained, for example, by taking a face image of the subject with the
次に、必要に応じて、顔画像の画素数を顔パーツの位置の検出処理に適したサイズに調整する。より具体的には、顔画像の画素数が多すぎると検出処理に過度の負担が掛かり、少なすぎると顔パーツの位置の検出精度が低下するため、480×360〜320×240程度に画像サイズを変更する。 Next, if necessary, the number of pixels of the face image is adjusted to a size suitable for the face part position detection process. More specifically, if the number of pixels of the face image is too large, an excessive burden is imposed on the detection process, and if it is too small, the detection accuracy of the position of the face part decreases, so the image size is about 480 × 360 to 320 × 240. To change.
また、顔画像がシャープであると、後の画像処理で細かいエッジが多数現れ、目、口、鼻の各顔パーツの位置候補の検出のノイズとなるので、必要に応じて顔画像にぼかし処理を行う。この場合、ぼかしの程度は、弱〜中とすることが好ましく、例えば、各画素について、注目点の画素とその周囲の25画素に対して1〜5の重み付ぼかしフィルタを使用して輝度の平均値を出力するぼかし処理を行う。このぼかし処理は、必要に応じて複数回行っても良い。 In addition, if the face image is sharp, many fine edges will appear in the subsequent image processing, and this will cause noise in the detection of position candidates for each face part of the eyes, mouth, and nose. I do. In this case, it is preferable that the degree of blurring is weak to medium. For example, for each pixel, the weighting blur filter of 1 to 5 is used for the pixel of interest and the surrounding 25 pixels. Performs blurring to output the average value. This blurring process may be performed a plurality of times as necessary.
さらに、本発明の顔パーツの位置の検出方法においては、顔画像にカラー情報は不要であるため、取得した画像がカラー画像の場合には、後の処理量を低減させるため、グレースケール画像に変換する。 Furthermore, in the face part position detection method of the present invention, color information is not necessary for the face image. Therefore, when the acquired image is a color image, it is converted to a grayscale image in order to reduce the amount of subsequent processing. Convert.
次に、取得した顔画像において、目の位置を検出するが、その前に予め目の位置の検出対象領域を設定しておくことが好ましい。例えば、図3のように、グレースケール顔画像20に対し、目の位置の検出対象領域として矩形枠21を設定する。この矩形枠21の設定方法としては、顔画像20について、縦サイズの1/8をAとした場合に、縦3A、横4Aの領域を、その領域の中心Oが、顔画像20の中心座標と重なるように形成すればよく、ここで、顔画像20の中心座標は、顔画像20の横幅の中心線上で顔画像20の上辺から3.5Aの位置とすればよい。このように目の位置の検出対象領域として矩形枠21を設定する方法は、上半身が写っている任意の正立画像に対して適用することができる。
Next, the eye position is detected in the acquired face image, but it is preferable to set a detection target region for the eye position in advance. For example, as shown in FIG. 3, a
次に、図4に示すように、明度が逐次変化した複数のグレースケール画像を形成する。より具体的には、例えば256階調のグレースケール画像において、完全にフェードアウトした画素値0の画像から30〜100階層程度作成する。この階層内の画素値で50〜130の中に目の部分が必ず現れる。この場合、明度を上げるにつれてコントラストを下げ、明度を下げるにつれてコントラストをあげると、フェードイン画像中に目の部分がより鮮明に現れるので好ましい。 Next, as shown in FIG. 4, a plurality of grayscale images whose brightness has been sequentially changed are formed. More specifically, for example, in a grayscale image with 256 gradations, about 30 to 100 layers are created from an image with a pixel value of 0 that is completely faded out. The eye part always appears in 50 to 130 in the pixel values in this hierarchy. In this case, it is preferable to lower the contrast as the brightness is increased and to increase the contrast as the brightness is decreased, because the eye part appears more clearly in the fade-in image.
図4からわかるように、グレースケール画像の明度をあげて完全にフェードアウトさせた画像から逐次明度を低下させてフェードイン画像の階層を形成していくと、通常、まず最初に瞳に画素の固まりが検出され、次に鼻や口に画素の固まりが検出される。また、瞳領域の画素の固まりは左右一対として現れるので、左右一対の画素の固まりを選択する。階層によっては、瞳の他に口元、眉、額等の領域にも、画素の固まり領域が対になって現れるが、この段階では、これらの画素の固まり領域も目の位置候補として選択する。 As can be seen from FIG. 4, when the brightness of a grayscale image is increased and the faded-in image layer is formed by successively reducing the brightness from an image that has been completely faded out, normally, the cluster of pixels is usually first in the pupil. Is detected, and then a block of pixels is detected in the nose and mouth. Further, since the cluster of pixels in the pupil region appears as a pair of left and right, the group of pixels of the pair of left and right is selected. Depending on the hierarchy, pixel cluster areas appear in pairs in areas such as the mouth, eyebrows, and forehead in addition to the pupils. At this stage, these pixel cluster areas are also selected as eye position candidates.
なお、画素の固まり領域の検出においては、画像処理を簡便に行えるようにする点から、逐次明度が変化したグレースケール画像の階調を、図5に示すように反転させることが好ましい。 In the detection of the cluster area of pixels, it is preferable to reverse the gradation of the grayscale image whose brightness has been sequentially changed as shown in FIG. 5 in order to facilitate image processing.
また、目の位置候補として検出する画素の固まりの条件として、前述のようにグレースケール顔画像20の縦サイズの1/8をAとした場合に、画素の固まりの領域の大きさを縦0.5A〜0.7A、横0.7A〜1.0Aの範囲内に設定しておくことが好ましい。通常、目の位置にある画素の固まり領域の大きさは、この範囲内の大きさを有するので、このような大きさの条件を設定しておくことにより、目の位置の検出に要する後の処理量を軽減することができる。
In addition, as a condition of the cluster of pixels to be detected as eye position candidates, when 1/8 of the vertical size of the
図6は、ある階層のフェードイン画像において、顔領域中に現れた画素の固まり領域の外接矩形を示し、さらにこれらのうち対をなしているものを直線で結んだものである。なお、図6では、画素の固まり領域の対をわかりやすくするために画素の固まり領域を外接矩形で囲っているが、目の位置の検出に際し、画素の固まり領域を外接矩形で囲むことは必ずしも必要ではない。 FIG. 6 shows a circumscribed rectangle of a clustered area of pixels appearing in a face area in a fade-in image of a certain hierarchy, and further, a pair of these is connected by a straight line. In FIG. 6, the pixel cluster region is surrounded by a circumscribed rectangle for easy understanding of the pixel cluster region pair. However, when detecting the position of the eye, the pixel cluster region is not necessarily surrounded by the circumscribed rectangle. Not necessary.
対をなしている画素の固まり領域のうち、目の位置候補として選択するものの条件として、予め次の(1)〜(4)を設定しておくことが好ましい。
(1)左右一対の画素の固まり領域の横方向の距離が一定の範囲にあること
(2)左右一対の画素の固まり領域の縦方向の距離が一定の範囲にあること
(3)左右一対の画素の固まり領域のうち、左側の画素の固まり領域が、顔画像の矩形枠21の左半分の領域にあること
(4)左右一対の画素の固まり領域のうち、右側の画素の固まり領域が、顔画像の矩形枠21の右半分の領域にあること
It is preferable that the following (1) to (4) are set in advance as conditions for selecting a candidate eye position from among the clustered pixel regions.
(1) The lateral distance of the cluster area of a pair of left and right pixels is within a certain range.
(2) The vertical distance between the left and right pixel cluster areas is within a certain range.
(3) Of the paired left and right pixel cluster regions, the left pixel cluster region is in the left half region of the
(4) Of the paired left and right pixel cluster regions, the right pixel cluster region is in the right half region of the
次に、図7に示すように、各フェードイン画像毎に現れている一対の目の位置候補をグレースケール画像の全階層にわたって集積し、その出現度数をカウントし、このカウント数の多い順にランキングリストを作成する。このカウントでは、フェードアウトした顔画像から段階的に明度を下げていった場合に最初に現れ、最終段階まで現れ続ける瞳領域の目の位置候補が通常、最大カウント(ランキング第1位)となる。そこで、原則的には、この最大カウントの目の位置候補の位置を目の位置と特定する。 Next, as shown in FIG. 7, a pair of eye position candidates appearing for each fade-in image is accumulated over all layers of the grayscale image, the appearance frequency is counted, and the ranking is performed in descending order of the count number. Create a list. In this count, the eye position candidate that appears first when the brightness is gradually reduced from the faded-out face image and continues to appear until the final stage is normally the maximum count (ranking first). Therefore, in principle, the position of the eye position candidate with the maximum count is specified as the eye position.
ただし、次の(a)〜(c)の条件を全て満たした場合、あるいは(d)の条件を満たした場合には、カウント数が2番目に多かった目の位置候補の位置を目の位置として特定する。
(a)ランキング第2位の目の位置候補が、ランキング第1位の目の位置候補より上方にある場合
(b)ランキング第2位の目の位置候補の中心間距離が、ランキング第1位の目の位置候補の中心間距離より長い場合
(c)ランキング第2位の目の位置候補の左右の瞳にあたる領域が、共にランキング第1位の目候補の左右の瞳にあたる位置よりも外側にある場合
(d)ランキング第1位の目の位置候補とランキング第2位の目の位置候補の縦方向の距離が、目と眉の距離程度に離れ、ランキング第1位の目の位置候補がランキング第2位の目の位置候補よりも上にある場合
However, if the following conditions (a) to (c) are all satisfied, or if the condition (d) is satisfied, the position of the eye position candidate with the second largest count is set as the eye position. As specified.
(a) When the second position candidate for the ranking is higher than the first position candidate for the ranking
(b) When the distance between the centers of the second-ranked position candidates is longer than the distance between the centers of the first-ranked position candidates
(c) When the left and right pupil regions of the second ranking eye position candidate are both outside the positions corresponding to the left and right pupils of the first ranking eye candidate
(d) The vertical distance between the first position candidate of the ranking and the second position candidate of the ranking is about the distance between the eyes and the eyebrows, and the first position candidate of the ranking is ranked first. When the position is above the second position candidate
このうち、(a)〜(c)は、ランキング第1位がまれに口領域になることがあるのに対し、口の位置を目の位置であると誤判定しないためのものであり、(d)は、目の周りの眉等を目の位置であると誤判定しないためのものである。 Of these, (a) to (c) are intended to prevent erroneous determination of the position of the mouth as the position of the eye, while the first ranking in the ranking may rarely be the mouth area. d) is for preventing erroneous determination that the eyebrows around the eyes are the positions of the eyes.
以上により、図8に示すように、顔画像(画像処理する前の元画像)において、目の位置(より正確には瞳の位置)を正確に検出することが可能となる。 As described above, as shown in FIG. 8, in the face image (original image before image processing), the eye position (more precisely, the position of the pupil) can be accurately detected.
本発明では、目の位置を検出した後、口の位置と鼻の位置を順次検出するが、顔画像が図9Aに示すように傾いている場合には、口の位置と鼻の位置の検出に先立ち、図9Bに示すように、両目の瞳を結ぶ直線が水平になるように顔画像の座標を回転させ、顔画像の傾きを補正することが好ましい。 In the present invention, after detecting the position of the eyes, the position of the mouth and the position of the nose are sequentially detected. When the face image is tilted as shown in FIG. 9A, the position of the mouth and the position of the nose are detected. Prior to this, as shown in FIG. 9B, it is preferable to correct the inclination of the face image by rotating the coordinates of the face image so that the straight line connecting the eyes of both eyes is horizontal.
また、顔画像中、口と鼻の検出対象領域とする矩形枠を予め設定しておくことが好ましい。例えば、図10に示すように、顔画像20について、縦サイズの1/8をAとした場合に、両目を2つの頂点とする逆正三角形から上下方向にそれぞれA,左右方向にそれぞれ0.5Aだけ幅だしした矩形枠21’を設定する。
Moreover, it is preferable to set in advance a rectangular frame as a detection target area of the mouth and nose in the face image. For example, as shown in FIG. 10, assuming that 1/8 of the vertical size is A for the
口の位置の検出に際しては、目の位置の検出で使用したグレースケールの階層画像において、好ましくは設定した矩形枠21’内で、検出された画素の固まり領域であって漸次現れる画素の成長が停止したものを縦方向の位置が重なるものごとにグループ化する。例えば、図11に示すように、画素の固まり領域A、Bは一つのグループCにグループ化される。
When detecting the position of the mouth, in the grayscale hierarchical image used for detecting the position of the eyes, the growth of pixels that gradually appear in the clustered area of the detected pixels is preferably performed within the set
なお、画素の固まり領域をグループ化するに際し、グループ化後の最大領域は、横方向が、両目の瞳の距離の1.1倍、縦方向が両目の瞳の距離の0.6倍を超えないようにする。これにより、不要なノイズを、口の位置を検出するための画素の固まり領域のグループから排除することができる。 When grouping pixel cluster areas, the maximum area after grouping is 1.1 times the distance between the eyes of the eyes in the horizontal direction and 0.6 times the distance of the eyes of the eyes in the vertical direction. Do not. Thereby, unnecessary noise can be excluded from the group of pixel cluster regions for detecting the position of the mouth.
グループ化した画素の固まり領域ごとに外接矩形を形成し、外接矩形のうち、両目の位置と特定の関係にあるもの、より具体的には、図12に示すように、両目の瞳の位置を左右の頂点とする逆正三角形Tを描き、その逆正三角形Tの下頂点を中心とする、直径が該逆正三角形の一辺長さの0.65〜1.0倍の円40を描き、一方、グループCの外接矩形30の中心を円の中心とする外接矩形30に内接する円41を描き、この円41が上述の円40と重なりを有する場合に、その重なりを有する円41と対応する外接矩形30を口の位置候補とする。
A circumscribed rectangle is formed for each grouped pixel cluster region, and the circumscribed rectangle has a specific relationship with the position of both eyes, more specifically, as shown in FIG. Draw an inverted equilateral triangle T as left and right vertices, draw a
そして、口の位置候補とした外接矩形が複数存在する場合、横幅が最大である外接矩形を口の位置として特定する。 When there are a plurality of circumscribed rectangles as mouth position candidates, the circumscribed rectangle having the maximum width is specified as the position of the mouth.
こうして口の位置とする外接矩形30を特定した後、その特定した外接矩形の横幅を、口を構成する画素の横幅とする。
After specifying the circumscribed
ここで、口の位置として選択した外接矩形の横幅が、両目の瞳を結ぶ直線の2等分線を(逆三角形の下頂点)を跨がない場合には、その2等分線を中心として、口の位置として選択した外接矩形が左右対称となるように、その外接矩形を横方向に伸張し、その伸張した矩形で口の位置を特定する。 Here, when the width of the circumscribed rectangle selected as the mouth position does not cross the bisector of the straight line connecting the eyes of both eyes (the lower vertex of the inverted triangle), the bisector is the center. The circumscribed rectangle is expanded in the horizontal direction so that the circumscribed rectangle selected as the position of the mouth is symmetric, and the position of the mouth is specified by the expanded rectangle.
なお、以上の処理で口の位置とする外接矩形となるものが存在しなかった場合には、フェードイン法による目の位置を次の目の位置候補(カウントランキングが次の順位の目の位置)に特定して口の検出をやり直す。 If there is no circumscribed rectangle as the mouth position in the above processing, the eye position by the fade-in method is set as the next eye position candidate (the eye position of the next rank in the count ranking). ) And repeat mouth detection.
本発明において、口の位置を特定した後は、鼻の位置を検出する。鼻の位置の検出に際しては、目の位置の検出で使用したグレースケールの階層画像において、好ましくは図11に示すように、設定した前述の矩形枠21’内において、検出された画素の固まり領域を格別グループ化することなく、各画素の固まり領域の外接矩形31、32、33、34を形成する。そして、形成した外接矩形31、32、33、34のうち、両目の位置と特定の関係にあるもの、より具体的には、口の位置の検出の場合と同様に、図12に示すように、両目の位置を左右の頂点とする逆正三角形Tを描き、その逆正三角形Tの下頂点を中心とする、直径が該逆正三角形の一辺長さの0.5〜0.7倍の円42を描き、一方、各外接矩形31、32、33、34の中心を円の中心とする各外接矩形31、32、33、34に内接する円を描き、その円が上述の円42と重なりを有する場合に、その重なりを有する円と対応する外接矩形32、33を鼻の位置候補とする。
In the present invention, after the position of the mouth is specified, the position of the nose is detected. When detecting the position of the nose, in the grayscale hierarchical image used in the detection of the eye position, preferably, as shown in FIG. 11, the cluster area of the detected pixels in the set
そして、鼻の位置候補とした外接矩形32、33のうち、その下辺が、口の位置として特定した外接矩形30の上辺よりも上方にあり、横幅が最大のものを鼻の位置として、より詳細には、鼻の位置として特定した外接矩形の下辺により、鼻の下端の位置と幅を特定する。
Of the circumscribing
ここで、鼻の位置として特定した外接矩形の横幅が、両目の瞳を結ぶ直線の2等分線を(逆三角形の下頂点)を跨がない場合には、その2等分線を中心として、鼻の位置として選択した外接矩形が左右対称となるように、その外接矩形を横方向に伸張し、その伸張した矩形の下辺で鼻の下端の位置と幅を特定する。 Here, when the width of the circumscribed rectangle specified as the position of the nose does not cross the bisector of the straight line connecting the eyes of both eyes (the lower vertex of the inverted triangle), the bisector is the center. The circumscribed rectangle is expanded in the horizontal direction so that the circumscribed rectangle selected as the nose position is symmetrical, and the position and width of the lower end of the nose are specified by the lower side of the elongated rectangle.
こうして鼻と口の位置を特定するにあたり、図9Aに示したように、傾いている顔画像を、図9Bに示したように、傾きを補正した場合には、眼、鼻、口の位置を特定後、座標を逆回転させ、それらの位置を当初の傾いている顔画像における位置に変換する。 In specifying the positions of the nose and mouth in this way, as shown in FIG. 9A, when the tilted face image is corrected as shown in FIG. 9B, the positions of the eyes, nose and mouth are changed. After the identification, the coordinates are rotated in the reverse direction, and their positions are converted into positions in the initial tilted face image.
本発明は、目の位置、口の位置、鼻の位置の検出が必要とされる化粧シミュレーション画像の形成等において、有用となる。 The present invention is useful in forming a makeup simulation image that requires detection of the position of the eyes, the position of the mouth, and the position of the nose.
1 撮像装置
2 パソコン本体
3 ディスプレイ
4 イメージスキャナ
5 プリンタ
10 顔パーツの位置の検出システム
20 グレースケール顔画像
21 目の位置の検出対象領域とする矩形枠
21’ 口の位置、鼻の位置の検出対象領域とする矩形枠
30 画素の固まり領域の外接矩形をグループ化した外接矩形
31、32、33、34 画素の固まり領域の外接矩形
40、41、42 円
DESCRIPTION OF
Claims (5)
フェードイン法で検出された画素の固まり領域であって漸次現れる画素の成長の停止したものを、縦方向の位置が重なるものごとにグループ化し、
グループ化した画素の固まり領域ごとに外接矩形を形成し、
外接矩形のうち、両目との位置関係から予測される所定領域内にあるものを口の位置候補とし、
口の位置候補とした外接矩形のうち、横幅が最大のものを口の位置として特定する顔パーツの位置の検出方法。 Create multiple grayscale images with successively changing brightness from the face image, and as the grayscale image fades out from a state that fades out from high brightness to a low brightness, the cluster area of pixels that gradually appear in the faded-out face area Is detected (hereinafter referred to as a fade-in method), and a pair of detected pixel cluster regions is selected as an eye position candidate, and all gray scales of each eye position candidate are selected. Locate the eye based on the frequency of appearance across the image,
Groups of pixels that have been detected by the fade-in method and that have gradually stopped growing are grouped by overlapping vertical positions.
A circumscribed rectangle is formed for each grouped pixel cluster area,
Out of the circumscribed rectangles, those within a predetermined region predicted from the positional relationship with both eyes are considered as mouth position candidates,
A method for detecting the position of a face part that specifies a mouth rectangle having a maximum width among circumscribed rectangles as mouth position candidates.
外接矩形のうち、両目との位置関係から予測される所定領域内にあるものを鼻の位置候補とし、
鼻の位置候補とした外接矩形のうち、その下辺が、口の位置として特定した外接矩形の上辺よりも上方にあり、横幅が最大のものを鼻の位置として特定する顔パーツの位置の検出方法。 After specifying the position of the mouth by the method according to claim 1, forming a circumscribed rectangle for each of the pixel cluster areas detected by the fade-in method, where the growth of pixels that gradually appears is stopped,
Among the circumscribed rectangles, those within a predetermined region predicted from the positional relationship with both eyes are set as nose position candidates,
Among the circumscribed rectangles that are nose position candidates, the method of detecting the position of the face part that identifies the nose position with the lower side above the upper side of the circumscribed rectangle identified as the position of the mouth and the largest width .
顔画像から、明度が逐次変化した複数のグレースケール画像を作成する機能、
グレースケール画像が高明度でフェードアウトした状態から低明度へフェードインするのに伴い、フェードアウトした顔領域に漸次現れる画素の固まり領域を検出する機能、
検出した画素の固まり領域のうち、対となって現れたものを目の位置候補として選択する機能、
各目の位置候補の全グレースケール画像にわたる出現度数に基づいて目の位置を特定する機能、
検出した画素の固まり領域であって漸次現れる画素の成長が停止したもののうち、縦方向の位置が重なるものをグループ化する機能、
グループ化した画素の固まり領域ごとに外接矩形を形成する機能、
グループ化した画素の固まり領域の外接矩形のうち、両目との位置関係から予測される所定領域内にあるものを口の位置候補とする機能、
口の位置候補とした外接矩形のうち、横幅が最大のものを口の位置として特定する機能、
検出した画素の固まり領域であって漸次現れる画素の成長が停止したものごとに外接矩形を形成する機能、
検出した画素の固まり領域ごとの外接矩形のうち、両目との位置関係から予測される所定領域内にあるものを鼻の位置候補とする機能、
鼻の位置候補とした外接矩形のうち、その下辺が、口の位置として特定した外接矩形の上辺よりも上方にあり、横幅が最大のものを鼻の位置として特定する機能
を備えている顔パーツの位置の検出システム。
A face part position detection system comprising a face image acquisition means and a calculation means, wherein the calculation means comprises:
The ability to create multiple grayscale images with varying brightness from face images,
A function that detects a cluster area of pixels that gradually appear in the faded-out face area as the grayscale image fades out from a state that fades out at high brightness to low brightness.
A function of selecting a clustered region of detected pixels that appears as a pair as an eye position candidate,
The ability to identify eye positions based on the frequency of appearance across all grayscale images of each eye position candidate,
A function of grouping the detected pixel cluster areas where the growth of the pixels that appear gradually stops and the vertical positions overlap,
A function to form a circumscribed rectangle for each grouped pixel cluster area,
A function that makes a candidate for the position of the mouth among the circumscribed rectangles of the grouped pixel cluster area within a predetermined area predicted from the positional relationship with both eyes,
A function for specifying the mouth rectangle with the largest width among the circumscribed rectangles as mouth position candidates,
A function to form a circumscribed rectangle for each detected pixel cluster area where the gradually appearing pixel growth has stopped,
A function that makes a nose position candidate a circumscribed rectangle for each cluster area of detected pixels within a predetermined area predicted from the positional relationship with both eyes,
Among the circumscribed rectangles that are candidates for the position of the nose, the lower part is above the upper side of the circumscribed rectangle that is identified as the position of the mouth, and the face part has the function of identifying the largest width as the position of the nose Position detection system.
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006113893A JP4530173B2 (en) | 2006-04-17 | 2006-04-17 | Method and system for detecting the position of a facial part |
EP06843356.4A EP1970859B1 (en) | 2005-12-28 | 2006-12-26 | Detecting method and detecting system for positions of face parts |
PCT/JP2006/325972 WO2007074844A1 (en) | 2005-12-28 | 2006-12-26 | Detecting method and detecting system for positions of face parts |
CN200680053540XA CN101390128B (en) | 2005-12-28 | 2006-12-26 | Detecting method and detecting system for positions of face parts |
US12/159,509 US8131013B2 (en) | 2005-12-28 | 2006-12-26 | Method and detecting system for positions of facial parts |
TW095149419A TWI378396B (en) | 2005-12-28 | 2006-12-28 | Method and system for detecting positions of facial features |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006113893A JP4530173B2 (en) | 2006-04-17 | 2006-04-17 | Method and system for detecting the position of a facial part |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007286923A true JP2007286923A (en) | 2007-11-01 |
JP4530173B2 JP4530173B2 (en) | 2010-08-25 |
Family
ID=38758633
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006113893A Expired - Fee Related JP4530173B2 (en) | 2005-12-28 | 2006-04-17 | Method and system for detecting the position of a facial part |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4530173B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009232240A (en) * | 2008-03-24 | 2009-10-08 | Seiko Epson Corp | Image processing unit, image processing method, and computer program for image processing |
JP2010179012A (en) * | 2009-02-09 | 2010-08-19 | Shiseido Co Ltd | Complexion measuring device, complexion measuring program, makeup simulation device and makeup simulation program |
JP2014102713A (en) * | 2012-11-21 | 2014-06-05 | Casio Comput Co Ltd | Face component extraction device, face component extraction method, and program |
CN112883758A (en) * | 2019-11-29 | 2021-06-01 | 杭州海康威视数字技术股份有限公司 | Living body detection method and device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01314385A (en) * | 1988-06-14 | 1989-12-19 | Nec Corp | Method and device for detecting face image |
JP2000311248A (en) * | 1999-04-28 | 2000-11-07 | Sharp Corp | Image processor |
JP2004094917A (en) * | 2002-07-08 | 2004-03-25 | Toshiba Corp | Virtual makeup device and method therefor |
-
2006
- 2006-04-17 JP JP2006113893A patent/JP4530173B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01314385A (en) * | 1988-06-14 | 1989-12-19 | Nec Corp | Method and device for detecting face image |
JP2000311248A (en) * | 1999-04-28 | 2000-11-07 | Sharp Corp | Image processor |
JP2004094917A (en) * | 2002-07-08 | 2004-03-25 | Toshiba Corp | Virtual makeup device and method therefor |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009232240A (en) * | 2008-03-24 | 2009-10-08 | Seiko Epson Corp | Image processing unit, image processing method, and computer program for image processing |
JP2010179012A (en) * | 2009-02-09 | 2010-08-19 | Shiseido Co Ltd | Complexion measuring device, complexion measuring program, makeup simulation device and makeup simulation program |
JP2014102713A (en) * | 2012-11-21 | 2014-06-05 | Casio Comput Co Ltd | Face component extraction device, face component extraction method, and program |
CN112883758A (en) * | 2019-11-29 | 2021-06-01 | 杭州海康威视数字技术股份有限公司 | Living body detection method and device |
CN112883758B (en) * | 2019-11-29 | 2023-08-25 | 杭州海康威视数字技术股份有限公司 | Living body detection method and device |
Also Published As
Publication number | Publication date |
---|---|
JP4530173B2 (en) | 2010-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11250241B2 (en) | Face image processing methods and apparatuses, and electronic devices | |
CN110660117B (en) | Determining the position of an image key | |
US10255681B2 (en) | Image matting using deep learning | |
CN108229276B (en) | Neural network training and image processing method and device and electronic equipment | |
WO2007074844A1 (en) | Detecting method and detecting system for positions of face parts | |
JP4414401B2 (en) | Facial feature point detection method, apparatus, and program | |
CN107395958B (en) | Image processing method and device, electronic equipment and storage medium | |
CN108734078B (en) | Image processing method, image processing apparatus, electronic device, storage medium, and program | |
US11159717B2 (en) | Systems and methods for real time screen display coordinate and shape detection | |
US20120120196A1 (en) | Image counting method and apparatus | |
US20230237777A1 (en) | Information processing apparatus, learning apparatus, image recognition apparatus, information processing method, learning method, image recognition method, and non-transitory-computer-readable storage medium | |
JP4530173B2 (en) | Method and system for detecting the position of a facial part | |
US10803677B2 (en) | Method and system of automated facial morphing for eyebrow hair and face color detection | |
JP4775599B2 (en) | Eye position detection method | |
JP4831344B2 (en) | Eye position detection method | |
JP7433849B2 (en) | Information processing device, information processing method and program | |
JP4683236B2 (en) | Eye position detection method | |
US8223220B2 (en) | Image processing device, image processing method, and information storage medium | |
JP5093540B2 (en) | Eye position detection method and detection system | |
JP4831361B2 (en) | Eye position detection method and detection system | |
Herdtweck et al. | Estimation of the horizon in photographed outdoor scenes by human and machine | |
Xu et al. | Uncovering the Metaverse within Everyday Environments: a Coarse-to-Fine Approach | |
WO2005057496A1 (en) | Method and device for detecting an object from image | |
KR101117543B1 (en) | sign estimation system | |
CN111080743B (en) | Character drawing method and device for connecting head and limb characteristic points |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100519 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100601 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130618 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |