JP2006146571A - Method of locating and tracking nose bridge and nose tip - Google Patents
Method of locating and tracking nose bridge and nose tip Download PDFInfo
- Publication number
- JP2006146571A JP2006146571A JP2004335970A JP2004335970A JP2006146571A JP 2006146571 A JP2006146571 A JP 2006146571A JP 2004335970 A JP2004335970 A JP 2004335970A JP 2004335970 A JP2004335970 A JP 2004335970A JP 2006146571 A JP2006146571 A JP 2006146571A
- Authority
- JP
- Japan
- Prior art keywords
- nose
- tip
- image
- light intensity
- segment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
この発明はリアルタイムの人の鼻梁及び鼻先端のトラッキング技術に関し、視覚による人物認識、2D/3D仮想現実、先進的な人−コンピュータインタフェース、及びロボティクス応用等の様々な応用において他の顔の特徴と共に用いることができる。 The present invention relates to real-time human nasal bridge and nose tip tracking techniques, along with other facial features in various applications such as visual human recognition, 2D / 3D virtual reality, advanced human-computer interface, and robotics applications. Can be used.
伝統的に、コンピュータ及びロボットは人間の命令により割当てられた仕事を行なうことのできるツールであると考えられてきた。最近、本発明者らは、機械が人間と同様なやり方でこの世界で動き、特にそれらが他の人間と相互に有益な関係で仲間として相互作用するような、共生システムを考えるようになった。 Traditionally, computers and robots have been considered tools that can perform tasks assigned by human command. Recently, we have come up with symbiotic systems where machines move in this world in a manner similar to humans, especially where they interact as peers in a mutually beneficial relationship with other humans. .
このようなマン−マシンの交流では、複数の方法による人と機械との相互作用が不可欠である。特に、顔の表情のトラッキングは必須である。 In such man-machine exchanges, interaction between humans and machines by a plurality of methods is indispensable. In particular, tracking of facial expressions is essential.
先行技術の顔特徴トラッキングアルゴリズムは、テンプレート又はエッジに基づく特徴の集まりに基づくものであり、初期設定と特徴のトラッキングとが困難であった。特徴の学習が必要とされること、トラッキングの過程で一致の可能性のある候補が多く生じることがその理由である[非特許文献1、2を参照]。さらにこのようなアプローチはより多くの計算時間を必要とする。実用的にするためには、顔特徴トラッキング方法はリアルタイムで動作し、どこでも利用でき、正確で頑健である必要がある。特に、システムはトレーニングの必要性なしに、任意のユーザに対し自然な条件のもとで動作し、眼鏡やひげがある場合など様々な顔の特徴に対処できなければならない。
Prior art facial feature tracking algorithms are based on a collection of features based on templates or edges, making initial settings and feature tracking difficult. The reason is that learning of features is required and there are many candidates that can be matched in the tracking process [see
最も支配的な顔の特徴は眼、鼻(鼻梁、鼻先端、鼻孔)、口であると言われている。顔、眼及び口のトラッキングに関しては多くの研究がある[非特許文献3、4、5、6、7を参照]が、鼻先端及び鼻孔に関する自動化されたトラッキングには見るべきものがほとんどない。本発明者らの知る限りでは、鼻梁のトラッキングについての研究は皆無である。
The most dominant facial features are said to be the eyes, nose (nasal bridge, nose tip, nostril), and mouth. Although there are many studies on face, eye and mouth tracking [see Non-Patent
パタジャンは彼の著作において、口のトラッキングの参照点として鼻孔を用いている[非特許文献2を参照]。鼻孔の検出は、それらが見えている場合は非常に安定している。しかし、顔の向きによっては、それらはさえぎられてしまう。従って、鼻孔を参照点として用いるのは一般に実用的なアプローチとは言えない。 Patajan uses the nostril as a reference point for mouth tracking in his work [see Non-Patent Document 2]. Nasal detection is very stable when they are visible. However, depending on the orientation of the face, they are blocked. Therefore, using the nostril as a reference point is generally not a practical approach.
カワトは特許文献1において、顔がどのような向きを向いていても鼻先端を検出する方法を記載している。ここでは、二つの眼の位置から推定された検索領域内で光強度の最も高い領域を検索している。 Kawato describes in Patent Document 1 a method for detecting the tip of the nose no matter what direction the face is facing. Here, an area having the highest light intensity is searched for in the search area estimated from the positions of the two eyes.
照明の設定によっては、この方法は鼻先端領域でなく、頬領域の最も高い光強度の領域を検出してしまうと報告されている。また、画像フレーム中で見える形状によっては、鼻梁領域の一部が鼻先端より高い光強度を有する場合があり、このため検出精度が乱れることがある。 Depending on the lighting setting, this method has been reported to detect the highest light intensity region of the cheek region rather than the nose tip region. In addition, depending on the shape that can be seen in the image frame, a part of the nasal bridge region may have a light intensity higher than that of the tip of the nose, which may disturb the detection accuracy.
ゴロドニキ及びロスの鼻先端トラッキング方法は、テンプレート検索に基づくものであり、テンプレートベクトルが、鼻表面の極値付近に選ばれる[非特許文献8を参照]。その後、学習セッション時に記録された画素パターンを、後続の画像フレームでアルゴリズムによりトラッキングする。 The Gorodniki and Ross nose tip tracking method is based on template search, and a template vector is selected near the extremum of the nose surface [see Non-Patent Document 8]. Thereafter, the pixel pattern recorded during the learning session is tracked by an algorithm in subsequent image frames.
この方法には、以下の三つの点で限界がある。 This method has limitations in the following three points.
1)テンプレート記録セッションが必要であること。 1) A template recording session is required.
2)照明条件に敏感であること。このため、ユーザの頭の動きを或る範囲内に制限している。 2) Sensitive to lighting conditions. For this reason, the movement of the user's head is limited within a certain range.
3)先行するトラッキングの結果に依存して後続のフレームのトラッキングを行なうこと。
この発明の目的は、リアルタイムのトラッキングに計算上好適な、人の鼻梁トラッキング装置を提供することである。 An object of the present invention is to provide a human nasal bridge tracking device that is computationally suitable for real-time tracking.
この発明の別の目的は、陰及び照明の変化に対して頑健な鼻梁トラッキング装置を提供することである。 Another object of the present invention is to provide a nasal bridge tracking device that is robust to shade and illumination changes.
この発明のさらなる目的は、正面から見た顔の向き及びスケールの変化に対し不変である、鼻梁トラッキング装置を提供することである。 It is a further object of the present invention to provide a nasal bridge tracking device that is invariant to changes in face orientation and scale as seen from the front.
この発明の別の目的は、肌の色及び顔の寸法に対し不変である、鼻梁トラッキング装置を提供することである。 Another object of the present invention is to provide a nasal bridge tracking device that is invariant to skin color and facial dimensions.
従って、この発明の別の目的は、人物に対し何ら仮定を用いることなく、またその人物に関する何らかの種類のトレーニングデータを必要とすることのない、鼻梁の測光的な属性に基づいた、鼻梁トラッキング装置を提供することである。 Accordingly, another object of the present invention is to provide a nasal bridge tracking device based on the photometric attributes of the nasal bridge without using any assumptions on the person and without requiring any kind of training data about the person. Is to provide.
この発明の他の目的、特徴及び利点は、以下の要約、図面及びこの発明並びに好ましい実施の形態の詳細な説明から、パターン分析及び認識分野の当業者には明らかになるであろう。 Other objects, features and advantages of the present invention will become apparent to those skilled in the art of pattern analysis and recognition from the following summary, drawings and detailed description of the present invention and preferred embodiments.
この発明の方法は、鼻先端位置の検出率及び検出精度を改良し、さらに鼻梁線も検出する。これは眼に近い側の鼻梁端部から始めて鼻先端を見出すまで下方に検索を行なう。こうして、鼻梁と鼻先端位置とをリアルタイムで出力することができる。 The method of the present invention improves the detection rate and detection accuracy of the nose tip position, and also detects the nasal bridge line. This starts from the end of the nasal bridge closer to the eye and searches downward until the tip of the nose is found. Thus, the nose bridge and the nose tip position can be output in real time.
幾何学的形状及び照度の変化がある場合に人の鼻梁をリアルタイムでトラッキングするための方法は、カラー又はモノクロのビデオ装置からの画像フレームを入力画像として得るステップと、現在入力されている画像を処理して眼の位置を特定するステップと、両眼間の距離に基づいて画像中の顔の位置とサイズとを推定するステップと、鼻及びおそらくは口領域を含む、一般的な顔の対象領域(region of interest:ROI)を切出すステップと、鼻梁の測光的属性に基づいて鼻梁線と鼻先端とをリアルタイムで出力するステップとを含む。 A method for tracking a person's nasal bridge in real time in the presence of changes in geometry and illuminance includes obtaining an image frame from a color or monochrome video device as an input image, and extracting the currently input image. Processing to determine the position of the eye, estimating the position and size of the face in the image based on the distance between the eyes, and the general face area of interest, including the nose and possibly the mouth area Cutting out (region of interest: ROI) and outputting the nose bridge line and the tip of the nose in real time based on the photometric attributes of the nose bridge.
より特定的には、この発明の一局面によれば、顔画像の鼻梁の位置を特定するための、コンピュータで実現される方法は、ビデオ画像生成装置から画像フレームを受信するステップと、画像フレーム中の画像の眼の位置を特定するステップと、眼の位置とその間隔とに基づいて、ある顔の鼻と口とを含む顔画像の位置とサイズとを推定するステップと、顔画像の光強度分布に基づいて顔画像中の鼻梁区域を決定するステップとを含む。 More specifically, according to one aspect of the invention, a computer-implemented method for locating a nasal bridge in a facial image includes receiving an image frame from a video image generating device, and an image frame Identifying the position of the eye in the middle image, estimating the position and size of a face image including the nose and mouth of a face based on the position of the eye and its spacing, and light of the face image Determining a nasal bridge area in the face image based on the intensity distribution.
好ましくは、決定するステップは、顔画像の行セグメントの各々について水平光強度プロファイルを計算するステップと、顔画像の行セグメントの各々について水平光強度プロファイル中で鼻梁候補を見出すステップとを含み、水平光強度プロファイルは、鼻梁候補の位置において所定の基準を満たしている。 Preferably, the determining step includes calculating a horizontal light intensity profile for each row segment of the face image and finding a nose bridge candidate in the horizontal light intensity profile for each row segment of the face image, The light intensity profile satisfies a predetermined criterion at the position of the nose bridge candidate.
さらに好ましくは、見出すステップは、顔画像の行セグメントの各々について水平光強度プロファイルに所定の最大フィルタを適用するステップを含み、最大フィルタは3個のセグメントを含んでおり、さらに、顔画像の行セグメントの各々について、S1≦S2≧S3を満たす鼻梁候補を見出すステップを含み、ここでS1、S2、S3は最大フィルタ中のそれぞれ最も左のセグメント、中央のセグメント、最も右のセグメントの光強度値をそれぞれ示し、最大フィルタはさらに、A、B、Cをそれぞれ正の定数として、重付け和、AS1+BS2+CS3が行セグメント中で最大となるようにする。 More preferably, the step of finding includes applying a predetermined maximum filter to the horizontal light intensity profile for each row segment of the face image, the maximum filter including three segments, and further comprising a row of the face image For each of the segments, find a nostril candidate that satisfies S1 ≦ S2 ≧ S3, where S1, S2, and S3 are the light intensity values of the leftmost segment, the central segment, and the rightmost segment, respectively, in the maximum filter. The maximum filter further sets A, B, and C as positive constants so that the weighted sum, AS1 + BS2 + CS3, is maximum in the row segment.
定数Bは定数A及びCより大きくてもよい。 Constant B may be greater than constants A and C.
定数Aは定数Cと等しくてもよい。 The constant A may be equal to the constant C.
この発明の別の局面に従えば、画像シーケンス中の顔画像の鼻梁をトラッキングするための、コンピュータで実現される方法は、顔画像の各々について、上述のいずれかの方法を利用して顔画像の鼻梁の位置を特定するステップを含む。 According to another aspect of the present invention, a computer-implemented method for tracking the nasal bridge of a facial image in an image sequence is performed using any of the methods described above for each facial image. Locating the nostril of the nasal bridge.
この発明のさらに別の局面に従えば、顔画像から鼻の先端を見出すための、コンピュータで実現される方法は、上述のいずれかの方法の全てのステップを実行するステップと、決定するステップで決定された鼻梁区域中において、当該鼻梁区域中で顔画像の光強度値が最も高くなる最大強度点を特定するステップと、最大強度点から顔画像の下端まで延びる顔画像中の列セグメントを規定するステップと、列セグメントの列方向に沿って、列セグメントの光強度プロファイルを作成するステップと、光強度プロファイルの第1次導関数と第2次導関数とを調査することにより、鼻先端のレベルを特定するステップと、鼻梁候補の回帰直線を求めることにより鼻梁線を形成するステップと、鼻先端のレベルによって規定される線と鼻梁線との交点として、鼻先端を見出すステップとを含む。 According to yet another aspect of the present invention, a computer-implemented method for finding the tip of the nose from a facial image includes performing all steps of any of the methods described above and determining. In the determined nasal bridge area, the step of identifying the maximum intensity point where the light intensity value of the face image is highest in the nasal bridge area, and the column segment in the face image extending from the maximum intensity point to the lower end of the face image are defined. A step of creating a light intensity profile of the row segment along the row direction of the row segment, and investigating the first and second derivatives of the light intensity profile, A step of identifying a level, a step of forming a nasal bridge line by obtaining a regression line of a nasal bridge candidate, As, and a step of finding the nose tip.
好ましくは、鼻先端レベルを特定するステップは、列セグメントの光強度プロファイルの第1次導関数が最大値を有する点を特定することによって、列セグメントの光強度プロファイル中で鼻梁区域の先端に対応するレベルを特定するステップと、列セグメントの光強度プロファイルの第2次導関数が予め定められた値を有する点を特定することにより、列セグメントの光強度プロファイル中における鼻孔レベルを特定するステップと、鼻梁区域の先端レベルと鼻孔レベルとの間の予め定められた点として、鼻先端のレベルを決定するステップと、を含む。 Preferably, the step of identifying the nose tip level corresponds to the tip of the nasal bridge area in the light intensity profile of the row segment by identifying the point where the first derivative of the light intensity profile of the row segment has a maximum value. Identifying a level to perform and identifying a nostril level in the light intensity profile of the row segment by identifying a point where the second derivative of the light intensity profile of the row segment has a predetermined value; Determining the level of the nose tip as a predetermined point between the tip level of the nasal bridge area and the nostril level.
鼻先端のレベルを決定するステップは、列セグメントにおいて、鼻梁区域の先端と鼻孔レベルとの平均点を計算するステップを含む。 Determining the level of the nasal tip includes calculating the average of the tip of the nasal bridge area and the nostril level in the row segment.
予め定められた値はゼロであってもよい。 The predetermined value may be zero.
この発明の別の局面に従えば、画像シーケンス中の顔画像の鼻先端をトラッキングするための、コンピュータで実現される方法は、顔画像の各々について、上述のいずれかの方法を利用して顔画像の鼻先端の位置を特定するステップを含む。 According to another aspect of the present invention, a computer-implemented method for tracking the nose tip of a facial image in an image sequence is performed using any of the methods described above for each facial image. Identifying the position of the nose tip of the image.
この発明のコンピュータプログラムは、コンピュータ上で実行されると、コンピュータに、上述の方法のいずれかの全てのステップを行なわせる。 When the computer program of the present invention is executed on a computer, it causes the computer to perform all the steps of any of the methods described above.
[実施の形態の概観]
以下に説明するこの発明の実施の形態は、人間の鼻の曲線が持つ測光的属性の利点を眼トラッキング技術と組合せて、鼻トラッキングに関して従来から認識されていた問題点を克服するものである。初めに、眼の位置を見出して顔のROIを推定し、その後この方法は鼻梁と鼻先端との両方に沿った鼻の曲線の光強度プロファイルを利用する。提案されたアプローチでは、この鼻梁トラッキング装置は照明条件の変化、肌の色合い、及び正面から見た顔の幾何学的形状並びに顔の動きに対し頑健となる。
[Overview of the embodiment]
The embodiment of the invention described below overcomes the previously recognized problems associated with nasal tracking by combining the photometric attributes of a human nose curve with eye tracking technology. Initially, the position of the eye is found to estimate the ROI of the face, after which the method utilizes the light intensity profile of the nasal curve along both the nasal bridge and the nose tip. In the proposed approach, the nasal bridge tracking device is robust to changes in lighting conditions, skin tone, and facial geometry as well as facial movements as seen from the front.
図1は鼻梁及び鼻先端をトラッキングするための、この実施の形態に従ったトラッキング装置30の概観ブロック図である。図1を参照して、トラッキング装置30は、予め定められた速度で人の顔の画像フレームシーケンスを撮影するためのカラー(又はモノクロ)ビデオカメラ40と、ビデオカメラによって撮影された各フレームを記憶するためのフレームメモリ42と、フレームメモリ42に記憶された各フレーム内で眼の位置を検出するための眼検出モジュール44と、カメラ40によって撮影された人の顔の鼻梁を検出するとともに鼻梁線及び鼻先端位置データを出力するための、鼻梁検出モジュール46とを含む。
FIG. 1 is an overview block diagram of a
各フレームに対し、この実施の形態のトラッキング装置30はビデオカメラ40からの画像フレームを得る。眼検出モジュール44は光強度平面を用いて各フレームの眼の位置を検出する。すなわち、鼻梁検出モジュール46は人の鼻の曲線が有する相対的光強度情報(光強度分布)を、「眼の検出及びトラッキング」と題したセクションで簡単に説明する眼のトラッキング技術と組合せて利用する。この実施の形態では、撮影された画像は赤、緑、青(red−green−blue:RGB)の画像である。従って、鼻梁検出モジュール46は色平面の一つを光強度情報の尺度として用いることによって計算時間を節約する。この実施の形態では、光強度情報を代表するものとして、緑平面を用いる。
For each frame, the
こうして、顔の支配的な特徴である眼がまず眼検出モジュール44によって基準点としてトラッキングされる。
Thus, the eye which is the dominant feature of the face is first tracked as a reference point by the
その後、鼻梁と鼻先端とが、各画像フレームにおいてリアルタイムで、過去のトラッキング結果に依存することなく、鼻梁検出モジュール46によって検出される。眼検出モジュール44及び鼻梁検出モジュール46で用いられるアルゴリズムは後述する。
Thereafter, the nasal bridge and the tip of the nose are detected by the nasal
−眼の検出及びトラッキング−
この実施の形態のトラッキング装置30はコンピュータハードウェアとコンピュータ上で実行される特定のコンピュータプログラムとで実現される。図2はコンピュータプログラムの全体の制御構造を示す。図2の全体構造を説明するに先だって、図2の各ステップの詳細を図3から図12を参照して説明する。
-Eye detection and tracking-
The
図3を参照して、撮影された画像120中の顔の眼の位置122及び124が最初に検出される。このステップで用いられる眼の検出及びトラッキングアルゴリズムは非特許文献3に詳述されている。
With reference to FIG. 3, facial eye positions 122 and 124 in the captured
次に、顔の対象領域(ROI)126が画像120から抽出される。簡単に言えば、両眼の間のパターンを検出し更新したテンプレートマッチングでトラッキングする。顔の大きさの変化に対処するため、検出のために様々な縮尺の画像を考慮し、両眼間の距離に従って、適切な縮尺を選択する。
Next, a face region of interest (ROI) 126 is extracted from the
アルゴリズムは、非特許文献9に記載の「統合画像」(Integral image)と呼ばれる入力画像の中間表現を計算する。その後、6セグメント直交(six−segmented rectangular:SSR)フィルタを用いて、画像中の眼の領域の明暗関係をフィルタリングする。結果として得られる顔候補をさらに、サポートベクトルマシン(support vector machine:SVM)によって検証する。 The algorithm calculates an intermediate representation of the input image called “Integral image” described in Non-Patent Document 9. Thereafter, the light-dark relationship of the eye region in the image is filtered using a 6-segment orthogonal (SSR) filter. The resulting face candidates are further verified by a support vector machine (SVM).
−鼻梁及び鼻先端の検出−
「眼の検出及びトラッキング」と題されたセクションで説明されたように、顔のROI140が選択される。図3を参照して、撮影された画像120中の眼の位置122及び124を利用した顔のROI選択処理は、おおよそ1.2×両眼間の距離の幅と、1.8×両眼間の距離の高さの寸法を有する、回転補正された矩形領域126を選択することを含む。結果として得られるROI候補126は切出され、回転されて顔ROI140の画像が得られる。顔ROI140は眼の位置142及び144によって規定される眼のレベルから始まり、典型的には首上部までである。
-Detection of nasal bridge and tip of nose-
The
人の鼻は、凸形状を有し、眼のレベルから鼻先端までの鼻梁は一線上に延びる。一般に、或る点での光の強度の測定値は、その点と光源との距離が増加するにつれて小さくなる。これは、光がその光源の位置から離れるにつれて広がるからである。従って、曲率に関する情報は光強度分布で表現される。図4は右側に、顔ROI140から抽出された行セグメント160の光強度プロファイル170を示す。
The human nose has a convex shape, and the nasal bridge from the eye level to the tip of the nose extends in a line. In general, the light intensity measurement at a point decreases as the distance between that point and the light source increases. This is because light spreads away from the position of the light source. Therefore, information on the curvature is expressed by a light intensity distribution. FIG. 4 shows the
この実施の形態では、この物理的現象をノイズ減少及びパターン検索と関連させて利用する。 In this embodiment, this physical phenomenon is used in connection with noise reduction and pattern search.
鼻は凸形状を有する。従って、鼻梁には側面に比べより多くの光強度が集まっている。光強度プロファイルのために顔のROI画像の単一の行を用いる代わりに、複数の行を用いて垂直の矩形162によって示されるピクセルの垂直線の光強度値の和をとることにより、ビデオノイズの影響を大幅に削減できる。従って、ノイズの影響が相殺されるのと同時に、光強度値が鼻の側部よりも鼻梁においてより速い速度で累積される。眼の線より下の、互いに重複する部分を持つセグメントに対しこの処理を繰返すことにより、光強度プロファイルの3Dパターン170が生成される。
The nose has a convex shape. Therefore, more light intensity is gathered at the nose bridge than at the side. Instead of using a single row of the face ROI image for the light intensity profile, video noise is obtained by using multiple rows to sum the light intensity values of the vertical lines of the pixels indicated by the
すなわち、凸曲面上の点は側部より高い光強度を有することとなる。ここで、この実施の形態では行セグメント160の光強度分布を用いて鼻梁のトレースを行なうために高速フィルタリングのアプローチを利用している。
That is, the point on the convex curved surface has higher light intensity than the side portion. In this embodiment, a fast filtering approach is used to trace the nasal bridge using the light intensity distribution of the
非特許文献3に記載された両眼間の検出フィルタと同様に、この実施の形態では最大フィルタと呼ばれる、3セグメントの畳込みフィルタを用い、光強度の積分値を用いて鼻梁候補の位置のトレーシングを行なう。ここで中央のセグメントは側部のセグメントと等しいかまたは大きく、3個のセグメント全ての定数を乗じた光強度の合計は、鼻梁の位置で最大値となる。図4及び図5は眼の線から始めて各行の最大光強度パターンをトレースする、3個のセグメント182、184及び186を備えた最大フィルタ180を示す。基準は以下の通りである。
Similar to the interocular detection filter described in
フィルタは顔のROI画像の全ての行セグメントと畳込みされる。各行で、式1の基準を満たす画素の位置が、さらに処理すべき鼻梁候補であると考えられる。
The filter is convolved with all row segments of the face ROI image. In each row, the position of the pixel that satisfies the criterion of
最大フィルタと画像の行セグメントとの直接畳込みは、計算上のコストが大きい処理である。このため、図6を参照して、行セグメントの光強度値の累積計200を用いて、SiをSiの2個の参照指標を用いて計算できる。各行セグメントの累積計は以下のように計算される。
CSUM(0)=rowArr(0)、
CSUM(j)=CSUM(j−1)+rowArr(j);j=1,2,…N (2)
ここでrowArrとCSUMとはそれぞれ行アレイの光強度値とその累積計である。従って、指標k1とk2との間のSiは以下のように計算することができる。
Si(k1;k2)=CSUM(k2)−CSUM(k1) (3)
各行セグメントは、式1を用いて鼻梁位置を見出すために、顔ROIのいずれかの端部に達するか、又は式1が満たされなくなるまで、処理される。すなわち、図7に示すように、鼻梁候補点220が見出されると、それらのうち幾つか222は鼻梁上にはなく、鼻先端よりも低い場合がある。このため、図8のボックス240で示されるように、鼻梁候補が鼻梁上に位置するよう、修正処理が必要となる。
Direct convolution of the maximum filter with the row segments of the image is a computationally expensive process. Thus, with reference to FIG. 6, using the cumulative total of 200 of the light intensity values in a row segment, the S i can be calculated using the two reference indices of S i. The cumulative total for each row segment is calculated as follows:
CSUM (0) = rowArr (0),
CSUM (j) = CSUM (j−1) + rowArr (j); j = 1, 2,... N (2)
Here, rowArr and CSUM are the light intensity value of the row array and its accumulator, respectively. Therefore, S i between indices k 1 and k 2 can be calculated as follows:
S i (k 1 ; k 2 ) = CSUM (k 2 ) −CSUM (k 1 ) (3)
Each row segment is processed until either end of the face ROI is reached or
T(r)は、以下の式で規定される、最大フィルタ180から出力される顔ROI画像のr番目の行セグメントのj番目の位置での最大累積光強度合計を示すものとする。
T (r) represents the maximum accumulated light intensity total at the j-th position of the r-th row segment of the face ROI image output from the
−鼻梁線及び鼻先端を得るためのアルゴリズム−
鼻梁線及び鼻先端を得るためのアルゴリズムを以下で説明する。
-Algorithm for obtaining nose bridge line and tip-
The algorithm for obtaining the nasal bridge line and nose tip is described below.
1.T(r)線242の勾配∇T(r)を決定する。この実施の形態では、∇T(r)は図9に示すように決定される。図9を参照して、∇T(r)は、(例えば点260の)T(r)と(例えば点262の)T(r+1)との差をΔで除したものに等しい。ここでΔは予め定められた自然数であって、例えば、3である。この定義によれば、∇T(r)はT(r)の値が減少していれば正となる。絶対値は曲線の急峻さを示す。もちろん、他の定義を用いてもよい。
1. The gradient ∇T (r) of the T (r)
2.∇T(r)の指標を勾配値の降順にソートする。 2. Sort the indices of ∇T (r) in descending order of gradient values.
3.行の指標が目のレベルから始まるものとして、∇T(r)の最も高い勾配の位置から始めて、T(r)≧T(k)∀r<kとなるk番目の行を見出す。これは、T(r)の値が急峻に減少する点が最も早く検討されることを意味する。 3. Assuming that the row index starts at the eye level, find the kth row starting from the highest gradient position of ∇T (r), where T (r) ≧ T (k) ∀r <k. This means that the point at which the value of T (r) sharply decreases is considered the earliest.
4.図10を参照して、T(i)がi<kについて最大となる行の指標iを見出し、i番目の行から開始する列セグメントを選択する。図10に列セグメントを示す。図10を参照して、列セグメント270はi番目の行から開始し典型的には顔のROIの下端まで伸びる、顔ROIの垂直セグメントである。
4). Referring to FIG. 10, the index i of the row where T (i) is the maximum for i <k is found, and the column segment starting from the i-th row is selected. FIG. 10 shows a column segment. Referring to FIG. 10,
5.図11(a)を参照して、垂直方向の、列セグメント270の水平光強度プロファイル(hproj)を形成する。
5. Referring to FIG. 11A, the horizontal light intensity profile (hproj) of the
6.図11(b)を参照して、hproj280上のビデオノイズの影響を除去して、平滑化された光強度プロファイル(shproj)282を得る。例えば、hprojに高速フーリエ変換(FFT)を行ない、0.15πディジタル周波数より上の全てのFFT係数をゼロに設定し、結果として得られる係数の配列の逆高速フーリエ変換(IFFT)をとる。平滑化されたプロファイル上で、最初の3個の極値(2個の極大284及び288と1個の極小286)を探す。
6). Referring to FIG. 11B, the influence of video noise on
7.図11(c)を参照して、鼻先端の第1次導関数294の絶対値(|∇shproj|)は、第一の極大284と第一の極小286との間で最大値296を有する。
7. Referring to FIG. 11 (c), the absolute value (| jshproj |) of the first derivative 294 at the tip of the nose has a
8.さらに図11(c)を参照して、第1次導関数はゼロか鼻孔線の定数かいずれかである。すなわち、鼻先端の後、第2次導関数がゼロ(∇2shproj(p)=0)となる最初の点298は鼻孔線である。
8). Still referring to FIG. 11 (c), the first derivative is either zero or a nostril constant. That is, the
9.さらに、鼻梁から鼻先端まで、図12の線312で示すように、式1を用いて抽出された全ての点の回帰直線を求めて鼻梁を表すものとする。図12では、鼻梁点310Aから310Nまでの回帰直線を求めている。線312は鼻梁を表すものと仮定される。
9. Furthermore, as shown by a
10.図12を参照して、鼻先端は鼻梁線312上の鼻梁の先端から、先のステップで見出された鼻孔線との間のどこかの点である。従って、鼻先端は、ある線上にあると仮定される。図12の線314がこの線を表す。鼻先端は、鼻梁線312と線314との交点316である。
10. Referring to FIG. 12, the nose tip is some point between the nostril tip on the
−コンピュータによる実現−
この実施の形態の鼻梁及び鼻先端トラッキング装置30は、肌の色の違い及び照明条件によってパラメータを微調整する必要がない。どのユーザがいつ、カメラの前に現れても、トラッキング装置30は自動的にその人の眼、鼻梁及び鼻先端のトラッキングを、学習なしで開始する。
-Realization by computer-
The nasal bridge and nasal
図2に戻って、この実施の形態の装置30を実現するプログラムの全体の制御構造を説明する。プログラムはステップ60で始まる。各フレームについて、システム30はステップ60で画像フレームを撮影する。ステップ62で、ステップ60で撮影された画像内で眼が検出される。ステップ64で、顔のROIが抽出される。
Returning to FIG. 2, the overall control structure of the program for realizing the
次に、抽出された顔ROIの各行セグメントについて、ステップ66から72のステップが繰返される。具体的には、各行セグメントについて、行セグメントの全ての画素列の累積和をステップ68で計算し、ステップ70で対象の行セグメントについて計算された累積和に最大フィルタ(図5を参照)を適用して、行セグメントの水平方向のT(r)プロファイル(図4を参照)を得る。このようにして得たT(r)プロファイルの例を図4の右側に示す。
Next, steps 66 to 72 are repeated for each row segment of the extracted face ROI. Specifically, for each row segment, the cumulative sum of all pixel columns in the row segment is calculated in
行セグメントの各々について、ステップ68及び70でT(r)プロファイルが得られた後、ステップ74で口ひげの線を推定する。口ひげの線をどのように推定するかを図8及び図9に示す。ステップ76で、口ひげの線の上方で最大のT(r)の行が選択される。ステップ78で、ステップ76で選択された行の下で顔ROIの下端まで伸びる列セグメントを抽出する。列セグメントの例を図10に列セグメント270として示す。
For each row segment, a T (r) profile is obtained in
ステップ80で、ステップ78で抽出された列セグメントの水平射影が形成される。この射影の一例を図11(a)に示す。ステップ82で、この射影に対しFFTを適用し、所定のディジタル周波数より上のFFT係数をゼロに設定し、結果として得られるFFT係数のアレイのIFFTをとることによって、この射影は平滑化される。平滑化された射影の例を図11(b)に示す。
At
ステップ84で、プロファイルの最初の3個の極値(2個の極大及びその間の極小)が図11(b)に示すように点284、286及び288として見出される。ステップ86で、点284と286との間のプロファイルの第1次導関数がとられ、第1次導関数の最大点が、図11(c)の点296である鼻梁の先端を示す。
At
ステップ88で、プロファイルの第2次導関数がとられ、点296の後で第2次導関数がゼロとなる点が鼻孔線を示す。鼻先端は、鼻梁の先端と鼻孔線との間のどこかにある。この実施の形態では、鼻先端レベルは鼻梁の先端と鼻孔線位置との平均(中心点)として、ステップ90で計算される。
At step 88, the second derivative of the profile is taken and the point where the second derivative is zero after
ステップ92では、鼻梁上の全ての点の回帰直線(鼻梁線)を求める。ステップ94で、鼻先端線と鼻線との交点を探す。この点が鼻先端である。
In
図13は上述のプログラムを実行してこの実施の形態の装置30を実現するコンピュータシステム330の概観を示す。上述の実施の形態はコンピュータハードウェア及びその上で実行されるコンピュータプログラムで実現される。図13はこの実施の形態のコンピュータシステム330の外観図であり、図14はシステム330をブロック図で示す。
FIG. 13 shows an overview of a
図13を参照して、コンピュータシステム330は、FD(Flexible Disk)ドライブ352及びCD−ROM(Compact Disc Read Only Memory)ドライブ350を含むコンピュータ340と、キーボード346と、マウス348と、モニタ342と、ビデオカメラ40とを含む。
Referring to FIG. 13, a
図14を参照して、コンピュータ340は、FDドライブ352及びCD−ROMドライブ350に加えて、CPU(Central Processing Unit)356と、CPU356、CD−ROMドライブ350及びFDドライブ352に接続されたバス366と、ブートアッププログラム等のプログラムを記憶するためのRead−Only Memory(ROM)358と、CPU356に接続され、アプリケーションプログラムの命令を一時的に記憶するとともに一時記憶空間を提供するためのRandom Access Memory(RAM)360と、アプリケーションプログラム、システムプログラム、及びデータを記憶するためのハードディスク354とを含む。ここでは図示しないが、コンピュータ340はさらに、ローカルエリアネットワーク(LAN)への接続を提供するネットワークアダプタボードを含んでもよい。
14, in addition to the FD drive 352 and the CD-
コンピュータシステム330にこの実施の形態のトラッキング装置30の機能を実行させるプログラムは、CD−ROM362又はFD364に記憶されて、CD−ROMドライブ350又はFDドライブ352に挿入され、さらにハードディスク354に転送されてもよい。これに代えて、プログラムは、図示しないネットワークを介してコンピュータ340に送信され、ハードディスク354に記憶されてもよい。プログラムは実行の際にRAM360にロードされる。プログラムはCD−ROM362、FD364又はネットワークから直接ロードされてもよい。
A program for causing the
プログラムは、コンピュータ340にこの実施の形態のトラッキング装置30の機能を実行させるための幾つかの命令を含む。必要とされる基本的機能の幾つかは、コンピュータ340上で実行されるオペレーティングシステム(OS)又はサードパーティプログラム、もしくはコンピュータ340にインストールされたモジュールによって提供されるので、プログラムはこの実施の形態のトラッキング装置30を実現するための基本的機能全てを必ずしも含まなくてもよい。プログラムは、制御された様態で適切な機能を呼出し、所望の結果が得られるようにする命令の部分のみを含んでいればよい。コンピュータシステム330がどのように動作するかは周知であり、従ってここでは繰返さない。
The program includes several instructions for causing the
−トラッキングの結果−
図15及び16は自動的にトラッキングされた鼻梁及び先端の幾つかの例を示す。図15に示すように、鼻先端380、382及び384は異なる向きと異なる照明設定との下で正確にトラッキングされている。さらに、図16で示すように、鼻先端390はサングラスをかけている場合でもトラッキングできている。
-Tracking results-
Figures 15 and 16 show some examples of automatically tracked nasal bridges and tips. As shown in FIG. 15, the
提案されたアルゴリズムはC++で実現され、通常のOSの下で実行される。実験結果により、コンピュータハードウェア及びソフトウェアで実現された装置30はリアルタイムで、完全に自動的に、毎秒30フレーム(fps)で実行されたことが検証された。装置30は、(1)異なる肌の色、(2)正面から見た顔の向き及びスケールの変化、並びに(3)照明の変化によらず個人を成功裏にトラッキングした。
The proposed algorithm is implemented in C ++ and runs under a normal OS. Experimental results verified that the
この実施の形態では、鼻梁のトラッキングのために、凸曲面トラッキングフィルタを用いる。上述の説明はまた鼻梁先端の光強度プロファイルの第1次導関数が最大値を有することを示している。同様に、光強度プロファイルの第2次導関数は鼻孔線でゼロである。鼻先端はこれら2個のレベルの間にある。 In this embodiment, a convex curved surface tracking filter is used for tracking the nasal bridge. The above description also shows that the first derivative of the light intensity profile at the tip of the nasal bridge has a maximum value. Similarly, the second derivative of the light intensity profile is zero at the nostril line. The nose tip is between these two levels.
この発明の装置と方法とが、鼻梁トラッキングに関連して説明された。しかし、他の顔の特徴点をトラッキングするために、様々な修正や変更が可能である。 The apparatus and method of the present invention has been described in connection with nasal bridge tracking. However, various modifications and changes are possible to track other facial feature points.
上述の実施の形態では、画像はカラーであったが、この発明はそのような実施の形態に限定されず、画像は光強度画像のみであってもよい。その場合、光強度情報そのものを直接、光強度情報の表現として用いてもよい。 In the above-described embodiment, the image is a color, but the present invention is not limited to such an embodiment, and the image may be only a light intensity image. In that case, the light intensity information itself may be used directly as a representation of the light intensity information.
今回開示された実施の形態は単に例示であって、本発明が上記した実施の形態のみに制限されるわけではない。本発明の範囲は、発明の詳細な説明の記載を参酌した上で、特許請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味および範囲内でのすべての変更を含む。 The embodiment disclosed herein is merely an example, and the present invention is not limited to the embodiment described above. The scope of the present invention is indicated by each claim in the claims after taking into account the description of the detailed description of the invention, and all modifications within the meaning and scope equivalent to the wording described therein are intended. Including.
30 トラッキング装置
40 ビデオカメラ
42 フレームメモリ
44 眼検出モジュール
46 鼻梁検出モジュール
122、124、142、144 眼の位置
126、140 顔の対象領域(ROI)
160 行セグメント
170 光強度プロファイル
180 最大フィルタ
270 列セグメント
280 光強度プロファイル(hproj)
282 平滑化された光強度プロファイル(shproj)
330 コンピュータシステム
340 コンピュータ
30
160
282 Smoothed light intensity profile (shproj)
330
Claims (9)
ビデオ画像生成装置から画像フレームを受信するステップと、
画像フレーム中の画像の眼の位置を特定するステップと、
前記眼の位置とその間隔とに基づいて、顔の、鼻と口とを含む顔画像の位置とサイズとを推定するステップと、
前記顔画像の光強度分布に基づいて前記顔画像中の鼻梁区域を決定するステップとを含む、方法。 A computer-implemented method for locating a nose bridge in a facial image,
Receiving an image frame from a video image generating device;
Identifying the eye position of the image in the image frame;
Estimating the position and size of a facial image including the nose and mouth of the face based on the position of the eye and its spacing;
Determining a nostril area in the face image based on a light intensity distribution of the face image.
前記顔画像の行セグメントの各々について水平光強度プロファイルを計算するステップと、
前記顔画像の前記行セグメントの各々について、前記水平光強度プロファイル中の鼻梁候補を見出すステップとを含み、前記水平光強度プロファイルは、前記鼻梁候補の位置において所定の基準を満たしている、請求項1に記載の方法。 Said determining step comprises:
Calculating a horizontal light intensity profile for each row segment of the facial image;
Finding a nasal bridge candidate in the horizontal light intensity profile for each of the row segments of the facial image, wherein the horizontal light intensity profile satisfies a predetermined criterion at the position of the nasal bridge candidate. The method according to 1.
前記顔画像の前記行セグメントの各々について、前記水平光強度プロファイルに所定の最大フィルタを適用するステップを含み、前記最大フィルタは3個のセグメントを含んでおり、さらに、
前記顔画像の前記行セグメントの各々について、S1≦S2≧S3を満たす鼻梁候補を見出すステップを含み、ここでS1、S2、S3は最大フィルタ中のそれぞれ最も左のセグメント、中央のセグメント、最も右のセグメントの光強度値をそれぞれ示し、前記最大フィルタはさらに、A、B、Cをそれぞれ正の定数として、重付け和AS1+BS2+CS3が行セグメント中で最大となるようにする、請求項2に記載の方法。 The step of finding comprises
Applying a predetermined maximum filter to the horizontal light intensity profile for each of the row segments of the facial image, the maximum filter including three segments;
For each of the row segments of the face image, the method includes finding a nostril candidate that satisfies S1 ≦ S2 ≧ S3, where S1, S2, and S3 are respectively the leftmost segment, the middle segment, and the rightmost segment in the maximum filter. 3. The light intensity value of each of the segments, and wherein the maximum filter further sets A, B, and C to be positive constants so that the weighted sum AS1 + BS2 + CS3 is maximized in the row segment. Method.
請求項1〜請求項3のいずれかに記載の全てのステップを実行するステップと、
前記決定するステップで決定された鼻梁区域中において、当該鼻梁区域中で顔画像の光強度値が最も高くなる最大強度点を特定するステップと、
前記最大強度点から顔画像の下端まで延びる顔画像中の列セグメントを規定するステップと、
前記列セグメントの列方向に沿って、前記列セグメントの光強度プロファイルを作成するステップと、
前記光強度プロファイルの第1次導関数と第2次導関数とを調査することにより、鼻先端のレベルを特定するステップと、
前記鼻梁候補の回帰直線を求めることにより鼻梁線を形成するステップと、
前記鼻先端のレベルによって規定される線と前記鼻梁線との交点として、鼻先端を見出すステップとを含む、顔画像から鼻の先端を見出すための方法。 A computer-implemented method for finding the tip of the nose from a facial image,
Performing all the steps according to any one of claims 1 to 3,
In the nasal bridge area determined in the determining step, identifying a maximum intensity point at which the light intensity value of the face image is highest in the nasal bridge area;
Defining a column segment in the face image extending from the maximum intensity point to a lower end of the face image;
Creating a light intensity profile of the column segment along a column direction of the column segment;
Determining the level of the tip of the nose by examining the first and second derivatives of the light intensity profile;
Forming a nasal bridge line by determining a regression line of the nasal bridge candidate; and
A method for finding the tip of the nose from a face image, comprising the step of finding the tip of the nose as an intersection of the line defined by the level of the tip of the nose and the nose bridge line.
前記列セグメントの前記光強度プロファイルの第1次導関数が最大値を有する点を特定することによって、前記列セグメントの前記光強度プロファイル中で鼻梁区域の先端に対応するレベルを特定するステップと、
前記列セグメントの前記光強度プロファイルの第2次導関数が予め定められた値を有する点を特定することにより、列セグメントの光強度プロファイル中における鼻孔レベルを特定するステップと、
前記鼻梁区域の先端のレベルと前記鼻孔レベルとの間の予め定められた点として、鼻先端のレベルを決定するステップとを含む、請求項5に記載の方法。 Identifying the level of the tip of the nose,
Identifying a level corresponding to the tip of the nasal bridge area in the light intensity profile of the row segment by identifying a point where the first derivative of the light intensity profile of the row segment has a maximum value;
Identifying a nostril level in the light intensity profile of the row segment by identifying a point where the second derivative of the light intensity profile of the row segment has a predetermined value;
6. The method of claim 5, comprising determining a nasal tip level as a predetermined point between the nasal bridge segment tip level and the nostril level.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004335970A JP4725949B2 (en) | 2004-11-19 | 2004-11-19 | Method for identifying and tracking nasal bridge and tip |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004335970A JP4725949B2 (en) | 2004-11-19 | 2004-11-19 | Method for identifying and tracking nasal bridge and tip |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2006146571A true JP2006146571A (en) | 2006-06-08 |
JP2006146571A5 JP2006146571A5 (en) | 2010-11-11 |
JP4725949B2 JP4725949B2 (en) | 2011-07-13 |
Family
ID=36626183
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004335970A Active JP4725949B2 (en) | 2004-11-19 | 2004-11-19 | Method for identifying and tracking nasal bridge and tip |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4725949B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009231878A (en) * | 2008-03-19 | 2009-10-08 | Seiko Epson Corp | Image processing unit and image processing method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004157778A (en) * | 2002-11-06 | 2004-06-03 | Advanced Telecommunication Research Institute International | Nose position extraction method, program for operating it on computer, and nose position extraction device |
JP2004234367A (en) * | 2003-01-30 | 2004-08-19 | Fujitsu Ltd | Device and method for detecting direction of face and computer program |
-
2004
- 2004-11-19 JP JP2004335970A patent/JP4725949B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004157778A (en) * | 2002-11-06 | 2004-06-03 | Advanced Telecommunication Research Institute International | Nose position extraction method, program for operating it on computer, and nose position extraction device |
JP2004234367A (en) * | 2003-01-30 | 2004-08-19 | Fujitsu Ltd | Device and method for detecting direction of face and computer program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009231878A (en) * | 2008-03-19 | 2009-10-08 | Seiko Epson Corp | Image processing unit and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP4725949B2 (en) | 2011-07-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Steffens et al. | Personspotter-fast and robust system for human detection, tracking and recognition | |
JP3962803B2 (en) | Head detection device, head detection method, and head detection program | |
US9262671B2 (en) | Systems, methods, and software for detecting an object in an image | |
US9621779B2 (en) | Face recognition device and method that update feature amounts at different frequencies based on estimated distance | |
CN106056064B (en) | A kind of face identification method and face identification device | |
JP5213486B2 (en) | Object tracking device and object tracking method | |
WO2016011834A1 (en) | Image processing method and system | |
WO2019023921A1 (en) | Gesture recognition method, apparatus, and device | |
JP4445454B2 (en) | Face center position detection device, face center position detection method, and program | |
KR101612605B1 (en) | Method for extracting face feature and apparatus for perforimg the method | |
KR20080073933A (en) | Object tracking method and apparatus, and object pose information calculating method and apparatus | |
JP2011134114A (en) | Pattern recognition method and pattern recognition apparatus | |
EP2309454B1 (en) | Apparatus and method for detecting motion | |
EP2691915A1 (en) | Method of facial landmark detection | |
JP2017033372A (en) | Person recognition device and program therefor | |
JP2007257088A (en) | Robot device and its communication method | |
CN112185515A (en) | Patient auxiliary system based on action recognition | |
JPH08287216A (en) | In-face position recognizing method | |
Assiri et al. | Face emotion recognition based on infrared thermal imagery by applying machine learning and parallelism | |
JP2010231350A (en) | Person identifying apparatus, its program, and its method | |
Ayinde et al. | Region-based face detection | |
JP4725949B2 (en) | Method for identifying and tracking nasal bridge and tip | |
Boruah et al. | Different face regions detection based facial expression recognition | |
CN100377164C (en) | Method, device and storage medium for detecting face complexion area in image | |
Vezhnevets et al. | Automatic extraction of frontal facial features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071026 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071026 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100715 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100727 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100921 |
|
A524 | Written submission of copy of amendment under section 19 (pct) |
Free format text: JAPANESE INTERMEDIATE CODE: A524 Effective date: 20100921 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101116 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110114 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110322 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110405 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140422 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |