JP2006146571A - Method of locating and tracking nose bridge and nose tip - Google Patents

Method of locating and tracking nose bridge and nose tip Download PDF

Info

Publication number
JP2006146571A
JP2006146571A JP2004335970A JP2004335970A JP2006146571A JP 2006146571 A JP2006146571 A JP 2006146571A JP 2004335970 A JP2004335970 A JP 2004335970A JP 2004335970 A JP2004335970 A JP 2004335970A JP 2006146571 A JP2006146571 A JP 2006146571A
Authority
JP
Japan
Prior art keywords
nose
tip
image
light intensity
segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004335970A
Other languages
Japanese (ja)
Other versions
JP2006146571A5 (en
JP4725949B2 (en
Inventor
Gurbuz Sabri
サブリ・グルブズ
Keisuke Kinoshita
敬介 木下
Shinjiro Kawato
慎二郎 川戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2004335970A priority Critical patent/JP4725949B2/en
Publication of JP2006146571A publication Critical patent/JP2006146571A/en
Publication of JP2006146571A5 publication Critical patent/JP2006146571A5/ja
Application granted granted Critical
Publication of JP4725949B2 publication Critical patent/JP4725949B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a human nose bridge tracking device suited for real-time tracking in terms of calculation. <P>SOLUTION: A method of locating a nose bridge of a face image includes the step 60 of receiving an image frame; the step 62 of locating eye locations; the step 64 of estimating a location and a size of a face image including the nose and the mouth based on the eye locations and their distance; and the steps 66-72 of determining a nose bridge area in the face image based on intensity distribution in the face image. By carrying out the above method for each consecutive frame, a nose bridge and nose tip can be tracked. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

この発明はリアルタイムの人の鼻梁及び鼻先端のトラッキング技術に関し、視覚による人物認識、2D/3D仮想現実、先進的な人−コンピュータインタフェース、及びロボティクス応用等の様々な応用において他の顔の特徴と共に用いることができる。   The present invention relates to real-time human nasal bridge and nose tip tracking techniques, along with other facial features in various applications such as visual human recognition, 2D / 3D virtual reality, advanced human-computer interface, and robotics applications. Can be used.

伝統的に、コンピュータ及びロボットは人間の命令により割当てられた仕事を行なうことのできるツールであると考えられてきた。最近、本発明者らは、機械が人間と同様なやり方でこの世界で動き、特にそれらが他の人間と相互に有益な関係で仲間として相互作用するような、共生システムを考えるようになった。   Traditionally, computers and robots have been considered tools that can perform tasks assigned by human command. Recently, we have come up with symbiotic systems where machines move in this world in a manner similar to humans, especially where they interact as peers in a mutually beneficial relationship with other humans. .

このようなマン−マシンの交流では、複数の方法による人と機械との相互作用が不可欠である。特に、顔の表情のトラッキングは必須である。   In such man-machine exchanges, interaction between humans and machines by a plurality of methods is indispensable. In particular, tracking of facial expressions is essential.

先行技術の顔特徴トラッキングアルゴリズムは、テンプレート又はエッジに基づく特徴の集まりに基づくものであり、初期設定と特徴のトラッキングとが困難であった。特徴の学習が必要とされること、トラッキングの過程で一致の可能性のある候補が多く生じることがその理由である[非特許文献1、2を参照]。さらにこのようなアプローチはより多くの計算時間を必要とする。実用的にするためには、顔特徴トラッキング方法はリアルタイムで動作し、どこでも利用でき、正確で頑健である必要がある。特に、システムはトレーニングの必要性なしに、任意のユーザに対し自然な条件のもとで動作し、眼鏡やひげがある場合など様々な顔の特徴に対処できなければならない。   Prior art facial feature tracking algorithms are based on a collection of features based on templates or edges, making initial settings and feature tracking difficult. The reason is that learning of features is required and there are many candidates that can be matched in the tracking process [see Non-Patent Documents 1 and 2]. Furthermore, such an approach requires more computation time. In order to be practical, the facial feature tracking method must operate in real time, be available everywhere, be accurate and robust. In particular, the system must operate under natural conditions for any user, without the need for training, and be able to cope with various facial features, such as when glasses or beards are present.

最も支配的な顔の特徴は眼、鼻(鼻梁、鼻先端、鼻孔)、口であると言われている。顔、眼及び口のトラッキングに関しては多くの研究がある[非特許文献3、4、5、6、7を参照]が、鼻先端及び鼻孔に関する自動化されたトラッキングには見るべきものがほとんどない。本発明者らの知る限りでは、鼻梁のトラッキングについての研究は皆無である。   The most dominant facial features are said to be the eyes, nose (nasal bridge, nose tip, nostril), and mouth. Although there are many studies on face, eye and mouth tracking [see Non-Patent Documents 3, 4, 5, 6, 7], there is little to see in the automated tracking of the nose tip and nostril. To the best knowledge of the inventors, there is no research on tracking of the nasal bridge.

パタジャンは彼の著作において、口のトラッキングの参照点として鼻孔を用いている[非特許文献2を参照]。鼻孔の検出は、それらが見えている場合は非常に安定している。しかし、顔の向きによっては、それらはさえぎられてしまう。従って、鼻孔を参照点として用いるのは一般に実用的なアプローチとは言えない。   Patajan uses the nostril as a reference point for mouth tracking in his work [see Non-Patent Document 2]. Nasal detection is very stable when they are visible. However, depending on the orientation of the face, they are blocked. Therefore, using the nostril as a reference point is generally not a practical approach.

カワトは特許文献1において、顔がどのような向きを向いていても鼻先端を検出する方法を記載している。ここでは、二つの眼の位置から推定された検索領域内で光強度の最も高い領域を検索している。   Kawato describes in Patent Document 1 a method for detecting the tip of the nose no matter what direction the face is facing. Here, an area having the highest light intensity is searched for in the search area estimated from the positions of the two eyes.

照明の設定によっては、この方法は鼻先端領域でなく、頬領域の最も高い光強度の領域を検出してしまうと報告されている。また、画像フレーム中で見える形状によっては、鼻梁領域の一部が鼻先端より高い光強度を有する場合があり、このため検出精度が乱れることがある。   Depending on the lighting setting, this method has been reported to detect the highest light intensity region of the cheek region rather than the nose tip region. In addition, depending on the shape that can be seen in the image frame, a part of the nasal bridge region may have a light intensity higher than that of the tip of the nose, which may disturb the detection accuracy.

ゴロドニキ及びロスの鼻先端トラッキング方法は、テンプレート検索に基づくものであり、テンプレートベクトルが、鼻表面の極値付近に選ばれる[非特許文献8を参照]。その後、学習セッション時に記録された画素パターンを、後続の画像フレームでアルゴリズムによりトラッキングする。   The Gorodniki and Ross nose tip tracking method is based on template search, and a template vector is selected near the extremum of the nose surface [see Non-Patent Document 8]. Thereafter, the pixel pattern recorded during the learning session is tracked by an algorithm in subsequent image frames.

この方法には、以下の三つの点で限界がある。   This method has limitations in the following three points.

1)テンプレート記録セッションが必要であること。   1) A template recording session is required.

2)照明条件に敏感であること。このため、ユーザの頭の動きを或る範囲内に制限している。   2) Sensitive to lighting conditions. For this reason, the movement of the user's head is limited within a certain range.

3)先行するトラッキングの結果に依存して後続のフレームのトラッキングを行なうこと。
特開2004−157778号 米国特許第4,975,960号 ドミトリ・O.ゴロドニキ、ゲルハルト・ロス、「ノウス『あなたの鼻を口として使う』、ハンズフリーのゲーム及びインタフェース用知覚的視野技術」、画像及び視覚コンピューティング、第22巻、2004年。(Dmitry O. Gorodnichy, and Gerhard Roth: Nouse 'use your nose as a mouse' perceptual vision technology for hands-free games and interfaces, Image and Vision Computing, vol. 22, 2004.) マルグリット・ベッケ、ジェームズ・ジップス、及びピーター・フレミング、「カメラマウス:重度障害者にコンピュータアクセスを提供するための、身体的特徴の視覚的トラッキング」、IEEE神経及びリハビリテーション工学論文集、第10巻、第1号、2002年3月。(Margrit Betke, James Gips, and Peter Fleming: The Camera Mouse: Visual Tracking of Body Features to Provide Computer Access for People with Severe Disabilities, IEEE Transactions on Neural and Rehabilitation Engineering, Vol. 10, No. 1, March 2002.) シンジロウ・カワト及びノブジ・テツタニ、「SSRフィルタ及びサポートベクトルマシンによる、リアルタイムスケール適応顔検出及びトラッキング」、ACCV予稿集、第1巻、2004年。(Shinjiro Kawato, and Nobuji Tetsutani: Scale Adaptive Face Detection and Tracking in Real Time with SSR Filter and Support Vector Machine, Proc. of ACCV, vol. 1, 2004.) チェン−チン・チャン、ウェン−カイ・タイ、マウ−ツェン・ヤン、イー−ティン・ハン及びチ−ジャン・ハン、「リアルタイムで唇、眼及び顔を検出するための新方法」、リアルタイム画像処理、第9巻、2003年。(Cheng-Chin Chiang, Wen-Kai Tai, Mau-Tsuen Yang, Yi-Ting Huang, and Chi-Juang Huang: A Novel Method for Detecting Lips, Eyes and Faces in Real-Time, Real-Time Imaging Vol. 9, 2003.) イェン−リ・ティアン、タケオ・カナデ及びジェフリー・F.コーン、「形状、色及び動きを組合せた頑健な唇検出」、ACCV‘2000予稿集、台北、台湾、2000年1月。(Ying-li Tian, Takeo Kanade, and Jeffrey F. Cohn: Robust Lip Tracking by Combining Shape, Color and Motion, in Proc. of ACCV'2000, Taipei, Taiwan, January 2000.) サブリ・グルブズ、ケイスケ・キノシタ及びスミオ・ヤノ、「トレーニング可能多変数ガウス分類器を用いたビデオシーケンスからの口トラッキング」、PRMU2003、仙台、日本、2003年12月。(Sabri Gurbuz, Keisuke Kinoshita, and Sumio Yano: Mouth Tracking from Video Sequences using Trainable Multivariate Gaussian Classifiers, PRMU 2003, Sendai, Japan, December 2003.) ヌリア・オリバー、アレックス・ペントランド及びフランソワ・ベラード、「ラフター:顔表情認識を伴うリアルタイムの顔及び唇トラッカ」、パターン認識、33:1369−1382、2000年。(Nuria Oliver, Alex Pentland, and Francois Berard: Lafter: A Real-time Face and Lips Tracker with Facial Expression Recognition, Pattern Recognition, 33:1369-1382, 2000) ドミトリ・O.ゴロドニキ、「顔トラッキングにおける鼻の重要性について」、IEEE自動顔及びジェスチャ認識に関する国際会議予稿集(FG‘02)、ワシントンDC、2002年5月20−21日。(Dmitry O. Gorodnichy: On Importance of Nose for Face Tracking, In Proc. IEEE International Conference on Automatic Face and Gesture Recognition (FG'02), Washington DC, May 20-21, 2002.) ポール・バイオラ及びマイケル・ジョーンズ、「頑健なリアルタイム物体検出」、視覚モデリング、学習、コンピューティング及びサンプリングに関する統計的及びコンピュータ関連理論に関する第二回国際ワークショップ、カナダ、バンクーバー、2001年7月13日。(Paul Viola, and Micheal Jones: Robust Real-time Object Detection, Second International Workshop on Statistical and Computational Theories of Vision- Modeling, Learning, Computing, and Sampling, Vancouver, Canada, July 13, 2001.)
3) Tracking subsequent frames depending on the previous tracking results.
JP 2004-157778 A US Pat. No. 4,975,960 Dmitri O. Gorodniki, Gerhard Ross, “Nous, Using Your Nose as a Mouth, Perceptual Vision Technology for Hands-Free Games and Interfaces”, Image and Visual Computing, Vol. 22, 2004. (Dmitry O. Gorodnichy, and Gerhard Roth: Nouse 'use your nose as a mouse' perceptual vision technology for hands-free games and interfaces, Image and Vision Computing, vol. 22, 2004.) Marguerite Becke, James Zips, and Peter Fleming, “Camera Mouse: Visual Tracking of Physical Features to Provide Computer Access to Severely Disabled”, IEEE Neurology and Rehabilitation Engineering, Vol. 10, First issue, March 2002. (Margrit Betke, James Gips, and Peter Fleming: The Camera Mouse: Visual Tracking of Body Features to Provide Computer Access for People with Severe Disabilities, IEEE Transactions on Neural and Rehabilitation Engineering, Vol. 10, No. 1, March 2002.) Shinjiro Kawato and Nobuji Tetsutani, “Real-time Scale Adaptive Face Detection and Tracking with SSR Filter and Support Vector Machine”, ACCV Proceedings Vol. 1, 2004. (Shinjiro Kawato, and Nobuji Tetsutani: Scale Adaptive Face Detection and Tracking in Real Time with SSR Filter and Support Vector Machine, Proc. Of ACCV, vol. 1, 2004.) Chen-Chin Chang, Wen-Kai Tai, Mau-Tseng Yang, E-Tin Han and Chi Jiang Han, “A New Method for Detecting Lips, Eyes and Face in Real Time”, Real-Time Image Processing , Volume 9, 2003. (Cheng-Chin Chiang, Wen-Kai Tai, Mau-Tsuen Yang, Yi-Ting Huang, and Chi-Juang Huang: A Novel Method for Detecting Lips, Eyes and Faces in Real-Time, Real-Time Imaging Vol. 9, 2003.) Yen-Li Tian, Takeo Kanade and Jeffrey F. Cone, “Robust Lip Detection Combining Shape, Color and Motion”, ACCV'2000 Proceedings, Taipei, Taiwan, January 2000. (Ying-li Tian, Takeo Kanade, and Jeffrey F. Cohn: Robust Lip Tracking by Combining Shape, Color and Motion, in Proc. Of ACCV'2000, Taipei, Taiwan, January 2000.) Sabri Grubbs, Keisuke Kinoshita and Sumio Yano, “Mouth Tracking from Video Sequences Using a Trainable Multivariable Gaussian Classifier”, PRMU 2003, Sendai, Japan, December 2003. (Sabri Gurbuz, Keisuke Kinoshita, and Sumio Yano: Mouth Tracking from Video Sequences using Trainable Multivariate Gaussian Classifiers, PRMU 2003, Sendai, Japan, December 2003.) Nuria Oliver, Alex Pentland and François Belard, “Rafter: Real-time face and lip tracker with facial expression recognition”, Pattern Recognition, 33: 1369-1382, 2000. (Nuria Oliver, Alex Pentland, and Francois Berard: Lafter: A Real-time Face and Lips Tracker with Facial Expression Recognition, Pattern Recognition, 33: 1369-1382, 2000) Dmitri O. Gorodniki, “On the importance of the nose in face tracking”, Proceedings of the International Conference on IEEE Automatic Face and Gesture Recognition (FG'02), Washington DC, May 20-21, 2002. (Dmitry O. Gorodnichy: On Importance of Nose for Face Tracking, In Proc. IEEE International Conference on Automatic Face and Gesture Recognition (FG'02), Washington DC, May 20-21, 2002.) Paul Biola and Michael Jones, “Robust Real-time Object Detection”, Second International Workshop on Statistical and Computer-Related Theories on Visual Modeling, Learning, Computing and Sampling, Vancouver, Canada, 13 July 2001 . (Paul Viola, and Micheal Jones: Robust Real-time Object Detection, Second International Workshop on Statistical and Computational Theories of Vision- Modeling, Learning, Computing, and Sampling, Vancouver, Canada, July 13, 2001.)

この発明の目的は、リアルタイムのトラッキングに計算上好適な、人の鼻梁トラッキング装置を提供することである。   An object of the present invention is to provide a human nasal bridge tracking device that is computationally suitable for real-time tracking.

この発明の別の目的は、陰及び照明の変化に対して頑健な鼻梁トラッキング装置を提供することである。   Another object of the present invention is to provide a nasal bridge tracking device that is robust to shade and illumination changes.

この発明のさらなる目的は、正面から見た顔の向き及びスケールの変化に対し不変である、鼻梁トラッキング装置を提供することである。   It is a further object of the present invention to provide a nasal bridge tracking device that is invariant to changes in face orientation and scale as seen from the front.

この発明の別の目的は、肌の色及び顔の寸法に対し不変である、鼻梁トラッキング装置を提供することである。   Another object of the present invention is to provide a nasal bridge tracking device that is invariant to skin color and facial dimensions.

従って、この発明の別の目的は、人物に対し何ら仮定を用いることなく、またその人物に関する何らかの種類のトレーニングデータを必要とすることのない、鼻梁の測光的な属性に基づいた、鼻梁トラッキング装置を提供することである。   Accordingly, another object of the present invention is to provide a nasal bridge tracking device based on the photometric attributes of the nasal bridge without using any assumptions on the person and without requiring any kind of training data about the person. Is to provide.

この発明の他の目的、特徴及び利点は、以下の要約、図面及びこの発明並びに好ましい実施の形態の詳細な説明から、パターン分析及び認識分野の当業者には明らかになるであろう。   Other objects, features and advantages of the present invention will become apparent to those skilled in the art of pattern analysis and recognition from the following summary, drawings and detailed description of the present invention and preferred embodiments.

この発明の方法は、鼻先端位置の検出率及び検出精度を改良し、さらに鼻梁線も検出する。これは眼に近い側の鼻梁端部から始めて鼻先端を見出すまで下方に検索を行なう。こうして、鼻梁と鼻先端位置とをリアルタイムで出力することができる。   The method of the present invention improves the detection rate and detection accuracy of the nose tip position, and also detects the nasal bridge line. This starts from the end of the nasal bridge closer to the eye and searches downward until the tip of the nose is found. Thus, the nose bridge and the nose tip position can be output in real time.

幾何学的形状及び照度の変化がある場合に人の鼻梁をリアルタイムでトラッキングするための方法は、カラー又はモノクロのビデオ装置からの画像フレームを入力画像として得るステップと、現在入力されている画像を処理して眼の位置を特定するステップと、両眼間の距離に基づいて画像中の顔の位置とサイズとを推定するステップと、鼻及びおそらくは口領域を含む、一般的な顔の対象領域(region of interest:ROI)を切出すステップと、鼻梁の測光的属性に基づいて鼻梁線と鼻先端とをリアルタイムで出力するステップとを含む。   A method for tracking a person's nasal bridge in real time in the presence of changes in geometry and illuminance includes obtaining an image frame from a color or monochrome video device as an input image, and extracting the currently input image. Processing to determine the position of the eye, estimating the position and size of the face in the image based on the distance between the eyes, and the general face area of interest, including the nose and possibly the mouth area Cutting out (region of interest: ROI) and outputting the nose bridge line and the tip of the nose in real time based on the photometric attributes of the nose bridge.

より特定的には、この発明の一局面によれば、顔画像の鼻梁の位置を特定するための、コンピュータで実現される方法は、ビデオ画像生成装置から画像フレームを受信するステップと、画像フレーム中の画像の眼の位置を特定するステップと、眼の位置とその間隔とに基づいて、ある顔の鼻と口とを含む顔画像の位置とサイズとを推定するステップと、顔画像の光強度分布に基づいて顔画像中の鼻梁区域を決定するステップとを含む。   More specifically, according to one aspect of the invention, a computer-implemented method for locating a nasal bridge in a facial image includes receiving an image frame from a video image generating device, and an image frame Identifying the position of the eye in the middle image, estimating the position and size of a face image including the nose and mouth of a face based on the position of the eye and its spacing, and light of the face image Determining a nasal bridge area in the face image based on the intensity distribution.

好ましくは、決定するステップは、顔画像の行セグメントの各々について水平光強度プロファイルを計算するステップと、顔画像の行セグメントの各々について水平光強度プロファイル中で鼻梁候補を見出すステップとを含み、水平光強度プロファイルは、鼻梁候補の位置において所定の基準を満たしている。   Preferably, the determining step includes calculating a horizontal light intensity profile for each row segment of the face image and finding a nose bridge candidate in the horizontal light intensity profile for each row segment of the face image, The light intensity profile satisfies a predetermined criterion at the position of the nose bridge candidate.

さらに好ましくは、見出すステップは、顔画像の行セグメントの各々について水平光強度プロファイルに所定の最大フィルタを適用するステップを含み、最大フィルタは3個のセグメントを含んでおり、さらに、顔画像の行セグメントの各々について、S1≦S2≧S3を満たす鼻梁候補を見出すステップを含み、ここでS1、S2、S3は最大フィルタ中のそれぞれ最も左のセグメント、中央のセグメント、最も右のセグメントの光強度値をそれぞれ示し、最大フィルタはさらに、A、B、Cをそれぞれ正の定数として、重付け和、AS1+BS2+CS3が行セグメント中で最大となるようにする。   More preferably, the step of finding includes applying a predetermined maximum filter to the horizontal light intensity profile for each row segment of the face image, the maximum filter including three segments, and further comprising a row of the face image For each of the segments, find a nostril candidate that satisfies S1 ≦ S2 ≧ S3, where S1, S2, and S3 are the light intensity values of the leftmost segment, the central segment, and the rightmost segment, respectively, in the maximum filter. The maximum filter further sets A, B, and C as positive constants so that the weighted sum, AS1 + BS2 + CS3, is maximum in the row segment.

定数Bは定数A及びCより大きくてもよい。   Constant B may be greater than constants A and C.

定数Aは定数Cと等しくてもよい。   The constant A may be equal to the constant C.

この発明の別の局面に従えば、画像シーケンス中の顔画像の鼻梁をトラッキングするための、コンピュータで実現される方法は、顔画像の各々について、上述のいずれかの方法を利用して顔画像の鼻梁の位置を特定するステップを含む。   According to another aspect of the present invention, a computer-implemented method for tracking the nasal bridge of a facial image in an image sequence is performed using any of the methods described above for each facial image. Locating the nostril of the nasal bridge.

この発明のさらに別の局面に従えば、顔画像から鼻の先端を見出すための、コンピュータで実現される方法は、上述のいずれかの方法の全てのステップを実行するステップと、決定するステップで決定された鼻梁区域中において、当該鼻梁区域中で顔画像の光強度値が最も高くなる最大強度点を特定するステップと、最大強度点から顔画像の下端まで延びる顔画像中の列セグメントを規定するステップと、列セグメントの列方向に沿って、列セグメントの光強度プロファイルを作成するステップと、光強度プロファイルの第1次導関数と第2次導関数とを調査することにより、鼻先端のレベルを特定するステップと、鼻梁候補の回帰直線を求めることにより鼻梁線を形成するステップと、鼻先端のレベルによって規定される線と鼻梁線との交点として、鼻先端を見出すステップとを含む。   According to yet another aspect of the present invention, a computer-implemented method for finding the tip of the nose from a facial image includes performing all steps of any of the methods described above and determining. In the determined nasal bridge area, the step of identifying the maximum intensity point where the light intensity value of the face image is highest in the nasal bridge area, and the column segment in the face image extending from the maximum intensity point to the lower end of the face image are defined. A step of creating a light intensity profile of the row segment along the row direction of the row segment, and investigating the first and second derivatives of the light intensity profile, A step of identifying a level, a step of forming a nasal bridge line by obtaining a regression line of a nasal bridge candidate, As, and a step of finding the nose tip.

好ましくは、鼻先端レベルを特定するステップは、列セグメントの光強度プロファイルの第1次導関数が最大値を有する点を特定することによって、列セグメントの光強度プロファイル中で鼻梁区域の先端に対応するレベルを特定するステップと、列セグメントの光強度プロファイルの第2次導関数が予め定められた値を有する点を特定することにより、列セグメントの光強度プロファイル中における鼻孔レベルを特定するステップと、鼻梁区域の先端レベルと鼻孔レベルとの間の予め定められた点として、鼻先端のレベルを決定するステップと、を含む。   Preferably, the step of identifying the nose tip level corresponds to the tip of the nasal bridge area in the light intensity profile of the row segment by identifying the point where the first derivative of the light intensity profile of the row segment has a maximum value. Identifying a level to perform and identifying a nostril level in the light intensity profile of the row segment by identifying a point where the second derivative of the light intensity profile of the row segment has a predetermined value; Determining the level of the nose tip as a predetermined point between the tip level of the nasal bridge area and the nostril level.

鼻先端のレベルを決定するステップは、列セグメントにおいて、鼻梁区域の先端と鼻孔レベルとの平均点を計算するステップを含む。   Determining the level of the nasal tip includes calculating the average of the tip of the nasal bridge area and the nostril level in the row segment.

予め定められた値はゼロであってもよい。   The predetermined value may be zero.

この発明の別の局面に従えば、画像シーケンス中の顔画像の鼻先端をトラッキングするための、コンピュータで実現される方法は、顔画像の各々について、上述のいずれかの方法を利用して顔画像の鼻先端の位置を特定するステップを含む。   According to another aspect of the present invention, a computer-implemented method for tracking the nose tip of a facial image in an image sequence is performed using any of the methods described above for each facial image. Identifying the position of the nose tip of the image.

この発明のコンピュータプログラムは、コンピュータ上で実行されると、コンピュータに、上述の方法のいずれかの全てのステップを行なわせる。   When the computer program of the present invention is executed on a computer, it causes the computer to perform all the steps of any of the methods described above.

[実施の形態の概観]
以下に説明するこの発明の実施の形態は、人間の鼻の曲線が持つ測光的属性の利点を眼トラッキング技術と組合せて、鼻トラッキングに関して従来から認識されていた問題点を克服するものである。初めに、眼の位置を見出して顔のROIを推定し、その後この方法は鼻梁と鼻先端との両方に沿った鼻の曲線の光強度プロファイルを利用する。提案されたアプローチでは、この鼻梁トラッキング装置は照明条件の変化、肌の色合い、及び正面から見た顔の幾何学的形状並びに顔の動きに対し頑健となる。
[Overview of the embodiment]
The embodiment of the invention described below overcomes the previously recognized problems associated with nasal tracking by combining the photometric attributes of a human nose curve with eye tracking technology. Initially, the position of the eye is found to estimate the ROI of the face, after which the method utilizes the light intensity profile of the nasal curve along both the nasal bridge and the nose tip. In the proposed approach, the nasal bridge tracking device is robust to changes in lighting conditions, skin tone, and facial geometry as well as facial movements as seen from the front.

図1は鼻梁及び鼻先端をトラッキングするための、この実施の形態に従ったトラッキング装置30の概観ブロック図である。図1を参照して、トラッキング装置30は、予め定められた速度で人の顔の画像フレームシーケンスを撮影するためのカラー(又はモノクロ)ビデオカメラ40と、ビデオカメラによって撮影された各フレームを記憶するためのフレームメモリ42と、フレームメモリ42に記憶された各フレーム内で眼の位置を検出するための眼検出モジュール44と、カメラ40によって撮影された人の顔の鼻梁を検出するとともに鼻梁線及び鼻先端位置データを出力するための、鼻梁検出モジュール46とを含む。   FIG. 1 is an overview block diagram of a tracking device 30 according to this embodiment for tracking the nasal bridge and tip of the nose. Referring to FIG. 1, a tracking device 30 stores a color (or monochrome) video camera 40 for capturing an image frame sequence of a human face at a predetermined speed, and each frame captured by the video camera. A frame memory 42 for detecting the position of the eye in each frame stored in the frame memory 42, a nose bridge on the face of the person photographed by the camera 40, and a nose bridge line And a nose bridge detection module 46 for outputting nose tip position data.

各フレームに対し、この実施の形態のトラッキング装置30はビデオカメラ40からの画像フレームを得る。眼検出モジュール44は光強度平面を用いて各フレームの眼の位置を検出する。すなわち、鼻梁検出モジュール46は人の鼻の曲線が有する相対的光強度情報(光強度分布)を、「眼の検出及びトラッキング」と題したセクションで簡単に説明する眼のトラッキング技術と組合せて利用する。この実施の形態では、撮影された画像は赤、緑、青(red−green−blue:RGB)の画像である。従って、鼻梁検出モジュール46は色平面の一つを光強度情報の尺度として用いることによって計算時間を節約する。この実施の形態では、光強度情報を代表するものとして、緑平面を用いる。   For each frame, the tracking device 30 of this embodiment obtains an image frame from the video camera 40. The eye detection module 44 detects the eye position of each frame using the light intensity plane. That is, the nose bridge detection module 46 uses the relative light intensity information (light intensity distribution) of the curve of the human nose in combination with the eye tracking technique briefly described in the section entitled “Eye Detection and Tracking”. To do. In this embodiment, the captured images are red, green, and blue (red-green-blue: RGB) images. Thus, the nose bridge detection module 46 saves computation time by using one of the color planes as a measure of light intensity information. In this embodiment, a green plane is used as representative of the light intensity information.

こうして、顔の支配的な特徴である眼がまず眼検出モジュール44によって基準点としてトラッキングされる。   Thus, the eye which is the dominant feature of the face is first tracked as a reference point by the eye detection module 44.

その後、鼻梁と鼻先端とが、各画像フレームにおいてリアルタイムで、過去のトラッキング結果に依存することなく、鼻梁検出モジュール46によって検出される。眼検出モジュール44及び鼻梁検出モジュール46で用いられるアルゴリズムは後述する。   Thereafter, the nasal bridge and the tip of the nose are detected by the nasal bridge detection module 46 in real time in each image frame without depending on the past tracking results. Algorithms used in the eye detection module 44 and the nasal bridge detection module 46 will be described later.

−眼の検出及びトラッキング−
この実施の形態のトラッキング装置30はコンピュータハードウェアとコンピュータ上で実行される特定のコンピュータプログラムとで実現される。図2はコンピュータプログラムの全体の制御構造を示す。図2の全体構造を説明するに先だって、図2の各ステップの詳細を図3から図12を参照して説明する。
-Eye detection and tracking-
The tracking device 30 of this embodiment is realized by computer hardware and a specific computer program executed on the computer. FIG. 2 shows the overall control structure of the computer program. Prior to describing the overall structure of FIG. 2, the details of each step of FIG. 2 will be described with reference to FIGS.

図3を参照して、撮影された画像120中の顔の眼の位置122及び124が最初に検出される。このステップで用いられる眼の検出及びトラッキングアルゴリズムは非特許文献3に詳述されている。   With reference to FIG. 3, facial eye positions 122 and 124 in the captured image 120 are first detected. The eye detection and tracking algorithm used in this step is described in detail in Non-Patent Document 3.

次に、顔の対象領域(ROI)126が画像120から抽出される。簡単に言えば、両眼の間のパターンを検出し更新したテンプレートマッチングでトラッキングする。顔の大きさの変化に対処するため、検出のために様々な縮尺の画像を考慮し、両眼間の距離に従って、適切な縮尺を選択する。   Next, a face region of interest (ROI) 126 is extracted from the image 120. In simple terms, the pattern between both eyes is detected and tracked by updated template matching. In order to cope with changes in the size of the face, images of various scales are considered for detection, and an appropriate scale is selected according to the distance between both eyes.

アルゴリズムは、非特許文献9に記載の「統合画像」(Integral image)と呼ばれる入力画像の中間表現を計算する。その後、6セグメント直交(six−segmented rectangular:SSR)フィルタを用いて、画像中の眼の領域の明暗関係をフィルタリングする。結果として得られる顔候補をさらに、サポートベクトルマシン(support vector machine:SVM)によって検証する。   The algorithm calculates an intermediate representation of the input image called “Integral image” described in Non-Patent Document 9. Thereafter, the light-dark relationship of the eye region in the image is filtered using a 6-segment orthogonal (SSR) filter. The resulting face candidates are further verified by a support vector machine (SVM).

−鼻梁及び鼻先端の検出−
「眼の検出及びトラッキング」と題されたセクションで説明されたように、顔のROI140が選択される。図3を参照して、撮影された画像120中の眼の位置122及び124を利用した顔のROI選択処理は、おおよそ1.2×両眼間の距離の幅と、1.8×両眼間の距離の高さの寸法を有する、回転補正された矩形領域126を選択することを含む。結果として得られるROI候補126は切出され、回転されて顔ROI140の画像が得られる。顔ROI140は眼の位置142及び144によって規定される眼のレベルから始まり、典型的には首上部までである。
-Detection of nasal bridge and tip of nose-
The face ROI 140 is selected as described in the section entitled “Eye Detection and Tracking”. With reference to FIG. 3, the ROI selection process of the face using the eye positions 122 and 124 in the captured image 120 is approximately 1.2 × distance between both eyes and 1.8 × both eyes. Selecting a rotation-corrected rectangular region 126 having a height dimension between the distances. The resulting ROI candidate 126 is cut out and rotated to obtain an image of the face ROI 140. The face ROI 140 starts at the eye level defined by the eye positions 142 and 144 and typically extends to the upper neck.

人の鼻は、凸形状を有し、眼のレベルから鼻先端までの鼻梁は一線上に延びる。一般に、或る点での光の強度の測定値は、その点と光源との距離が増加するにつれて小さくなる。これは、光がその光源の位置から離れるにつれて広がるからである。従って、曲率に関する情報は光強度分布で表現される。図4は右側に、顔ROI140から抽出された行セグメント160の光強度プロファイル170を示す。   The human nose has a convex shape, and the nasal bridge from the eye level to the tip of the nose extends in a line. In general, the light intensity measurement at a point decreases as the distance between that point and the light source increases. This is because light spreads away from the position of the light source. Therefore, information on the curvature is expressed by a light intensity distribution. FIG. 4 shows the light intensity profile 170 of the row segment 160 extracted from the face ROI 140 on the right side.

この実施の形態では、この物理的現象をノイズ減少及びパターン検索と関連させて利用する。   In this embodiment, this physical phenomenon is used in connection with noise reduction and pattern search.

鼻は凸形状を有する。従って、鼻梁には側面に比べより多くの光強度が集まっている。光強度プロファイルのために顔のROI画像の単一の行を用いる代わりに、複数の行を用いて垂直の矩形162によって示されるピクセルの垂直線の光強度値の和をとることにより、ビデオノイズの影響を大幅に削減できる。従って、ノイズの影響が相殺されるのと同時に、光強度値が鼻の側部よりも鼻梁においてより速い速度で累積される。眼の線より下の、互いに重複する部分を持つセグメントに対しこの処理を繰返すことにより、光強度プロファイルの3Dパターン170が生成される。   The nose has a convex shape. Therefore, more light intensity is gathered at the nose bridge than at the side. Instead of using a single row of the face ROI image for the light intensity profile, video noise is obtained by using multiple rows to sum the light intensity values of the vertical lines of the pixels indicated by the vertical rectangle 162. Can significantly reduce the impact of Thus, at the same time that the effects of noise are cancelled, the light intensity values are accumulated at a faster rate in the nasal bridge than in the side of the nose. By repeating this process for segments having overlapping portions below the eye line, a 3D pattern 170 of the light intensity profile is generated.

すなわち、凸曲面上の点は側部より高い光強度を有することとなる。ここで、この実施の形態では行セグメント160の光強度分布を用いて鼻梁のトレースを行なうために高速フィルタリングのアプローチを利用している。   That is, the point on the convex curved surface has higher light intensity than the side portion. In this embodiment, a fast filtering approach is used to trace the nasal bridge using the light intensity distribution of the row segment 160.

非特許文献3に記載された両眼間の検出フィルタと同様に、この実施の形態では最大フィルタと呼ばれる、3セグメントの畳込みフィルタを用い、光強度の積分値を用いて鼻梁候補の位置のトレーシングを行なう。ここで中央のセグメントは側部のセグメントと等しいかまたは大きく、3個のセグメント全ての定数を乗じた光強度の合計は、鼻梁の位置で最大値となる。図4及び図5は眼の線から始めて各行の最大光強度パターンをトレースする、3個のセグメント182、184及び186を備えた最大フィルタ180を示す。基準は以下の通りである。
Similar to the interocular detection filter described in Non-Patent Document 3, in this embodiment, a 3-segment convolution filter called a maximum filter is used, and the position of the nostril candidate is determined using the integrated value of the light intensity. Tracing. Here, the central segment is equal to or larger than the side segment, and the sum of the light intensities multiplied by the constants of all three segments is the maximum value at the position of the nose bridge. 4 and 5 show a maximum filter 180 with three segments 182, 184 and 186 that trace the maximum light intensity pattern for each row starting from the eye line. The criteria are as follows.

Figure 2006146571
ここでSは図5に示す最大フィルタのセグメント182、184及び186の光強度の積分値を示し、A、B及びCは全て予め定められた定数である。好ましくは、定数Bは定数A及びCより大きい。定数Aは定数Cと等しくてもよい。例えば、B=3でありA=C=1である。
Figure 2006146571
Here, S i represents the integrated value of the light intensity of the segments 182, 184 and 186 of the maximum filter shown in FIG. 5, and A, B and C are all predetermined constants. Preferably, constant B is greater than constants A and C. The constant A may be equal to the constant C. For example, B = 3 and A = C = 1.

フィルタは顔のROI画像の全ての行セグメントと畳込みされる。各行で、式1の基準を満たす画素の位置が、さらに処理すべき鼻梁候補であると考えられる。   The filter is convolved with all row segments of the face ROI image. In each row, the position of the pixel that satisfies the criterion of Equation 1 is considered to be a nose bridge candidate to be further processed.

最大フィルタと画像の行セグメントとの直接畳込みは、計算上のコストが大きい処理である。このため、図6を参照して、行セグメントの光強度値の累積計200を用いて、SをSの2個の参照指標を用いて計算できる。各行セグメントの累積計は以下のように計算される。
CSUM(0)=rowArr(0)、
CSUM(j)=CSUM(j−1)+rowArr(j);j=1,2,…N (2)
ここでrowArrとCSUMとはそれぞれ行アレイの光強度値とその累積計である。従って、指標kとkとの間のSは以下のように計算することができる。
(k;k)=CSUM(k)−CSUM(k) (3)
各行セグメントは、式1を用いて鼻梁位置を見出すために、顔ROIのいずれかの端部に達するか、又は式1が満たされなくなるまで、処理される。すなわち、図7に示すように、鼻梁候補点220が見出されると、それらのうち幾つか222は鼻梁上にはなく、鼻先端よりも低い場合がある。このため、図8のボックス240で示されるように、鼻梁候補が鼻梁上に位置するよう、修正処理が必要となる。
Direct convolution of the maximum filter with the row segments of the image is a computationally expensive process. Thus, with reference to FIG. 6, using the cumulative total of 200 of the light intensity values in a row segment, the S i can be calculated using the two reference indices of S i. The cumulative total for each row segment is calculated as follows:
CSUM (0) = rowArr (0),
CSUM (j) = CSUM (j−1) + rowArr (j); j = 1, 2,... N (2)
Here, rowArr and CSUM are the light intensity value of the row array and its accumulator, respectively. Therefore, S i between indices k 1 and k 2 can be calculated as follows:
S i (k 1 ; k 2 ) = CSUM (k 2 ) −CSUM (k 1 ) (3)
Each row segment is processed until either end of the face ROI is reached or Equation 1 is not satisfied to find the nasal bridge position using Equation 1. That is, as shown in FIG. 7, when nasal bridge candidate points 220 are found, some of them 222 are not on the nasal bridge and may be lower than the tip of the nose. For this reason, as shown by the box 240 in FIG. 8, a correction process is required so that the nose bridge candidate is positioned on the nose bridge.

T(r)は、以下の式で規定される、最大フィルタ180から出力される顔ROI画像のr番目の行セグメントのj番目の位置での最大累積光強度合計を示すものとする。   T (r) represents the maximum accumulated light intensity total at the j-th position of the r-th row segment of the face ROI image output from the maximum filter 180, defined by the following equation.

Figure 2006146571
ここでT(r)は鼻梁上の3セグメントフィルタの区域下の光強度の累算に相当する。従って、拡散光の条件下で、或る点と光源との距離が増加すれば、又はその点が陰になれば、その点のT(r)値は小さくなる。このことから、鼻先端は鼻孔線上の点よりも高いT(r)を有することが分る。なぜなら、鼻孔線上の点は、図8の右側のT(r)プロファイル線242で示されるように、鼻曲線上にはないからである。このため、鼻先端と口ひげの線との間ではT(r)の勾配が高いことが期待され、さらに、鼻孔線上方の全ての候補点は鼻孔線上のものより高いT(r)を有するものと期待される。
Figure 2006146571
Here, T (r) corresponds to the accumulation of light intensity under the area of the three-segment filter on the nose bridge. Therefore, if the distance between a certain point and the light source increases under the condition of diffused light, or if that point becomes shaded, the T (r) value at that point decreases. From this it can be seen that the nose tip has a higher T (r) than the point on the nostril line. This is because the point on the nostril line is not on the nose curve as indicated by the T (r) profile line 242 on the right side of FIG. Therefore, it is expected that the gradient of T (r) is high between the nose tip and the mustache line, and all candidate points above the nostril line have a higher T (r) than that on the nostril line. It is expected.

−鼻梁線及び鼻先端を得るためのアルゴリズム−
鼻梁線及び鼻先端を得るためのアルゴリズムを以下で説明する。
-Algorithm for obtaining nose bridge line and tip-
The algorithm for obtaining the nasal bridge line and nose tip is described below.

1.T(r)線242の勾配∇T(r)を決定する。この実施の形態では、∇T(r)は図9に示すように決定される。図9を参照して、∇T(r)は、(例えば点260の)T(r)と(例えば点262の)T(r+1)との差をΔで除したものに等しい。ここでΔは予め定められた自然数であって、例えば、3である。この定義によれば、∇T(r)はT(r)の値が減少していれば正となる。絶対値は曲線の急峻さを示す。もちろん、他の定義を用いてもよい。   1. The gradient ∇T (r) of the T (r) line 242 is determined. In this embodiment, ∇T (r) is determined as shown in FIG. Referring to FIG. 9, ∇T (r) is equal to the difference between T (r) (eg, at point 260) and T (r + 1) (eg, at point 262) divided by Δ. Here, Δ is a predetermined natural number, for example, 3. According to this definition, ∇T (r) becomes positive if the value of T (r) decreases. The absolute value indicates the steepness of the curve. Of course, other definitions may be used.

2.∇T(r)の指標を勾配値の降順にソートする。   2. Sort the indices of ∇T (r) in descending order of gradient values.

3.行の指標が目のレベルから始まるものとして、∇T(r)の最も高い勾配の位置から始めて、T(r)≧T(k)∀r<kとなるk番目の行を見出す。これは、T(r)の値が急峻に減少する点が最も早く検討されることを意味する。   3. Assuming that the row index starts at the eye level, find the kth row starting from the highest gradient position of ∇T (r), where T (r) ≧ T (k) ∀r <k. This means that the point at which the value of T (r) sharply decreases is considered the earliest.

4.図10を参照して、T(i)がi<kについて最大となる行の指標iを見出し、i番目の行から開始する列セグメントを選択する。図10に列セグメントを示す。図10を参照して、列セグメント270はi番目の行から開始し典型的には顔のROIの下端まで伸びる、顔ROIの垂直セグメントである。   4). Referring to FIG. 10, the index i of the row where T (i) is the maximum for i <k is found, and the column segment starting from the i-th row is selected. FIG. 10 shows a column segment. Referring to FIG. 10, column segment 270 is a vertical segment of the face ROI, starting from the i th row and typically extending to the lower end of the face ROI.

5.図11(a)を参照して、垂直方向の、列セグメント270の水平光強度プロファイル(hproj)を形成する。   5. Referring to FIG. 11A, the horizontal light intensity profile (hproj) of the column segment 270 in the vertical direction is formed.

6.図11(b)を参照して、hproj280上のビデオノイズの影響を除去して、平滑化された光強度プロファイル(shproj)282を得る。例えば、hprojに高速フーリエ変換(FFT)を行ない、0.15πディジタル周波数より上の全てのFFT係数をゼロに設定し、結果として得られる係数の配列の逆高速フーリエ変換(IFFT)をとる。平滑化されたプロファイル上で、最初の3個の極値(2個の極大284及び288と1個の極小286)を探す。   6). Referring to FIG. 11B, the influence of video noise on hproj 280 is removed to obtain a smoothed light intensity profile (shproj) 282. For example, a fast Fourier transform (FFT) is performed on hproj, all FFT coefficients above 0.15π digital frequency are set to zero, and an inverse fast Fourier transform (IFFT) of the resulting array of coefficients is taken. Look for the first three extreme values (two maxima 284 and 288 and one minima 286) on the smoothed profile.

7.図11(c)を参照して、鼻先端の第1次導関数294の絶対値(|∇shproj|)は、第一の極大284と第一の極小286との間で最大値296を有する。   7. Referring to FIG. 11 (c), the absolute value (| jshproj |) of the first derivative 294 at the tip of the nose has a maximum value 296 between the first maximum 284 and the first minimum 286. .

8.さらに図11(c)を参照して、第1次導関数はゼロか鼻孔線の定数かいずれかである。すなわち、鼻先端の後、第2次導関数がゼロ(∇shproj(p)=0)となる最初の点298は鼻孔線である。 8). Still referring to FIG. 11 (c), the first derivative is either zero or a nostril constant. That is, the first point 298 where the second derivative is zero (∇ 2 shproj (p) = 0) after the nose tip is the nostril line.

9.さらに、鼻梁から鼻先端まで、図12の線312で示すように、式1を用いて抽出された全ての点の回帰直線を求めて鼻梁を表すものとする。図12では、鼻梁点310Aから310Nまでの回帰直線を求めている。線312は鼻梁を表すものと仮定される。   9. Furthermore, as shown by a line 312 in FIG. 12 from the nose bridge to the tip of the nose, a regression line of all points extracted using Equation 1 is obtained to represent the nose bridge. In FIG. 12, the regression line from the nostril points 310A to 310N is obtained. Line 312 is assumed to represent the nasal bridge.

10.図12を参照して、鼻先端は鼻梁線312上の鼻梁の先端から、先のステップで見出された鼻孔線との間のどこかの点である。従って、鼻先端は、ある線上にあると仮定される。図12の線314がこの線を表す。鼻先端は、鼻梁線312と線314との交点316である。   10. Referring to FIG. 12, the nose tip is some point between the nostril tip on the nostril line 312 and the nostril line found in the previous step. Therefore, the nose tip is assumed to be on a certain line. Line 314 in FIG. 12 represents this line. The tip of the nose is an intersection 316 between the nose bridge line 312 and the line 314.

−コンピュータによる実現−
この実施の形態の鼻梁及び鼻先端トラッキング装置30は、肌の色の違い及び照明条件によってパラメータを微調整する必要がない。どのユーザがいつ、カメラの前に現れても、トラッキング装置30は自動的にその人の眼、鼻梁及び鼻先端のトラッキングを、学習なしで開始する。
-Realization by computer-
The nasal bridge and nasal tip tracking device 30 of this embodiment do not require fine adjustment of parameters depending on skin color differences and illumination conditions. Regardless of which user appears in front of the camera at any time, the tracking device 30 automatically starts tracking the person's eyes, nasal bridge and nose tip without learning.

図2に戻って、この実施の形態の装置30を実現するプログラムの全体の制御構造を説明する。プログラムはステップ60で始まる。各フレームについて、システム30はステップ60で画像フレームを撮影する。ステップ62で、ステップ60で撮影された画像内で眼が検出される。ステップ64で、顔のROIが抽出される。   Returning to FIG. 2, the overall control structure of the program for realizing the apparatus 30 of this embodiment will be described. The program begins at step 60. For each frame, system 30 captures an image frame at step 60. In step 62, eyes are detected in the image taken in step 60. At step 64, the face ROI is extracted.

次に、抽出された顔ROIの各行セグメントについて、ステップ66から72のステップが繰返される。具体的には、各行セグメントについて、行セグメントの全ての画素列の累積和をステップ68で計算し、ステップ70で対象の行セグメントについて計算された累積和に最大フィルタ(図5を参照)を適用して、行セグメントの水平方向のT(r)プロファイル(図4を参照)を得る。このようにして得たT(r)プロファイルの例を図4の右側に示す。   Next, steps 66 to 72 are repeated for each row segment of the extracted face ROI. Specifically, for each row segment, the cumulative sum of all pixel columns in the row segment is calculated in step 68, and the maximum filter (see FIG. 5) is applied to the cumulative sum calculated for the target row segment in step 70. Thus, a horizontal T (r) profile of the row segment (see FIG. 4) is obtained. An example of the T (r) profile thus obtained is shown on the right side of FIG.

行セグメントの各々について、ステップ68及び70でT(r)プロファイルが得られた後、ステップ74で口ひげの線を推定する。口ひげの線をどのように推定するかを図8及び図9に示す。ステップ76で、口ひげの線の上方で最大のT(r)の行が選択される。ステップ78で、ステップ76で選択された行の下で顔ROIの下端まで伸びる列セグメントを抽出する。列セグメントの例を図10に列セグメント270として示す。   For each row segment, a T (r) profile is obtained in steps 68 and 70, and then a mustache line is estimated in step 74. FIG. 8 and FIG. 9 show how to estimate the mustache line. At step 76, the largest T (r) row above the mustache line is selected. Step 78 extracts column segments that extend to the bottom of the face ROI under the row selected in step 76. An example of a column segment is shown as column segment 270 in FIG.

ステップ80で、ステップ78で抽出された列セグメントの水平射影が形成される。この射影の一例を図11(a)に示す。ステップ82で、この射影に対しFFTを適用し、所定のディジタル周波数より上のFFT係数をゼロに設定し、結果として得られるFFT係数のアレイのIFFTをとることによって、この射影は平滑化される。平滑化された射影の例を図11(b)に示す。   At step 80, a horizontal projection of the column segments extracted at step 78 is formed. An example of this projection is shown in FIG. In step 82, the projection is smoothed by applying an FFT to the projection, setting the FFT coefficients above a predetermined digital frequency to zero, and taking the IFFT of the resulting array of FFT coefficients. . An example of the smoothed projection is shown in FIG.

ステップ84で、プロファイルの最初の3個の極値(2個の極大及びその間の極小)が図11(b)に示すように点284、286及び288として見出される。ステップ86で、点284と286との間のプロファイルの第1次導関数がとられ、第1次導関数の最大点が、図11(c)の点296である鼻梁の先端を示す。   At step 84, the first three extreme values of the profile (the two maxima and the minima between them) are found as points 284, 286 and 288 as shown in FIG. 11 (b). At step 86, the first derivative of the profile between points 284 and 286 is taken, and the maximum point of the first derivative indicates the tip of the nasal bridge, which is point 296 in FIG. 11 (c).

ステップ88で、プロファイルの第2次導関数がとられ、点296の後で第2次導関数がゼロとなる点が鼻孔線を示す。鼻先端は、鼻梁の先端と鼻孔線との間のどこかにある。この実施の形態では、鼻先端レベルは鼻梁の先端と鼻孔線位置との平均(中心点)として、ステップ90で計算される。   At step 88, the second derivative of the profile is taken and the point where the second derivative is zero after point 296 indicates the nostril line. The tip of the nose is somewhere between the tip of the nasal bridge and the nostril line. In this embodiment, the nose tip level is calculated in step 90 as the average (center point) of the tip of the nasal bridge and the nostril position.

ステップ92では、鼻梁上の全ての点の回帰直線(鼻梁線)を求める。ステップ94で、鼻先端線と鼻線との交点を探す。この点が鼻先端である。   In step 92, regression lines (nasal bridge lines) of all points on the nasal bridge are obtained. In step 94, the intersection of the nose tip line and the nose line is searched. This is the tip of the nose.

図13は上述のプログラムを実行してこの実施の形態の装置30を実現するコンピュータシステム330の概観を示す。上述の実施の形態はコンピュータハードウェア及びその上で実行されるコンピュータプログラムで実現される。図13はこの実施の形態のコンピュータシステム330の外観図であり、図14はシステム330をブロック図で示す。   FIG. 13 shows an overview of a computer system 330 that executes the above-described program to realize the apparatus 30 of this embodiment. The above-described embodiment is realized by computer hardware and a computer program executed on the computer hardware. FIG. 13 is an external view of the computer system 330 of this embodiment, and FIG. 14 shows the system 330 in a block diagram.

図13を参照して、コンピュータシステム330は、FD(Flexible Disk)ドライブ352及びCD−ROM(Compact Disc Read Only Memory)ドライブ350を含むコンピュータ340と、キーボード346と、マウス348と、モニタ342と、ビデオカメラ40とを含む。   Referring to FIG. 13, a computer system 330 includes a computer 340 including an FD (Flexible Disk) drive 352 and a CD-ROM (Compact Disc Read Only Memory) drive 350, a keyboard 346, a mouse 348, a monitor 342, And a video camera 40.

図14を参照して、コンピュータ340は、FDドライブ352及びCD−ROMドライブ350に加えて、CPU(Central Processing Unit)356と、CPU356、CD−ROMドライブ350及びFDドライブ352に接続されたバス366と、ブートアッププログラム等のプログラムを記憶するためのRead−Only Memory(ROM)358と、CPU356に接続され、アプリケーションプログラムの命令を一時的に記憶するとともに一時記憶空間を提供するためのRandom Access Memory(RAM)360と、アプリケーションプログラム、システムプログラム、及びデータを記憶するためのハードディスク354とを含む。ここでは図示しないが、コンピュータ340はさらに、ローカルエリアネットワーク(LAN)への接続を提供するネットワークアダプタボードを含んでもよい。   14, in addition to the FD drive 352 and the CD-ROM drive 350, the computer 340 includes a CPU (Central Processing Unit) 356 and a bus 366 connected to the CPU 356, the CD-ROM drive 350, and the FD drive 352. A read-only memory (ROM) 358 for storing a program such as a boot-up program, and a random access memory connected to the CPU 356 for temporarily storing instructions of the application program and providing a temporary storage space. (RAM) 360 and a hard disk 354 for storing application programs, system programs, and data. Although not shown here, the computer 340 may further include a network adapter board that provides a connection to a local area network (LAN).

コンピュータシステム330にこの実施の形態のトラッキング装置30の機能を実行させるプログラムは、CD−ROM362又はFD364に記憶されて、CD−ROMドライブ350又はFDドライブ352に挿入され、さらにハードディスク354に転送されてもよい。これに代えて、プログラムは、図示しないネットワークを介してコンピュータ340に送信され、ハードディスク354に記憶されてもよい。プログラムは実行の際にRAM360にロードされる。プログラムはCD−ROM362、FD364又はネットワークから直接ロードされてもよい。   A program for causing the computer system 330 to execute the function of the tracking device 30 of this embodiment is stored in the CD-ROM 362 or FD 364, inserted into the CD-ROM drive 350 or FD drive 352, and further transferred to the hard disk 354. Also good. Alternatively, the program may be transmitted to the computer 340 via a network (not shown) and stored in the hard disk 354. The program is loaded into the RAM 360 when executed. The program may be loaded directly from CD-ROM 362, FD 364, or network.

プログラムは、コンピュータ340にこの実施の形態のトラッキング装置30の機能を実行させるための幾つかの命令を含む。必要とされる基本的機能の幾つかは、コンピュータ340上で実行されるオペレーティングシステム(OS)又はサードパーティプログラム、もしくはコンピュータ340にインストールされたモジュールによって提供されるので、プログラムはこの実施の形態のトラッキング装置30を実現するための基本的機能全てを必ずしも含まなくてもよい。プログラムは、制御された様態で適切な機能を呼出し、所望の結果が得られるようにする命令の部分のみを含んでいればよい。コンピュータシステム330がどのように動作するかは周知であり、従ってここでは繰返さない。   The program includes several instructions for causing the computer 340 to execute the function of the tracking device 30 of this embodiment. Since some of the basic functions required are provided by an operating system (OS) or a third party program running on the computer 340, or a module installed on the computer 340, the program is of this embodiment All the basic functions for realizing the tracking device 30 are not necessarily included. The program only needs to include the part of the instruction that calls the appropriate function in a controlled manner and obtains the desired result. How the computer system 330 operates is well known and therefore will not be repeated here.

−トラッキングの結果−
図15及び16は自動的にトラッキングされた鼻梁及び先端の幾つかの例を示す。図15に示すように、鼻先端380、382及び384は異なる向きと異なる照明設定との下で正確にトラッキングされている。さらに、図16で示すように、鼻先端390はサングラスをかけている場合でもトラッキングできている。
-Tracking results-
Figures 15 and 16 show some examples of automatically tracked nasal bridges and tips. As shown in FIG. 15, the nose tips 380, 382 and 384 are accurately tracked under different orientations and different illumination settings. Further, as shown in FIG. 16, the nose tip 390 can be tracked even when wearing sunglasses.

提案されたアルゴリズムはC++で実現され、通常のOSの下で実行される。実験結果により、コンピュータハードウェア及びソフトウェアで実現された装置30はリアルタイムで、完全に自動的に、毎秒30フレーム(fps)で実行されたことが検証された。装置30は、(1)異なる肌の色、(2)正面から見た顔の向き及びスケールの変化、並びに(3)照明の変化によらず個人を成功裏にトラッキングした。   The proposed algorithm is implemented in C ++ and runs under a normal OS. Experimental results verified that the device 30 implemented with computer hardware and software was executed in real time, fully automatically, at 30 frames per second (fps). The device 30 successfully tracked an individual regardless of (1) different skin colors, (2) face orientation and scale changes as seen from the front, and (3) lighting changes.

この実施の形態では、鼻梁のトラッキングのために、凸曲面トラッキングフィルタを用いる。上述の説明はまた鼻梁先端の光強度プロファイルの第1次導関数が最大値を有することを示している。同様に、光強度プロファイルの第2次導関数は鼻孔線でゼロである。鼻先端はこれら2個のレベルの間にある。   In this embodiment, a convex curved surface tracking filter is used for tracking the nasal bridge. The above description also shows that the first derivative of the light intensity profile at the tip of the nasal bridge has a maximum value. Similarly, the second derivative of the light intensity profile is zero at the nostril line. The nose tip is between these two levels.

この発明の装置と方法とが、鼻梁トラッキングに関連して説明された。しかし、他の顔の特徴点をトラッキングするために、様々な修正や変更が可能である。   The apparatus and method of the present invention has been described in connection with nasal bridge tracking. However, various modifications and changes are possible to track other facial feature points.

上述の実施の形態では、画像はカラーであったが、この発明はそのような実施の形態に限定されず、画像は光強度画像のみであってもよい。その場合、光強度情報そのものを直接、光強度情報の表現として用いてもよい。   In the above-described embodiment, the image is a color, but the present invention is not limited to such an embodiment, and the image may be only a light intensity image. In that case, the light intensity information itself may be used directly as a representation of the light intensity information.

今回開示された実施の形態は単に例示であって、本発明が上記した実施の形態のみに制限されるわけではない。本発明の範囲は、発明の詳細な説明の記載を参酌した上で、特許請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味および範囲内でのすべての変更を含む。   The embodiment disclosed herein is merely an example, and the present invention is not limited to the embodiment described above. The scope of the present invention is indicated by each claim in the claims after taking into account the description of the detailed description of the invention, and all modifications within the meaning and scope equivalent to the wording described therein are intended. Including.

この発明の一実施の形態のトラッキング装置30のブロック図である。It is a block diagram of tracking device 30 of one embodiment of this invention. この実施の形態のトラッキング装置30を実現するコンピュータ上で実行されるプログラムのフローチャートである。It is a flowchart of the program run on the computer which implement | achieves the tracking apparatus 30 of this embodiment. 顔ROIの抽出を示す図である。It is a figure which shows extraction of face ROI. 行セグメント160が顔ROIからどのように抽出されるかを示す図である。It is a figure which shows how the line segment 160 is extracted from the face ROI. この実施の形態で用いられる、3セグメントの畳込みフィルタ180を示す図である。It is a figure which shows the 3 segment convolution filter 180 used by this embodiment. 行セグメントの光強度値の累積和200を示す図である。It is a figure which shows the cumulative sum 200 of the light intensity value of a row segment. 成功裏に抽出された鼻梁候補と、鼻梁及び鼻先端の更なる処理により正確に見出された、幾つかの誤った鼻梁候補とを示す図である。FIG. 7 shows successfully extracted nasal bridge candidates and some false nasal bridge candidates that were accurately found by further processing of the nasal bridge and nose tip. 成功裏に抽出された鼻梁候補(その幾つかは鼻先端点より下にあり従って正確でない。)と、その光強度プロファイルとを示す図である。FIG. 6 is a diagram showing successfully extracted nasal bridge candidates (some of which are below the nasal tip and therefore not accurate) and their light intensity profiles. ∇T(r)の定義を示す図である。It is a figure which shows the definition of ∇T (r). 列セグメントを示す図である。It is a figure which shows a column segment. 列セグメントのプロファイルを示す図である。It is a figure which shows the profile of a column segment. 鼻先端をどのように決定するかを示す図である。It is a figure which shows how a nose tip is determined. 上述のプログラムを実行し、この実施の形態の装置30を実現するコンピュータシステム330の外観を示す図である。It is a figure which shows the external appearance of the computer system 330 which runs the above-mentioned program and implement | achieves the apparatus 30 of this Embodiment. 図13に示すコンピュータ340の構造を示す図である。It is a figure which shows the structure of the computer 340 shown in FIG. この実施の形態の実験結果を示す図である。It is a figure which shows the experimental result of this embodiment. この実施の形態の実験結果を示す図である。It is a figure which shows the experimental result of this embodiment.

符号の説明Explanation of symbols

30 トラッキング装置
40 ビデオカメラ
42 フレームメモリ
44 眼検出モジュール
46 鼻梁検出モジュール
122、124、142、144 眼の位置
126、140 顔の対象領域(ROI)
160 行セグメント
170 光強度プロファイル
180 最大フィルタ
270 列セグメント
280 光強度プロファイル(hproj)
282 平滑化された光強度プロファイル(shproj)
330 コンピュータシステム
340 コンピュータ
30 Tracking device 40 Video camera 42 Frame memory 44 Eye detection module 46 Nasal bridge detection module 122, 124, 142, 144 Eye position 126, 140 Face region of interest (ROI)
160 row segment 170 light intensity profile 180 maximum filter 270 column segment 280 light intensity profile (hproj)
282 Smoothed light intensity profile (shproj)
330 Computer System 340 Computer

Claims (9)

顔画像の鼻梁の位置を特定するための、コンピュータで実現される方法であって、
ビデオ画像生成装置から画像フレームを受信するステップと、
画像フレーム中の画像の眼の位置を特定するステップと、
前記眼の位置とその間隔とに基づいて、顔の、鼻と口とを含む顔画像の位置とサイズとを推定するステップと、
前記顔画像の光強度分布に基づいて前記顔画像中の鼻梁区域を決定するステップとを含む、方法。
A computer-implemented method for locating a nose bridge in a facial image,
Receiving an image frame from a video image generating device;
Identifying the eye position of the image in the image frame;
Estimating the position and size of a facial image including the nose and mouth of the face based on the position of the eye and its spacing;
Determining a nostril area in the face image based on a light intensity distribution of the face image.
前記決定するステップが、
前記顔画像の行セグメントの各々について水平光強度プロファイルを計算するステップと、
前記顔画像の前記行セグメントの各々について、前記水平光強度プロファイル中の鼻梁候補を見出すステップとを含み、前記水平光強度プロファイルは、前記鼻梁候補の位置において所定の基準を満たしている、請求項1に記載の方法。
Said determining step comprises:
Calculating a horizontal light intensity profile for each row segment of the facial image;
Finding a nasal bridge candidate in the horizontal light intensity profile for each of the row segments of the facial image, wherein the horizontal light intensity profile satisfies a predetermined criterion at the position of the nasal bridge candidate. The method according to 1.
前記見出すステップが、
前記顔画像の前記行セグメントの各々について、前記水平光強度プロファイルに所定の最大フィルタを適用するステップを含み、前記最大フィルタは3個のセグメントを含んでおり、さらに、
前記顔画像の前記行セグメントの各々について、S1≦S2≧S3を満たす鼻梁候補を見出すステップを含み、ここでS1、S2、S3は最大フィルタ中のそれぞれ最も左のセグメント、中央のセグメント、最も右のセグメントの光強度値をそれぞれ示し、前記最大フィルタはさらに、A、B、Cをそれぞれ正の定数として、重付け和AS1+BS2+CS3が行セグメント中で最大となるようにする、請求項2に記載の方法。
The step of finding comprises
Applying a predetermined maximum filter to the horizontal light intensity profile for each of the row segments of the facial image, the maximum filter including three segments;
For each of the row segments of the face image, the method includes finding a nostril candidate that satisfies S1 ≦ S2 ≧ S3, where S1, S2, and S3 are respectively the leftmost segment, the middle segment, and the rightmost segment in the maximum filter. 3. The light intensity value of each of the segments, and wherein the maximum filter further sets A, B, and C to be positive constants so that the weighted sum AS1 + BS2 + CS3 is maximized in the row segment. Method.
画像シーケンス中の顔画像の鼻梁をトラッキングするための、コンピュータで実現される方法であって、前記顔画像の各々について、請求項1〜請求項3のいずれかに記載の方法を利用して顔画像の鼻梁の位置を特定するステップを含む、方法。 A computer-implemented method for tracking a nasal bridge of a facial image in an image sequence, wherein for each of the facial images, a face is utilized using the method according to any of claims 1-3. Locating the nasal bridge of the image. 顔画像から鼻の先端を見出すための、コンピュータで実現される方法であって、
請求項1〜請求項3のいずれかに記載の全てのステップを実行するステップと、
前記決定するステップで決定された鼻梁区域中において、当該鼻梁区域中で顔画像の光強度値が最も高くなる最大強度点を特定するステップと、
前記最大強度点から顔画像の下端まで延びる顔画像中の列セグメントを規定するステップと、
前記列セグメントの列方向に沿って、前記列セグメントの光強度プロファイルを作成するステップと、
前記光強度プロファイルの第1次導関数と第2次導関数とを調査することにより、鼻先端のレベルを特定するステップと、
前記鼻梁候補の回帰直線を求めることにより鼻梁線を形成するステップと、
前記鼻先端のレベルによって規定される線と前記鼻梁線との交点として、鼻先端を見出すステップとを含む、顔画像から鼻の先端を見出すための方法。
A computer-implemented method for finding the tip of the nose from a facial image,
Performing all the steps according to any one of claims 1 to 3,
In the nasal bridge area determined in the determining step, identifying a maximum intensity point at which the light intensity value of the face image is highest in the nasal bridge area;
Defining a column segment in the face image extending from the maximum intensity point to a lower end of the face image;
Creating a light intensity profile of the column segment along a column direction of the column segment;
Determining the level of the tip of the nose by examining the first and second derivatives of the light intensity profile;
Forming a nasal bridge line by determining a regression line of the nasal bridge candidate; and
A method for finding the tip of the nose from a face image, comprising the step of finding the tip of the nose as an intersection of the line defined by the level of the tip of the nose and the nose bridge line.
前記鼻先端のレベルを特定するステップが、
前記列セグメントの前記光強度プロファイルの第1次導関数が最大値を有する点を特定することによって、前記列セグメントの前記光強度プロファイル中で鼻梁区域の先端に対応するレベルを特定するステップと、
前記列セグメントの前記光強度プロファイルの第2次導関数が予め定められた値を有する点を特定することにより、列セグメントの光強度プロファイル中における鼻孔レベルを特定するステップと、
前記鼻梁区域の先端のレベルと前記鼻孔レベルとの間の予め定められた点として、鼻先端のレベルを決定するステップとを含む、請求項5に記載の方法。
Identifying the level of the tip of the nose,
Identifying a level corresponding to the tip of the nasal bridge area in the light intensity profile of the row segment by identifying a point where the first derivative of the light intensity profile of the row segment has a maximum value;
Identifying a nostril level in the light intensity profile of the row segment by identifying a point where the second derivative of the light intensity profile of the row segment has a predetermined value;
6. The method of claim 5, comprising determining a nasal tip level as a predetermined point between the nasal bridge segment tip level and the nostril level.
前記鼻先端のレベルを決定するステップが、前記列セグメントにおいて、前記鼻梁区域の先端と前記鼻孔レベルとの平均点を計算するステップを含む、請求項6に記載の方法。 The method of claim 6, wherein determining the level of the nose tip comprises calculating an average of the tip of the nasal bridge area and the nostril level in the row segment. 画像シーケンス中の顔画像の鼻先端をトラッキングするための、コンピュータで実現される方法であって、前記顔画像の各々について、請求項5〜請求項7のいずれかに記載の方法を利用して顔画像の鼻先端の位置を特定するステップを含む、画像シーケンス中の顔画像の鼻先端をトラッキングするための方法。 A computer-implemented method for tracking the nose tip of a facial image in an image sequence, wherein each of the facial images utilizes the method according to any of claims 5-7. A method for tracking a nasal tip of a facial image in an image sequence comprising the step of locating the nasal tip of the facial image. コンピュータ上で実行されると、コンピュータに、請求項1〜請求項8のいずれかに記載の全てのステップを行なわせる、コンピュータプログラム。 A computer program that, when executed on a computer, causes the computer to perform all the steps according to any one of claims 1 to 8.
JP2004335970A 2004-11-19 2004-11-19 Method for identifying and tracking nasal bridge and tip Active JP4725949B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004335970A JP4725949B2 (en) 2004-11-19 2004-11-19 Method for identifying and tracking nasal bridge and tip

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004335970A JP4725949B2 (en) 2004-11-19 2004-11-19 Method for identifying and tracking nasal bridge and tip

Publications (3)

Publication Number Publication Date
JP2006146571A true JP2006146571A (en) 2006-06-08
JP2006146571A5 JP2006146571A5 (en) 2010-11-11
JP4725949B2 JP4725949B2 (en) 2011-07-13

Family

ID=36626183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004335970A Active JP4725949B2 (en) 2004-11-19 2004-11-19 Method for identifying and tracking nasal bridge and tip

Country Status (1)

Country Link
JP (1) JP4725949B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009231878A (en) * 2008-03-19 2009-10-08 Seiko Epson Corp Image processing unit and image processing method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004157778A (en) * 2002-11-06 2004-06-03 Advanced Telecommunication Research Institute International Nose position extraction method, program for operating it on computer, and nose position extraction device
JP2004234367A (en) * 2003-01-30 2004-08-19 Fujitsu Ltd Device and method for detecting direction of face and computer program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004157778A (en) * 2002-11-06 2004-06-03 Advanced Telecommunication Research Institute International Nose position extraction method, program for operating it on computer, and nose position extraction device
JP2004234367A (en) * 2003-01-30 2004-08-19 Fujitsu Ltd Device and method for detecting direction of face and computer program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009231878A (en) * 2008-03-19 2009-10-08 Seiko Epson Corp Image processing unit and image processing method

Also Published As

Publication number Publication date
JP4725949B2 (en) 2011-07-13

Similar Documents

Publication Publication Date Title
Steffens et al. Personspotter-fast and robust system for human detection, tracking and recognition
JP3962803B2 (en) Head detection device, head detection method, and head detection program
US9262671B2 (en) Systems, methods, and software for detecting an object in an image
US9621779B2 (en) Face recognition device and method that update feature amounts at different frequencies based on estimated distance
CN106056064B (en) A kind of face identification method and face identification device
JP5213486B2 (en) Object tracking device and object tracking method
WO2016011834A1 (en) Image processing method and system
WO2019023921A1 (en) Gesture recognition method, apparatus, and device
JP4445454B2 (en) Face center position detection device, face center position detection method, and program
KR101612605B1 (en) Method for extracting face feature and apparatus for perforimg the method
KR20080073933A (en) Object tracking method and apparatus, and object pose information calculating method and apparatus
JP2011134114A (en) Pattern recognition method and pattern recognition apparatus
EP2309454B1 (en) Apparatus and method for detecting motion
EP2691915A1 (en) Method of facial landmark detection
JP2017033372A (en) Person recognition device and program therefor
JP2007257088A (en) Robot device and its communication method
CN112185515A (en) Patient auxiliary system based on action recognition
JPH08287216A (en) In-face position recognizing method
Assiri et al. Face emotion recognition based on infrared thermal imagery by applying machine learning and parallelism
JP2010231350A (en) Person identifying apparatus, its program, and its method
Ayinde et al. Region-based face detection
JP4725949B2 (en) Method for identifying and tracking nasal bridge and tip
Boruah et al. Different face regions detection based facial expression recognition
CN100377164C (en) Method, device and storage medium for detecting face complexion area in image
Vezhnevets et al. Automatic extraction of frontal facial features

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071026

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100727

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100921

A524 Written submission of copy of amendment under section 19 (pct)

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20100921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110114

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110322

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110405

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140422

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250