JP2007109229A - 特定被写体検出装置及び方法 - Google Patents
特定被写体検出装置及び方法 Download PDFInfo
- Publication number
- JP2007109229A JP2007109229A JP2006272871A JP2006272871A JP2007109229A JP 2007109229 A JP2007109229 A JP 2007109229A JP 2006272871 A JP2006272871 A JP 2006272871A JP 2006272871 A JP2006272871 A JP 2006272871A JP 2007109229 A JP2007109229 A JP 2007109229A
- Authority
- JP
- Japan
- Prior art keywords
- face
- node
- image
- specific subject
- sub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7747—Organisation of the process, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
Abstract
【解決手段】画像から特定被写体を検出する特定被写体検出装置が、画像入力手段と、木構造検出器とを有する。木構造検出器は、前記画像入力手段から入力された画像を判別するものであって、ルートノードは、分岐される全ての対象物の向きに対応するサブ対象物空間を含み、ルートノードから分岐する子ノードは少なくとも1つの対象物の向きに対応するサブ対象物空間を含み、ルートノードと子ノードの各ノードは複数の弱判別器を含み、各弱判別器の出力を分割するサブ対象物空間毎に集計して、隣接する下層の子ノードのどこに移行するか判定する。
【選択図】図2
Description
H. A.Rowley, "Neural Network-based Human Face Detection", Ph.D. thesis,Carnegie Mellon Uni-versity, May 1999. H.Schneiderman and T. Kanade, "A Statistical Method for 3D ObjectDetection Applied to Faces and Cars". CVPR 2000. RongXiao, Long Zhu, Hongjiang Zhang, Boosting Chain Learning for Object Detection,ICCV 2003. C.Liu andH. Y. Shum, "Kullback-Leibler Boosting", CVPR 2003. S. Z. Li,L. Zhu, Z. Q. Zhang, et al., "Statistical Learn-ing of Multi-ViewFace Detection". ECCV 2002. Jones andViola, "Fast Multi-view Face Detection". MERL-TR2003-96, July 2003. Bo Wu,Haizhou Ai, Chang Huang, and Shihong Lao, Fast rotation invariant multi-viewface detection based on real adaboost, FG 2004. R. E.Schapire and Y. Singer, "Improved Boosting Algo-rithms UsingConfidence-rated Predictions", Ma-chine Learning, 37, 1999,297-336. Y. Freundand R. E. Schapire, "Experiments with a New BoostingAlgorithm". In Proc. of the 13-th Conf. on Machine Learning, Morgan Kaufmann, 1996,148-156. R.E. Schapire, Y. Freund, P. Bartlettand W.S. Lee, "Boosting the margin: A new explanation forthe effectiveness of voting methods", The Annals ofStatistics, 26(5), 1998, 1651-1686.
と、ベイズ決定則によるSchneiderman氏の方法(非特許文献2参照)は共に高精度である
。しかし、その膨大な演算の量によって、それらの適用は非常に限られている。ここで言及するのは、Schneiderman氏は顔の向きを左向きと正面と右向きに分けて、ベイジアン(Bayesian)方法及びウェーブレット変換(wavelettransform)により顔向きによる3つの検出器を学習して、3つの検出器の結果を合わせて最終の結果を得るようにした。Schneiderman氏の検出器は演算が複雑で、速度がとても遅い代わりに、顔向きの違いによる顔の検出に大いに貢献した。
一つのアプローチはピラミッド構造である。多種類の姿勢の顔を検出するために、Li氏はピラミッド構造(pyramid−structured)による複数の顔向きの顔の検出器(MVFD
)(非特許文献5参照)を発表した。このピラミッド構造は、図1(b)に示すように、その頂層には±90°の平面外回転(ROP)をカバーする1つのノード(メインノード)しかなく、第2層の3つのノード(子ノード)でこの範囲を3つに分けてから、層ごとに細分化する。これは、始めは粗く判別し、後の判別で詳細に判断する(course to fine)手法を用いて、平面外回転(ROP)の姿勢変化を処理するものである。顔は異なる姿勢でも類似なところがあるので、ピラミッド方法では、顔の特徴抽出の効果を改善するために、それらの類似な顔を一つのポジティブなアンサンブルクラス(oneensemble positive class)として取り扱うことにした。ただし、こうすると、それらの内在的な差異が無視され、ピラミッド方法の異なる姿勢への識別力がなくなった。その結果、親ノードを経たサンプルはその全ての子ノードに送られなければならなくなるので、決定処理が極めて低速になる問題がある。
別のアプローチは、図1(c)に示す決定木構造である。上記のピラミッド方法とは逆に、多種類の姿勢の顔を検出するために、非特許文献6では決定木方法が提案され、平面内回転(RIP)の問題に一つの解決策が示された。異なる姿勢同士の差異点に着目し、その決定木はRIPの1つの姿勢を評価することができ、決定木の強制的な判断により、姿勢推測に必要とする時間を確実に効果的に減少させた。しかし、その結果は安定しなくなることがあり、且つ実用性が悪い。
を区別すること、もう一つは顔の姿勢を識別することの2つの課題がある。1つ目の課題は、非顔をなるべく早く排除する必要があるので、顔を非顔と分離するように異なる姿勢の顔から類似点を見出さなければならない。2つ目の課題は、異なる姿勢同士の差異点に
注目している。2つの課題の衝突は、あらゆる顔を単一のクラスとして処理するか(例えばピラミッド方法)、或いは異なる独立の分離されたクラスとして処理するか(例えば決定木方法)というジレンマとなる。なお、両方は共にMVFD問題の処理に満足できる結果を得られない。この問題は、通常、顔の姿勢変化(平面内回転RIPと平面外回転ROPを含む)によって画像における顔の構造及びテクスチャが顕著に変化されて、更に分類の複雑度が大きくなるのが難点である。
定木(DecisionTree)が提案された。前者は、姿勢変化の度合いに応じて、粗から詳細へ(coarse to fine)の原則に基づいて、順次に多角度の顔の空間を角度が単一である顔のエレメント空間に分けて、ピラミッド構造の判別器により多角度の顔を非顔と順次に分離するものである。後者は、決定木により多角度の顔を直接分類して、分類された結果に基づいて、対応するカスケード(cascade)判別器を選択する。そして、分類された結果の
姿勢の顔を非顔と分離するものである。概略的に言えば、ピラミッド(Pyramid)構造で
は異なる姿勢の顔を同一のクラスと想定して、それらと非顔との分類問題を解決することに注目して、顔の空間が徐々に精細に分割されることに伴って、最終で比較的に合理的な姿勢推測の結果が得られる。それに対して、決定木方法では、まず姿勢推測の問題を解決し、複数回の分類により異なる姿勢の顔を分離してから、従来のカスケードモデルによりある特定姿勢での顔と非顔との分類問題を解決するのである。
の方法による木構造判別器を提案すると共に、顔検出及び姿勢の推測という2つの問題を解決する。
ドは、分岐される全ての対象物の向きに対応するサブ対象物空間を含み、前記ルートノードから分岐する子ノードは少なくとも1つの対象物の向きに対応するサブ対象物空間を含み、前記ルートノードと前記子ノードの各ノードは複数の弱判別器を含み、各弱判別器の出力を分割するサブ対象物空間毎に集計して、隣接する下層の子ノードのどこに移行するか判定する木構造検出器と、を有することを特徴とする特定被写体検出装置である。
AdaBoosting)アルゴリズム(非特許文献8,9,10参照)を拡張するベクトルブースティング(vectorboosting)アルゴリズムを得たことで、より良い性能を達成できる点、弱判別器が分級関数(piece-wise function)で定義されており、それはルックアップテ
ーブル(LUT)により実現され、複雑な分布を近似するために用いられ、信頼度を評価した判別を与える点である。
二値分類法では、判別器の出力をスカラー空間に制限して最適化しており、マルチ分類問題については複数の独立した二値分類問題に分けて別々に解決する。この方法は明瞭で直接的であるが、複雑なマルチ分類マルチタグ問題を処理する場合、処理が膨大となり、且つ分割された二値分類問題同士を関係付けるのも難しい。本発明のベクトルブースティングアルゴリズムは、分割された複数の二値分類問題を含む複雑な問題を同一のベクトル出力空間において取り扱うことができ、従来のアダブースト方法をも一つのフレームワークで取り扱えるようにする。さらに、ベクトルブースティングによれば異なる分類問題同士の関連性を考慮でき、ベクトルブースティングはアダブースト方法を発展してなるものだと言える。ベクトルブースティングアルゴリズムはMVFD問題のために開発されたものであるが、他の複雑な分類問題にも適用できる。
画像は背景として人物以外の風景(被写体として注目される物体も含む)及び模様などを含むいかなる図形でもよい。
図2のように、本発明は複数の顔向きに対応する顔検出方法を提供している。この方法では、顔空間を複数の顔向きによるサブ顔空間に分割する。例えば、一つの顔を±90°の平面外回転をさせて、正面の顔と、半左向きの顔と、全左向きの顔と、半右向きの顔と、全右向きの顔という5つの顔向きによるサブ顔空間に分割する。次にこの5つのサブ顔空間をそれぞれ±45°の平面内回転させて、各顔向きによるサブ顔空間から平面内回転による2つのサブ顔空間(例えば±30°の平面内回転)に分割する。このように顔空間を15つの顔向きによるサブ顔空間に分割する。
造検出器
図2に示すように、±45°の平面内回転(RIP)及び±90°の平面外回転(ROP)をもつ顔空間に関して、この検出器は粗から細への方法(course to fine)により顔空間全体を徐々に小さなサブ空間に分割する。最も大きい空間を含むルートノードは2層目で左向きと、正面と、右向きの顔向きに分けられる。これにより、平面外回転(ROP)がより正確に表現される。その次の下の層において、完全な横向き及び半横向きが定義される。最後に、4層目で各顔向きを異なる平面内回転(RIP)に従って3種類に分ける。
において、あるサンプルのデシジョンベクトルがG(x)=(1,1,0)であれば、これはこの顔画像が右向きの顔ではなく、左向きの顔又は正面の顔であることを意味するので、2層目では、この顔画像は右側のノードではなく、左側のノード及び真ん中のノードに送られる。別の例では、顔画像のデシジョンベクトルがG(x)=(0,0,0)であれば、これはこのサンプルがいかなる子ノードにも属さないことを意味しており、迅速に廃棄されることを意味する。木のあらゆる使用可能なノードを処理するときに、幅優先の方法により探索が行われる。幅優先探索の擬似コードを以下に示す:
トルブースティングアルゴリズムにより、各ノードの学習が行われ、要求されるデシジョンベクトルG(x)を迅速且つ正確に算出できるようになる。
ここで言うベクトルブースティングアルゴリズムはリアルアダブースティングアルゴリズムの拡張バージョンとして提案されている。ベクトルブースティングアルゴリズムでは、弱判別器及び最終の出力が共にスカラーではなくベクトルである。ベクトルブースティングアルゴリズムはもともとはリアルアダブースティング(非特許文献8参照)のマルチタイプマルチラベル(MCML)バージョンからのものであり、サンプル毎に1組のラベルを分配すると共に、オリジナルの問題をk個の直交する二値分類問題に分解するものである。このアルゴリズムの主要な点は、各二値分類問題に関して、サンプルをポジティブ又はネガティブと評価することである。しかしながら、多くの複雑なケースでは、サンプルに関連性のない二値分類問題において、ポジティブでもネガティブでもないサンプルがでてくるため、上記評価が成立しなくなる。このことが、リアルアダブースティングのマルチタイプマルチラベル(MCML)バージョンの適用を阻害している。図2の幅優先探索木のルートノードを例に挙げると、ある正面顔のサンプルのデシジョンベクトルはG(x)=(*,+1,*)となり(*は+1でも−1でもよい)、第1(即ち、左向きの顔)及び第3(即ち、右向きの顔)の二値分類は正面顔のサンプルには関連性がないことがわかる。1つの複雑な分類問題が1組の二値分類問題に分解されると、ベクトルブースティングアルゴリズムは、多成分ベクトルの共有出力空間を用いることにより、それらの二値分類問題を統一的なフレームワークで処理する。この出力空間において、各二値問題は固有の「興味(interested)」方向をもつ。これが、その二値問題の投影ベクトルとよばれる。この方法において、異なる二値問題は独立している(直交投影ベクトルを有する)必要はなく、通常、互いに関連してもいい(非直交投影ベクトルを有する)。
が与えられたとする。ただし、xiは1つのサンプル空間Xに属し、viは有限のk次元の投影ベクトル集合Ωに属し、ラベルyi=±1(即ち、ポジティブ或いはネガティブ)である。n個の二値分類問題を同時に処理するk次元のベクトルブースティングアルゴリズムの汎用バージョンの擬似コードは次のようになる。
ルすることで、高精度の判別器を作成できる。その中心となる変換規則式(1)では、出力のベクトル化により、ラベルy及び投影ベクトルviを有するサンプルxiの分類マージン(margin)がyi(vi・h(xi))のように定義される。従って、1つの弱判別器から出力された直交成分はサンプルのウェイト(重み)の更新に役立たない。この方法では、ベクトルブースティングアルゴリズムは投影ベクトル(興味方向)により誤って分類されたサンプルのウェイトを増加する一方、正確に予測されたサンプルのウェイトを減少する。
)。
)の次元である(簡単のために、正面からの顔向き及びその関係する投影ベクトルが省略されている)。これによってわかるように、この二次元空間で、左向きの顔と右向きの顔は、それぞれに固有の投影ベクトルw1とw3により、非顔(Non-face)から分離できる。
クトルブースティングアルゴリズムではリアルアダブーストアルゴリズムと同じ学習誤差範囲、即ち、
学習誤差:Perror≦ΠZt (5)
を確保している。
従来のカスケード判別器では、積分画像の方法によりハール特徴f(X)を高速に算出するが、この方法においては、図5aに示すように、弱判別器h(x)は二値(Boolean
)出力を有する閾値型関数で定義されている。この関数は、
h(x)=sign[f(x)−b]
のように模式的に表される(ここでbは閾値である)。これは簡単でかつ容易に学習できるが、抽出された特徴の情報を十分に活用できない。例えば、図4aでは、ポジティブとネガティブのサンプルは適当な閾値により良好に区分される。しかし、粒度が粗いため、それらの差異を正確に表すことができない。また、アダブーストアルゴリズムの更新中で
は、それらの差異は徐々に減少して(図4bは、5回目で選別されたハール特徴の差異を示している。)、これは閾値型関数の区分能力を大いに弱くさせ、アルゴリズムの収束(即ち、カスケードにおける後寄りの層において、顔と非顔とが非常に似る場合)に支障をきたすことがある。その結果、閾値型弱判別器における粗い粒度は検出器の速度及び精度の改良を大いに阻止している。
式(5)に示すように、ベクトルブースティングアルゴリズムにおける学習誤差は全ての規格化因子の積が上限となるから、欲張りアルゴリズム(greedy strategy)を適用す
れば、弱判別器の目的は現在回の因子を最小化することである。仮に、弱判別器h(x;θ,μ)の特徴を2つのパラメータで記述すれば、θはそのハール特徴を記述するのに、μはその分級関数を記述するのに用いられる。有限冗長のハール特徴の集合を用いて、全ての探索方法を実施し、最も区分能力を有するものを得られるように各特徴に1つの分級関数を最適化する。
が分布Dt(i)をもつと仮定する。ある特徴f(x)について、サンプルは予め定義された分級関数に基づき対応するビンに分配される。それぞれは次のように表される。
ただし、jはビンのインデックスである。
ビンk(bin k)に関して、学習損失は次のようになる。
この損失関数はckを変数とする凸関数である。従って、各cjが適当な最適化アルゴリズム、例えばニュートンステップ(Newton−Step)により、最適化される。
図8a、図8bに示すように、本発明はさらに複数の顔向きに対応する顔検出装置を提供するものであり、該装置は、顔画像入力手段、幅優先探索木構造検出器、顔出力手段を含むものである。
1つ以上の顔向きによるサブ顔空間を含む子ノードは複数の分岐を有しており、各分岐は1つの隣接する下層の子ノードに対応して、各隣接する下層の子ノードは少なくとも1つの顔向きによるサブ顔空間を含み、1つのみの顔向きによるサブ顔空間を含む子ノードは前記木構造の葉ノードであり、
前記各ノードは顔であるか否かの信頼度を出力する1つの強判別器を含み、各ノードの分岐数をこの強判別器で出力できる信頼度の顔の顔向き種類に等しくさせることにより、対応するノードの顔画像をどの隣接する下層のノードに伝送するかを決定すると共に、前記の葉ノードに対して非分岐のカスケード分類を行い、非顔を排除することで相応する顔向きを有する顔を得られ、かつ、木構造におけるあらゆる有効なノードを処理する時に幅優先探索を採用する。
顔画像入力手段は、人物画像の原画像のデータ(以下、「原画像のデータ」と呼ぶ)を顔検出装置へ入力するためのインタフェースとして機能する。原画像のデータは、静止画像のデータであっても良いし、動画像のデータであっても良い。顔画像入力手段によって、顔検出装置の外部から、原画像のデータが顔検出装置へ入力される。顔画像入力手段は、顔検出装置へ原画像のデータを入力するためのいずれかの既存技術を用いて構成されても良い。
線接続やbluetooth等の無線接続の規格)に応じて構成されて良い。また、記憶媒体(例
えば各種フラッシュメモリやフロッピー(登録商標)ディスクやCD(CompactDisk)や
DVD(Digital Versatile Disc、Digital Video Disc))に記録されている原画像のデータを顔検出装置へ入力させても良い。この場合、入力手段は、記憶媒体からデータを読み出す装置(例えばフラッシュメモリリーダやフロッピーディスクドライブやCDドライブやDVDドライブ)を用いて構成されて良い。
物画像を原画像のデータとして顔検出装置へ入力させても良い。この場合、入力手段は、CCD(Charge-CoupledDevices)やCMOS(Complementary Metal-Oxide Semiconduct
or)センサ等を用いて構成されても良いし、CCDやCMOSセンサなどによって撮像された原
画像のデータを顔検出装置に入力するためのインタフェースとして構成されても良い。また、出力データとしてこの画像出力装置に入力された人物画像を原画像のデータとして顔検出装置へ入力させても良い。この場合、入力手段は、これらの画像出力装置に入力された原画像のデータを顔検出装置において取り扱い可能なデータに変換させる装置等を用いて構成されても良い。
画像データを切り出し、顔検出器に送る機能が顔画像入力手段に含まれていても良い。この機能を付加することにより、背景を含めた画像から、顔を検出することが可能となる。
出力手段は、木構造検出器によって顔が検出されたか否かを示すデータ及び/又は検出された顔の位置や大きさなどを示すデータを、顔検出装置の外部へ出力するためのインタフェースとして機能する。出力手段は顔検出装置から顔の検出結果に関するデータを出力するためのいずれかの既存技術を用いて構成されても良い。
一、木構造検出器の基本的な構成
図11は、複数の顔向きを分類する木構造の顔判別器を示す。そのうち、各ノードは1
つの層判別器(即ち強判別器)を含み、各層判別器は多くのハール特徴によるルックアップテーブル型弱判別器で連続アダブーストアルゴリズムにより得られるものである。
各ハール特徴に基づいて、1つのルックアップテーブル型弱判別器を学習させることができる。この弱判別器はハール特徴の値の領域をn等分し、等分された各領域に二分類(顔であるか否か)の信頼度を付与する。nはルックアップテーブルの長さである。
ブルは、同一のハール特徴に基づいて異なる顔向きに関する顔の信頼度情報(confidenceinformation)を提供することができる。簡単に言えば、異なる顔向きの複数の判別器が
同一のハール特徴を共用しているのである(shared featureor mutual feature)。これ
による利点は次の通りである。異なる向きの顔を1つのアンサンブルクラスとして扱い判定する方法と比べると、マルチルックアップテーブル型弱判別器はそれぞれの向きの顔の分類情報を同時に提供できるので、より良い区分度が得られる。また、それぞれの顔向きに対して判別器を独立に学習させる方法と比べると、マルチルックアップテーブル型弱判別器は、各ハール特徴の利用効率を向上することで、正解率を維持したまま用いるハール特徴の数を減らすことができ、検出速度を向上させることができる。
ことができる。連続アダブーストアルゴリズムにおける弱学習過程は多量のラベルしたサンプルデータにより、サンプルのウェイトを調整することにより、新しい弱判別器を次々に選択して既存の判別器と線形に組み合わせし、学習用のサンプルデータでのエラー率が低下し、収束するまで実行する。
処理対象窓のサーチでは、木構造判別器に入力された1つの処理対象窓(グレースケール画像)に対し、その判別器が対応する複数の姿勢のそれぞれに関して検出が実行される。そして、その処理対象窓が検出にパスする場合には、木構造判別器は、ある姿勢の顔であるとの信頼度を示すものとして、その処理対象窓を出力する。画像における顔検出では、理論上、画像上の各処理対象窓を列挙して、木構造判別器でそれらの処理対象窓の検出処理を実行した後、画像全体に関する検出結果を得られる。320×240画素の画像では、24×24〜240×240の範囲の大きさをもつ正方形の処理対象窓が全部で5257476もある。完全に探索するためには膨大な時間がかかる。
率を増大させていくとよい(毎回1つのスケール倍率と乗算する)、処理対象窓の位置に関して言えば、逐一走査するのでなく、マルチ解像度による走査に変更するとよい(即ち、まず粗い解像度でグリッド走査を行い、顔の出現する可能性が高いところが見つけられれば、その周辺に細い解像度でグリッド走査を行う)。
誤報率の期待値をFとし、対象物(顔)のサンプル集合をP、非対象物(非顔)のサンプル集合をNとする。
ノードEの学習処理を次の通り実行する。
pとnについて、ベクトルブースティングアルゴリズムにより、所望の検出率d及び誤報率fが得られるまで、1つの強判別器G(x)を学習させる。
現在の全誤報率Fcurについて評価し、
F>Fcurであれば、
Eのそれぞれの子ノードEchildについて、E=EchildとしノードEの学習処理を同様に実行する。
Claims (17)
- 画像から特定被写体を検出する特定被写体検出装置において、
画像入力手段と、
前記画像入力手段から入力された画像を判別する木構造検出器であって、ルートノードは、分岐される全ての対象物の向きに対応するサブ対象物空間を含み、前記ルートノードから分岐する子ノードは少なくとも1つの対象物の向きに対応するサブ対象物空間を含み、前記ルートノードと前記子ノードの各ノードは複数の弱判別器を含み、各弱判別器の出力を分割するサブ対象物空間毎に集計して、隣接する下層の子ノードのどこに移行するか判定する木構造検出器と、
を有することを特徴とする特定被写体検出装置。 - 1つのサブ対象物空間にまで分割された葉ノードに接続する非分岐のカスケード判別器をさらに含み、
前記カスケード判別器は非対象物を排除することで、前記サブ対象物空間が示す向きの対象物を検出することを特徴とする請求項1に記載の特定被写体検出装置。 - 前記木構造検出器は幅優先探索を行うことを特徴とする請求項1に記載の特定被写体検出装置。
- 前記ルートノードまたは前記子ノードから、どの隣接する下層の子ノードに分岐させるかを決定するために、ベクトルブースティングアルゴリズムを用いて学習することを特徴とする請求項1に記載の特定被写体検出装置。
- 前記特定被写体及び前記対象物は顔であることを特徴とする請求項1に記載の特定被写体検出装置。
- 前記ノードはそれぞれ1つの強判別器を含み、前記強判別器の判別は複数の弱判別器の出力値によって決まることを特徴とする請求項1に記載の特定被写体検出装置。
- 前記弱判別器は前記画像から得られるハール特徴を元に判別することを特徴とする請求項6に記載の特定被写体検出装置。
- 前記弱判別器はルックアップテーブルを用いて判別することを特徴とする請求項6に記載の特定被写体検出装置。
- 前記ルックアップテーブルは、前記木構造検出器の初めの数層では細かい粒度であり、後の層では粗い粒度であることを特徴とする請求項8に記載の特定被写体検出装置。
- 前記サブ対象物空間は検出する対象物の平面内回転及び/又は平面外回転を含み、対象物の複数の向きに分割されていることを特徴とする請求項1に記載の特定被写体検出装置。
- 前記ルートノードは±90°の平面外回転によるサブ対象物空間を含むことを特徴とする請求項10に記載の特定被写体検出装置。
- 前記ルートノードは±45°の平面内回転によるサブ対象物空間を含むことを特徴とする請求項10に記載の特定被写体検出装置。
- 前記木構造検出器または前記入力された画像を90°、180°、270°回転させる
ことで、360°の平面内回転の対象物の向きを判別できることを特徴とする請求項12に記載の特定被写体検出装置。 - 前記木構造検出器によって対象物が検出されたか否かを示すデータ及び/又は検出された対象物の位置や大きさなどを示すデータを出力する出力手段をさらに含むことを特徴とする請求項1に記載の特定被写体検出装置。
- 画像から特定被写体を検出する特定被写体検出方法であって、
情報処理装置が、
入力された画像を木構造検出器のルートノードに入力するステップと、
前記木構造検出器の前記ルートノードと子ノードのうち分岐する各ノードにおいて、前記画像を複数の弱判別器に入力し、各弱判別器の出力を分割するサブ対象物空間毎に集計し、隣接する下層の子ノードのどこに移行するか判別するステップと
を実行することを特徴とする特定被写体検出方法。 - 画像から特定被写体を検出する木構造検出器を構築する方法であって、
情報処理装置が、
画像を判別するノードを木構造に構成するステップと、
前記木構造のルートノードは分割された全ての対象物の向きのサブ対象物空間を含み、かつ複数の分岐を有しており、各分岐は1つの子ノードに接続し、この子ノードは少なくとも1つの対象物の向きに対応するサブ対象物空間を含むように構成するステップと、
2つ以上の前記サブ対象物空間を含む子ノードは複数の分岐を有しており、各分岐は隣接する下層の子ノードに接続し、各隣接する下層の子ノードは少なくとも1つの前記サブ対象物空間を含むように構成するステップと、
1つのサブ対象物空間を含む子ノードは木構造の葉ノードになるように構成するステップと、
前記ルートノードと前記子ノードのうち分岐する各ノードにおいて、画像を複数の弱判別器に入力し、各弱判別器の出力を分割するサブ対象物空間毎に集計し、隣接する下層の子ノードのどこに移行するか判別させるように構成するステップと
を実行することを特徴とする木構造検出器を構築する方法。 - 画像から特定被写体を検出する特定被写体検出プログラムであって、
情報処理装置に、
画像入力手段から入力された画像を木構造検出器のルートノードに入力させ、
前記ルートノードと子ノードのうち分岐する各ノードにおいて、前記画像を複数の弱判別器に入力し、各弱判別器の出力を分割するサブ対象物空間毎に集計し、隣接する下層の子ノードのどこに移行するか判定させる
ことを特徴とする特定被写体検出プログラム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200510108159 | 2005-10-09 | ||
CN200510108159.6 | 2005-10-09 | ||
CN200610127853.7 | 2006-09-22 | ||
CNB2006101278537A CN100472556C (zh) | 2005-10-09 | 2006-09-22 | 特定被摄体检测装置及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007109229A true JP2007109229A (ja) | 2007-04-26 |
JP4801557B2 JP4801557B2 (ja) | 2011-10-26 |
Family
ID=37948203
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006272871A Active JP4801557B2 (ja) | 2005-10-09 | 2006-10-04 | 特定被写体検出装置及び方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US7876965B2 (ja) |
JP (1) | JP4801557B2 (ja) |
CN (1) | CN100472556C (ja) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009057815A1 (en) * | 2007-11-01 | 2009-05-07 | Canon Kabushiki Kaisha | Information processing apparatus and information processing method |
WO2009089720A1 (en) | 2007-12-28 | 2009-07-23 | Tsinghua University | Object checking apparatus and method |
JP2009237754A (ja) * | 2008-03-26 | 2009-10-15 | Seiko Epson Corp | オブジェクト検出方法、オブジェクト検出装置、印刷装置、オブジェクト検出プログラムおよびオブジェクト検出プログラムを記録した記録媒体 |
JP2010134867A (ja) * | 2008-12-08 | 2010-06-17 | Toyota Motor Corp | 顔部位検出装置 |
JP2010165046A (ja) * | 2009-01-13 | 2010-07-29 | Canon Inc | 情報処理装置及び情報処理方法 |
JP2011216069A (ja) * | 2010-03-16 | 2011-10-27 | Panasonic Corp | 物体識別装置、物体識別方法、及び、物体識別装置の学習方法 |
JP2012512478A (ja) * | 2008-12-30 | 2012-05-31 | ノキア コーポレイション | 顔姿勢推定を提供するための方法、装置、およびコンピュータプログラム |
JP2012128622A (ja) * | 2010-12-15 | 2012-07-05 | Fujifilm Corp | オブジェクト判別装置、方法、及びプログラム |
JP2013191143A (ja) * | 2012-03-15 | 2013-09-26 | Secom Co Ltd | 画像処理装置 |
US8547438B2 (en) | 2009-01-09 | 2013-10-01 | Sony Corporation | Apparatus, method and program for recognizing an object in an image |
JP2016502165A (ja) * | 2012-10-19 | 2016-01-21 | オートリブ ディベロップメント エービー | 運転者注意力検出方法および装置 |
US10275684B2 (en) | 2015-11-04 | 2019-04-30 | Samsung Electronics Co., Ltd. | Authentication method and apparatus, and method and apparatus for training a recognizer |
Families Citing this family (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4517633B2 (ja) * | 2003-11-25 | 2010-08-04 | ソニー株式会社 | 対象物検出装置及び方法 |
KR100643303B1 (ko) * | 2004-12-07 | 2006-11-10 | 삼성전자주식회사 | 다면 얼굴을 검출하는 방법 및 장치 |
CN100472556C (zh) * | 2005-10-09 | 2009-03-25 | 欧姆龙株式会社 | 特定被摄体检测装置及方法 |
JP4556891B2 (ja) * | 2006-03-17 | 2010-10-06 | ソニー株式会社 | 情報処理装置および方法、記録媒体、並びにプログラム |
US8000497B2 (en) * | 2006-10-18 | 2011-08-16 | Siemens Corporation | Fast detection of left ventricle and its configuration in 2D/3D echocardiogram using probabilistic boosting network |
JP4709723B2 (ja) * | 2006-10-27 | 2011-06-22 | 株式会社東芝 | 姿勢推定装置及びその方法 |
KR101330636B1 (ko) * | 2007-01-24 | 2013-11-18 | 삼성전자주식회사 | 얼굴시점 결정장치 및 방법과 이를 채용하는 얼굴검출장치및 방법 |
GB2449412B (en) * | 2007-03-29 | 2012-04-25 | Hewlett Packard Development Co | Integrating object detectors |
KR100886557B1 (ko) * | 2007-05-03 | 2009-03-02 | 삼성전자주식회사 | 적응형 학습에 기반한 얼굴 인식 시스템 및 방법 |
CN101320404B (zh) * | 2007-06-06 | 2010-05-26 | 中国科学院半导体研究所 | 一种生物病毒的计算机自动分类方法 |
US8144944B2 (en) * | 2007-08-14 | 2012-03-27 | Olympus Corporation | Image sharing system and method |
GB0719527D0 (en) * | 2007-10-08 | 2007-11-14 | Univ York | Value determination |
JP4891197B2 (ja) * | 2007-11-01 | 2012-03-07 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
US8099373B2 (en) * | 2008-02-14 | 2012-01-17 | Microsoft Corporation | Object detector trained using a working set of training data |
CN101673346B (zh) * | 2008-09-09 | 2013-06-05 | 日电(中国)有限公司 | 对图像进行处理的方法、设备和系统 |
CN101447023B (zh) * | 2008-12-23 | 2013-03-27 | 北京中星微电子有限公司 | 人头检测方法和系统 |
US9679449B2 (en) | 2008-12-30 | 2017-06-13 | Oneevent Technologies, Inc. | Evacuation system |
US8749392B2 (en) | 2008-12-30 | 2014-06-10 | Oneevent Technologies, Inc. | Evacuation system |
US8340405B2 (en) * | 2009-01-13 | 2012-12-25 | Fuji Xerox Co., Ltd. | Systems and methods for scalable media categorization |
US9799205B2 (en) | 2013-07-15 | 2017-10-24 | Oneevent Technologies, Inc. | Owner controlled evacuation system with notification and route guidance provided by a user device |
CN101853389A (zh) * | 2009-04-01 | 2010-10-06 | 索尼株式会社 | 多类目标的检测装置及检测方法 |
EP2438575A4 (en) * | 2009-06-01 | 2016-06-29 | Hewlett Packard Development Co | DETERMINATION OF DETECTION CERTAINTY IN A CASCADE CLASSIFIER |
KR101268520B1 (ko) * | 2009-12-14 | 2013-06-04 | 한국전자통신연구원 | 영상 인식 장치 및 방법 |
US20110182497A1 (en) * | 2010-01-22 | 2011-07-28 | Aricent Inc. | Cascade structure for classifying objects in an image |
RU2427911C1 (ru) * | 2010-02-05 | 2011-08-27 | Фирма "С1 Ко., Лтд." | Способ обнаружения лиц на изображении с применением каскада классификаторов |
CN102147851B (zh) * | 2010-02-08 | 2014-06-04 | 株式会社理光 | 多角度特定物体判断设备及多角度特定物体判断方法 |
JP2011198268A (ja) * | 2010-03-23 | 2011-10-06 | Sony Corp | 情報処理装置および方法、並びにプログラム |
US20110293173A1 (en) * | 2010-05-25 | 2011-12-01 | Porikli Fatih M | Object Detection Using Combinations of Relational Features in Images |
CN102136075B (zh) * | 2011-03-04 | 2013-05-15 | 杭州海康威视数字技术股份有限公司 | 复杂场景下的多视角人脸检测方法及其装置 |
TWI501195B (zh) | 2011-05-23 | 2015-09-21 | Asustek Comp Inc | 物件偵測方法及其裝置 |
US9183447B1 (en) * | 2011-06-09 | 2015-11-10 | Mobileye Vision Technologies Ltd. | Object detection using candidate object alignment |
JP5906071B2 (ja) * | 2011-12-01 | 2016-04-20 | キヤノン株式会社 | 情報処理方法、情報処理装置、および記憶媒体 |
US9355303B2 (en) * | 2011-12-04 | 2016-05-31 | King Saud University | Face recognition using multilayered discriminant analysis |
US8788443B2 (en) * | 2011-12-23 | 2014-07-22 | Sap Ag | Automated observational decision tree classifier |
JP6188452B2 (ja) * | 2013-06-28 | 2017-08-30 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
WO2016070098A2 (en) * | 2014-10-31 | 2016-05-06 | Paypal, Inc. | Determining categories for weakly labeled images |
US9460338B2 (en) * | 2014-12-10 | 2016-10-04 | Intel Corporation | Face detection method and apparatus with lookup table |
US9864925B2 (en) | 2016-02-15 | 2018-01-09 | Ebay Inc. | Digital image presentation |
CN109964229A (zh) * | 2016-12-25 | 2019-07-02 | 脸谱公司 | 用于人脸对准的形状预测 |
CN110348274B (zh) * | 2018-04-08 | 2022-03-04 | 杭州海康威视数字技术股份有限公司 | 一种人脸识别方法、装置及设备 |
CN110473192B (zh) * | 2019-04-10 | 2021-05-14 | 腾讯医疗健康(深圳)有限公司 | 消化道内镜图像识别模型训练及识别方法、装置及系统 |
CN110647907B (zh) * | 2019-08-05 | 2023-04-07 | 广东工业大学 | 利用多层分类和字典学习的多标签图像分类算法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000507754A (ja) * | 1996-03-28 | 2000-06-20 | ブイエックストリーム,インコーポレイティド | 組込み形コーディングを有するテーブルベースの圧縮 |
US6144755A (en) * | 1996-10-11 | 2000-11-07 | Mitsubishi Electric Information Technology Center America, Inc. (Ita) | Method and apparatus for determining poses |
JP2004054957A (ja) * | 2002-07-19 | 2004-02-19 | Mitsubishi Electric Information Technology Centre Europa Bv | データ分布を表現する方法、データ要素を表現する方法、データ要素の記述子、照会データ要素を照合または分類する方法、その方法を実行するように設定した装置、コンピュータプログラム並びにコンピュータ読み取り可能な記憶媒体 |
US20050213810A1 (en) * | 2004-03-29 | 2005-09-29 | Kohtaro Sabe | Information processing apparatus and method, recording medium, and program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6988093B2 (en) * | 2001-10-12 | 2006-01-17 | Commissariat A L'energie Atomique | Process for indexing, storage and comparison of multimedia documents |
US7285995B2 (en) * | 2004-02-02 | 2007-10-23 | Toshiba America Electronic Components, Inc. | Charge pump |
JP4482796B2 (ja) | 2004-03-26 | 2010-06-16 | ソニー株式会社 | 情報処理装置および方法、記録媒体、並びにプログラム |
CN100472556C (zh) * | 2005-10-09 | 2009-03-25 | 欧姆龙株式会社 | 特定被摄体检测装置及方法 |
-
2006
- 2006-09-22 CN CNB2006101278537A patent/CN100472556C/zh active Active
- 2006-10-04 JP JP2006272871A patent/JP4801557B2/ja active Active
- 2006-10-05 US US11/543,158 patent/US7876965B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000507754A (ja) * | 1996-03-28 | 2000-06-20 | ブイエックストリーム,インコーポレイティド | 組込み形コーディングを有するテーブルベースの圧縮 |
US6144755A (en) * | 1996-10-11 | 2000-11-07 | Mitsubishi Electric Information Technology Center America, Inc. (Ita) | Method and apparatus for determining poses |
JP2004054957A (ja) * | 2002-07-19 | 2004-02-19 | Mitsubishi Electric Information Technology Centre Europa Bv | データ分布を表現する方法、データ要素を表現する方法、データ要素の記述子、照会データ要素を照合または分類する方法、その方法を実行するように設定した装置、コンピュータプログラム並びにコンピュータ読み取り可能な記憶媒体 |
US20050213810A1 (en) * | 2004-03-29 | 2005-09-29 | Kohtaro Sabe | Information processing apparatus and method, recording medium, and program |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009057815A1 (en) * | 2007-11-01 | 2009-05-07 | Canon Kabushiki Kaisha | Information processing apparatus and information processing method |
JP2009116400A (ja) * | 2007-11-01 | 2009-05-28 | Canon Inc | 情報処理装置および情報処理方法 |
US8655057B2 (en) | 2007-11-01 | 2014-02-18 | Canon Kabushiki Kaisha | Information processing apparatus and information processing method |
WO2009089720A1 (en) | 2007-12-28 | 2009-07-23 | Tsinghua University | Object checking apparatus and method |
US8520955B2 (en) | 2007-12-28 | 2013-08-27 | Tsinghua University | Object detection apparatus and method |
CN101470802B (zh) * | 2007-12-28 | 2012-05-09 | 清华大学 | 物体检测装置和方法 |
JP2009237754A (ja) * | 2008-03-26 | 2009-10-15 | Seiko Epson Corp | オブジェクト検出方法、オブジェクト検出装置、印刷装置、オブジェクト検出プログラムおよびオブジェクト検出プログラムを記録した記録媒体 |
JP2010134867A (ja) * | 2008-12-08 | 2010-06-17 | Toyota Motor Corp | 顔部位検出装置 |
JP2012512478A (ja) * | 2008-12-30 | 2012-05-31 | ノキア コーポレイション | 顔姿勢推定を提供するための方法、装置、およびコンピュータプログラム |
US8396263B2 (en) | 2008-12-30 | 2013-03-12 | Nokia Corporation | Method, apparatus and computer program product for providing face pose estimation |
US8547438B2 (en) | 2009-01-09 | 2013-10-01 | Sony Corporation | Apparatus, method and program for recognizing an object in an image |
JP2010165046A (ja) * | 2009-01-13 | 2010-07-29 | Canon Inc | 情報処理装置及び情報処理方法 |
JP2011216069A (ja) * | 2010-03-16 | 2011-10-27 | Panasonic Corp | 物体識別装置、物体識別方法、及び、物体識別装置の学習方法 |
JP2012128622A (ja) * | 2010-12-15 | 2012-07-05 | Fujifilm Corp | オブジェクト判別装置、方法、及びプログラム |
JP2013191143A (ja) * | 2012-03-15 | 2013-09-26 | Secom Co Ltd | 画像処理装置 |
JP2016502165A (ja) * | 2012-10-19 | 2016-01-21 | オートリブ ディベロップメント エービー | 運転者注意力検出方法および装置 |
US10275684B2 (en) | 2015-11-04 | 2019-04-30 | Samsung Electronics Co., Ltd. | Authentication method and apparatus, and method and apparatus for training a recognizer |
Also Published As
Publication number | Publication date |
---|---|
US20070086660A1 (en) | 2007-04-19 |
CN1952954A (zh) | 2007-04-25 |
US7876965B2 (en) | 2011-01-25 |
JP4801557B2 (ja) | 2011-10-26 |
CN100472556C (zh) | 2009-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4801557B2 (ja) | 特定被写体検出装置及び方法 | |
JP4724125B2 (ja) | 顔認識システム | |
Zhang et al. | A survey of recent advances in face detection | |
Lu et al. | Feature extraction and fusion using deep convolutional neural networks for face detection | |
Mita et al. | Discriminative feature co-occurrence selection for object detection | |
Han et al. | Density-based multifeature background subtraction with support vector machine | |
Mita et al. | Joint haar-like features for face detection | |
US7324671B2 (en) | System and method for multi-view face detection | |
US20120114250A1 (en) | Method and system for detecting multi-view human face | |
Yu et al. | Anchor cascade for efficient face detection | |
Zhang et al. | Boosting-based face detection and adaptation | |
JP2008102611A (ja) | 画像処理装置 | |
Li et al. | Face detection | |
Liu et al. | An efficient HOG–ALBP feature for pedestrian detection | |
Alafif et al. | On detecting partially occluded faces with pose variations | |
Ren et al. | Face and facial expressions recognition and analysis | |
Yang | Face Detection. | |
Xu et al. | A novel multi-view face detection method based on improved real adaboost algorithm | |
Navabifar et al. | A short review paper on Face detection using Machine learning | |
EP1772816A1 (en) | Apparatus and method for detecting particular subject | |
Dalara et al. | Entity Recognition in Indian Sculpture using CLAHE and machine learning | |
Alobaidi et al. | Face detection based on probability of amplitude distribution of local binary patterns algorithm | |
Liu et al. | Mixed region covariance discriminative learning for image classification on riemannian manifolds | |
Das et al. | Design of pedestrian detectors using combinations of scale spaces and classifiers | |
Sugandi et al. | Face recognition based on pca and neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20081017 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110314 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110608 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110726 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110805 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140812 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4801557 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |