JP2009086749A - パターン識別手法、識別用パラメータ学習方法、及び装置 - Google Patents
パターン識別手法、識別用パラメータ学習方法、及び装置 Download PDFInfo
- Publication number
- JP2009086749A JP2009086749A JP2007252375A JP2007252375A JP2009086749A JP 2009086749 A JP2009086749 A JP 2009086749A JP 2007252375 A JP2007252375 A JP 2007252375A JP 2007252375 A JP2007252375 A JP 2007252375A JP 2009086749 A JP2009086749 A JP 2009086749A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- feature space
- parameter
- mapping
- corresponding points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
Abstract
【課題】
2つのクラスに属する入力データを高速かつ高精度にパターン識別し、そのための学習方法を提供する。
【解決手段】
複数の判別方法の組み合わせを順次実行することにより、入力データを所定のクラスに分類するパターン識別において、前記判別方法の少なくとも1つにおいて、前記入力データをN(N≧2)次元特徴空間上の対応点にマッピングするマッピングステップと、前記対応点に基づいて、次の判別方法を実行するべきかどうかを判定する判定ステップと、前記判定ステップにおいて次の判別方法を実行するべきであると判定された場合に、前記対応点に基づいて、次に実行するべき判別方法を選択する選択ステップと、を有する。
【選択図】 図13
2つのクラスに属する入力データを高速かつ高精度にパターン識別し、そのための学習方法を提供する。
【解決手段】
複数の判別方法の組み合わせを順次実行することにより、入力データを所定のクラスに分類するパターン識別において、前記判別方法の少なくとも1つにおいて、前記入力データをN(N≧2)次元特徴空間上の対応点にマッピングするマッピングステップと、前記対応点に基づいて、次の判別方法を実行するべきかどうかを判定する判定ステップと、前記判定ステップにおいて次の判別方法を実行するべきであると判定された場合に、前記対応点に基づいて、次に実行するべき判別方法を選択する選択ステップと、を有する。
【選択図】 図13
Description
本発明は、画像認識等の、入力信号のパターンを識別するためのパラメータ学習方法、及び、それを用いたパターン識別方法に関する。
従来から、文字認識・顔検出・歩容認証等の、入力データを所定のクラスに分類するためのパターン識別方法として多くの手法が考案されており、現在に至っても、処理の高速化や、分類精度の向上等を目的とした様々な新しい手法が提案されている。例えば、非特許文献1には、短時間で演算が可能な弱判別方法を用い、AdaBoostによる学習法と、弱判別器をカスケード接続する手法の組み合わせにより、高速、かつ高精度なパターン識別方法を実現することが提案されている。
また、3つ以上のクラスの分類を行うために弱判別器をツリー上に接続している方法も提案されている。例えば、非特許文献2では、向きや傾きが予めラベル付けされた顔画像を学習し、テスト画像の中の顔を検出しその向きと傾きを求めている。
Viola & Jones (2001) "Rapid Object Detection using a Boosted Cascade of Simple Features", Computer Vision andPattern Recognition. Huang, Ai, Li & Lao (2005) "Vector Boosting for Rotation Invariant Multi-View Face Detection", InternationalConference on Computer Vision.
Viola & Jones (2001) "Rapid Object Detection using a Boosted Cascade of Simple Features", Computer Vision andPattern Recognition. Huang, Ai, Li & Lao (2005) "Vector Boosting for Rotation Invariant Multi-View Face Detection", InternationalConference on Computer Vision.
以上のように、入力画像に対して、高速かつ高精度にパターン識別を行うことができる技術が望まれている。例えば、撮像装置で人間の顔画像をきれいに撮影したり、顔画像を補正するなどのために、入力画像における顔の有無、特定のパターン(テクスチャ)の有無を高速且つ高精度に識別することが要求されている。本発明の目的は、このような点に鑑みてなされたものであり、2つのクラスのいずれかに属する入力データを高速かつ高精度に識別とするパターン識別処理を実現することを目的とする。
上記の目的を達成するための本発明の一態様によるパターン認識方法は、
複数の判別処理の組み合わせを順次実行することにより入力データを第1または第2のクラスに分類するパターン識別方法であって、前記複数の判別処理の少なくとも1つが、
nを2以上の整数とした場合に、前記入力データをn次元特徴空間に対応点としてマッピングするマッピング工程と、
前記マッピング工程でマッピングされた対応点のn次元特徴空間における位置に基づいて、前記入力データが前記第1のクラスに属するか、次の判別処理を実行するかを判定する判定工程と、
前記判定工程において次の判別処理を実行すると判定された場合に、前記対応点の位置に基づいて、次に実行するべき判別処理を選択する選択工程とを備える。
複数の判別処理の組み合わせを順次実行することにより入力データを第1または第2のクラスに分類するパターン識別方法であって、前記複数の判別処理の少なくとも1つが、
nを2以上の整数とした場合に、前記入力データをn次元特徴空間に対応点としてマッピングするマッピング工程と、
前記マッピング工程でマッピングされた対応点のn次元特徴空間における位置に基づいて、前記入力データが前記第1のクラスに属するか、次の判別処理を実行するかを判定する判定工程と、
前記判定工程において次の判別処理を実行すると判定された場合に、前記対応点の位置に基づいて、次に実行するべき判別処理を選択する選択工程とを備える。
また、上記の目的を達成するための本発明の他の態様によるパラメータ学習方法は、
入力データを第1または第2のクラスに分類するパターン識別のためのパラメータを学習するパラメータ学習方法であって、
前記第1または第2のクラスにラベル付けされた複数の学習データを入力する入力工程と、
nを1以上の整数として、前記学習データをn次元特徴空間に対応点としてマッピングするマッピング工程と、
前記n次元特徴空間から、同一ラベルの対応点が占める特徴空間を分割するパターン識別のためのパラメータを学習する学習工程とを備える。
入力データを第1または第2のクラスに分類するパターン識別のためのパラメータを学習するパラメータ学習方法であって、
前記第1または第2のクラスにラベル付けされた複数の学習データを入力する入力工程と、
nを1以上の整数として、前記学習データをn次元特徴空間に対応点としてマッピングするマッピング工程と、
前記n次元特徴空間から、同一ラベルの対応点が占める特徴空間を分割するパターン識別のためのパラメータを学習する学習工程とを備える。
更に、上記の目的を達成するための本発明の他の態様によるパラメータ学習方法は、
入力データを第1または第2のクラスに分類するパターン識別のためのパラメータ学習において、
前記第1または第2のクラスにラベル付けされた複数の学習データを入力する入力工程と、
Nrを1以上の整数とした場合に、前記第1のクラスにラベル付けされた複数の学習データを、Nr次元特徴空間に対応点として仮マッピングする第1マッピング工程と、
前記第1マッピング工程によってマッピングされた対応点の前記Nr次元特徴空間における分布に基づき、Nr次元特徴空間を分割する仮パラメータを学習する第1学習工程と、
前記仮パラメータに基づいて、識別に用いるべきn次元特徴空間を決定する決定工程と、
前記第2のクラスにラベル付けされた学習データを前記n次元特徴空間に対応点としてマッピングする第2マッピング工程と、
前記第2マッピング工程によってマッピングされた対応点の分布に基づき、前記n次元特徴空間を分割するためのパラメータを学習する第2学習工程とを備える。
入力データを第1または第2のクラスに分類するパターン識別のためのパラメータ学習において、
前記第1または第2のクラスにラベル付けされた複数の学習データを入力する入力工程と、
Nrを1以上の整数とした場合に、前記第1のクラスにラベル付けされた複数の学習データを、Nr次元特徴空間に対応点として仮マッピングする第1マッピング工程と、
前記第1マッピング工程によってマッピングされた対応点の前記Nr次元特徴空間における分布に基づき、Nr次元特徴空間を分割する仮パラメータを学習する第1学習工程と、
前記仮パラメータに基づいて、識別に用いるべきn次元特徴空間を決定する決定工程と、
前記第2のクラスにラベル付けされた学習データを前記n次元特徴空間に対応点としてマッピングする第2マッピング工程と、
前記第2マッピング工程によってマッピングされた対応点の分布に基づき、前記n次元特徴空間を分割するためのパラメータを学習する第2学習工程とを備える。
本発明によれば、2つのクラスのいずれかに属する入力データを高速かつ高精度に識別とするパターン識別処理が実現される。
以下、添付の図面を参照して本発明の好適な実施形態について説明する。
〔第1実施形態〕
第1実施形態では、入力された画像に顔があるかどうかを判定する情報処理装置の例を示す。本実施形態の説明を簡単にするために、入力された画像は、顔があればパスポート写真のようにほぼ中央にほぼ決められた大きさで配置されているものと仮定する。なお、画像を走査したり画像を拡大・縮小するなどしたりすれば、任意の位置にある任意の大きさの顔を検出できるようになるのは、言うまでもない。
第1実施形態では、入力された画像に顔があるかどうかを判定する情報処理装置の例を示す。本実施形態の説明を簡単にするために、入力された画像は、顔があればパスポート写真のようにほぼ中央にほぼ決められた大きさで配置されているものと仮定する。なお、画像を走査したり画像を拡大・縮小するなどしたりすれば、任意の位置にある任意の大きさの顔を検出できるようになるのは、言うまでもない。
図1は、第1実施形態に係わる情報処理装置のハードウェア構成例を説明するブロック図である。図において、100はCPU(中央演算装置)であり、本実施形態で説明する情報処理方法をプログラムに従って実行する。101はプログラムメモリであり、CPU100により実行されるプログラムが記憶されている。102はRAMで、CPU100によるプログラムの実行時に、各種情報を一時的に記憶するためのメモリを提供している。103はハードディスクであり、画像ファイルやパターン識別用のパラメータなどを保存するための記憶媒体である。104はディスプレイであり、本実施形態の処理結果をユーザに提示する装置である。110は制御バス/データバスであり、上述の各部とCPU100とを接続する。
以上の構成を備えた情報処理装置によって実行される顔を検出する際の処理の流れを、図2のフローチャートを参照して説明する。まずステップS201で、CPU100は、ハードディスク103より画像データをRAM102に読み込む。画像データはRAM102上では2次元配列として保持される。次のステップS202では、CPU100は、後述する学習方法により作成したパターン識別用パラメータをハードディスク103からRAM102に読み込む。ステップS203において、CPU100は、ステップS202で読み込んだパターン識別用パラメータを使用して、ステップS201で読み込んだ画像データが表す画像内に顔があるかどうかを判定する。次のステップS204において、CPU100は、ステップS203による顔の検出結果をディスプレイ104に表示する。
図2に示される処理をデータフロー図として書き表すと図3ようになる。画像205はハードディスク103に保存されている画像データに対応する。画像の読み込み処理201により、ハードディスク103内の画像205がRAM102上に入力画像Iとして記憶される(ステップS201)。ハードディスク103には、パターン識別用パラメータ209が保存されている。パターン識別用パラメータの読み込み処理210において、ハードディスク103内のパターン識別用パラメータ209が読み出され、RAM102上にパターン識別用パラメータ211として記憶される(ステップS202)。検出処理203では、先の入力画像Iとパターン識別用パラメータ211を使用して、入力画像Iの中に顔があるかどうかを判定し、その判定結果を検出結果207としてRAM102に書き込む(ステップS203)。検出結果表示処理204では、検出結果207の内容がディスプレイ104に表示される(ステップS204)。
ここで、パターン識別用パラメータ211の内容について図4や図5を用いて説明する。なお、パターン識別用パラメータ211を作成する方法については、後ほど記述する。図4に示されるとおり、パターン識別用パラメータ211を表すデータは、T1とT2で表された2種類のノードをツリー状に接続した構造を有している。タイプT1のノードの後にはノードが1つだけ接続されている。また、タイプT2のノードの後にはノードが複数接続されている。N3で記されたノードもまたタイプT2のノードである。以上のように、本実施形態によるパターン識別処理は、複数のノード、すなわち複数の判別処理の組み合わせを順次実行することにより入力データを第1のクラス(例えば顔の無い画像)または第2のクラス(例えば顔のある画像)のいずれかに分類するものである。なお、本実施形態はタイプT1の種類によらず適用できるので、タイプT1のノードに関する説明を割愛する。タイプT1のノードには、例えば、非特許文献1に書かれているような、第1のクラスと判別すれば打ち切り、第2のクラスと判別すれば次のノードへ進める弱判別器(weak classifier)を使用しても良い。
図5は、タイプT2のノードのデータ構造を表す。このデータは、図1にRAM102として表したメモリ上に複数格納される。個々のノードのデータはそれぞれ値が異なるのが普通である。まず先頭にノードのタイプが格納されている。このノードはタイプT2なので、T2を表す符号がノードのタイプとして格納される。その次に矩形情報が格納されている。矩形情報の初めに矩形の個数n(nは2以上の整数とする)が格納されており、その後にその個数nだけの矩形の座標(左上点,右下点)が格納されている。これにより、n個の矩形の位置及びサイズが定義されている。これら複数の矩形をまとめて矩形群と呼ぶことにする。次に、後述する打ち切りのためのパラメータが格納されている。打ち切り用パラメータの先頭には閾値θが格納されている。その後に、先のn個の矩形に対応した、打ち切りのための係数が並ぶ。その後に、分岐先の個数mと、m−1の数だけの分岐用のパラメータが並ぶ。分岐用パラメータのそれぞれには、打ち切り用パラメータ同様に閾値や矩形に対応した係数が格納されているが、更に分岐先ノードへのポインタも格納されている。このポインタの指し示す先には、別のノードのパラメータが格納されている。最後にもう1つの、m番目の分岐先ノードへのポインタ(最後の分岐先ノードへのポインタ)が格納されている。
上記パラメータの作成方法(学習方法)を説明する前に、このパラメータを使用して顔を検出する方法を説明する。図6A,Bは図2のステップS203(画像内の顔の検出処理)の詳細を表すフローチャート図である。まず、ステップD01で、CPU100は、ポインタ変数pが最初のノードを指すようにpを初期化する。次のステップD02でpが指し示すノードの種類を確認する。pが指し示すノードがタイプT1の場合には、ステップD03に進む。また、pが指し示すノードがタイプT2の場合には、ステップD11へ進む。ステップD03ではタイプT1のための処理を行うが、この処理は周知であるので、その詳細については説明を省略する。ステップD03での処理を終えると、ステップD04で、CPU100は、全ノードの処理を終えたかどうかを確認する。全てのノードの処理を終えた場合には、ステップD06へ進み、CPU100は、検出結果207に「真」の値を書き込む。これは顔が検出されたことを表す。全ノードの処理を完了していない場合には、CPU100は、ステップD05でポインタ変数pを、次のノードを指すように変更する。
一方、pが指し示すノードがタイプT2であった場合、ステップD11において、CPU100は変数cを0で初期化する。そして、ステップD12からD15までのループを矩形の数n回だけ繰り返す。ループ内において矩形を表すループ変数をiとする。ステップD13において、CPU100は、図5のノード情報から矩形iの対角線の座標(xiL, yiT),(xiR, yiB)を取得する。そして、その矩形iに対応する矩形画像を入力画像Iから抽出し、その矩形画像における輝度値の総和(合計値)を求める。このi番目の矩形画像における輝度値の総和をbiとする。biは、非特許文献1に書かれているように累積情報(integralimage)を使って高速に求めることができる。そしてステップD14において、CPU100は、変数cにbiと矩形iに対応する係数aiとの積を加算する。まとめると、このステップD12〜D15のループで求めているのは、次の内積値である。
ステップD16において、CPU100は、この内積値cが図5の打ち切り用パラメータの閾値θを超えているかどうか判定する。そして、θを超えていれば処理をステップD17へ進め、CPU100は、検出結果207に「偽」の値を書き込む。これは顔が検出されなかったこと、すなわち入力画像Iが第2のクラスに識別されたことを表す。ここで、図4で示されたツリーの処理は打ち切られる。また、ステップD16において内積値cが閾値θを超えていないと判断されると、次に使用すべきノードを選択するべく処理はステップD18へ進む。
以上の処理は、換言すれば、パラメータに登録されている矩形の数をnとした場合に、
・入力データ(入力画像I)から得られるn個の部分データ(矩形)の各々の特徴量(輝度値の和)をn次元特徴空間の座標(b1,b2,…bn)を有する対応点としてマッピングし、
・マッピングされた対応点のn次元特徴空間における座標位置に基づいて、入力画像Iが顔画像でない第1のクラスに属するか、次のノードによる判別処理を実行するかを、対応点の座標値に対して例えば識別関数(内積値の算出)を適用して判定するものである。
・入力データ(入力画像I)から得られるn個の部分データ(矩形)の各々の特徴量(輝度値の和)をn次元特徴空間の座標(b1,b2,…bn)を有する対応点としてマッピングし、
・マッピングされた対応点のn次元特徴空間における座標位置に基づいて、入力画像Iが顔画像でない第1のクラスに属するか、次のノードによる判別処理を実行するかを、対応点の座標値に対して例えば識別関数(内積値の算出)を適用して判定するものである。
そして、上記ステップD16において次の判別処理(ノード)を実行すると判定された場合には、以下に説明するように、対応点の位置に基づいて次に実行するべき判別処理(ノード)が選択される。
まず、ステップD18において、CPU100は、全ノードの処理を終えたかどうか確認する。全ノードの処理が完了していれば、処理はステップD19へ進み、CPU100は検出結果207に「真」の値を書き込む。これにより顔が検出されたこと、すなわち入力画像Iが第1のクラスに識別されたことになる。
一方、ステップD18で全ノードの処理が完了していないと判断された場合には、ステップD20からのループを実行する。ステップD20からD27までのループは最大でm−1回繰り返される。ここでmは、図5の分岐先の数mである。ステップD20〜D27のループ内で分岐先を表す変数をkとする。まずループ内のステップD21で、CPU100は、変数cを0で初期化する。そしてステップD22からD25までのループで次の内積値が求まる。
ここでbiは上記の〔数1〕のために求めた値を再利用することができる。ステップD26で内積値cが閾値θkを超えているかどうか確認する。もし超えていなければ、ステップD20からD27までのループの実行を続ける。もし超えていれば、処理はステップD28へ進む。ステップD28では、CPU100はポインタ変数pに分岐先kへのポインタ値を代入する。そして、分岐先kのノードについて再びステップD02からの処理を始める。ステップD26で閾値を超えず、ステップD27までのループを完了した場合には、処理はステップD30へ進む。ステップD30において、CPU100は、ポインタ変数pに図5の最後の分岐先ノードへのポインタ値を代入する。そして、再びステップD02からの処理を始める。以上の処理により、図4におけるツリーの各ノードを遷移していくことになる。
次に、図4や図5のパターン識別用パラメータを作成するための学習手順を説明する。まず、前提として学習用の顔画像fjの集合F={fj | j =1..Nf}と、顔の写っていない学習画像gjの集合G={gj|j =1..Ng}が用意されているものとする。また、図5の矩形情報で表されるような矩形群φsの集合Φ={φs| s =1..Nφ}も予め用意されているものとする。更に、図4のツリー構造は予め決められており、パラメータを確保するためのメモリ領域がRAM102上に確保されているものとする。このとき、図5の各ポインタ値も確定しており、格納しておくことができる。そこで、図4においてT1と記されているノードからN3と記されているノードの直前(つまり、ここではT2と書かれているノード)までの学習が済んでいるものとする。なお、タイプT1のノードのための学習には非特許文献1に書かれているような手法を利用すればよい。
前述した検出の処理を適用すると、N3までのノードで学習画像のいくつかは顔がないものとして棄却(打ち切り)されたり、タイプT2のノードによって他の分岐先に振り分けられたりする。そこで、N3のノードでは、N3までのノードで棄却されたり他の分岐先に振り分けたりしない顔画像fj +の集合F+= {fj + | j =1..Nf +}と非顔画像gj +の集合G+={gj + | j =1..Ng +}を学習に利用する。
学習の手順を表すフローチャートを図7に示す。ステップC00からC30のループでΦに属する矩形群φs(s =1..Nφ)の各々に対して処理が繰り返される。ステップC01からC07までのループはF+に属する顔画像fj +に関する処理である。ステップC03からC05までのループは矩形群φsの各矩形iに対して繰り返される。そしてステップC04で、CPU100は、3次元配列の要素bjsi fに、顔画像fj +上の矩形i内にあるピクセルの輝度値の総和を代入する。なお、ここでは矩形の特徴量の一例として輝度値の総和を例示したが、他の特徴量を用いても良い。ステップC10からC16までのループはGj +に属する非顔画像gj +に関する処理である。ステップC01からC07までのループと同様に、CPU100は、非顔画像gj +上の矩形i内にあるピクセルの輝度値の総和を3次元配列の要素bjsi gに代入する。以上の処理で、各顔画像fi +と各非顔画像gj +に対してそれぞれn次元空間内の対応点(bjs1 f,…, bjsn f)と(bjs1 g,…, bjsn g)の分布が得られる。すなわち、第1のクラスにラベル付けされた学習データとしての非顔画像gj +と第2のクラスにラベル付けされた学習データとしての顔画像fi +に関して、n次元特徴空間上の対応点がマッピングされる(n=Nφ)。
ステップC17で、CPU100は、これら2つのクラスの分布(対応点のマッピング結果)に対して線形識別関数としてのLDAを適用し、n次元空間において2つのクラスを分ける超平面を得る。なお、LDAは、linear discriminant analysisのことである。この超平面の法線ベクトルを(a1 s,…,an s)とする。ステップC18で、CPU100は、閾値θsを決定する。閾値θsの決定は、閾値を細かく振っていき、Σaibiと閾値の比較によって学習画像を分類した場合に、失敗総数が最小になる値を検索して決定するようにすればよい。なお、失敗総数とは、「顔画像であるのに、非顔画像であると分類された総数」と、「非顔画像であるのに顔画像であると分類された総数」の和である。あるいは、顔画像であるのに、非顔画像であると分類された割合が予め決められた割合に近い閾値の中で非顔画像であるのに顔画像であると分類された総数が最小となるように閾値θsを定めても良い。
ステップC19で、CPU100は、各矩形群φsについて求めた上記θsの中で失敗総数が最も小さいsを選びs’とする。あるいは、非顔画像であるのに顔画像であると分類された総数が最も小さいsを選んでも良い。このs’に対応した(a1 s’,…,an s’)とθs’を、それぞれ図5における打ち切り用パラメータ(a1,…,an)とθとする。こうして、n次元特徴空間の、同一ラベルの対応点が占める特徴空間を分割するパターン識別のためのパラメータが学習される。ここでは、次の式が満たされる側の空間がF+、満たされない側がG+に対応するものとしている。
なお、biは対応点のi番目の座標値。もし上記の関係が得られなければ法線ベクトルの符号を反転すればよい。
ステップC20で、CPU100は、今までの処理で得られた顔画像の対応点(bjs1 f,…,bjsn f)の分布をクラスタリングによってm個のクラスタに分ける。すなわち、同一ラベルの対応点が複数のクラスタに分けられる。なお、mはN3のノードに対して予め決められた値である。クラスタ1つが分岐先の1つに対応する。クラスタリングの方法としてはk平均法(k-means)などを使うことができる。クラスタリングの結果、全ての顔画像fi +がC1,…,Cmのいずれかのクラスタに対応付けられとする。そこで各分岐先kについてステップC21からC24までのループを繰り返す。ループ毎にkは1つずつ増分されるものとする。ループ内のステップC22で、CkとCk+1∪…∪Cmの2つのクラスに属する顔画像に対応した対応点をLDAによって超平面によって分ける。そしてこれによって得られた超平面の法線ベクトルを(ak1,…,akn)として図5の対応する領域に格納する。次にステップC23で、例えば失敗総数が最小となるような閾値θkを決定する。ここで、次の式が満たされる側の空間がCk、満たされない側をCk+1∪…∪Cmに対応するものとしている。こうして、ステップC21〜C24では、同一クラスにラベル付けされた学習データの対応点を更に複数のクラスタへ分離するパターン識別のためのパラメータが学習(分離学習)され、図5の分岐先用のパラメータとして用いられる。
もしそうでなければ法線ベクトルの符号を反転すればよい。
以上、第1実施形態によれば、比較的計算負荷の軽い処理により入力画像中の顔を検出することができる。ここでは、具体的な例を挙げるために顔を取り上げたが、頭部や自動車など他の物体の検出にも利用することは可能である。非特許文献1のように弱判別器をカスケード接続したような検出器では、早い段階でより多くの非顔を打ち切ることが重要であることが分かっている。本実施形態では、この点を鑑みて、分岐構造を採用するに当たっても打ち切りを目的とした矩形群を選択し、これを分岐のためにも流用する形式を採用している。これにより、高速且つ高精度なパターン認識が実現される。
〔第2実施形態〕
第2実施形態では、入力された画像から特定のテクスチャを持った物体を検出する情報処理装置の例を示す。第2実施形態では、第1実施形態とは異なり、検出対象となる物体は入力画像上の所定の場所に配置されていなくても良い。また第1実施形態では矩形群の集合を予め決めておく必要があったが、第2実施形態では要素の候補となる矩形だけ用意しておき、1つの矩形群に含まれる矩形の数を決めておけば、各ノードが識別処理に用いる矩形群は自動的に生成される。なお、第2実施形態では簡単のために2分木を説明するが、第1実施形態を見れば多分木への応用は容易に想像できるはずである。
第2実施形態では、入力された画像から特定のテクスチャを持った物体を検出する情報処理装置の例を示す。第2実施形態では、第1実施形態とは異なり、検出対象となる物体は入力画像上の所定の場所に配置されていなくても良い。また第1実施形態では矩形群の集合を予め決めておく必要があったが、第2実施形態では要素の候補となる矩形だけ用意しておき、1つの矩形群に含まれる矩形の数を決めておけば、各ノードが識別処理に用いる矩形群は自動的に生成される。なお、第2実施形態では簡単のために2分木を説明するが、第1実施形態を見れば多分木への応用は容易に想像できるはずである。
第2実施形態に係わる情報処理装置のハードウェア構成は第1実施形態と同じ(図1)である。よって、各部の説明は第1実施形態を参照されたい。
テクスチャを検出する際の処理の流れを表すフローチャートを図8に示す。まずステップS211で、CPU100は、ハードディスク103より画像をRAM102に読み込む。画像はRAM102上では2次元配列として保持される。ステップS212において、CPU100は、後述する学習方法により作成したパターン識別用パラメータをハードディスク103からRAM102に読み込む。ステップS213において、CPU100は、先に読み込んだパターン識別用パラメータを使用して、ステップS211で読み込んだ画像内で所定のテクスチャが存在する領域を検索する。ステップS214において、CPU100は、その検索の結果をディスプレイ104に表示する。
図8の処理をデータフロー図として書き表すと図9のようになる。225は図1のハードディスク103に保存されている画像である。画像の読み込み処理221にてハードディスク内の画像225がRAM102上に入力画像Iとして記憶される(ステップS211)。229は、ハードディスク103に保存されているパターン識別用パラメータである。パターン識別用パラメータの読み込み処理230にてハードディスク内のパターン識別用パラメータ229がRAM102上にパターン識別用パラメータ231として記憶される(ステップS212)。検索処理223では、先の入力画像Iとパターン識別用パラメータ231を使用して、入力画像Iの中の所定のテクスチャを探し、所定のテクスチャが存在する位置を227の検索結果としてRAM102に書き込む(ステップS213)。本実施形態では、所定のテクスチャを含まない場合を第1のクラス、所定のテクスチャを含む場合を第2のクラスとする。検索結果227は白黒2値の2次元配列である。検索結果表示処理224では検索結果227の内容をディスプレイ104に表示する(ステップS214)。
図10にディスプレイ104に表示される情報の例を示す。これはあくまでも第2実施形態の動作を説明するための概念図であり、厳密にこのような結果になる訳ではないことを予め断っておく。左側の領域1001に入力画像Iの内容が表示されている。また、右側の領域1002に検索結果227の内容が表示されている。領域1002の検索結果では、入力画像上の格子模様が存在している領域が黒塗りで表示されている。
図11は、図8のステップS213(画像内のパターンを検索する処理)の内容を表すフローチャート図である。ステップL01からL07までのループで、入力画像I上の各点(x, y)についてステップL02〜L06で示される処理が繰り返される。ステップL02において、CPU100は、検出のために入力画像I上の注目画素としての点(x,y)付近の領域を画像Rとして切り出す。その大きさは後に説明する学習画像の大きさと同じである。ステップL03は検出処理である。この検出処理は第1実施形態の図6A,Bで示した処理と同様であるが、入力画像Iではなく切り出し画像Rに対して検出処理が行われる。次に、ステップL04において、CPU100は、ステップL03で検出結果が「真」となったか「偽」となったか(第2のクラスに分類されたか、第1のクラスに分類されたか)を判定する。「真」だった場合にはステップL05へ進み、CPU100は、検索結果227の(x,y)成分(注目画素)に「黒」を書き込む。一方、ステップL04で「偽」と判定された場合には、処理はステップL06へ進み、CPU100は検索結果227の(x,y)成分(注目画素)に「白」を書き込む。このようにして、検索結果227として「白」あるいは「黒」が書き込まれた画像が得られる。
次に第2実施形態の学習手順を説明する。第2実施形態のパターン識別用パラメータ231の内容は第1実施形態の図4と図5で示したものと同じ構造を持つ。学習に使用する画像の例を図12に示す。学習に使用する画像の寸法は全て統一されている。これらは検出したいパターンを表す。逆に検出しないパターンには図10の領域1001の入力画像の背景から切り出したようなものを使用する。
検出したいパターンを含む学習画像をpj、その集合をP= {pj | j =1,…,Np}とする。また検出したいパターンを含まない学習画像をqj、その集合をQ={qj | j =1,…,Nq}とする。また、図5の矩形座標(xiL, yiT)、(xiR,yiB)で表される矩形をri、その集合をR= {ri | i =1,…,Nr}とする。更に、図4のツリー構造は予め決められており、パラメータを確保するためのメモリがRAM102上に確保されているものとする。このとき、図5の各ポインタ値も確定しており、格納しておくことができる。また、図4においてT1と記されているノードからN3と記されているノードの直前までの学習が済んでいるものとする。
前述した検出の処理を適用すると、N3までのノードで学習画像のいくつかは検出したいパターンがないものとして棄却(打ち切り)されたり、タイプT2のノードによって他の分岐先に振り分けられたりすることになる。そこで、N3のノードでは、それまでに棄却されたり他の分岐先に振り分けたりしないパターン画像pi +の集合P+= {pj +| j =1..Np +}と非パターン画像qj +の集合Q+={qj + | j =1..Nq +}を学習に利用する。
図13に第2実施形態による学習時のフローチャートを示す。第2実施形態の学習は、
・仮の矩形群を用いて学習データを仮マッピングしてパラメータを学習し、使用すべき矩形群を抽出する第1マッピング処理及び第1学習処理と、
・抽出された矩形群を用いて学習データをマッピングしてパラメータを学習する第2マッピング処理及び第2学習処理を含む。
・仮の矩形群を用いて学習データを仮マッピングしてパラメータを学習し、使用すべき矩形群を抽出する第1マッピング処理及び第1学習処理と、
・抽出された矩形群を用いて学習データをマッピングしてパラメータを学習する第2マッピング処理及び第2学習処理を含む。
ステップT01からT08までの処理で、第1マッピング処理及び第1学習処理により、分岐先を決めるのに有効と推定される矩形群が選定される。そして、ステップT10からT18までの処理で、第2マッピング処理及び第2学習処理により、打ち切りのためのパラメータが決定される。最後のステップT21からT24において各分岐先のためのパラメータが決定される。以下、個々のステップの説明を行う。
まず、ステップT01からT07までのループを、集合P+内の各パターン画像pi +について繰り返す。その中のステップT03からT05までのループは、集合R内の各矩形riについて繰り返される。ループ内のステップT04において、2次元配列の要素bji pに、パターン画像pi +上の矩形ri内の輝度値の平均値を格納する。第1実施形態と異なり、輝度値をピクセル数で正規化した値(平均輝度)を使っていることに注意されたい。これにより、画素単位での差異を吸収できる。なお、上記処理におけるマッピングは、実際に使用する矩形群を選択するための仮のマッピングである。すなわち、ステップT01〜T07の処理は、
・P+に属する画像データ(第1のクラスにラベル付けされた学習データ)からNr個の矩形画像を抽出して(Nrは1以上の整数とする)特徴量(平均輝度)を求め、
・Nr次元特徴空間に対応点を仮マッピングする処理(第1マッピング)である。
・P+に属する画像データ(第1のクラスにラベル付けされた学習データ)からNr個の矩形画像を抽出して(Nrは1以上の整数とする)特徴量(平均輝度)を求め、
・Nr次元特徴空間に対応点を仮マッピングする処理(第1マッピング)である。
次にステップT20において、CPU100は、先のループで求めたNr次元ベクトル(bj1 p,…, bjNr p)の分布を複数のクラスタにクラスタリングする。すなわち、仮マッピングされた対応点のNr次元特徴空間における分布に基づき、Nr次元特徴空間を分割するパターン識別のための仮パラメータが学習される(第1学習)。本例では、2分木を生成するので2つ(m=2)のクラスタにクラスタリングする。クラスタリングの方法としてk-meansを使うことができる。また、ベクトル同士の距離を求めるためにユークリッド距離を使用するのが自然であるが、例えば他のミンコフスキー計量(Minkowskimetric)を使用しても良い。すると、集合P+内の全てのパターン画像がクラスタ(C1あるいはC2)に割り当てられるので、SVM(supportvector machine)などで2つのクラスタを分離する超平面が得られる。その超平面のNr次元法線ベクトルを(a1 p,…,aNr p)とする。ここで、自然数dと実数u(u≧0)をノードN3のために予め決められた定数であるとする。
ステップT08において、CPU100は、先の法線ベクトルの要素を絶対値の大きい方から選び、選ばれた要素の和がu以下でかつ−u以上あるいはその個数がdになればそこで止める。そして、選ばれた要素{ai p}に対応する矩形{ri}を選ぶ。こうしてn個の矩形が選択されたとすれば、これらを矩形群φ= {ri φ | i=1,…,n}とする。以上のように、ステップT20,T08では、仮マッピングに基づいて得られた仮パラメータにより、当該ノードが識別処理に用いるべきn次元特徴空間が決定される。
次に、ステップT10からT16のループを、集合Q+内の各非パターン画像qj +について繰り返す。その中のステップT12からT14までのループで、先の選択された矩形群φ内の各矩形ri φについて繰り返す。ステップT13で、2次元配列の要素bji qに、非パターン画像qj +上の矩形ri φ内の輝度値の総和を代入する。すなわち、ステップT10〜T16の処理は、Q+に属する画像データ(第2のクラスにラベル付けされた学習データ)を、n次元特徴空間の対応点にマッピングする処理(第2マッピング)である。
そして、ステップT17でSVMにより(bj1 p,…, bjn p)の分布と(bj1 q,…, bjn q)の分布を分ける超平面を計算する。こうして得られた超平面の法線ベクトルを(a1,…,an)として図5の対応する領域(打ち切り用パラメータ)に格納する。すなわち、マッピングされた対応点のn次元特徴空間における分布に基づき、n次元特徴空間を分割するパターン識別のためのパラメータが学習され、打ち切り用パラメータとして格納される(第2学習)。また、ステップT18で第1実施形態と同じように、打ち切り用パラメータの閾値θを決定する。以上のように、ステップT10〜T18によれば、第2のクラスにラベル付けされた学習データとしての非パターン画像qj +がn次元特徴空間上の対応点としてマッピングされる。そして、マッピングされた対応点の分布に基づき、n次元特徴空間を分割するパターン識別のためのパラメータが学習される。
ステップT21からT24までの処理は第1実施形態、図7でのステップC21からC24と同様である。ただし、LDAの代わりにSVMを使った例となっている。また、クラスタリングによるクラスタ数は2(m=2)である。
以上、本実施形態により、比較的計算負荷の軽い処理により入力画像中の所定のパターンを検索することができる。人間にとって同じように見えるパターンも傾きが異なれば画素同士の比較では違いが大きい。本実施形態によれば、矩形群を予め決めておかない教師なし学習と分岐型の検出器を使ってこの違いを吸収することが可能となる。
以上、実施形態を詳述したが、本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
尚、本発明は、ソフトウェアのプログラムをシステム或いは装置に直接或いは遠隔から供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによって前述した実施形態の機能が達成される場合を含む。この場合、供給されるプログラムは実施形態で図に示したフローチャートに対応したコンピュータプログラムである。
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であっても良い。
コンピュータプログラムを供給するためのコンピュータ読み取り可能な記憶媒体としては以下が挙げられる。例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などである。
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続し、該ホームページから本発明のコンピュータプログラムをハードディスク等の記録媒体にダウンロードすることが挙げられる。この場合、ダウンロードされるプログラムは、圧縮され自動インストール機能を含むファイルであってもよい。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布するという形態をとることもできる。この場合、所定の条件をクリアしたユーザに、インターネットを介してホームページから暗号を解く鍵情報をダウンロードさせ、その鍵情報を使用して暗号化されたプログラムを実行し、プログラムをコンピュータにインストールさせるようにもできる。
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどとの協働で実施形態の機能が実現されてもよい。この場合、OSなどが、実際の処理の一部または全部を行ない、その処理によって前述した実施形態の機能が実現される。
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれて前述の実施形態の機能の一部或いは全てが実現されてもよい。この場合、機能拡張ボードや機能拡張ユニットにプログラムが書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行なう。
Claims (20)
- 複数の判別処理の組み合わせを順次実行することにより入力データを第1または第2のクラスに分類するパターン識別方法であって、前記複数の判別処理の少なくとも1つが、
nを2以上の整数とした場合に、前記入力データをn次元特徴空間に対応点としてマッピングするマッピング工程と、
前記マッピング工程でマッピングされた対応点のn次元特徴空間における位置に基づいて、前記入力データが前記第1のクラスに属するか、次の判別処理を実行するかを判定する判定工程と、
前記判定工程において次の判別処理を実行すると判定された場合に、前記対応点の位置に基づいて、次に実行するべき判別処理を選択する選択工程とを備えることを特徴とするパターン識別方法。 - 前記マッピング工程では、前記入力データのn個の部分データの各々の特徴量を座標値とする対応点を算出することを特徴とする請求項1に記載のパターン識別方法。
- 前記判定工程では、前記対応点の座標値に対して線形識別関数を適用して、前記第1のクラスに属するか、次の判別方法を実行するかを判定することを特徴とする請求項2に記載のパターン識別方法。
- 前記入力データは画像データであり、
前記n個の部分データはそれぞれ前記画像データから予め定義された位置及びサイズで抽出された矩形画像であり、
前記特徴量は矩形画像における輝度の合計値或いは平均値であることを特徴とする請求項2または3に記載のパターン識別方法。 - 前記入力データとして用いるために、入力画像から注目画素に関して画像データを切り出す切り出し工程を更に備え、
注目画素ごとに前記第1及び第2のクラスのいずれに属するかが判定されることを特徴とする請求項1乃至4のいずれか1項に記載のパターン識別方法。 - 入力データを第1または第2のクラスに分類するパターン識別のためのパラメータを学習するパラメータ学習方法であって、
前記第1または第2のクラスにラベル付けされた複数の学習データを入力する入力工程と、
nを1以上の整数として、前記学習データをn次元特徴空間に対応点としてマッピングするマッピング工程と、
前記n次元特徴空間から、同一ラベルの対応点が占める特徴空間を分割するパターン識別のためのパラメータを学習する学習工程とを備えることを特徴とするパラメータ学習方法。 - 前記マッピング工程では、前記入力データから取得されるn個の部分データの特徴量を座標とする対応点を算出することを特徴とする請求項6に記載のパラメータ学習方法。
- 前記学習工程では、前記対応点に対して線形識別関数を適用して、前記n次元特徴空間から同一ラベルの対応点が占める特徴空間を分割するためのパラメータを学習することを特徴とする請求項6または7に記載のパラメータ学習方法。
- 同一ラベルの前記対応点を複数のクラスタに分けるクラスタリング工程と、
前記n次元特徴空間の同一ラベルの対応点が占める特徴空間から、前記複数のクラスタの各々に対応する特徴空間を分離するためのパラメータを学習する分離学習工程とを更に備えることを特徴とする請求項6または7に記載のパラメータ学習方法。 - 前記分離学習工程では、前記対応点に対して線形識別関数を適用して、前記複数のクラスタの各々に対応した特徴空間を分離するためのパラメータを学習することを特徴とする請求項9に記載のパラメータ学習方法。
- 入力データを第1または第2のクラスに分類するパターン識別のためのパラメータ学習において、
前記第1または第2のクラスにラベル付けされた複数の学習データを入力する入力工程と、
Nrを1以上の整数とした場合に、前記第1のクラスにラベル付けされた複数の学習データを、Nr次元特徴空間に対応点として仮マッピングする第1マッピング工程と、
前記第1マッピング工程によってマッピングされた対応点の前記Nr次元特徴空間における分布に基づき、Nr次元特徴空間を分割する仮パラメータを学習する第1学習工程と、
前記仮パラメータに基づいて、識別に用いるべきn次元特徴空間を決定する決定工程と、
前記第2のクラスにラベル付けされた学習データを前記n次元特徴空間に対応点としてマッピングする第2マッピング工程と、
前記第2マッピング工程によってマッピングされた対応点の分布に基づき、前記n次元特徴空間を分割するためのパラメータを学習する第2学習工程とを備えることを特徴とするパラメータ学習方法。 - 前記第1マッピング工程では、前記入力データのNr個の部分データの特徴量を座標とする対応点を算出することを特徴とする請求項11に記載のパラメータ学習方法。
- 前記マッピング工程では、前記入力データのn個の部分データの特徴量を座標とする対応点を算出することを特徴とする請求項11または12に記載のパラメータ学習方法。
- 前記第1学習工程では、前記対応点に対して線形識別関数を適用して、Nr次元特徴空間を分割するパターン識別のための仮パラメータを学習し、
前記決定工程では、仮パラメータの要素の値の大きさに基づいて前記nを定めることを特徴とする請求項11乃至13のいずれか1項に記載のパラメータ学習方法。 - 複数の判別処理の組み合わせを順次実行することにより入力データを第1または第2のクラスに分類するパターン識別装置であって、前記複数の判別処理の少なくとも1つが、
nを2以上の整数とした場合に、前記入力データをn次元特徴空間に対応点としてマッピングするマッピング手段と、
前記マッピング手段でマッピングされた対応点のn次元特徴空間における分布に基づいて、前記入力データが前記第1のクラスに属するか、次の判別処理を実行するかを判定する判定手段と、
前記判定手段において次の判別処理を実行すると判定された場合に、前記対応点の前記分布に基づいて、次に実行するべき判別処理を選択する選択手段とを備えることを特徴とするパターン識別装置。 - 入力データを第1または第2のクラスに分類するパターン識別のためのパラメータを学習するパラメータ学習装置であって、
前記第1または第2のクラスにラベル付けされた複数の学習データを入力する入力手段と、
nを1以上の整数として、前記学習データをn次元特徴空間の対応点としてマッピングするマッピング手段と、
前記n次元特徴空間から、同一ラベルの対応点が占める特徴空間を分割するパターン識別のためのパラメータを学習する学習手段とを備えることを特徴とするパラメータ学習装置。 - 入力データを第1または第2のクラスに分類するパターン識別のためのパラメータ学習装置であって、
前記第1または第2のクラスにラベル付けされた複数の学習データを入力する入力手段と、
Nrを1以上の整数とした場合に、前記第1のクラスにラベル付けされた複数の学習データを、Nr次元特徴空間に対応点として仮マッピングする第1マッピング手段と、
前記第1マッピング手段によってマッピングされた対応点の前記Nr次元特徴空間における分布に基づき、Nr次元特徴空間を分割する仮パラメータを学習する第1学習手段と、
前記仮パラメータに基づいて、識別に用いるべきn次元特徴空間を決定する決定手段と、
前記第2のクラスにラベル付けされた学習データを前記n次元特徴空間に対応点としてマッピングする第2マッピング手段と、
前記第2マッピング手段によってマッピングされた対応点の分布に基づき、前記n次元特徴空間を分割するためのパラメータを学習する第2学習手段とを備えることを特徴とするパラメータ学習方法。 - 請求項1乃至5のいずれか1項に記載のパターン識別方法をコンピュータに実行させることを特徴とするプログラム。
- 請求項6乃至14のいずれか1項に記載のパラメータ学習方法をコンピュータに実行させることを特徴とするプログラム。
- 請求項18または請求項19に記載のプログラムを格納したことを特徴とするコンピュータ読み取り可能な記憶媒体。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007252375A JP2009086749A (ja) | 2007-09-27 | 2007-09-27 | パターン識別手法、識別用パラメータ学習方法、及び装置 |
US12/205,174 US8527439B2 (en) | 2007-09-27 | 2008-09-05 | Pattern identification method, parameter learning method and apparatus |
CN2008101488638A CN101398900B (zh) | 2007-09-27 | 2008-09-27 | 模式识别方法、参数学习方法和设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007252375A JP2009086749A (ja) | 2007-09-27 | 2007-09-27 | パターン識別手法、識別用パラメータ学習方法、及び装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009086749A true JP2009086749A (ja) | 2009-04-23 |
Family
ID=40509494
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007252375A Withdrawn JP2009086749A (ja) | 2007-09-27 | 2007-09-27 | パターン識別手法、識別用パラメータ学習方法、及び装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US8527439B2 (ja) |
JP (1) | JP2009086749A (ja) |
CN (1) | CN101398900B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011086263A (ja) * | 2009-10-19 | 2011-04-28 | Canon Inc | データ処理装置及びその処理方法 |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4948379B2 (ja) * | 2007-12-18 | 2012-06-06 | キヤノン株式会社 | パターン識別器生成方法、情報処理装置、プログラム及び記憶媒体 |
JP5055166B2 (ja) * | 2008-02-29 | 2012-10-24 | キヤノン株式会社 | 眼の開閉度判定装置、方法及びプログラム、撮像装置 |
US8331655B2 (en) * | 2008-06-30 | 2012-12-11 | Canon Kabushiki Kaisha | Learning apparatus for pattern detector, learning method and computer-readable storage medium |
JP5336995B2 (ja) * | 2009-10-19 | 2013-11-06 | キヤノン株式会社 | 特徴点位置決め装置、画像認識装置、その処理方法及びプログラム |
JP5554984B2 (ja) * | 2009-12-24 | 2014-07-23 | キヤノン株式会社 | パターン認識方法およびパターン認識装置 |
JP5588180B2 (ja) * | 2010-01-15 | 2014-09-10 | キヤノン株式会社 | パターン識別装置及びその制御方法 |
US9070011B2 (en) | 2010-06-18 | 2015-06-30 | Csr Imaging Us, Lp | Automated segmentation tuner |
JP2012038106A (ja) | 2010-08-06 | 2012-02-23 | Canon Inc | 情報処理装置、情報処理方法、およびプログラム |
JP5675214B2 (ja) | 2010-08-18 | 2015-02-25 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
US8768944B2 (en) | 2010-08-18 | 2014-07-01 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
JP5653131B2 (ja) | 2010-08-25 | 2015-01-14 | キヤノン株式会社 | オブジェクト認識装置およびその認識方法 |
JP5323035B2 (ja) | 2010-12-10 | 2013-10-23 | キヤノン株式会社 | 画像形成装置及びその画像形成方法 |
JP5755012B2 (ja) | 2011-04-21 | 2015-07-29 | キヤノン株式会社 | 情報処理装置、その処理方法、プログラム及び撮像装置 |
JP5801601B2 (ja) | 2011-05-10 | 2015-10-28 | キヤノン株式会社 | 画像認識装置、画像認識装置の制御方法、およびプログラム |
JP5913940B2 (ja) | 2011-12-01 | 2016-05-11 | キヤノン株式会社 | 画像認識装置、画像認識装置の制御方法、およびプログラム |
JP5806606B2 (ja) | 2011-12-01 | 2015-11-10 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
JP5836095B2 (ja) | 2011-12-05 | 2015-12-24 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
JP5865043B2 (ja) | 2011-12-06 | 2016-02-17 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
JP5997545B2 (ja) | 2012-08-22 | 2016-09-28 | キヤノン株式会社 | 信号処理方法及び信号処理装置 |
JP6125333B2 (ja) * | 2013-05-31 | 2017-05-10 | 株式会社東芝 | 検索装置、方法及びプログラム |
JP6351243B2 (ja) | 2013-11-28 | 2018-07-04 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
JP6456031B2 (ja) | 2014-03-25 | 2019-01-23 | キヤノン株式会社 | 画像認識装置、画像認識方法およびプログラム |
JP6410450B2 (ja) | 2014-03-31 | 2018-10-24 | キヤノン株式会社 | オブジェクト識別装置、オブジェクト識別方法及びプログラム |
CN105930808A (zh) * | 2016-04-26 | 2016-09-07 | 南京信息工程大学 | 一种基于vector boosting模板更新的运动目标跟踪方法 |
JP7230345B2 (ja) * | 2018-06-07 | 2023-03-01 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及び情報処理プログラム |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3416325B2 (ja) | 1995-03-28 | 2003-06-16 | キヤノン株式会社 | 座標入力装置及びその制御方法 |
JPH08335134A (ja) | 1995-06-07 | 1996-12-17 | Canon Inc | 情報処理装置 |
JPH0922324A (ja) | 1995-07-05 | 1997-01-21 | Canon Inc | 座標入力装置 |
US5761087A (en) | 1996-01-10 | 1998-06-02 | Canon Kabushiki Kaisha | Coordinate input device and a control method therefor |
JPH09190268A (ja) | 1996-01-11 | 1997-07-22 | Canon Inc | 情報処理装置およびその方法 |
US6225986B1 (en) | 1997-01-06 | 2001-05-01 | Canon Kabushiki Kaisha | Coordinate input apparatus and its control method |
JPH11249803A (ja) | 1998-03-03 | 1999-09-17 | Canon Inc | 座標入力装置及びその制御方法、コンピュータ可読メモリ |
JP4846924B2 (ja) | 2001-05-31 | 2011-12-28 | キヤノン株式会社 | パターン認識装置 |
US7050607B2 (en) * | 2001-12-08 | 2006-05-23 | Microsoft Corp. | System and method for multi-view face detection |
AU2003289116A1 (en) | 2002-12-16 | 2004-07-09 | Canon Kabushiki Kaisha | Pattern identification method, device thereof, and program thereof |
EP3358501B1 (en) | 2003-07-18 | 2020-01-01 | Canon Kabushiki Kaisha | Image processing device, imaging device, image processing method |
EP1697877B1 (en) | 2003-12-16 | 2009-09-16 | Canon Kabushiki Kaisha | Pattern identification method, apparatus, and program |
JP4217664B2 (ja) | 2004-06-28 | 2009-02-04 | キヤノン株式会社 | 画像処理方法、画像処理装置 |
US7450766B2 (en) * | 2004-10-26 | 2008-11-11 | Hewlett-Packard Development Company, L.P. | Classifier performance |
JP5008269B2 (ja) | 2005-04-08 | 2012-08-22 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
JP2008059197A (ja) | 2006-08-30 | 2008-03-13 | Canon Inc | 画像照合装置、画像照合方法、コンピュータプログラム及び記憶媒体 |
-
2007
- 2007-09-27 JP JP2007252375A patent/JP2009086749A/ja not_active Withdrawn
-
2008
- 2008-09-05 US US12/205,174 patent/US8527439B2/en active Active
- 2008-09-27 CN CN2008101488638A patent/CN101398900B/zh active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011086263A (ja) * | 2009-10-19 | 2011-04-28 | Canon Inc | データ処理装置及びその処理方法 |
Also Published As
Publication number | Publication date |
---|---|
CN101398900A (zh) | 2009-04-01 |
US20090089235A1 (en) | 2009-04-02 |
US8527439B2 (en) | 2013-09-03 |
CN101398900B (zh) | 2013-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009086749A (ja) | パターン識別手法、識別用パラメータ学習方法、及び装置 | |
Luo et al. | Traffic sign recognition using a multi-task convolutional neural network | |
Galleguillos et al. | Weakly supervised object localization with stable segmentations | |
TWI651662B (zh) | 影像標註方法、電子裝置及非暫態電腦可讀取儲存媒體 | |
US8452108B2 (en) | Systems and methods for image recognition using graph-based pattern matching | |
Avraham et al. | Esaliency (extended saliency): Meaningful attention using stochastic image modeling | |
JP5202148B2 (ja) | 画像処理装置、画像処理方法、及びコンピュータプログラム | |
JP6050223B2 (ja) | 画像認識装置、画像認識方法、及び集積回路 | |
US20140050391A1 (en) | Image segmentation for large-scale fine-grained recognition | |
JP2008020951A (ja) | 物体検出装置、物体検出方法、および物体検出用プログラム | |
CA2871512A1 (en) | Method for binary classification of a query image | |
JP2010140478A (ja) | 文書画像分類のための方法及びシステム | |
JP4946878B2 (ja) | 画像識別装置及びプログラム | |
Ponce-López et al. | Gesture and action recognition by evolved dynamic subgestures | |
Fritz et al. | Building detection from mobile imagery using informative SIFT descriptors | |
KR101247220B1 (ko) | 반복 패턴을 이용한 영상 처리 방법 및 장치 | |
US20120314939A1 (en) | Recognizing apparatus and method, program, and recording medium | |
Upadhyay et al. | Analysis and architecture for the deployment of dynamic license plate recognition using yolo darknet | |
JP2009282631A (ja) | パターン識別用パラメータ学習方法及び装置 | |
Kaja et al. | Two stage intelligent automotive system to detect and classify a traffic light | |
US11373313B2 (en) | Image processing apparatus and image processing method | |
CN115203408A (zh) | 一种多模态试验数据智能标注方法 | |
Diem et al. | Semi-automated document image clustering and retrieval | |
CN113762031A (zh) | 一种图像识别方法、装置、设备及存储介质 | |
Choi et al. | Determining the existence of objects in an image and its application to image thumbnailing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20101207 |