JP2013257752A - 情報処理装置、その処理方法及びプログラム - Google Patents

情報処理装置、その処理方法及びプログラム Download PDF

Info

Publication number
JP2013257752A
JP2013257752A JP2012133629A JP2012133629A JP2013257752A JP 2013257752 A JP2013257752 A JP 2013257752A JP 2012133629 A JP2012133629 A JP 2012133629A JP 2012133629 A JP2012133629 A JP 2012133629A JP 2013257752 A JP2013257752 A JP 2013257752A
Authority
JP
Japan
Prior art keywords
node
query
learning
information processing
learning patterns
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012133629A
Other languages
English (en)
Other versions
JP6053341B2 (ja
Inventor
Hiroto Yoshii
裕人 吉井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012133629A priority Critical patent/JP6053341B2/ja
Publication of JP2013257752A publication Critical patent/JP2013257752A/ja
Application granted granted Critical
Publication of JP6053341B2 publication Critical patent/JP6053341B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】 従来では解決困難な問題に対応するため、より高精度なパターン認識アルゴリズムが必要になる。
【解決手段】 学習の過程で作成される木構造の各ノードにおいて、ノードが保持する学習パターンの数に基づいてノードを選択する選択する。選択されたノードに分配された学習パターンを略均等に分配するようにクエリ作成する。選択されたノードに分配された学習パターンに対して該ノードに対応して作成されたクエリを実行し、該クエリの実行結果に基づいて個々の学習パターンを下位のノードへ分配する分配する。
【選択図】 図1

Description

本発明は、認識に用いるパターンを学習するための情報処理装置、その処理方法及びプログラムに関する。
学習パターンを用いて新規パターンを認識する機械学習が知られている。その中でも、分類木、決定木と呼ばれるパターン認識手法が提案され(非特許文献1参照)、多くのシステムにおいて用いられてきた。この手法は木構造(ツリー構造とも呼ばれる)を用いて高速にパターンを解析できるという性質を持っており、計算機の能力の貧弱な時代には、その能力を発揮してきた。
なお、パターン認識問題をパターン識別問題として捉えたとき、識別するべきパターンの種類を“クラス”と呼び、以下説明で“クラス”という言葉はこの意味で用いる。また、通常、機械学習の結果、生成される木構造自体をパターン認識装置、すなわち判別器と同一視することが多い。
非特許文献1に記載されるような、古典的な分類木、決定木の欠点として認識性能があまり高くないということが挙げられる。この欠点を克服する技術として、例えば特許文献1に示されるような分類木の集合(アンサンブル)を用いた手法が提案されている。これは分類木をL個(Lは2以上の定数であり、通常は10〜100の範囲)作成し、それら全部を用いることによって、より高い認識性能を実現する技術である。
しかしながら、上記技術は、従来1つの分類木を用いた手法のL倍、計算時間を要するという欠点を持っており、従来の分類木に対して、高速性を犠牲にしている。そのため、木構造の各ノードにおけるクエリとして、学習パターンの特徴の部分集合をランダムに選択することにより、高速性を得ている。より具体的には、分類木の各ノードにおいて、ランダムに所定サイズ(32ピクセル×32ピクセル)の画像上の2点を選び、その輝度値を比較する。この処理は、非常に高速にでき、且つ認識精度も十分高いという報告が非特許文献2の中でされている。
米国特許第6009199号明細書
Leo Breiman, Jerome Friedman, Charles J. Stone, and R.A. Olshen, "Classification and Regression Trees", Chapman & Hall/CRC (1984) Vincent Lepetit and Pascal Fua, "Keypoint Recognition Using Randomized Trees", IEEE Transactions on Pattern Analysis and Machine Intelligence (2006) pp.1465〜pp.1479
しかし、例えば、山積みされた部品の認識や人ごみの中での人物認識など、背景の変動が大きい場合、非特許文献2に記載された技術は、そのまま適用できない。なぜなら、未知の画像の中で背景となる部分の輝度値は、学習する画像と全く異なる値になるからである。具体的には、分類木の各ノードにおいて2点の輝度値を比較する際に、対象物体とは無関係な輝度値を用いてしまう可能性がある。この結果、(従来の)分類木を用いたパターン認識では信頼性の低い結果しか得られない。できるだけ対象物体の存在する部分の2点の輝度値を比較しようとしても、どうしても対象物体以外の部分を参照してしまうケースが発生してしまう。そこで、本発明は、上記課題に鑑みてなされたものであり、より認識精度の高いパターン認識用の辞書を作成できるようにした技術を提供することを目的とする。
上記の課題を解決するために、例えば、本発明の情報処理装置は、学習パターンの集合に含まれる学習パターンを下位のノードに分配していくことにより複数の木構造の辞書を作成する情報処理装置であって、学習の過程で作成される木構造の各階層において、該階層の各ノードが保持する学習パターンの数に基づいてノードを選択する選択手段と、前記選択されたノードに分配された学習パターンに対して、実行するクエリを該ノードに対応して作成するクエリ作成手段と、前記選択されたノードに分配された学習パターンに対して、該ノードに対応して作成されたクエリを実行し、該クエリの実行結果に基づいて個々の学習パターンを下位のノードへ分配する分配手段とを備え、前記クエリ作成手段は、前記分配手段により前記下位のノードに分配される学習パターンが略均等となるようなクエリを作成することを特徴とする。
本発明によれば、より認識精度の高いパターン認識用の辞書を作成できる。
第1の実施形態の学習過程を説明するフローチャートである。 本発明の実施形態を表す図である。 出来上がった分類木の例である。 第1の実施形態のパターン認識過程を説明するフローチャートである。 第2の実施形態の学習過程を説明するフローチャートである。 第2の実施形態のパターン認識過程を説明するフローチャートである。 第3の実施形態の学習過程を説明するフローチャートである。 第4の実施形態の学習過程を説明するフローチャートである。 第4の実施形態の学習過程のアルゴリズムを説明する図である。 第4の実施形態を説明する図である。
以下、本発明の実施形態について図面に基づいて説明する。
以下の実施形態においては、予め学習されたパターンに基づき、新規パターンを解析するパターンに認識方法について説明する。ここで、具体的な例を挙げると、パターンとして対象物体を撮像した画像を用いて、対象物体の名称、種類、3次元上の存在位置、姿勢等の情報を推定する形態があげられる。
なお、対象物体とは、任意の物体を表し、例えば、人、動物、臓器、自動車、カメラ。プリンタ、半導体基板などであり、特にこれに限定されず、なんでも良い。また更に、一般的な適用例としては、対象とする物理現象を測定した計測値をパターンとして用いてもよい。
[第1の実施形態]
図2は、本発明の一実施形態に係わる情報処理装置の構成の一例を示す図である。本発明は、他形態の情報処理装置として、例えば組み込みデバイス、デジタルカメラ、ハンドヘルドデバイスなどの情報処理装置上で実行されてもよい。
情報処理装置10は、記憶部11と、中央処理装置(CPU)12と、メモリ13と、入力部14と、出力部15とを備えて構成される。これら各機能は、バス16を介して相互通信可能に接続されている。
記憶部11は、RAMなどの書き換え可能なメモリで構成され、各種プログラムや学習パターンと、当該学習パターンを用いて作成された辞書等を保持する。また、記憶部11には、新規パターンの認識結果が保持されても良い。
CPU12は、情報処理装置における各部の動作を制御する。
メモリ13は、CPU12により使用されるプログラム、及びサブルーチンやデータを一時的に格納する。また、後述する処理により導出される新規パターンの認識結果を保持しても良い。
入力部14は、各種情報を入力する。例えば、新規パターンを取り込んだり、ユーザからの指示入力を処理したりする。例えば、パターンとして2次元の画像を用いる場合、入力部14は、例えば対象物体を撮影するカメラとして実現される。その他、入力部14は、キーボードやマウス等としての役割も果たし、例えば、プログラム実行のユーザからのトリガを入力する。
出力部15は、各種情報を出力する。例えば、パターン認識結果を他の装置へ出力する。出力部15は、例えば、モニタ等で実現される場合もある。その場合、ユーザに向けて処理結果等を提示する。なお、出力先としては、人間ではなく、例えば、ロボットを制御する装置などの場合もあり得る。
ここで、CPU12上に実現される機能的な構成の一例について説明する。CPU12上には、機能的な構成として、学習部21と、認識部22とが実現される。なお、CPU12上に実現される機能構成は、例えば、CPU12が、メモリ13等(または記憶部11)に格納された各種制御プログラムを実行することにより実現される。
学習部21は、パターン認識の対象物体が含まれる学習パターンの集合を用いて学習する。これにより、学習パターンの集合に含まれる個々の学習パターンが各ノードに分配された木構造の辞書が作成される。ここで、学習部21には、選択部23と、クエリ作成部24と、分配部25とが備えられる。
選択部23は、木構造の階層ごとに、各階層に存在するノードのうちから、1または複数のノードを選択する。
クエリ作成部24は、ノードに分配された学習パターンに対して実行するクエリを当該ノードに対応して作成する。
分配部25は、クエリ作成部24により作成されたクエリを各ノードで実行し、その実行結果に基づいて、学習パターンの集合に含まれる個々の学習パターンを下位のノードへ分配する。
認識部22は、パターン認識の対象となるパターンの集合をルートノードに設定し、学習部21により作成された木構造の辞書をたどりながら、各ノードに対応して作成されたクエリを実行する。これによりパターンの認識を行う。
次に図3の例を用いて、本発明の情報処理装置が生成する木構造を説明する。通常、パターン認識に用いられる木構造は、図3に示すような木を上下反転した図を用いる。301のノードが、ルートノードと呼ばれるノードで、1つの木に1つしか存在しない。線でつながっている上位ノードと下位ノードとの関係性は「親」と「子」という呼び方をする。
例えばノード301の子ノードはノード302とノード307となる。逆にノード302の親ノードはノード301である。
図3に示した木構造は、1つの親ノードに対して2つの子ノードがつながっている2分木と呼ばれる構造のツリーである。そして、この数は2に限らず、一般にはN分木のツリー構造がありうる。
子ノードを持つノードをインターナルノードと呼び、子ノードを持たないノードをターミナルノードと呼ぶ。ターミナルノードの中で、学習パターンの情報を全く持たないノードをnullノードと呼び、学習パターンの情報を持つノードをleafノードと呼ぶ。
図3においては、ノード306とノード308がnullノードとなっておりノードを黒く塗りつぶしてleafノードと区別している。一方、図3においてleafノードはノード303、ノード305、ノード309の3つのノードとなる。
ここで、本実施形態に関係して重要な事がノードの階層という概念である。上から下に向かって階層が1段ずつ深くなる、と表現する。具体的には、図3において階層0に存在するノードは、ノード301のみである。階層1に存在するノードは、ノード302とノード307の2つのノードとなる。階層2に存在するノードは、ノード303、ノード304、ノード308、ノード309の4つのノードとなる。そして階層3に存在するノードが、ノード305、ノード306の2つのノードとなる。
機械学習によるパターン認識手法では、多くのパターンから学習をする学習過程と新規パターンを解析する認識過程の2つの過程が存在する。
図1は、学習過程を詳しく説明した図で、図4は、認識過程を詳しく説明した図はである。
本実施形態では、複数(L個)の木構造の辞書を作成する。Lは2以上の任意の定数である。Lを大きくすると、辞書サイズが大きくなるが、認識率は向上する。一方、Lを小さくすると辞書はコンパクトになるが、認識率は低下する。好ましくは、10〜100程度である。
学習過程は、ツリー番号が1からLのループ(S501とS503で括られたループ)を実行する。ループの中で、図1の学習過程がサブルーチンとして呼び出される(S502)。S502でのサブルーチン呼び出しは全く独立に行われる。つまり、S501〜S503のループ処理は単純にマルチスレッド、マルチタスクで行っても何の問題もない。また、容易に複数の計算機を用いて実行することも可能となる。図5で示した複数(L個)の木構造の辞書を作成する方法は、並列計算向きであり、並列度を高くすると極めて高速に実行できると言える。
以下、学習過程を図1のフローチャートを用いて詳述する。
(ステップS101)
まず、ステップS101で、情報処理装置10は、学習部21において、学習パターンをルートノードに格納する。このとき、準備された全ての学習パターンを格納しても良い。また、学習パターンの全集合からランダムに選択した学習パターンの部分集合を格納しても良い。
(ステップS102)
次に、ステップS102で、情報処理装置10は、学習部21において、ターゲット階層を0に設定する。ここで言う階層は、図3で説明した木構造の階層であり、ターゲット階層を0に設定するということは、ルートノードが存在する階層をターゲット階層とすることと同義である。
(ステップS103)
次に、ステップS103で、情報処理装置10は、選択部23において、ターゲット階層にある最も多くの学習パターンを保持するノードをターゲットノードに設定する。
(ステップS104)
次に、ステップS104で、情報処理装置10は、クエリ作成部24において、ターゲットノードが保持する学習パターン集合を出来るだけ均等(略均等)に分割するクエリαを探索する。以下の説明で1つ1つの学習パターンは一般にN次元の特徴量ベクトルで記述されるとする。例えば、身体測定の身長、体重、体脂肪率の3次元ベクトルをもって一人一人のパターンを記述する例がある。また、HOGやSIFTといった画像を記述する特徴量ベクトルなどの例もある。
例えば、学習パターンを記述する特徴点(次元)を1つ選んだとして、その特徴点(次元)の値の順で学習パターン集合をソートする。そのとき、ちょうど真ん中、つまりメディアンとなる学習パターンの特徴点(次元)の値を保存する。そしてクエリとしては、保存された値以上か、値未満かで2つに分岐するクエリを生成すれば、均等に学習パターン集合を分割できる。先に述べた身体測定の例でいうと、母集団における身長の分布のメディアンをとってきて、その値より身長が高いか低いかで母集団を分割する。すると、母集団は同じ人数の部分集合に分割される。
特徴点(次元)を1つ選ぶ方法は、例えば、それぞれの特徴点(次元)で、学習パターン集合のヒストグラムを求めて、より分散が大きい特徴点(次元)を選ぶ方法がある。より分散が大きいということを評価するためには、例えば情報量エントロピーなどの定量化指数を用いる方法がある。なお、特徴点(次元)を1つに選ぶ選び方は、例えば一番分散の大きい特徴点(次元)を選ぶという方法がある。
見るべき特徴点(次元)が1つに絞れない場合や、連続値ではなく離散的な特徴量しかない場合なども存在する。例えば、性別などは2値の離散的な特徴量の例である。このときは、例えば、クエリとしてあり得るバリエーションを出来るだけ多く列挙する。そして、それらを順番に試行した後で最も均等に学習パターン集合を分割したクエリを選択する方法がある。
クエリとしては、画像(特徴量ベクトル)上の2点(2つの次元)を選び、その値の大小を比較することによって2つのノードに分配するクエリが考えられる。また、それ以外では、例えば、2つの点の値(輝度)の差が所定の値以上であるか否かを判定するクエリであっても良い。また、一方の点の値(輝度)が(もう一方の点の値(輝度)+所定値)以上であるか否かを判定するクエリであっても良い。また更に、2点ではなく、n点を選択して、その選択されたn点の輝度の値(ベクトル)を入力とする所定関数の値がある値以上であるか否かを判定するクエリであっても良い。
(ステップS105)
次にステップS105で、情報処理装置10は、分配部25において、ステップS104で決定されたクエリαを用いてターゲット階層にあるnullノードもしくはleafノード以外の全てのノードを分割する。この結果、木構造は1段深くなる。すなわち、本実施形態では、同一の階層に存在するノードには共通のクエリが作成される。
(ステップS106)
そして、ステップS106で、情報処理装置10は、学習部21において、ターゲット階層を1つインクリメントする。
(ステップS107)
最後に、ステップS107で、情報処理装置10は、学習部21において、ターゲット階層にある全てのノードがターミナルノードかどうかを判定し、もし全てターミナルノードなら終了する。もしインターナルノードが残っていたら、ステップS103に戻る。
このようにして、プログラムが終了するまで木構造の深化を続ける。
次に、図8を用いて、図1に示す情報処理装置10における認識処理について説明する。すなわち、図1の処理で作成した木構造の辞書を用いて、新規の未学習パターンを検出する処理の流れについて説明する。
次に、図4、図6を用いて、図2に示す情報処理装置10における認識過程について説明する。すなわち、図1の処理で作成した木構造の辞書を用いて、新規の未学習パターンを検出する処理の流れについて説明する。
図6の認識過程も、図5の学習過程と同様に並列処理に向いており、並列度を高くすると非常に高速に処理できる。
次に、図6のフローチャートで認識過程を説明する。認識過程は、ツリー番号が1からLまでのループ(S601〜S603)の後、最終的に得られたL個の結果を集計するステップ(S604)がある。ループの中で図4の木構造を用いた学習過程がサブルーチンとして呼び出される(S602)。
(ステップS602)
ステップS602は、情報処理装置10は、図4の認識過程をサブルーチンとして呼び出す。そして、ステップS401が実行される。
(ステップS401)
まず、ステップS401で、情報処理装置10は、認識部22において、カレントノードをルートノードに設定する。
(ステップS402)
次に、ステップS402で、情報処理装置10は、認識部22において、カレントノードがターミナルノード(nullノードもしくはleafノード)であるかどうかの判断を行う。もしカレントノードがターミナルノードであった場合、認識結果にそのターミナルノードの情報をセットし終了する。
(ステップS403)
もし、カレントノードがターミナルノードでない場合、情報処理装置10は、認識部22において、カレントノードに格納されているクエリに基づいて、ノード番号を計算する。
(ステップS404)
そして、情報処理装置10は、認識部22において、計算された枝番号の子ノードをカレントノードに設定する(ステップS404)。続いて、ステップS402のカレントノードがターミナルノードかどうかの判定ステップに戻る。
結果、図4に示したフローチャートでは、ルートノードからnullノードかleafノードに到達するまで木構造をたどることになる。ツリーをたどった結果、nullノードだったら認識過程の答えは不定となる。一方、ツリーを辿った結果、leafノードに到達したら、そのleafノードが持つクラス情報(例えば最も可能性の高いクラス)が答えとなる。
(ステップS604)
ステップS604では、情報処理装置10は、認識部22において、ステップS602で得られたL個の認識結果を集計し、最終的なパターン認識結果を得る。集計方法としては、いろいろなものが考えられる。例えばパターン認識のタスクがクラス判定タスクだったとすると、図4の結果は各クラスの存在確率ベクトルとなる。このとき、ステップS604の集計としては、L個の存在確率ベクトルの相加平均や、相乗平均などが考えられる。
図6の認識過程も、図5の学習過程と同様に並列処理に向いており、並列度を高くすると非常に高速に処理できる。
以上説明したように本実施形態によれば、各ノードにおいて実行されるクエリを、下位ノードへ均等またはなるべく均等に分配されるようにする。そのため、作成される木構造の辞書は、有効なクエリしか残らないことになる。
これにより、当該辞書を用いた認識処理においては、従来よりも高速且つ高精度に対象物体を認識できる。特に、山積みされた部品や人ごみ等での人物検出のように背景に対象物体と同じようなものが重なった場合に有効である。
[第2の実施形態]
第1の実施形態では、ターゲット階層に存在する最も多くの学習パターンを保持するインターナルノードを選び、ターゲットノードとした。これに対して、本実施形態では複数のターゲットノード群を選び、それらが保持する学習パターン集合を出来るだけ均等に分割するクエリを探索する。
より詳細に述べると、まず、考えうるクエリ毎にそのクエリを試行してみてターゲットノード群が分割された状況を作り出す。そして、個々のターゲットノードにおける分割指数、例えば、Gini係数やエントロピーといった指数をターゲットノード群の保持する学習パターン数に応じて重み付き平均する。そして、最終的に、この重み付き平均の値が最も良いクエリを選択する。
具体的には、図1と図7のフローチャートの違いで、ステップS703、ステップS704が、本実施形態の異なる点である。ステップS703で、情報処理装置10は、選択部23において、ある閾値以上の数の学習パターンを保持するノードをターゲットノード群として選択する。そして、ステップS704で、情報処理装置10は、クエリ作成部24において、ターゲットノード群が保持する全ての学習パターン集合をできるだけ均等に分割するクエリを探索する。
図7ではある閾値以上の数の学習パターンを保持するノードを選択したが、ターゲット階層にこの条件を満たすノードが全くない場合もあり得る。このときは、例えば、保持する学習パターンの数の多い順でターゲット階層のノードをソートし、上位N位までのノードをターゲットノードとして選択しても良い。
[第3の実施形態]
第1、第2の実施形態では、ある基準でクエリαを探索し、そのクエリαを用いてターゲット階層にある全てのノードを分割した。これに対して、本実施形態では、第一の実施形態の構成に加え、学習部21に不図示の分割部26備える。そして、本実施形態では、ターゲット階層にあるノードを複数の組(グループ)に分割する。そして、それぞれの組でクエリを探索し、それぞれのグループのノードの分割にそれを適用する。
フローチャートとしては図8に示したようになる。
(ステップS803)
まず、ステップS803で、情報処理装置10は、不図示の分割部26において、ターゲット階層に存在するノードをN組のノード群に分割する。この様子を図9を例にとって、説明する。
図9ではターゲット階層の深さが2である例となる。ノードは全部で901〜904の4つある。ここでそれぞれのノードが保持する学習パターンの多い順でソートした結果が、902、901、903、904の順だったとする。そこで、これら4つのノードを901、902のグループ1と903、904のグループ2に分ける。
(ステップS804)
そしてステップS804で、情報処理装置10は、選択部23において、それぞれのグループでターゲットノードを選択する。図9の例では、ノード902とノード903が選択されている。そして、それぞれの組で、ターゲットノードが保持する学習パターン集合を好適に分割するクエリを探索しそれを用いてノードを分割する。
なお、ここで述べた方法以外の方法を用いてターゲット階層に存在するノードを分割してもよい。例えば予め段階的な複数の閾値を決めておいて、それぞれのノードが保持する学習パターンの数がその段階的な複数の閾値以上or未満の基準でノードをグループ分けしてもよい。
[第4の実施形態]
第1〜3の実施形態では、分割効率基準でクエリαを探索し、そのクエリαを用いてターゲット階層にある全て、または一部のノードを分割した。
選ぶべき特徴量のバリエーションが比較的少ない場合は、この方法でも現実的な時間内に処理を終わらせることができる。しかしながら、選ぶべき特徴量のバリエーションが増えてくると、この分割効率基準でクエリを選ぶ方法は破たんする場合が出てくる。本実施形態はそういう場合に有効である。
フローチャートに沿って説明すると、分割効率基準によるクエリαの探索にあたるステップは、ステップS104(図1)、ステップS704(図7)、ステップS805(図8)である。本実施例の方法では、これらのステップにおいて分割効率基準ではない方法でクエリを決定する。
図10は、パターンとして画像が与えられている例である。この例では画像のピクセル数は縦15×横15の225ピクセルとなっている。クエリとしては、この画像の中にあるピクセルペア(例えば1001と1002の2点)の値の比較をすることで分岐させるクエリを考える。するとクエリのバリエーションは、225点あるピクセルから2ピクセルを選ぶバリエーションとなるので、結局25200通りとなる。
このクエリのバリエーションの中から最も効率よいものを選ぶためには、学習パターン集合の要素数×25200回の比較演算を行う必要がある。学習パターン集合の要素数が例えば1億個を超えるような場合は、比較演算だけでも2兆回を超える状況となり、最適分割のクエリを選ぶ処理は非常に時間のかかるものとなる。
これに対して本実施形態では、ステップS1004において、まず225点のピクセルの平均値、分散を求める。次にステップS1005で、分散の値の最も少ない点を選ぶ。これの意味は最も値が安定している点という意味である。次にステップS1006で最も分散の大きい点を選ぶ。
なお、ステップS1006において分散を評価値とするのではなく、ステップS1004で決定した値との平均差分値などの指標を用いて、それが一番大きな点を選んでもよい。ただし、この場合は、224点(225から1を引いた点数)のピクセルに対する演算をもう一度行う必要があるので、速度的には不利となる。
また、本実施形態を簡略化した方法として、クエリで選ぶ2点のうち一方の点を画像中央の点(1003)とするアルゴリズムを採用しても良い。
また、一方の点を選んだ後で、ステップS1006ではなく分割効率基準でもう一方の点を選んでも良い。
また、ステップS1004では分散の最も小さい点を選んだが、最も不安定な点を選ぶ目的で最も分散の大きい点を選んでもよい。
以上が本発明の代表的な実施形態の例であるが、本発明は、上記及び図面に示す実施形態に限定することなく、その要旨を変更しない範囲内で適宜変形して実施できるものである。
[その他の実施形態]
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
11 記憶部
12 CPU
13 メモリ
14 入力部
15 出力部
16 バス
21 学習部
22 認識部
23 選択部
24 クエリ作成部
25 分配部

Claims (13)

  1. 学習パターンの集合に含まれる学習パターンを下位のノードに分配していくことにより複数の木構造の辞書を作成する情報処理装置であって、
    学習の過程で作成される木構造の各階層において、該階層の各ノードが保持する学習パターンの数に基づいてノードを選択する選択手段と、
    前記選択されたノードに分配された学習パターンに対して、実行するクエリを該ノードに対応して作成するクエリ作成手段と、
    前記選択されたノードに分配された学習パターンに対して、該ノードに対応して作成されたクエリを実行し、該クエリの実行結果に基づいて個々の学習パターンを下位のノードへ分配する分配手段とを備え、
    前記クエリ作成手段は、前記分配手段により前記下位のノードに分配される学習パターンが略均等となるようなクエリを作成することを特徴とする情報処理装置。
  2. 前記作成手段は、前記複数の木構造の辞書における同一の階層に存在するノードに対して、同一のクエリを作成することを特徴とする請求項1に記載の情報処理装置。
  3. 前記複数の木構造の辞書における各々のルートノードに設定する学習パターンの集合は、全ての学習パターンからランダムに選択された学習パターンの集合であることを特徴とする請求項1または2に記載の情報処理方法。
  4. 前記選択手段は、当該階層に存在するノードのうち、保持する学習パターンの数が最も多いノードを選択することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
  5. 前記選択手段は、保持する学習パターンの数が、所定の値より大きいノードを選択することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
  6. 前記選択手段は、各階層に存在するノードを当該ノードが保持する学習パターンの数の大きい順でソートして、上位N位のノードを選択することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理方法
  7. 学習パターンの集合に含まれる学習パターンを下位のノードに分配していくことにより複数の木構造の辞書を作成する情報処理装置であって、
    学習の過程で作成される木構造の各階層に存在するノードを、少なくとも1つ以上のノードからなる組に分割する分割手段と、
    前記分割されたそれぞれの組において、各ノードが保持する学習パターンの数に基づいてノードを選択する選択手段と、
    前記選択されたノードに分配された学習パターンに対して、実行するクエリを該ノードに対応して作成するクエリ作成手段と、
    前記選択されたノードに分配された学習パターンに対して、該ノードに対応して作成されたクエリを実行し、該クエリの実行結果に基づいて個々の学習パターンを下位のノードへ分配する分配手段とを備え、
    前記クエリ作成手段は、前記分配手段により前記下位のノードに分配される学習パターンが略均等となるようなクエリを作成することを特徴とする情報処理装置。
  8. 前記クエリ作成手段は、前記選択されたノードが保持する学習パターンの次元の分散を求め、該求められた分散に基づいて、クエリを作成することを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
  9. 前記パターン認識の対象となるパターンをルートノードに設定し、前記木構造の辞書を辿りながら各ノードに対応して作成されたクエリを実行することによりパターンの認識を行なう認識手段を更に備えることを特徴とする請求項1または7に記載の情報処理装置。
  10. パターン認識の対象となる対象物体が含まれる学習パターンの集合をルートノードに設定し、該設定した学習パターンの集合に含まれる学習パターンを下位のノードに分配していくことにより複数の木構造の辞書を作成する情報処理方法であって、
    学習の過程で作成される木構造の各階層において、該階層の各ノードが保持する学習パターンの数に基づいてノードを選択する選択ステップと、
    前記選択されたノードに分配された学習パターンに対して、実行するクエリを該ノードに対応して作成するクエリ作成ステップと、
    前記選択されたノードに分配された学習パターンに対して、該ノードに対応して作成されたクエリを実行し、該クエリの実行結果に基づいて個々の学習パターンを下位のノードへ分配する分配ステップとを有し、
    前記クエリ作成ステップは、前記分配ステップにより前記下位のノードに分配される学習パターンが略均等となるようなクエリを作成することを特徴とする情報処理方法。
  11. パターン認識の対象となる対象物体が含まれる学習パターンの集合をルートノードに設定し、該設定した学習パターンの集合に含まれる個々の学習パターンを各ノードに分配していくことにより複数の木構造の辞書を作成する情報処理方法であって、
    学習の過程で作成される木構造の各階層に存在するノードを、少なくとも1つ以上のノードからなる組に分割する分割ステップと、
    前記分割されたそれぞれの組において、各ノードが保持する学習パターンの数に基づいてノードを選択する選択ステップと、
    前記選択されたノードに分配された学習パターンに対して、実行するクエリを該ノードに対応して作成するクエリ作成ステップと、
    前記選択されたノードに分配された学習パターンに対して、該ノードに対応して作成されたクエリを実行し、該クエリの実行結果に基づいて個々の学習パターンを下位のノードへ分配する分配ステップとを備え、
    前記クエリ作成ステップは、前記分配ステップにより前記下位のノードに分配される学習パターンが略均等となるようなクエリを作成することを特徴とする情報処理方法。
  12. 請求項10または11に記載された方法をコンピュータに実行させるためのプログラム。
  13. 請求項12に記載されたプログラムを記憶した、コンピュータが読み取り可能な記憶媒体。
JP2012133629A 2012-06-13 2012-06-13 情報処理装置、その処理方法及びプログラム Expired - Fee Related JP6053341B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012133629A JP6053341B2 (ja) 2012-06-13 2012-06-13 情報処理装置、その処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012133629A JP6053341B2 (ja) 2012-06-13 2012-06-13 情報処理装置、その処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2013257752A true JP2013257752A (ja) 2013-12-26
JP6053341B2 JP6053341B2 (ja) 2016-12-27

Family

ID=49954133

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012133629A Expired - Fee Related JP6053341B2 (ja) 2012-06-13 2012-06-13 情報処理装置、その処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6053341B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019160256A (ja) * 2018-03-16 2019-09-19 株式会社リコー 学習識別装置および学習識別方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002133411A (ja) * 2000-08-17 2002-05-10 Canon Inc 情報処理方法、情報処理装置及びプログラム
JP2012064204A (ja) * 2010-08-18 2012-03-29 Canon Inc 情報処理装置、情報処理方法およびプログラム
JP2012098960A (ja) * 2010-11-02 2012-05-24 Canon Inc 情報処理装置、その処理方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002133411A (ja) * 2000-08-17 2002-05-10 Canon Inc 情報処理方法、情報処理装置及びプログラム
JP2012064204A (ja) * 2010-08-18 2012-03-29 Canon Inc 情報処理装置、情報処理方法およびプログラム
JP2012098960A (ja) * 2010-11-02 2012-05-24 Canon Inc 情報処理装置、その処理方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6016015107; 栗山 繁: 'ランダムフォレスト法を用いた動作検索' 画像ラボ 第22巻 第8号, 20110810, pp.49-53, 日本工業出版株式会社 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019160256A (ja) * 2018-03-16 2019-09-19 株式会社リコー 学習識別装置および学習識別方法
JP7069898B2 (ja) 2018-03-16 2022-05-18 株式会社リコー 学習識別装置および学習識別方法

Also Published As

Publication number Publication date
JP6053341B2 (ja) 2016-12-27

Similar Documents

Publication Publication Date Title
Bianco et al. How far can you get by combining change detection algorithms?
Mishina et al. Boosted random forest
Byerly et al. A branching and merging convolutional network with homogeneous filter capsules
Szegedy et al. Going deeper with convolutions
Shen et al. Attribute weighted mercer kernel based fuzzy clustering algorithm for general non-spherical datasets
CN111079639A (zh) 垃圾图像分类模型构建的方法、装置、设备及存储介质
JP2010204826A (ja) 学習装置及び物体検出装置
CN112651418B (zh) 数据分类方法、分类器训练方法及系统
Wu et al. Improving pedestrian detection with selective gradient self-similarity feature
Devi et al. A Comparative Study on Handwritten Digit Recognizer using Machine Learning Technique
Mondal et al. Mini-batch graphs for robust image classification
Zhou et al. Visualizing and analyzing the topology of neuron activations in deep adversarial training
Nabil et al. An efficient binary clonal selection algorithm with optimum path forest for feature selection
JP6053341B2 (ja) 情報処理装置、その処理方法及びプログラム
Ju et al. Object detection for similar appearance objects based on entropy
JP2007133840A (ja) EMObjectLocalizationusingHaar−likefeature
Polis et al. A Relational Model for One-Shot Classification of Images and Pen Strokes
Martínez et al. Spatio‐temporal multi‐scale motion descriptor from a spatially‐constrained decomposition for online action recognition
JP5719145B2 (ja) 情報処理装置、その処理方法及びプログラム
Lavangnananda et al. Capability of control chart patterns classifiers on various noise levels
Moskovskaya et al. Predicting dataset size for neural network fine-tuning with a given quality in object detection task
Fernandes et al. Pruning optimum-path forest ensembles using quaternion-based optimization
Brehar et al. Local information statistics of lbp and hog for pedestrian detection
Sipper Classy ensemble: A novel ensemble algorithm for classification
Parvin et al. Classification ensemble by genetic algorithms

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161129

R151 Written notification of patent or utility model registration

Ref document number: 6053341

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees