JP5032602B2 - 認識装置 - Google Patents

認識装置 Download PDF

Info

Publication number
JP5032602B2
JP5032602B2 JP2010011425A JP2010011425A JP5032602B2 JP 5032602 B2 JP5032602 B2 JP 5032602B2 JP 2010011425 A JP2010011425 A JP 2010011425A JP 2010011425 A JP2010011425 A JP 2010011425A JP 5032602 B2 JP5032602 B2 JP 5032602B2
Authority
JP
Japan
Prior art keywords
node
memory
decision tree
recognition
nodes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010011425A
Other languages
English (en)
Other versions
JP2011150546A (ja
Inventor
学 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2010011425A priority Critical patent/JP5032602B2/ja
Priority to US13/010,155 priority patent/US8655818B2/en
Publication of JP2011150546A publication Critical patent/JP2011150546A/ja
Application granted granted Critical
Publication of JP5032602B2 publication Critical patent/JP5032602B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Description

本発明は、決定木を利用した認識装置に関する。
入力されたデータを分類する方法に、木構造の決定木を用いる技術がある。決定木とは、入力データを複数の分岐条件(ノード)により木の枝葉のように階層的に分類していき、どのクラスに属するかを認識する手法である。決定木を生成する学習時に学習サンプルに付与されたクラスに分類するための分岐条件を見つけ出すことを再帰的に繰り返すことで、分岐条件をノードとする木構造を作成する方法が提案されている。例えば、特許文献1は、認識処理時にはこの木構造をメモリに読み込み、データを根ノード(最上位ノード)に入力し、分岐条件に応じてノードを遷移し、到達した葉ノード(終端ノード)に応じて分類を決定する方法を開示している。
米国特許7310624号明細書
決定木を使った認識処理ではノード間の遷移が頻繁に発生する。このとき、メモリ上ではそれぞれのノードのデータを読み出すため、距離の離れたアドレスへのアクセスが頻発する。このようなメモリアクセスはプロセッサのキャッシュメモリにヒットする確率を低下させ、結果的に処理速度の低下を引き起こしていた。
上記課題を解決するために、本発明の一態様に係る認識装置は、分類を行う複数のノー
ドを有する決定木を用いて、入力データのクラスを認識する認識装置であって、メモリと
、前記決定木の根ノードからの深さが所定の閾値以下のノードは幅優先の探索順に従った
順番に前記メモリ上に配置し、前記決定木の根ノードからの深さが前記閾値よりも大きい
ノードは深さ優先の探索順に従った順番に前記メモリ上への配置を決定する配置部と、配
置部によって前記メモリ上に配された各ノード用いて前記入力データのクラスを認識する
認識部と、を備え、前記メモリは前記メモリ上に配置された決定木の少なくとも一部を保
持するキャッシュメモリを備え、前記配置部は、前記キャッシュメモリの使用可能な容量
に従って前記閾値を決定することを特徴とする。

決定木を使った認識処理の処理速度を向上させることができる。
第1の実施形態に係わる認識装置のブロック図。 決定木による認識処理の概要を説明する図。 ノードの配置順番の例を示す図。 第1、第2の実施形態の認識装置のフローチャート。 (a)入力される画像データの例(b)認識対象の座標の例。 非終端ノードのデータの例。 終端ノードのデータの例。 第2、3の実施形態の認識装置のブロック図。 第3の実施形態の認識装置のフローチャート。
以下、本発明の実施形態について説明する。なお、互いに同様の動作をする構成や処理には共通の符号を付して、重複する説明は省略する。以下の各実施形態では、入力されるデータが画像データでありその認識結果を出力する認識装置について例示する。なお、入力データは画像データに限定されるものではない。
[第1の実施形態]
決定木の木構造は、ノード(節)と、そこから分岐したリーフ(葉)で示される。ノードは、分岐条件を示す。入力データの認識処理は、そのノードの示す分岐条件に従って次のノード、もしくはリーフへと遷移していく。リーフはこれ以上分岐する必要がない状態を意味し、最終的な分類を意味する。分岐条件には、例えば特徴量ベクトルのインデックス、画像特徴量の閾値の条件式等がある。
図1は、本実施形態の認識装置を示す図である。認識装置は、認識部101と、配置部102と、メモリ103を有する。
認識部101は、入力データ(本実施形態では画像データ)の属するクラスを、決定木を用いた認識処理によって分類し、その識別結果を出力する。
配置部102は、決定木の各ノードのメモリ103上への配置を決定する。決定木はあらかじめ認識部101が保持しており、認識を行う対象や入力データの種類に応じて適宜使用する決定木の選択を行う。配置部102は、認識部101が認識に使用する決定木がをメモリ103に展開する。決定木の根ノードからの深さが所定の閾値T以下のノードは、幅優先の探索順に従った順番にメモリ103上に配置し、決定木の根ノードからの深さが閾値Tよりも大きいノードは深さ優先の探索順に従った順番にメモリ103上へ配置させる。なお、詳細については後述する。
メモリ103は、キャッシュメモリ(図示せず)とメイン・メモリ(図示せず)を有する。認識を行うための決定木の各ノードが、配置部102の定めた配置に従ってメモリ103内に配置される。
図2は、本実施形態の決定木による認識処理の概要を説明する図である。最初の分岐条件となる根ノード(最上位ノード)21から分類を開始する。分岐条件に応じて根ノード21を親ノードとする子ノード22、23のいずれかに遷移する。根ノード21での分岐条件によって、ノード22に遷移した場合はノード22が示す分岐条件に応じて、ノード22を親ノードとする子ノード24、25のいずれかに遷移する。これらの分岐を繰り返していくと、子ノードを持たない末端の葉ノードに達する。最終的な葉ノード30〜33が入力データの属するクラスを示す認識結果となる。根ノード21を深さ0とすると、その子ノード22、23は深さ1である。
次に、配置部102が、認識処理の開始前に決定木の配置を行う方法について説明する。
図2は、閾値Tが2の例について示す。配置部102は、決定木の根ノード21からの深さが所定の閾値T=2以下のノード21〜27を、幅優先の探索順に従った順番でメモリ103上に連続して配置する。幅優先の探索順とは、根ノード21で始まり隣接した同じ階層のノード22、23を探索する。その次に、1つ下の階層のノード24〜27を探索する。また、配置部102は、決定木の根ノード21からの深さが閾値T=2よりも大きいノード28〜33を、深さ優先の探索順に従った順番でメモリ103上へ連続して配置する。深さ優先の探索順とは、探索対象となる最初のノード28から、子のないノード(葉)30に行き着くまで、深く伸びていく探索である。その後はバックトラックして、最も近くの探索の終わっていないノード31まで戻る。
図3に、図2の例の決定木を配置部102が配置した順番の例を示す。根ノード21から始まり、閾値T(=2)以下の深さのノードを幅優先探索に従った順番に並べてある。また、閾値T(=2)よりも深さが大きいノードを深さ優先探索に従った順番に並べてある。なお、幅優先及び深さ優先に従った配置順番とは、幅優先内、又は深さ優先内でノードの順番が多少前後しても構わない。例えば、幅優先内で同じ深さのノード22とノード23の順番が入れ替わったとしても構わない。また、深さ優先内でノード28とノード29の順番が入れ替わったとしても構わない。これらのノードの配置順番によって、距離の近いノードを連続的にアクセスすることができ、二つのノードデータのアドレスの差を縮めることができ、とキャッシュメモリにヒットしやすくなる。
次に、本実施形態の認識装置の動作を説明する。画像データを入力し、その画像が車両でか否かを判定するための決定木を用いる認識処理の一例について以下説明する。この決定木は入力データに対し2クラス(車両クラス、非車両クラス)の認識を行うことになるが、本実施形態に係わる認識装置は2クラスの認識に限定されるものではなく、そのまま3以上のクラスの認識に拡張が可能である。
図5(a)は、入力された画像データの例を示す図である。また、図5(b)は、画像データ中の2つの点a、bの例を示す図である。各ノードで指定された座標(xa, ya)の点aでの輝度と、座標(xb, yb)にある点bでの輝度とを画像データ中から抽出して、その大小比較を繰り返してノードを遷移していくことにより、クラス認識が行われる。
図6は、非終端ノードのデータ構造を示す図である。決定木の非終端ノードは図6のように非終端ノードであることを表すフラグfと、比較する点aと点bの座標値と、点aの輝度の方が大きかった場合に遷移する子ノードのインデックスcaと、点aの輝度の方が小さかった場合に遷移する子ノードのインデックスcbで表される。フラグを1バイト、座標値をそれぞれ1バイト、子ノードのインデックスをそれぞれ4バイトとすると、非終端ノードを表現するためのデータは13バイト必要になる。
図7は、終端ノード(葉ノード)のデータ構造を示す図である。終端ノード(葉ノード)には図7のように、終端であることを表すフラグと、そのノードに到達したデータが属するクラスを表すスコアとして、車両クラスに属する確率s1と、非車両クラスに属する確率s2が記録されている。フラグに1バイト、確率を単精度小数で表すためにそれぞれ4バイト必要だとすると、終端ノードは9バイトで表現できるが、非終端ノードのサイズに合わせた方がメモリ上の取り扱いがしやすい。そのため、使用しないヌルデータ4バイトを追加して13バイトに合わせる。以下の説明では終端・非終端ノードを表現するためのデータをまとめてノードデータと記載する。以下の説明ではそれぞれのノードが二つの子ノードを持つことになるので、決定木全体として二分木になる例について示す。ただし、二分木の木構造に限定されるものではない。決定木を使ってクラス認識を行うにはまず、木構造内の終端・非終端ノードデータの内容を決定する必要がある。これは木の学習または生成と呼ばれる処理であるが、決定木の学習手法については説明を省略する。本実施形態は学習の結果得られる終端・非終端ノードに対し、そのメモリ配置を改善するためのものである。
図4は、本実施形態の認識装置の動作を説明する図である。ST201からST206までは配置部102における動作を表す。また、ST207からST213までは認識部101における動作を表す。なお、配置部102での処理は決定木の学習時に行ってその結果をメモリ103(または、外部のストレージ装置であっても構わない)に保存しておくこともできる。または、メモリ103(または、外部のストレージ装置であっても構わない)に保存された決定木データの読み込み時に実行することも可能である。後者は前者に比べて決定木データの読み込み時の処理が増えることになるが、認識処理を行うハードウェアのスペック、特にキャッシュメモリの容量に合わせてノード配置が行えるという利点がある。どちらのタイミングで配置部の処理を行うかは、実行対象のハードウェアが既に分かっているか、それぞれのハードウェアのスペックにばらつきがあるか、といった条件で決めるべきである。
まず、ST201では、配置部102がノード探索の切り替えのしきい値Tを決める。Tの値は任意に指定することができる。所定の定数であっても構わないが、実行するプロセッサのキャッシュのラインサイズ(キャッシュメモリに格納される単位データの大きさ)がCsのとき、下記式によってTを算出することで認識処理時に読み出すノードデータがキャッシュメモリにヒットして高速に処理できる確率が向上する。
Figure 0005032602
ここで、Nsはノードデータ1つあたりのサイズである。本実施形態で説明している例の場合、Nsは13バイトになる。動作対象となるプロセッサが既に分かっている場合は、決定木データをストレージに保存するときにTを決めてST206までの処理を行って、学習の段階でメモリ配置を改善しておくということができる。一方、対象プロセッサが学習時に確定しておらず、キャッシュメモリに関するスペックにばらつきがあることが分かっている場合は、ST201からST206までを決定木データをストレージ装置から読み込む際に実行することで、それぞれのプロセッサに合わせた効率的なメモリ配置を実現できる。ノードの深さdがT以下であれば幅優先探索順に、この値を超えているノードに対しては深さ優先探索順にノードを並べていく。
次のST202では、配置部102が探索候補ノード集合に根ノード(最上位ノード)のデータとそのスコアを登録する。探索候補ノード集合は次にメモリに配置するノードの候補を集めた領域で、ノードデータとノードのスコアの組が保存されている。このスコアの算出方法をノードの深さで切り替えることにより、幅優先探索と深さ優先探索の二つのノード配置手法を切り替える。ノードnのスコアf(n)は、nの深さ(最上位ノードからノードnまでの距離)がT以下のとき、
Figure 0005032602
Tよりも大きいとき、
Figure 0005032602
で算出する。これらの式のうち、depth(n)はノードnの深さを表す。また、Dmaxは決定木の最大の深さを表す定数である。
決定木の学習時にはノード生成の打ち切り条件として最大の深さが指定されることが多い。Dmaxを決定木の深さによらず十分に大きな値を指定しておいても良い。こうして計算される根ノードのスコアをノードデータとともに探索候補ノード集合に追加する。この探索候補ノード集合によれば、学習時にメモリ103での配置を改善することができる。すなわちST206までの処理を実行しておく場合に、学習でノードの内容を決定した段階でST202の処理を実行する。後述する子ノードを探索候補ノード集合に追加する処理(ST206)の直前にこれらのノードの内容を決定することで、決定木を学習するのと同時にノードのメモリ103上での配置を改善できる。一方、決定木データをメモリ103に読み込む段階で配置を改善する場合には、探索候補ノード集合へノードを追加するときに該当するノードデータをストレージ装置(図示せず)から読み出すようにする。
ST203は条件分岐であり、探索候補ノード集合に要素が残っているかを判断する。決定木中の全てのノードのメモリ103への配置処理が完了した時点で探索候補ノード集合が空になり、ST207以降の処理に進む。まだ要素が残っている場合はST204に進む。
ST204では探索候補ノード集合からスコア最小のノードを抽出する。スコアの算出方法はノードの深さにより二つを切り替えるようになっており、ST204での処理により、深さT以下のノードについては幅優先探索順で、Tよりも大きな深さのノードについては深さ優先探索順でノードを取り出すことになる。取り出したノードをNとする。
ST205では、ST204で抽出したノードNのデータをメモリ103上に配置する。このとき、直前に配置したノードデータの直後にノードNのデータを置くようにする。したがって、メモリ103上では根ノードを先頭として、ST204でのノード抽出順にノードデータが並べられることになる。
ST206ではノードNの子ノードを探索候補ノード集合に追加する。このとき数2、数3で表されるスコアも同様に追加する。前述のとおり、学習時にメモリ配置を改善する場合はこの段階でNの子ノードの内容を決定し、追加するようにすれば良い。一方、決定木データの読み込み時にメモリ配置を改善する場合には、この段階で子ノードのデータをストレージから読み出すようにすれば、メモリ配置の改善に必要なメモリ103の容量を少なく抑えることができる。
ここまでの処理で、決定木の全てのノードについてノードの配置の改善処理が終了したことになる。学習時にここまでの処理を行う場合は、ここまでの処理でメモリ103上に配置されたデータをそのままの順序でストレージ装置に保存し、認識処理を行うときにはストレージ装置から記録された順序でノードデータを読み出し、順序を変えずにメモリ103上に展開してST207以降の処理に進む。
ST207からST213までの処理はブロック図の認識処理部102で行われる処理に該当する。
ST207では、決定木に入力するデータを準備する。この処理は決定木で認識する対象に依存するため、アプリケーションにより処理内容が異なるが、一般的には認識したい対象から特徴量ベクトルを算出する処理が行われる。この説明で用いている決定木の場合だと、画像データを入力し、画像内の二点の輝度値の大小関係を比較して次に遷移する子ノードを決定するので、入力画像から車両かどうかを判定したい領域を切り出して、領域サイズを正規化する、といった処理が行われる。
続くST208ではST207で準備された入力データのクラスを判定すべく、最初にアクセスする根ノードのデータをメモリ103から読み込む。つまり、決定木データの先頭のノードデータを読む。
ST209は読み込んだノードが終端ノードかどうかを判定する。この説明で用いている決定木では、ノードデータに終端・非終端ノードを判定するための1バイトのフラグが付加されているのでこのフラグで判定を行う。この処理で終端ノードに到達していればST212に進む。非終端ノードの場合はST210に進む。
ST210では非終端ノードのノードデータから分岐条件を読み出し、入力データと照合する。そして照合結果に応じて次に遷移するノードを子ノードの中から選択する。この説明で用いている決定木では、分岐条件として点aと点bの座標が記述されており、子ノードとして、点aの輝度の方が大きい場合とそうでない場合の二つのノードのインデックスが記録されている。そのため、入力された画像データから点aと点bの座標の輝度値を読み取り、その値の大小により二つの子ノードのうち一つを選択する、という処理を行うことになる。
ST211ではST210で選択された子ノードを次に遷移するノードとしてメモリ103から読み出す。読み込んだらST209の終端判定に戻る。
一方、終端ノードに到達した場合はST212に進む。ST212では終端ノードのノードデータに保存された、クラスのスコアを入力されたデータの認識結果として出力する。本実施形態の例では、終端ノードに車両クラスと非車両クラスのスコアが保存されているのでこれを出力する。以上により、入力された画像が車両かそうでないかをそれぞれのスコアで出力できたことになる。決定木を一つ用いる場合には、このスコアの大小で車両かどうかを判定することになる。一方、複数の決定木を用いることもでき、このときはそれぞれの決定木が出力したスコアを合計して車両か否かの判定を行う。
ST213ではすべての入力データを認識したかを判定する。画像データの場合だと一枚の画像から複数の領域を切り出して認識処理を実行することが多く、また、それが複数のフレームに及ぶことも多い。このような場合にはST207に戻って同様の認識処理を実行する。一方、認識処理が全て完了した場合は認識処理を終了する。
以上によりメモリ103の配置を改善した決定木での認識処理が可能になる。幅優先探索順でノードを並べた場合、全ての子ノードとのメモリ103上での距離はほぼ同じとなる。しかしながら、ノードの深さが大きくなってくるにつれてその距離は指数関数的に大きくなる。アドレスの離れたメモリアクセスはキャッシュメモリに読み込まれていないため、読み込み処理に時間がかかってしまう。そのため、決定木のノードを全て幅優先探索順で並べると、根ノードに近い部分は親子ノード間の距離が近いのでキャッシュメモリに子ノードのデータが読み込まれる確率が非常に高いが、終端ノードに近付くにつれてキャッシュメモリにデータが蓄えられている確率は指数関数的に減少する。そこで、一定以上の深さのノードについては深さ優先探索順に切り替えてノードを並べている。深さ優先探索順にノードを並べた場合、子ノードのうち一つとは隣り合うようにメモリ103上に並ぶため距離が近く、その他のノードについては遠い位置に配置される。そのため、二分木の決定木の場合、終端に近いノードであっても約50%の確率で隣接したノードデータに遷移することになり、このときのキャッシュメモリへのヒット率は高い。二つの探索手法を組み合わせて使うことにより、根ノードから終端ノードまで全体にわたって、子ノードのデータがキャッシュメモリに蓄えられている確率を一定以下に落とさずに維持できる。このためノード遷移時のキャッシュメモリへのヒット率が高くなり、認識処理を高速化できるという効果が得られる。しかも、メモリ配置を変更することで認識性能に影響を与えることなく高速化でき、決定木を使った処理全体に適用が可能であるという利点がある。実行するプロセッサに合わせて探索手法の切り替えのしきい値Tを適用的に変更できるという利点もある。
[第2の実施形態]
本実施形態の認識装置は、幅優先探索と深さ優先探索の切り替えを遷移確率に応じて行う点が第1の実施形態とは異なる。
図8本実施形態に係わる認識装置のブロック図をに示す。第1の実施形態の認識装置に加えて、非終端ノードにおけるそれぞれの子ノードへの遷移確率を推定するための遷移確率推定部701を備える。処理のフローチャートは図4と同じであるが、一部の処理で遷移確率推定部701を使うようになるため、処理内容が異なる部分について説明する。
第2の実施形態に係わる認識装置ではST202とST206における、ノードのスコアの算出方法が異なる。各ノードのスコアを遷移確率推定部701から出力される子ノードへの遷移確率を加味して算出する。第1の実施形態におけるノードのスコアの算出式は数2、および数3であるが、これがそれぞれ
Figure 0005032602
Figure 0005032602
になる。ここで、prob(n)はノードnの親ノードからノードnに遷移する確率を表す。決定木に入力されうる全てのデータを入力したときのノードnへの遷移確率を求めることはできないため、ノード遷移確率推定部では容易に算出可能な近似値をprob(n)として出力する。
学習の段階でノード配置の改善を行う場合、ノード遷移確率推定部は学習サンプルを決定木に入力したときのサンプルの分岐度合いから遷移確率を推定する。ノードnの親ノードに到達する学習サンプルの数をNp、そのうちノードnに到達するサンプルの数をNcとすると、
Figure 0005032602
をprob(n)の近似値とする。根ノードについては親ノードが存在しないためprob(n)=1とする。
一方、学習した決定木のデータをストレージ装置から読み込むときにノード配置の改善を行う場合、学習サンプルが各ノードに到達する数を保存しておいて、数6でprob(n)を算出することもできるが、さらに認識処理時に入力データが各ノードに到達した数も記録しておいてprob(n)の推定精度を向上させることもできる。学習の段階でノードnの親ノードに到達するサンプル数をNp、そのうちノードnに到達するサンプル数をNc、さらに認識処理時にノードnの親ノードに到達するサンプル数をNp’、ノードnに到達するサンプル数をNc’として、
Figure 0005032602
Np’、Nc’については認識処理時にデータを蓄積しておき、処理終了時に保存しておく。こうすることで、認識装置を再起動するたびにprob(n)の推定に用いるサンプル数が増加することになり、prob(n)の推定精度が向上していくことが期待できる。
以上のようにして計算されるprob(n)をノード配置のスコア算出に含める。これにより、第1の実施形態のスコア算出法ではスコアが同一となっていた同一の親ノードを持つ子ノード集合でスコアの差が付くようになる。すなわち同一の親ノードを持つ子ノード間では遷移確率がより高いノードのスコアが小さくなり、メモリ103上で前の方に並べられるようになる。このことは深さ優先探索順にメモリ配置を行うノードに対して有効に作用する。深さ優先探索順にノードを配置する場合、親ノードpの直後にpの子ノードのうちの1つc1が来る。そのため、pとc1の距離は最小になる。ところが次の子ノードc2はc1の子ノード以下全ての後ろに配置されることになり、pとの距離は非常に遠くなってしまう。つまり、深さ優先探索順に並べるときは直後に並べられる子ノードc1に遷移する際にキャッシュメモリにヒットすると考えてよい。このノードc1に最も遷移確率が高いノードを割り当てることにより、キャッシュにヒットするノード遷移を起こり易くするというのが本実施形態に係わる認識装置の最大の効果である。ノード遷移確率推定部701を追加することにより、探索手法の切り替えに上乗せする形でキャッシュメモリへのヒット率を高めることが可能である。

[第3の実施形態]
本実施形態の認識装置のブロック図は第2の実施形態と同じである。あるノードnの親ノードからの遷移確率を推定するためのノード推定確率推定部701、メモリ103上のノードデータ配置を決定するための配置部702、ノード配置を改善した決定木を使って認識処理を行うための認識処理部703を備える。
図9は、本実施形態の動作を表すフローチャートである。図4のフローチャートと比べると探索方法の切り替えのしきい値Tを決める処理を行わない点が異なる。さらに、ST801、およびST805におけるノードのスコア算出を
Figure 0005032602
を用いて行う。つまり、探索手法の切り替えを行わず、ノード遷移確率を加味した深さ優先探索順にノードをメモリ103上に配置する。第2の実施形態で述べたように遷移確率の高い子ノードからメモリ103上に並べることにより、ノード遷移時のキャッシュメモリへのヒット率を向上させる、という効果が得られる。本実施形態では探索方法の切り替えが発生しないため、実行するプロセッサのスペックに依存して変わるパラメータがない。そのため、同じ決定木をどのプロセッサで動かしても問題がない。深さ優先探索に子ノードの探索順序を決めるルールを追加するだけなので実装しやすい、といった利点もある。
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
また、上記の各実施形態の画像鮮鋭化装置は、例えば、汎用のコンピュータ装置を基本ハードウェアとして用いることでも実現することが可能である。実行されるプログラムは、上述した各機能を含むモジュール構成となっている。プログラムはインストール可能な形式又は実行可能な形式のファイルでCD-ROM、CD−R、DVD等のコンピュータで読み取り可能な記録媒体に記録されて提供しても、ROM等に予め組み込んで提供してもよい。
101・・・認識部、102・・・配置部、103・・・メモリ、701・・・遷移確率推定部

Claims (6)

  1. 分類を行う複数のノードを有する決定木を用いて、入力データのクラスを認識する認識
    装置であって、
    メモリと、
    前記決定木の根ノードからの深さが所定の閾値以下のノードは幅優先の探索順に従った
    順番に前記メモリ上に配置し、前記決定木の根ノードからの深さが前記閾値よりも大きい
    ノードは深さ優先の探索順に従った順番に前記メモリ上への配置を決定する配置部と、
    配置部によって前記メモリ上に配された各ノード用いて前記入力データのクラスを認識
    する認識部と、を備え、
    前記メモリは前記メモリ上に配置された決定木の少なくとも一部を保持するキャッシュ
    メモリを備え、
    前記配置部は、前記キャッシュメモリの使用可能な容量に従って前記閾値を決定するこ
    とを特徴とする認識装置。
  2. 前記配置部は、前記キャッシュメモリの使用可能な容量を前記幅優先のノード全体の容
    量がこえないような前記閾値を求めることを特徴とする請求項記載の認識装置。
  3. 前記配置部は、前記決定木の各ノードを前記メモリ上へ展開する際の配置を認識処理の
    実行直前に行うことを特徴とする、請求項に記載の認識装置。
  4. 前記決定木の各ノードへの親ノードからの遷移確率を推定するノード遷移確率推定部を
    さらに備え、配置部では親ノードが同じノード群に対しては前記遷移確率の高いものから
    優先的にメモリ上に配置することを特徴とする、請求項に記載の認識装置。
  5. 前記ノード遷移確率推定部は、前記認識部による認識処理で前記入力データから各ノー
    ドへの到達数から前記遷移確率を算出することを特徴とする、請求項記載の認識装置。
  6. 前記ノード遷移確率推定部は、前記決定木の学習に使われる学習サンプルの各ノードへ
    の到達数から算出することを特徴とする、請求項記載の認識装置。
JP2010011425A 2010-01-21 2010-01-21 認識装置 Expired - Fee Related JP5032602B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010011425A JP5032602B2 (ja) 2010-01-21 2010-01-21 認識装置
US13/010,155 US8655818B2 (en) 2010-01-21 2011-01-20 Discrimination apparatus and method using a decision tree

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010011425A JP5032602B2 (ja) 2010-01-21 2010-01-21 認識装置

Publications (2)

Publication Number Publication Date
JP2011150546A JP2011150546A (ja) 2011-08-04
JP5032602B2 true JP5032602B2 (ja) 2012-09-26

Family

ID=44278282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010011425A Expired - Fee Related JP5032602B2 (ja) 2010-01-21 2010-01-21 認識装置

Country Status (2)

Country Link
US (1) US8655818B2 (ja)
JP (1) JP5032602B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11354601B2 (en) 2018-03-16 2022-06-07 Ricoh Company, Ltd. Learning classification device and learning classification method
US11475314B2 (en) 2019-03-13 2022-10-18 Ricoh Company, Ltd. Learning device and learning method
US11526803B2 (en) 2018-08-23 2022-12-13 Ricoh Company, Ltd. Learning device and method for implementation of gradient boosted decision trees
US11797884B2 (en) 2019-07-12 2023-10-24 Ricoh Company, Ltd. Learning device and learning method

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6360628B2 (ja) * 2015-06-05 2018-07-18 株式会社日立製作所 情報処理装置およびグラフデータの書き込み装置
WO2017196315A1 (en) * 2016-05-11 2017-11-16 Hitachi, Ltd. Data storage system and process for reducing read and write amplifications
JP7069898B2 (ja) * 2018-03-16 2022-05-18 株式会社リコー 学習識別装置および学習識別方法
JP7040168B2 (ja) * 2018-03-16 2022-03-23 株式会社リコー 学習識別装置および学習識別方法
JP7069897B2 (ja) * 2018-03-16 2022-05-18 株式会社リコー 学習識別装置および学習識別方法
JP7087695B2 (ja) 2018-06-07 2022-06-21 株式会社リコー 学習装置および学習方法
CN109000682B (zh) * 2018-07-27 2020-03-17 中科宇达(北京)科技有限公司 基于直线航迹的空中粗对准的方法
CN109376590A (zh) * 2018-09-07 2019-02-22 百度在线网络技术(北京)有限公司 基于无人车的障碍物分类方法、装置、设备以及存储介质
JP7211020B2 (ja) * 2018-11-05 2023-01-24 株式会社リコー 学習装置および学習方法
US20220197811A1 (en) * 2019-05-03 2022-06-23 University Of Pittsburgh-Of The Commonwealth System Of Higher Education Method and apparatus for replacing data from near to far memory over a slow interconnect for oversubscribed irregular applications

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0464130A (ja) * 1990-07-02 1992-02-28 Ricoh Co Ltd 知識ベース検索システム
US7310624B1 (en) 2000-05-02 2007-12-18 International Business Machines Corporation Methods and apparatus for generating decision trees with discriminants and employing same in data classification
FI118062B (fi) * 2003-04-30 2007-06-15 Nokia Corp Pienimuistinen päätöspuu
WO2009095981A1 (ja) * 2008-01-28 2009-08-06 Turbo Data Laboratories Inc. 表からツリー構造データを構築する方法及び装置
US8473684B2 (en) * 2009-12-22 2013-06-25 International Business Machines Corporation Delayed replacement of cache entries

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11354601B2 (en) 2018-03-16 2022-06-07 Ricoh Company, Ltd. Learning classification device and learning classification method
US11526803B2 (en) 2018-08-23 2022-12-13 Ricoh Company, Ltd. Learning device and method for implementation of gradient boosted decision trees
US11475314B2 (en) 2019-03-13 2022-10-18 Ricoh Company, Ltd. Learning device and learning method
US11797884B2 (en) 2019-07-12 2023-10-24 Ricoh Company, Ltd. Learning device and learning method

Also Published As

Publication number Publication date
US8655818B2 (en) 2014-02-18
US20110178976A1 (en) 2011-07-21
JP2011150546A (ja) 2011-08-04

Similar Documents

Publication Publication Date Title
JP5032602B2 (ja) 認識装置
JP6894058B2 (ja) 危険アドレス識別方法及びコンピュータ可読記憶媒体、並びに電子装置
CN107102981B (zh) 词向量生成方法和装置
US9786272B2 (en) Decoder for searching a digraph and generating a lattice, decoding method, and computer program product
US20150179177A1 (en) Decoder, decoding method, and computer program product
US9275039B2 (en) Information processing device, information processing method and computer program product
JP2013206187A (ja) 情報変換装置、情報検索装置、情報変換方法、情報検索方法、情報変換プログラム、情報検索プログラム
US20150186756A1 (en) Pruning and label selection in hidden markov model-based ocr
US20150178285A1 (en) Search device, search method, and computer program product
CN114860942B (zh) 文本意图分类方法、装置、设备及存储介质
JP4985724B2 (ja) 単語認識プログラム、単語認識方法、単語認識装置
JP5989576B2 (ja) パターン識別装置、パターン識別方法、プログラム、学習装置および学習方法
JP5252596B2 (ja) 文字認識装置、文字認識方法及びプログラム
CN117171331A (zh) 基于大型语言模型的专业领域信息交互方法、装置及设备
US20160321550A1 (en) Lattice finalization device, pattern recognition device, lattice finalization method, and computer program product
JP5980142B2 (ja) 学習データ選択装置、識別的音声認識精度推定装置、学習データ選択方法、識別的音声認識精度推定方法、プログラム
JP2015215390A (ja) 音声認識辞書更新装置、音声認識辞書更新方法、プログラム
JP2021197165A (ja) 情報処理装置、情報処理方法及びコンピュータ読み取り可能な記憶媒体
KR101609422B1 (ko) 사용자 발화의도 추출 방법 및 사용자 발화의도 추출 방법을 수행하는 장치
CN115917527A (zh) 文档检索装置、文档检索系统、文档检索程序、以及文档检索方法
KR102146625B1 (ko) 오토마타 기반 증분적 중위 확률 계산 장치 및 방법
CN112307205A (zh) 基于自动摘要的文本分类方法、系统及计算机存储介质
CN110083679B (zh) 搜索请求的处理方法、装置、电子设备和存储介质
JP2015153240A (ja) パターン認識装置、パターン認識方法およびプログラム
JP4424023B2 (ja) 素片接続型音声合成装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110916

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20111125

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20111205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120601

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120628

R151 Written notification of patent or utility model registration

Ref document number: 5032602

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150706

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees