JP6188147B2 - 認識システム - Google Patents

認識システム Download PDF

Info

Publication number
JP6188147B2
JP6188147B2 JP2013214982A JP2013214982A JP6188147B2 JP 6188147 B2 JP6188147 B2 JP 6188147B2 JP 2013214982 A JP2013214982 A JP 2013214982A JP 2013214982 A JP2013214982 A JP 2013214982A JP 6188147 B2 JP6188147 B2 JP 6188147B2
Authority
JP
Japan
Prior art keywords
distance
feature
recognition system
vector
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013214982A
Other languages
English (en)
Other versions
JP2015079308A (ja
Inventor
ハンスユルゲン マタウシュ
ハンスユルゲン マタウシュ
豊偉 安
豊偉 安
インドラ バグス ウィジャクソノ
インドラ バグス ウィジャクソノ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hiroshima University NUC
Original Assignee
Hiroshima University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hiroshima University NUC filed Critical Hiroshima University NUC
Priority to JP2013214982A priority Critical patent/JP6188147B2/ja
Priority to PCT/JP2014/005185 priority patent/WO2015056436A1/ja
Publication of JP2015079308A publication Critical patent/JP2015079308A/ja
Application granted granted Critical
Publication of JP6188147B2 publication Critical patent/JP6188147B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Description

本発明は、認識システムに関し、特に、ハードウェア処理に適した認識システムに関する。
画像認識や音声認識などの各種認識システムにおいて処理の高速化は共通の課題である。認識処理は、ソフトウェアで実施するよりもハードウェアで実行する方がより高速化することができる。しかし、認識システムをハードウェアに実装するとなると、計算処理上の制約、効率的なリソース利用、消費電力、回路規模などのさまざまな問題を解決しなければならない。
サポートベクターマシン(SVM)は、最も識別能力に優れたクラス分類器の一つとして知られている。しかし、SVMは、通常、ソフトウェアによって実施され、ハードウェア処理には向いていない。SVMをハードウェアに実装しようとすると、学習アルゴリズムを大幅に縮減しなければならなくなるであろう。一方、ハードウェア処理に適したクラス分類手法として最近傍探索(Nearest Neighbor Search)がある(例えば、非特許文献1を参照)。しかし、最近傍探索には、SVMと比べて識別精度が劣るという欠点がある。
T.Chen, S.Chien, "Flexible hardware architecture of hierarchical k-means clustering for large cluster number," IEEE Transactions on VLSI Systems 19(8), 2011, p.1336-1345
単純に最近傍探索の識別精度を上げようとすると計算量が大幅に増大しかねない。計算量の増大は、処理速度の低下や、消費電力および回路規模の増大といった好ましくない結果を招いてしまう。
上記問題に鑑み、本発明は、識別精度に優れ、ハードウェア処理に適した認識システムを提供することを目的とする。
本発明の一局面に従った認識システムは、未知クラスの入力データが共通に与えられ、他と重複しない特徴記述子によって前記入力データの特徴ベクトルを生成し、各クラスタの代表ベクトルのうち前記特徴ベクトルに最近傍の1または複数の代表ベクトルを選出し、前記入力データのクラス分類結果として、該選出した代表ベクトルに対応付けられたクラスラベルを出力する複数の識別分類器と、前記複数の識別分類器からクラス分類結果を受け、これらクラス分類結果の多数決によって前記入力データのクラスを判定する判定部と、を備えている。
これによると、各識別分類器によって未知クラスの入力データが相補的な特徴領域(ドメイン)においてクラス分類され、各ドメインにおけるクラス分類結果が判定部に集約されて最終的に多数決によってクラス判定が行われる。したがって、個々の識別分類器は、計算量を増大させずに識別精度が比較的低いものであっても、それらの識別結果を総合的に評価することで、システム全体としての識別精度を向上させることができる。また、個々の識別分類器で実施される最近傍探索はハードウェア処理に適しているため、識別分類器をハードウェアに実装することは容易である。これにより、システム全体としての認識速度を高速化することができる。
前記複数の識別分類器は、さらに、前記選出した代表ベクトルと前記特徴ベクトルとの距離を出力してもよく、また、前記判定部は、前記複数の識別分類器によるクラス分類結果に前記距離を重み付け加算した重み付き多数決によって前記入力データのクラスを判定してもよい。
前記判定部は、前記多数決が同数となった場合、前記複数の識別分類器から出力されるクラスラベルのうち優先度が最も高いクラスラベルを採用してもよい。
前記複数の識別分類器のそれぞれは、前記入力データから前記特徴ベクトルを生成する特徴抽出部と、前記各クラスタの代表ベクトルを記憶するメモリと、前記特徴ベクトルと前記各クラスタの代表ベクトルとの距離を計算する距離計算回路と、前記距離計算回路によって計算された距離のうち最小のものを探索する最小距離探索回路とを有していてもよい。
前記複数の識別分類器のそれぞれは、複数のサンプルデータを前記特徴抽出部に入力して複数の学習用特徴ベクトルを生成し、それら学習用特徴ベクトルに対してK平均法によりクラスタリングを実施して前記各クラスタの代表ベクトルを生成するものであってもよく、クラスタリングにおいて、前記距離計算回路および前記最小距離探索回路が、各クラスタの重心と各学習用特徴ベクトルとの最短距離の計算に使用されてもよい。
さらに、前記距離計算回路は、前記特徴ベクトルと前記各クラスタの代表ベクトルとが所定数の要素単位で区切られて入力され、パイプライン処理により前記距離を計算してもよい。さらに、前記最小距離探索回路は、閾値よりも小さい距離を探索してもよい。
あるいは、前記複数の識別分類器のそれぞれは、前記入力データから前記特徴ベクトルを生成する特徴抽出部と、前記各クラスタの代表ベクトルを参照データとして記憶しており、前記特徴ベクトルが検索データとして入力され、記憶している参照データの中から前記特徴ベクトルに距離が近いものを選び出す連想メモリとを有していてもよい。
前記複数の識別分類器のそれぞれは、複数のサンプルデータを前記特徴抽出部に入力して複数の学習用特徴ベクトルを生成し、それら学習用特徴ベクトルに対してK平均法によりクラスタリングを実施して前記各クラスタの代表ベクトルを生成するものであってもよく、クラスタリングにおいて、前記連想メモリが、各クラスタの重心と各学習用特徴ベクトルとの最短距離の計算に使用されてもよい。
前記距離が、ユークリッド距離またはユークリッド2乗距離であってもよい。
前記入力データが、画像データであってもよい。
前記複数の識別分類器、および前記判定部が、前記画像データが人の画像であるか否かを判定してもよい。
前記特徴記述子が、HOG(Histograms of Oriented Gradients)およびLBP(Local Binary Pattern)を含み得る。
以上のように、本発明によると、識別精度に優れ、ハードウェア処理に適した認識システムを提供することができる。
本発明の実施形態の一般例に係る認識システムの一般的な構成図 一例に係る識別分類器の構成図 別例に係る識別分類器の構成図 一例に係る距離計算回路および最小距離探索回路の構成図 ベクトルを格納するメモリブロックを模式的に示す図 一例に係るタイミング信号生成回路の構成図 距離計算回路および最小距離探索回路のパイプライン動作のタイミングチャート 具体例に係る認識システムにおける主要部の構成図 学習用特徴ベクトルのクラス分類結果の一例を示すグラフ 判定部における判定処理の例を示すフローチャート
以下、図面を参照しながら本発明を実施するための形態について説明する。なお、本発明は、以下の実施形態に限定されるものではない。
<認識システムの一般例>
図1は、本発明の実施形態の一般例に係る認識システムの構成を示す。一般例に係る認識システム100は、複数の識別分類器10と、判定部20とを備えている。
各識別分類器10は、未知クラスの入力データを受け、入力データのクラスを判定してクラス分類結果を出力する。より詳細には、各識別分類器10は、あらかじめサンプルデータの学習によって所定数のクラスタを生成し、各クラスタの重心(centroid)で定義される代表ベクトル(プロトタイプともいう)を獲得している。各識別分類器10は、所定の特徴記述子(局所記述子、局所特徴記述子ともいう)によって入力データから特徴ベクトルを生成し、特徴ベクトルと各クラスタのプロトタイプとの距離を計算し、特徴ベクトルに最近傍の1または複数のプロトタイプを選出する。各プロトタイプには、クラスラベル、クラスタラベル、およびクラスタの重心位置の各情報が対応付けられている。各識別分類器10は、選出したプロトタイプ(以下、「ウィナー(winner)」と称することがある)に対応付けられたクラスラベルおよびウィナーと特徴ベクトルとの距離(以下、「ウィナー距離」と称することがある)を入力データのクラス分類結果として出力する。
判定部20は、複数の識別分類器10からクラス分類結果を受け、これらクラス分類結果の多数決によって入力データのクラスを判定する。より詳細には、判定部20は、複数の識別分類器10によるクラス分類結果にウィナー距離を重み付けした重み付き多数決によって入力データのクラスを判定する。
ここで重要な点は、複数の識別分類器10に共通の入力データが与えられ、各識別分類器10は、他の識別分類器10と重複しない特徴記述子によって入力データの特徴ベクトルを生成する点である。すなわち、認識システム100は、未知クラスの入力データを相補的な複数の特徴領域(局所特徴領域またはドメインともいう)においてクラス分類し、各ドメインにおけるクラス分類結果を集約して最終的に重み付き多数決によって入力データのクラスを判定する。
次に、識別分類器10の構成について説明する。図2Aは、一例に係る識別分類器10の構成を示す。一例に係る識別分類器10は、メモリ11と、距離計算回路12と、最小距離探索回路13と、特徴抽出部14とを備えている。図2Bは、別例に係る識別分類器10の構成を示す。別例に係る識別分類器10は、特徴抽出部14と、連想メモリ15とを備えている。
特徴抽出部14は、所定の特徴記述子によって、入力データの特徴ベクトルを生成する。ここで、特徴ベクトルの次元数が大きいとベクトル間の距離計算の負荷が大きくなってしまう。そこで、特徴抽出部14は、PCA(Principal Component Analysis)法やPLS(Partial Least Squares)法などを適用して、次元を縮小した特徴ベクトルを扱うようにしてもよい。PCA法やPLS法などによってベクトルの次元が縮小されても、識別分類器10のクラス分類精度は低下しない。
メモリ11は、あらかじめ学習によって獲得したプロトタイプを記憶する記憶装置である。メモリ11は、SRAM(Static Random Access Memory)やDRAM(Dynamic Random Access Memory)などの揮発性メモリおよび/またはフラッシュメモリなどの不揮発性メモリで構成することができる。
連想メモリ15は、あらかじめ学習によって獲得したプロトタイプを参照データとして記憶している。連想メモリ15は、特徴抽出部14によって生成された特徴ベクトルが検索データとして入力され、記憶しているプロトタイプの中から特徴ベクトルとの距離が近いものを選び出す。距離として、例えば、ユークリッド距離またはユークリッド2乗距離を採用することができる。連想メモリ15が最近傍連想メモリの場合、特徴ベクトルと最も距離が近い1個のプロトタイプが選択される。連想メモリ15がk近傍連想メモリの場合、特徴ベクトルと最も距離が近いk個のプロトタイプが選択される。なお、k近傍連想メモリについては、本願発明者による特願2013−154887の明細書などに詳しく記載されている。
メモリ11または連想メモリ15に記憶されるプロトタイプは、複数のサンプルデータを特徴抽出部14に入力して複数の学習用特徴ベクトルを生成し、それら学習用特徴ベクトルに対してクラスタリングを実施することで獲得することができる。
クラスタリングは、K平均法などを用いて実施することができる。例えば、任意の次元の空間においてn個の学習用特徴ベクトルX(i=1,2,…,n)をm個のクラスタに分類するとする。K近傍法によると、次の4つのステップでクラスタリングが実施される。
ステップ1:各学習用特徴ベクトルXに対してランダムにクラスタを割り当てる。
ステップ2:各クラスタの重心(プロトタイプ)P(i=1,2,…,m)を計算する。
ステップ3:各学習用特徴ベクトルXと各プロトタイプPとの距離を計算し、各学習用特徴ベクトルXを最近傍のプロトタイプPのクラスタに割り当る。
ステップ4:各学習用特徴ベクトルXのクラスタの割り当てが変化しなくなるまでステップ2およびステップ3を繰り返す。
上記4つのステップのうち、ステップ3は、図2Aの構成における距離計算回路12および最小距離探索回路13によって、または、図2Bの構成における連想メモリ15によって、それぞれハードウェア処理することができ、それ以外のステップは、図示しない演算処理装置によってソフトウェア処理することができる。このように、距離計算回路12および最小距離探索回路13、または連想メモリ15を使用して、ハードウェアおよびソフトウェアが協働して学習用特徴ベクトルのクラスタリングを実施してプロトタイプを獲得することができる。
距離計算回路12は、特徴ベクトルとプロトタイプとの距離を計算するハードウェアである。距離計算回路12には、メモリ11に記憶されているすべてのプロトタイプが一つずつ順に入力される。最小距離探索回路13は、距離計算回路12によって計算された距離のうち最小のものを探索するハードウェアである。距離計算回路12および最小距離探索回路13は、例えば、FPGA(Field Programmable Gate Array)などに実装することができる。2つのベクトル間の距離としてさまざまなものがあるが、ユークリッド距離を採用することが好ましい。ユークリッド距離は、マンハッタン距離やハミング距離などよりも正確な尺度となり得るからである。特徴ベクトルをF={F,F,…,F}、プロトタイプをP={P,P,…,P}とすると、特徴ベクトルFとプロトタイプPとのユークリッド距離Dは次式(1)で与えられる。ただし、1≦j≦dである。
=√Σ(F−P … (1)
ユークリッド距離の計算には平方根計算が含まれるため、ハードウェアによる処理に向いていない。したがって、次式(2)で与えられるユークリッド2乗距離D を採用する。
=Σ(F−P … (2)
ユークリッド2乗距離だと平方根計算が不要となり、ハードウェアで計算回路を実現しやすくなる。なお、ユークリッド2乗距離を採用してもマンハッタン距離やハミング距離などに対する優位性は失われない。
図3は、距離計算回路12および最小距離探索回路13の構成例を示す。本例に係る距離計算回路12は、特徴ベクトルFとプロトタイプPとのユークリッド2乗距離を計算する回路である。特徴ベクトルFの要素FおよびプロトタイプPの要素Pはいずれも16ビット値であり、距離計算回路12は特徴ベクトルFとプロトタイプPとのユークリッド2乗距離として42ビット値を計算する。
特徴抽出部14およびメモリ11から特徴ベクトルFおよびプロトタイプPが1ワード単位、すなわち、4要素単位で読み出され、距離計算回路12に入力される。第1ステージ(Stage1)において、距離計算回路12に入力された特徴ベクトルFおよびプロトタイプPの各要素は、8個の16ビットレジスタ1201に格納される。第2ステージ(Stage2)において、4個の16ビット減算器1202は、それぞれ、2個の16ビットレジスタ1201の値どうしを減算し、計算結果が4個の16ビットレジスタ1203に格納される。第3ステージ(Stage3)において、4個の16ビット乗算器1204は、それぞれ、4個の16ビットレジスタ1203の値を2乗し、計算結果が4個の32ビットレジスタ1205に格納される。第4ステージ(Stage4)において、2個の32ビット加算器1206は、それぞれ、2個の32ビットレジスタ1205の値を加算し、計算結果が32ビットレジスタ1207に格納される。第5ステージ(Stage5)において、32ビット加算器1208は、2個の32ビットレジスタ1207の値を加算し、計算結果が32ビットレジスタ1209に格納される。第6ステージ(Stage6)において、42ビット加算器1210は、32ビットレジスタ1209の値と、マルチプレクサ1211の出力とを加算し、計算結果が42ビットレジスタ1212に格納される。なお、42ビットレジスタ1212は、距離計算の開始前に、リセット信号resetによって初期化され、保持値が“0”に設定される。
マルチプレクサ1211は、42ビットレジスタ1212の値と“0”が入力され、制御信号Load_cmpに応じてこれらのいずれか一方を出力する。制御信号Load_cmpは、特徴抽出部14およびメモリ11から特徴ベクトルFおよびプロトタイプPの最終ワードの読み出しが完了したことを示すタイミング信号One_sampleを所定量だけ遅延させた信号である。したがって、特徴ベクトルFおよびプロトタイプPの最終ワードの読み出しが完了するまでマルチプレクサ1211から42ビットレジスタ1212の値が出力され、上記の第2ステージから第5ステージまでの計算結果が累積加算される。加算器1210のビット幅を42ビットにしている理由は、このような累積加算によるキャリーオーバーに対応するためである。このように、距離計算回路12は、特徴ベクトルFおよびプロトタイプPの次元が4よりも大きい場合、これらベクトルの要素を4個単位で分割して計算することができる。
図4は、プロトタイプを格納するメモリブロックを模式的に示す。メモリ11において、プロトタイプは、n(ただし、nは整数)ワード分のメモリブロック単位で格納されている。nは、格納されるプロトタイプのサイズに応じて変わり得る。プロトタイプの1要素が16ビット値の場合、1ワード当たりちょうど4個の要素が格納される。したがって、プロトタイプの次元数が4の倍数の場合、メモリブロックはすべてプロトタイプの要素によって埋められる。一方、図4の拡大部分に示したようにプロトタイプの次元数が4の倍数でない場合、メモリブロックの最終ワードにおいてプロトタイプの要素が存在しない部分は“0”で埋めるようにする。値“0”がプロトタイプの要素として距離計算回路12に入力されても計算結果に何ら影響はない。このように、認識システム100は、ハードウェアによって任意の次元のベクトル間のユークリッド2乗距離を計算することができる。
図5は、タイミング信号One_sampleの生成回路の構成例を示す。カウンタ回路15は、クロック信号CLKに同期して初期値からカウントアップする。なお、カウンタ回路15は、距離計算の開始前に、リセット信号resetによって初期化され、保持値が“0”に設定される。比較器16は、カウンタ回路15の値とベクトルのサイズを表す値Onesampe_defが入力され、これらが一致するとき、“1”を出力し、それ以外は“0”を出力する。比較器16の出力がタイミング信号One_sampleである。値Onesampe_defは、上述したように、メモリ11においてプロトタイプが格納されるメモリブロックのワード数nを表す。例えば、プロトタイプが11次元の場合、値Onesampe_defは“3”であり、プロトタイプが20次元の場合、値Onesampe_defは“5”である。カウンタ回路15の値Addr_prtは、各メモリブロックにおけるワードのリードアドレスとして使用される。すなわち、値Addr_prtが“0”のとき、プロトタイプの先頭ワードが読み出され、値Addr_prtが“n−1”のとき、プロトタイプの最終ワードが読み出される。
図3へ戻り、最小距離検索回路13において、42ビットレジスタ131は、距離計算の開始前に、リセット信号resetによって初期化され、制御信号Load_cmpが入力されたタイミングで42ビットレジスタ1212の値を格納する。制御信号Load_cmpが“1”となることで最小距離の検索が開始される。42ビットレジスタ132は、検索して得られた42ビット値の最小距離、すなわち、ウィナー距離を格納するレジスタである。42ビットレジスタ131は、距離計算の開始前に、リセット信号resetによって初期化され、制御信号Load_minが入力されたタイミングで42ビットレジスタ131の値を格納する。制御信号Load_minは、新たな最小距離が見つかったときに“1”となる信号である。
マルチプレクサ133は、42ビットレジスタ132の値と閾値Radiusとが入力され、制御信号1NN/RNNに応じてこれらのいずれか一方を出力する。閾値Radiusは、後述するように、最近傍探索(Nearest Neighbor Search)において探索範囲を制限するための閾値である。42ビット比較器134は、42ビットレジスタ131の値Aとマルチプレクサ133の出力Bが入力され、これらの大小を比較し、A<Bのとき、すなわち、新たな最小距離が見つかったときに“1”を出力し、それ以外は“0”を出力する。ANDゲート135は、42ビット比較器134の出力と、制御信号Load_cmpを保持するフリップフロップ136の出力との論理積を演算する。ANDゲート135の出力が制御信号Load_minである。新たな最小距離が見つかったとき、制御信号Load_minは“1”となる。レジスタ137は、特徴ベクトルFとの距離が最小となるプロトタイプP、すなわち、ウィナーのアドレスを格納するレジスタである。レジスタ137は、制御信号Load_minが入力されたタイミングでプロトタイプPのアドレスP_Addrを格納する。
なお、レジスタ132および137を、複数のデータを記憶可能なスタックメモリに置き換えてもよい。スタックメモリを使用することで、最小距離探索回路13において複数のウィナーおよびウィナー距離を保持することができ、識別分類器10が特徴ベクトルに最近傍の複数のプロトタイプを選出できるようになる。
上記構成の距離計算回路12の第1ステージから第6ステージの各ステージおよび最小距離探索回路13は、パイプライン動作が可能である。図6は、32次元の特徴ベクトルFおよびプロトタイプPが入力された場合における、距離計算回路12および最小距離探索回路13のパイプライン動作のタイミングチャートである。1クロックごとに値Addr_prtがインクリメントされて特徴抽出部14およびメモリ11から特徴ベクトルFおよびプロトタイプPの次のワードが距離計算回路12へ入力され、前ステージの計算結果が次ステージへ渡される。そして、15クロックで、32次元のベクトル間の距離計算および最小距離の探索を完了することができる。
以上のように、本実施形態によると、未知クラスの入力データが各識別分類器10によって相補的な特徴領域(ドメイン)においてクラス分類され、各ドメインにおけるクラス分類結果が判定部20に集約されて最終的に多数決によってクラス判定が行われる。したがって、個々の識別分類器10は、計算量を増大させずに識別精度が比較的低いものであっても、それらの識別結果を総合的に評価することで、システム全体としての識別精度を向上させることができる。また、個々の識別分類器10で実施される最近傍探索はハードウェア処理に適しているため、識別分類器10をハードウェアに実装することは容易である。これにより、システム全体としての認識速度を高速化することができる。
なお、図3の距離計算回路12ではベクトルが4要素単位で区切られてパイプライン処理されるが、各ステージにおけるレジスタの個数を増やすことで、一度に処理可能なベクトルの要素数を増やすことができる。これにより、ベクトル間の距離計算をより短時間で完了することができる。あるいは、ベクトルの次元数よりも十分に多い数のレジスタを設けてベクトルの全要素を一度に処理するようにしてもよい。これにより、ベクトル間の距離計算を最小時間で完了することができる。
また、特徴抽出部14が生成した特徴ベクトルをメモリ11に一時的に記憶させてもよい。この場合、距離計算回路12は、メモリ11から特徴ベクトルおよびプロトタイプを読み出し、これらベクトル間の距離を計算する。
<認識システムの一例>
次に、本発明の実施形態の一例に係る認識システムについて説明する。図7は、本発明の実施形態の一例に係る認識システム10における主要部の構成を示す。一例に係る認識システム10は、入力された画像データが人の画像であるか否かを認識するシステムである。認識システム10は、入力された画像データからエッジ特徴量およびテクスチャ特徴量を抽出し、エッジドメインおよびテクスチャドメインの両観点から、入力された画像データが人の画像であるか(クラス1)、または、人の画像でないか(クラス2)を相補的に判定し、各ドメインにおけるクラス判定結果を総合的に評価して、入力された画像データのクラスを最終的に決定する。
具体的には、認識システム10は、2個の識別分類器10_1および10_2と、判定部20とを備えている。識別分類器10_1は、特徴記述子としてHOG(Histograms of Oriented Gradients)を用いる。周知のように、HOG特徴量を用いることで画像データからエッジ特徴量を抽出することができる。したがって、識別分類器10_1は、特徴ベクトルとしてエッジ特徴量を用いる。一方、識別分類器10_2は、特徴記述子としてLBP(Local Binary Pattern)を用いる。周知のように、LBP特徴量を用いることで画像データからテクスチャ(texture)特徴量を抽出することができる。したがって、識別分類器10_2は、特徴ベクトルとしてテクスチャ特徴量を用いる。
識別分類器10_1および10_2は、サンプルデータの学習によって複数のプロトタイプを生成し、それら複数のプロトタイプは、2つのクラス1またはクラス2のいずれかに対応付けられる。すなわち、識別分類器10_1および10_2は、マルチプロトタイプの分類器である。識別分類器10_1および10_2において、特徴ベクトル空間は、クラス1およびクラス2に対応する2つのボロノイセルに分割され、各ボロノイセルには1または複数のプロトタイプが含まれている。識別分類器10_1および10_2は、特徴ベクトルに最近傍のプロトタイプを見つけ、そのプロトタイプを含むボロノイセルに対応するクラスを、入力された画像データのクラスとして判定する。
識別分類器10_1および10_2は、最近傍探索により、入力データから生成した特徴ベクトルに最近傍のプロトタイプ(ウィナー)を見つける。ここで、特徴ベクトルとウィナーとの距離(ウィナー距離)が小さいほど、その入力データのクラス分類結果の信頼度は高い。逆に言うと、ウィナー距離が大きいほど、入力データのクラス分類結果の信頼度は低い。そこで、より高い信頼度のクラス分類結果が得られるように、識別分類器10_1および10_2において最近傍探索の探索範囲を制限するための閾値を設けてもよい。
図8は、学習用特徴ベクトルのクラス分類結果の一例を示す。学習用特徴ベクトルには、人の画像のサンプルデータから抽出した特徴量、および人以外の画像のサンプルデータから抽出した特徴量の2種類が含まれる。そのような学習用特徴ベクトルについて、クラス1のプロトタイプとのウィナー距離と度数との関係をグラフ化すると図8に示したようになる。すなわち、ウィナー距離が小さい学習用特徴ベクトルはクラス1に分類される傾向にあり、ウィナー距離が大きい学習用特徴ベクトルはクラス2に分類される傾向にあり、その分布は一部重なり合っている。しかし、ウィナー距離がある値以上になると、もはや学習用特徴ベクトルはクラス1に分類されることなく、すべてクラス2に分類されるようになる。そして、そのようなウィナー距離の上限値を、最小距離探索回路13における閾値Radius(図3を参照)として設定することができる。
入力された画像データが人の画像であるか否かを認識するシステムでは、人の画像であるというポジティブな判定よりも、人の画像でないというネガティブな判定の方が重視される場合がある。そこで、そのような場合には、判定部20は、クラス1よりもクラス2の優先度を高めて、入力された画像データの判定を行うことができる。
図9は、判定部20における判定処理の例を示すフローチャートである。まず、判定部20は、各識別分類器10_1および10_2からクラス分類結果とウィナー距離を取得する(S1)。そして、判定部20は、クラス分類結果を比較し、両者が一致すれば(S2でYES)、ステップS1で取得したクラス分類結果を最終判定結果として出力する(S4)。一方、クラス分類結果が不一致ならば(S2でNO)、判定部20は、優先度が高いクラス分類結果(この場合、人の画像ではないというクラス2)を採用し、それを最終判定結果として出力する(S4)。
なお、ステップS1において、各識別分類器10_1および10_2から取得したクラス分類結果に各ウィナー距離を重み付けしてもよい。この場合、ステップS2において、クラス分類結果が不一致であっても、クラス1のウィナー距離が小さく、それに比べてクラス2のウィナー距離が大きければ、判定部20は、優先度の高いクラス2ではなく、よりウィナー距離の小さい、すなわち、より信頼度が高いクラス1を採用することができる。
特徴記述子は、HOGおよびLBPに限定されない。それ以外に、SIFT(Scale Invariant Feature Transform)、SURF(Speeded Up Robust Features)、Fern、Haarなどの特徴記述子が使用可能である。
本発明の実施形態の一例として、入力された画像が人の画像であるか否かを認識する認識システム10について説明したが、入力データは画像データに限定されない。本発明に係る認識システムは、画像データ以外にも、音声データ、テキストデータなどの任意の種類のデータについて認識可能である。例えば、認識システム100を、入力された音声データが特定人物の音声であるか否かを認識するシステムに変形することは容易である。
100 認識システム
10,10_1,10_2 識別分類器
11 メモリ
12 距離計算回路
13 最小距離探索回路
14 特徴抽出部
15 連想メモリ
20 判定部

Claims (12)

  1. 未知クラスの入力データが共通に与えられ、他と重複しない特徴記述子によって前記入力データの特徴ベクトルを生成し、各クラスタの代表ベクトルのうち前記特徴ベクトルに最近傍の1または複数の代表ベクトルを選出し、前記入力データのクラス分類結果として、該選出した代表ベクトルに対応付けられたクラスラベルを出力する複数の識別分類器と、
    前記複数の識別分類器からクラス分類結果を受け、これらクラス分類結果の多数決によって前記入力データのクラスを判定する判定部と、を備えている認識システムであって、
    前記複数の識別分類器は、さらに、前記選出した代表ベクトルと前記特徴ベクトルとの距離を出力するものであり、
    前記判定部は、前記複数の識別分類器によるクラス分類結果に前記距離を重み付け加算した重み付き多数決によって前記入力データのクラスを判定する、認識システム。
  2. 前記判定部は、前記多数決が同数となった場合、前記複数の識別分類器から出力されるクラスラベルのうち優先度が最も高いクラスラベルを採用する、請求項1に記載の認識システム。
  3. 前記複数の識別分類器のそれぞれは、前記入力データから前記特徴ベクトルを生成する特徴抽出部と、前記各クラスタの代表ベクトルを記憶するメモリと、前記特徴ベクトルと前記各クラスタの代表ベクトルとの距離を計算する距離計算回路と、前記距離計算回路によって計算された距離のうち最小のものを探索する最小距離探索回路とを有する、請求項1または請求項2に記載の認識システム。
  4. 前記複数の識別分類器のそれぞれは、複数のサンプルデータを前記特徴抽出部に入力して複数の学習用特徴ベクトルを生成し、それら学習用特徴ベクトルに対してK平均法によりクラスタリングを実施して前記各クラスタの代表ベクトルを生成するものであり、
    クラスタリングにおいて、前記距離計算回路および前記最小距離探索回路が、各クラスタの重心と各学習用特徴ベクトルとの最短距離の計算に使用される、請求項に記載の認識システム。
  5. 前記距離計算回路は、前記特徴ベクトルと前記各クラスタの代表ベクトルとが所定数の要素単位で区切られて入力され、パイプライン処理により前記距離を計算する、請求項または請求項に記載の認識システム。
  6. 前記最小距離探索回路は、閾値よりも小さい距離を探索する、請求項からのいずれかに記載の認識システム。
  7. 前記複数の識別分類器のそれぞれは、前記入力データから前記特徴ベクトルを生成する特徴抽出部と、前記各クラスタの代表ベクトルを参照データとして記憶しており、前記特徴ベクトルが検索データとして入力され、記憶している参照データの中から前記特徴ベクトルに距離が近いものを選び出す連想メモリとを有する、請求項1または請求項2に記載の認識システム。
  8. 前記複数の識別分類器のそれぞれは、複数のサンプルデータを前記特徴抽出部に入力して複数の学習用特徴ベクトルを生成し、それら学習用特徴ベクトルに対してK平均法によりクラスタリングを実施して前記各クラスタの代表ベクトルを生成するものであり、
    クラスタリングにおいて、前記連想メモリが、各クラスタの重心と各学習用特徴ベクトルとの最短距離の計算に使用される、請求項に記載の認識システム。
  9. 前記距離が、ユークリッド距離またはユークリッド2乗距離である、請求項1からのいずれかに記載の認識システム。
  10. 前記入力データが、画像データである、請求項1からのいずれかに記載の認識システム。
  11. 前記複数の識別分類器、および前記判定部が、前記画像データが人の画像であるか否かを判定する、請求項10に記載の認識システム。
  12. 前記特徴記述子が、HOG(Histograms of Oriented Gradients)およびLBP(Local Binary Pattern)を含む、請求項10または請求項11に記載の認識システム。
JP2013214982A 2013-10-15 2013-10-15 認識システム Expired - Fee Related JP6188147B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013214982A JP6188147B2 (ja) 2013-10-15 2013-10-15 認識システム
PCT/JP2014/005185 WO2015056436A1 (ja) 2013-10-15 2014-10-10 認識システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013214982A JP6188147B2 (ja) 2013-10-15 2013-10-15 認識システム

Publications (2)

Publication Number Publication Date
JP2015079308A JP2015079308A (ja) 2015-04-23
JP6188147B2 true JP6188147B2 (ja) 2017-08-30

Family

ID=52827893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013214982A Expired - Fee Related JP6188147B2 (ja) 2013-10-15 2013-10-15 認識システム

Country Status (2)

Country Link
JP (1) JP6188147B2 (ja)
WO (1) WO2015056436A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6539459B2 (ja) * 2015-02-24 2019-07-03 国立大学法人広島大学 Lvqニューラルネットワーク
JP6586026B2 (ja) * 2016-02-12 2019-10-02 日本電信電話株式会社 単語ベクトル学習装置、自然言語処理装置、方法、及びプログラム
JP6418211B2 (ja) * 2016-09-15 2018-11-07 オムロン株式会社 識別情報付与システム、識別情報付与装置、識別情報付与方法及びプログラム
CN107766822A (zh) * 2017-10-23 2018-03-06 平安科技(深圳)有限公司 电子装置、人脸图像聚类搜索方法和计算机可读存储介质
US20220036140A1 (en) * 2018-09-26 2022-02-03 Riken Classification device, classification method, program, and information recording medium
JP7123306B2 (ja) * 2018-11-07 2022-08-23 オムロン株式会社 画像処理装置及び画像処理方法
KR101981202B1 (ko) * 2018-12-11 2019-05-22 메디컬아이피 주식회사 의료영상 재구성 방법 및 그 장치
WO2020194509A1 (ja) * 2019-03-26 2020-10-01 三菱電機株式会社 信頼性評価装置および信頼性評価方法
KR102192795B1 (ko) * 2019-07-01 2020-12-18 한국과학기술원 기계 학습 데이터 레이블을 제3자 집단이 투표로 결정하고 보상을 블록체인에 기록하는 방법 및 장치
JP2022133491A (ja) * 2019-08-06 2022-09-14 学校法人明星学苑 圧縮データ検索エンジンを用いた情報処理装置およびその情報処理方法
US11138477B2 (en) * 2019-08-15 2021-10-05 Collibra Nv Classification of data using aggregated information from multiple classification modules
JP7385417B2 (ja) * 2019-10-11 2023-11-22 日立造船株式会社 情報処理装置、情報処理方法、および情報処理プログラム
JP7492489B2 (ja) * 2021-06-10 2024-05-29 Lineヤフー株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
JP7315623B2 (ja) * 2021-06-17 2023-07-26 ヤフー株式会社 情報処理装置、情報処理方法、及び情報処理プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0764793A (ja) * 1993-08-30 1995-03-10 Nippon Telegr & Teleph Corp <Ntt> 多数決型クラスタリング装置
JP2000298995A (ja) * 1999-04-13 2000-10-24 Sony Corp アナログ連想メモリ及びアナログ演算素子
US8335683B2 (en) * 2003-01-23 2012-12-18 Microsoft Corporation System for using statistical classifiers for spoken language understanding
JP5106356B2 (ja) * 2008-11-17 2012-12-26 セコム株式会社 画像監視装置
JP5588165B2 (ja) * 2009-12-24 2014-09-10 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP5616310B2 (ja) * 2011-09-27 2014-10-29 日本電信電話株式会社 画像マッチング装置及び画像マッチングプログラム

Also Published As

Publication number Publication date
JP2015079308A (ja) 2015-04-23
WO2015056436A1 (ja) 2015-04-23

Similar Documents

Publication Publication Date Title
JP6188147B2 (ja) 認識システム
Kim et al. Orchard: Visual object recognition accelerator based on approximate in-memory processing
Lin et al. Fast supervised hashing with decision trees for high-dimensional data
Zhu et al. Sparse hashing for fast multimedia search
US10657183B2 (en) Information processing apparatus, similarity search program, and similarity search method
Wang et al. Binary codes embedding for fast image tagging with incomplete labels
CN110046634B (zh) 聚类结果的解释方法和装置
JP6203077B2 (ja) 学習装置、密度計測装置、学習方法、学習プログラム、及び密度計測システム
Zografos et al. Discriminative subspace clustering
US10373028B2 (en) Pattern recognition device, pattern recognition method, and computer program product
JP6004015B2 (ja) 学習方法、情報処理装置および学習プログラム
Li et al. SDE: A novel clustering framework based on sparsity-density entropy
TWI711934B (zh) 嵌入結果的解釋方法和裝置
Lopez et al. A clinical decision support tool to detect invasive ductal carcinoma in histopathological images using support vector machines, Naïve-Bayes, and K-nearest neighbor classifiers
Tang et al. Robust subspace learning-based low-rank representation for manifold clustering
Zhang et al. Code consistent hashing based on information-theoretic criterion
JP5959446B2 (ja) コンテンツをバイナリ特徴ベクトルの集合で表現することによって高速に検索する検索装置、プログラム及び方法
JP6004014B2 (ja) 学習方法、情報変換装置および学習プログラム
Morán et al. Soc kohonen maps based on stochastic computing
Weng et al. Random VLAD based deep hashing for efficient image retrieval
JP6235368B2 (ja) パターン認識装置、パターン認識方法およびプログラム
Tan et al. Dense invariant feature based support vector ranking for person re-identification
JP6663323B2 (ja) データ処理方法、データ処理装置、及びプログラム
An et al. A coprocessor for clock-mapping-based nearest Euclidean distance search with feature vector dimension adaptability
Karaca et al. Comparative evaluation of vector machine based hyperspectral classification methods

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170728

R150 Certificate of patent or registration of utility model

Ref document number: 6188147

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees