WO2010090189A1 - パターン認識装置、パターン認識方法およびパターン認識プログラム - Google Patents

パターン認識装置、パターン認識方法およびパターン認識プログラム Download PDF

Info

Publication number
WO2010090189A1
WO2010090189A1 PCT/JP2010/051444 JP2010051444W WO2010090189A1 WO 2010090189 A1 WO2010090189 A1 WO 2010090189A1 JP 2010051444 W JP2010051444 W JP 2010051444W WO 2010090189 A1 WO2010090189 A1 WO 2010090189A1
Authority
WO
WIPO (PCT)
Prior art keywords
feature
class
reference vector
dimensional
vector
Prior art date
Application number
PCT/JP2010/051444
Other languages
English (en)
French (fr)
Inventor
佐藤 敦
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US13/147,451 priority Critical patent/US8612370B2/en
Priority to JP2010549476A priority patent/JP5408143B2/ja
Publication of WO2010090189A1 publication Critical patent/WO2010090189A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation

Definitions

  • Non-Patent Document 1 (Ishii et al., “Easy-to-understand pattern recognition”, Ohm Publishing Co., Ltd., August 20, 1998, pp. 2-3), Patent Document 1 (Japanese Patent Laid-Open No. 2002-259911). 14; FIG. 1) and Non-Patent Document 2 (Toriwaki, “Recognition Engineering: Pattern Recognition and its Applications”, Television Society Textbook Series 9, Corona, March 15, 1993, pp. 153 -154).
  • an object of the present invention is to provide a pattern recognition apparatus, a pattern recognition method, and a pattern recognition program capable of performing pattern recognition with high accuracy even on a vector after feature selection.
  • the feature selection table creation unit creates the feature selection table by associating each of the m features with priorities one by one in order of priority.
  • the recognition dictionary creation unit has a loss R indicating a risk that the input data is identified as a different class when each feature is associated with the p-th priority (p is an integer of 0 or more).
  • An additional feature associated with the (p + 1) th priority and a (p + 1) -dimensional reference vector having (p + 1) features are determined so as to be minimized. The determined additional feature is notified to the feature selection table creation unit, and the recognition dictionary is created based on the determined (p + 1) -dimensional reference vector.
  • a pattern recognition apparatus capable of performing pattern recognition with high accuracy even on a vector after a feature is selected.
  • FIG. 4 is a conceptual diagram showing the feature selection table 6.
  • the feature selection table 6 is a table showing the priority order when selecting features.
  • the feature selection table 6 shows a plurality of priorities associated with a plurality of features. Specifically, the feature selection table 6 describes the correspondence between the feature number for identifying each feature and each priority.
  • the feature extraction unit 2 extracts n features from the input data, and generates a vector having n features (n-dimensional feature vector). For example, when the input data is image data, the feature extraction unit 2 converts the image data into a monochrome grayscale image, divides the monochrome grayscale image into a plurality of 10 ⁇ 10 horizontal regions, The average of the luminance values is obtained in each. Thereby, a 100-dimensional feature vector is obtained.
  • the identification unit 4 identifies the class to which the m-dimensional feature vector belongs by referring to the recognition dictionary 9.
  • the result output unit 5 outputs the identification result in the identification unit 4 to an output device such as a display device (for example, a display).
  • a display device for example, a display
  • the feature selection table creation unit 7 creates the feature selection table 6.
  • FIG. 5 is a flowchart showing the operation at the time of identification.
  • the feature selection unit 5 performs dimension reduction based on the feature selection table 6. At this time, the feature selection unit 5 only needs to select m features from the n-dimensional feature vector according to the priority order. That is, among n features in the n-dimensional feature vector, the number of features used for processing is m, so that the amount of calculation at the time of feature selection can be reduced.
  • the feature selection table 6 and the identification dictionary 9 must be created accurately. Therefore, in the present embodiment, a device has been devised for the processing when the feature selection table 6 and the recognition dictionary 9 are created.
  • FIG. 6 is a flowchart schematically showing the operation during learning.
  • Step S2 Reading Input Data
  • the data input unit 1 reads each of a plurality of learning data as input data.
  • the feature selection table 6 and the recognition dictionary 9 are created by the operations in steps S1 to S9 described above.
  • the feature selection table 6 is created by adding additional features one by one in order of priority.
  • the additional feature is determined so that the loss R is minimized.
  • the recognition dictionary 9 is corrected based on the (p + 1) -dimensional reference vector. If the feature selection table 6 and the recognition dictionary 9 created in this way are used, m features are always selected so that the loss R is minimized.
  • the element value of the m-dimensional reference vector used for identification is set to a value that minimizes the loss R in the m dimension. That is, the priority order described in the feature selection table 6 and the reference vector included in the recognition dictionary 9 are optimized in the dimension (m dimension) after feature selection. Therefore, at the time of identification, it is possible to perform the identification with high accuracy while suppressing the calculation amount.
  • step S5 the recognition dictionary creation unit 8 calculates the loss R when the additional feature candidate is added to the (p + 1) -th priority by the loss calculation unit 83.
  • the additional feature candidate is selected by the additional feature candidate selecting unit 82 from a feature group (hereinafter referred to as an additional candidate feature group) whose priority order is not determined among the n features.
  • the reference vector candidate setting unit 81 calculates the loss R while changing the (p + 1) -dimensional reference vector candidates of each class. That is, the loss calculation unit 83 calculates the loss R for each of all combinations of additional feature candidates and (p + 1) -dimensional reference vector candidates.
  • the determination unit 84 obtains (searches for) a combination of the additional feature vector candidate and the reference vector candidate that minimizes the loss R.
  • the determining unit 84 corrects the identification dictionary 9 based on the (p + 1) -dimensional reference vector candidate as a search result. Further, the additional feature candidate of the search result is determined as the additional feature. At this time, the determination unit 84 searches for the optimum element value for each of all the features (p + 1 features) in the (p + 1) -dimensional reference vector candidates.
  • the determination unit 84 searches for a combination having the smallest loss R among the combinations.
  • the determination unit 84 notifies the feature selection table creation unit 7 of additional feature candidates that are the search results as additional features.
  • the feature selection table creation unit 7 corrects the feature selection table 6 by associating the notified additional feature with the (p + 1) th priority. Further, the determination unit 84 corrects (creates) the recognition dictionary 9 based on the (p + 1) -dimensional reference vector candidate that is the result of the search.
  • FIG. 14 shows an example in which a feature value f 2 having the second highest priority is added.
  • the reference vector values (y 1 [1] and y 2 [1]) for the feature with the first priority are not changed.
  • the reference vector values (y 1 [2] and y 2 [2]) for the feature having the second priority are the positions of y 1 [1] and y 2 [1] (“black circle” in FIG. 14). It is set on a line extending from the indicated position. Further, the position where the FRR relating to class 1 is equal to or less than the target value FRR * and the loss is minimum (the position indicated by x) is obtained, and the identification plane is set at the position indicated by the broken line.

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

特徴選択表を用いて特徴選択を行うパターン認識装置において、n次元特徴ベクトルをm次元特徴ベクトル(m<n)に低次元化しても、高い認識性能を実現できるようにする。特徴選択表を作成する特徴選択表作成部を具備し、前記特徴選択表作成部は、前記特徴選択表にp(pは0以上の整数)番目の優先順位までの特徴が記載されているときに、前記n個の特徴のうちで優先順位が対応付けられていない追加特徴候補群のなかから選ばれる追加特徴を、(p+1)番目の優先順位として追加することによって、前記特徴選択表を作成し、認識辞書作成部は、前記(p+1)番目の優先順位として追加される前記追加特徴と、(p+1)個の特徴を有する(p+1)次元の参照ベクトルとを、前記入力データが異なるクラスに識別される危険度を示す損失Rが最小となるように決定し、決定した前記追加特徴を前記特徴選択表作成部に通知するとともに、前記(p+1)次元参照ベクトルに基づいて認識辞書を作成する。

Description

パターン認識装置、パターン認識方法およびパターン認識プログラム
 本発明は、パターン認識装置、パターン認識方法およびパターン認識用プログラムに関する。
 パターン認識装置の一例が、非特許文献1(石井ら著、「わかりやすいパターン認識」、オーム社出版局、1998年8月20日、pp.2-3)、特許文献1(特開2002-259911号公報;第14頁、図1)、及び非特許文献2(鳥脇著「認識工学-パターン認識とその応用-」テレビジョン学会教科書シリーズ9、コロナ社、1993年3月15日、pp.153-154)に記載されている。
 図1は、非特許文献1に記載されたパターン認識装置のブロック図である。このパターン認識装置は、前処理部101と、特徴抽出部102と、識別演算部103と、認識辞書104とを備えている。このパターン認識装置では、入力パターンが、前処理部101により前処理される。前処理されたパターンから、特徴抽出部102により、識別に必要な本質的な特徴のみが抽出される。識別演算部103は、特徴抽出部102で抽出された特徴を、識別辞書104と照合することにより、入力パターンが所属するクラスを出力する。
 精度良く認識を行う為には、入力パターンからどのような特徴を抽出するかが重要である。
 関連して、特許文献1には、より少ない次元数の特徴で高い認識精度を実現可能なパターン認識装置を提供することを目的とした技術が記載されている。図2は、特許文献1に記載されたパターン認識装置を示すブロック図である。このパターン認識装置は、データ入力部201と、特徴抽出部202と、特徴選択部203と、特徴選択辞書204と、特徴選択辞書修正部205と、認識辞書修正部206と、認識辞書207と、識別部208と、結果出力部209とを備えている。特徴抽出部202は、入力パターン又は学習パターンからn次元特徴を抽出する。特徴選択部203は、非線形関数によってn次元特徴からh次元特徴を選択する第1次特徴変換部と、線形関数もしくは非線形関数によってh次元特徴からm次元特徴を選択する第2次特徴変換部とからなる。認識辞書204はm次元参照パターンの集合からなる。識別部208は、m次元参照パターンと入力パターンのm次元特徴とを照合して入力パターンの認識結果を出力する。認識辞書修正部206は、辞書学習時に認識辞書207を修正し、特徴選択辞書修正部205は、辞書学習時に特徴選択辞書4を修正する。
 また、非特許文献2には、特徴選択手順の例として、前向き逐次選択が挙げられている。前向き逐次選択では、N個の特徴のなかからM個を選ぶにあたり、適当なものがはじめに一つ選ばれる。そして、それに次々に特徴量を一つずつ付け加えられてゆく。例えば、すでに(i-1)個の組X(i-1)が選択された時点でi番目を選ぶには、残りの(N-i+1)個のどれか一つをX(i-1)に加えてできる(N-i+1)組の集合の中で、良さの評価値が最大のものが選ばれる。
 その他、発明者が知りえた関連技術としては、特許文献2(特開平10-55412号公報)、特許文献3(特開2001-92924号公報)、特許文献4(特開2002-251592号公報)、特許文献5(特開2006-153582号公報)、及び特許文献6(特開平9-245125号公報)が挙げられる。
特開2002-259911号公報 特開平10-55412号公報 特開2001-92924号公報 特開2002-251592号公報 特開2006-153582号公報 特開平9-245125号公報
石井ら著「わかりやすいパターン認識」オーム社出版局、1998年8月20日、pp.2-3 鳥脇著「認識工学-パターン認識とその応用-」テレビジョン学会教科書シリーズ9、コロナ社、1993年3月15日、pp.153-154
 非特許文献2に記載されるように、前向き逐次選択法を用いて特徴を選択し、入力データが所属するクラスを識別する場合、識別性能が低下することがある。これは、識別時に用いられる識別辞書が、必ずしも、特徴選択後の次元で最適化されているとは限らないからである。例えば、識別辞書が、次元削減が行われる前のベクトル(n次元ベクトル)に対して最適化されていた場合、必ずしも、その辞書が次元削減が行われた後のベクトル(m次元ベクトル)に対しても最適化されているとは限らない。
 従って、本発明の目的は、特徴選択された後のベクトルに対しても、高い精度でパターン認識を行うことのできる、パターン認識装置、パターン認識方法およびパターン認識用プログラムを提供することにある。
 本発明に係るパターン認識装置は、入力データからn(nは自然数)個の特徴を抽出し、n次元特徴ベクトルを生成する特徴抽出部と、前記n次元特徴ベクトルから、特徴と優先順位との関係を示す特徴選択表に基づいて、m(m<n)個の特徴を選択し、m次元特徴ベクトルを生成する、特徴選択部と、前記m次元特徴ベクトルを、参照ベクトルを含む認識辞書と比較して、前記m次元特徴ベクトルが属するクラスを識別する識別部と、前記特徴選択表を作成する特徴選択表作成部と、前記認識辞書を作成する認識辞書作成部とを具備する。特徴選択表作成部は、前記m個の特徴のそれぞれに対し、優先順位の順番で、一つづつ優先順位を対応付けることによって、前記特徴選択表を作成する。認識辞書作成部は、p(pは0以上の整数)番目の優先順位にまで前記各特徴が対応付けられているときに、前記入力データが異なるクラスに識別される危険度を示す損失Rが最小となるように、(p+1)番目の優先順位に対応付けられる追加特徴と、(p+1)個の特徴を有する(p+1)次元の参照ベクトルとを決定する。そして、決定した前記追加特徴を前記特徴選択表作成部に通知するとともに、決定した前記(p+1)次元参照ベクトルに基づいて前記認識辞書を作成する。
 本発明に係るパターン認識方法は、入力データからn(nは自然数)個の特徴を抽出し、n次元特徴ベクトルを生成するステップと、前記n次元特徴ベクトルから、特徴と優先順位との関係を示す特徴選択表に基づいて、m(m<n)個の特徴を選択し、m次元特徴ベクトルを生成するステップと、前記m次元特徴ベクトルを、参照ベクトルを含む認識辞書と比較して、前記m次元特徴ベクトルが属するクラスを識別するステップと、前記特徴選択表を作成するステップと、前記認識辞書を作成するステップとを具備する。前記特徴選択表を作成するステップは、前記m個の特徴のそれぞれに対し、優先順位の順番で、一つづつ優先順位を対応付けることによって、前記特徴選択表を作成するステップを備える。前記認識辞書を作成するステップは、p(pは0以上の整数)番目の優先順位にまで前記各特徴が対応付けられているときに、前記入力データが異なるクラスに識別される危険度を示す損失Rが最小となるように、(p+1)番目の優先順位に対応付けられる追加特徴と、(p+1)個の特徴を有する(p+1)次元の参照ベクトルとを決定するステップと、決定した前記(p+1)次元参照ベクトルに基づいて前記認識辞書を作成するステップとを備える。
 本発明に係るパターン認識プログラムは、入力データからn(nは自然数)個の特徴を抽出し、n次元特徴ベクトルを生成するステップと、前記n次元特徴ベクトルから、特徴と優先順位との関係を示す特徴選択表に基づいて、m(m<n)個の特徴を選択し、m次元特徴ベクトルを生成するステップと、前記m次元特徴ベクトルを、参照ベクトルを含む認識辞書と比較して、前記m次元特徴ベクトルが属するクラスを識別するステップと、前記特徴選択表を作成するステップと、前記認識辞書を作成するステップとを具備するパターン認識方法を、コンピュータに実行させるためのプログラムである。前記特徴選択表を作成するステップは、前記m個の特徴のそれぞれに対し、優先順位の順番で、一つづつ優先順位を対応付けることによって、前記特徴選択表を作成するステップを備える。前記認識辞書を作成するステップは、p(pは0以上の整数)番目の優先順位にまで前記各特徴が対応付けられているときに、前記入力データが異なるクラスに識別される危険度を示す損失Rが最小となるように、(p+1)番目の優先順位に対応付けられる追加特徴と、(p+1)個の特徴を有する(p+1)次元の参照ベクトルとを決定するステップと、決定した前記(p+1)次元参照ベクトルに基づいて前記認識辞書を作成するステップとを備える。
 本発明によれば、特徴が選択された後のベクトルに対しても、高い精度でパターン認識を行うことのできる、パターン認識装置、パターン認識方法およびパターン認識用プログラムが提供される。
図1は、本発明の関連技術に係るパターン認識装置を示すブロック図である。 図2は、本発明の関連技術に係るパターン認識装置を示すブロック図である。 図3は、第1の実施形態に係るパターン認識装置を示すブロック図である。 図4は、特徴選択表を示す概念図である。 図5は、第1の実施形態における識別時の動作を示すフローチャートである。 図6は、第1の実施形態における学習時の動作を示すフローチャートである。 図7は、第1の実施形態の効果を説明するための説明図である。 図8は、第1の実施形態の効果を説明するための説明図である。 図9は、第1の実施形態の効果を説明するための説明図である。 図10は、第2の実施形態に係るパターン認識装置を示すブロック図である。 図11は、第2の実施形態における識別時の動作を示すフローチャートである。 図12は、第2の実施形態における学習時の動作を示すフローチャートである。 図13は、第2の実施形態の効果を説明するための説明図である。 図14は、第2の実施形態の効果を説明するための説明図である。 図15は、第2の実施形態の効果を説明するための説明図である。 図16は、実施例1における学習時の動作を示すフローチャートである。 図17は、実施例1における学習時の動作を示すフローチャートである。 図18は、実施例1における識別時の動作を示すフローチャートである。 図19は、実施例2における識別時の動作を示すフローチャートである。
 以下に、図面を参照しつつ、本発明の実施形態について説明する。
(第1の実施形態)
 図3は、本実施形態に係るパターン認識装置を示す概略ブロック図である。このパターンに認識装置は、識別対象のデータを、複数のクラスのいずれかに識別する装置である。パターン認識装置は、データ入力部1と、特徴抽出部2と、特徴選択部3と、識別部4と、結果出力部5と、特徴選択表6と、特徴選択表作成部7と、認識辞書作成部8と、認識辞書9とを備えている。このパターン認識装置は、コンピュータにより実現される。データ入力部1、特徴抽出部2、特徴選択部3、識別部4、結果出力部5、特徴選択表作成部7、及び認識辞書作成部8は、CPUがROM(Read only memory)等にインストールされたパターン認識プログラムを実行することにより、実現される。特徴選択表6及び認識辞書9は、RAM(Random access memory)やハードディスクなどに例示される記憶媒体に格納されたデータにより実現できる。
 図4は、特徴選択表6を示す概念図である。特徴選択表6は、特徴を選択する際の優先順位を示す表である。特徴選択表6には、複数の特徴に対して、複数の優先順位が対応付けられて示されている。具体的には、特徴選択表6には、各特徴を特定する特徴番号と各優先順位との対応関係が記述されている。
 認識辞書9は、各クラスについてのm次元参照ベクトルを含んでいる。参照ベクトルは、識別対象のデータがどのクラスに所属するかを判断するために用いられるベクトルである。
 データ入力部1は、認識対象パターンや学習用パターンを入力データとして取り込み、特徴抽出部2に出力する。その入力データとしては、例えば、カメラで撮影された画像データ等が挙げられる。
 特徴抽出部2は、入力データからn個の特徴を抽出し、n個の特徴を有するベクトル(n次元特徴ベクトル)を生成する。例えば、入力データが画像データである場合、特徴抽出部2は、その画像データを白黒濃淡画像に変換し、白黒濃淡画像を縦10×横10の複数の領域に分割し、その複数の領域の各々の中で輝度値の平均を求める。これにより、100次元の特徴ベクトルが得られる。
 特徴選択部3は、n次元特徴ベクトルを、m(m<n)次元特徴ベクトルに変換する。具体的には、特徴選択部3は、特徴選択表6を参照し、n個の特徴の中から優先順位に従ってm個の特徴を選択し、m次元特徴ベクトルを生成する。
 識別部4は、認識辞書9を参照することにより、m次元特徴ベクトルが所属するクラスを識別する。
 結果出力部5は、識別部4における識別結果を、表示装置(例えばディスプレイ)などの出力装置に出力する。
 特徴選択表作成部7は、特徴選択表6の作成を行う。
 認識辞書作成部8は、認識辞書9の作成を行う。認識辞書作成部8は、参照ベクトル候補設定部81と、追加特徴候補選択部82と、損失計算部83と、決定部84とを備えている。
 続いて、本実施形態に係るパターン認識方法について説明する。
 まず、識別対象データの所属クラスを識別する場合(以下、識別時)の動作について説明する。図5は、識別時の動作を示すフローチャートである。
 まず、特徴選択部3が、特徴選択表6の初期化を行う。また、識別部4が、認識辞書9の初期化を行う。これにより、特徴選択表6及び認識辞書9が、使用可能な状態に設定される(ステップS10)。次に、データ入力部1が、識別対象パターンを入力データとして読み込む(ステップS11)。特徴抽出部2が、入力データからn個の特徴を抽出し、n次元特徴ベクトルを生成する(ステップS12)。特徴選択部3が、特徴選択表6に基づき、n次元特徴ベクトルからm個の特徴を選択し、m次元特徴ベクトルに変換する(ステップS13)。識別部4が、認識辞書9を用いて、m次元特徴ベクトルの識別を行う。具体的には、識別部4は、m次元特徴ベクトルと、各クラスのm次元参照ベクトルとを比較する。より具体的には、識別部4は、m次元特徴ベクトルとm次元参照ベクトルとの類似度を、予め定められた識別関数に基づいて算出する。識別部4は、算出された類似度に基づいて、m次元特徴ベクトルが最も類似しているクラスを、識別結果として決定する(ステップS14)。結果出力部5が、識別部4における識別結果を出力する(ステップS15)。識別対象パターンの全てについて処理がなされた場合には、全体の処理を終了する。別の識別対象パターンが存在する場合には、ステップS11以降の動作が繰り返される(ステップS16)。
 上述の手法によれば、特徴選択部5が、特徴選択表6に基づいて、次元の削減を行う。この際、特徴選択部5は、n次元特徴ベクトルから、優先順位に従って、m個の特徴を選択するだけでよい。すなわち、n次元特徴ベクトルにおけるn個の特徴のうち、処理に用いられる特徴の数はm個であるので、特徴選択時における計算量を少なくすることができる。
 ここで、特徴選択(次元削減)及び所属クラスの識別を精度良く行うためには、特徴選択表6及び識別辞書9が正確に作成されていなければならない。そこで、本実施形態では、特徴選択表6及び認識辞書9を作成する際の処理について、工夫が施されている。
 以下に、特徴選択表6及び認識辞書9を作成する場合(以下、学習時)の動作について説明する。図6は、学習時の動作を概略的に示すフローチャートである。
ステップS1;初期化
 まず、複数の学習用のデータが用意される。複数の学習用のデータの各々は、所属するクラスが既知であるデータである。また、特徴選択表6と認識辞書9とが初期化される。すなわち、特徴選択表6及び認識辞書9が、学習に使用できる状態に設定される。
ステップS2;入力データの読み込み
 次に、データ入力部1が、複数の学習用のデータの各々を、入力データとして読み込む。
ステップS3;特徴抽出
 特徴抽出部2が、読み込んだ入力データからn個の特徴を抽出し、n次元特徴ベクトル(以下、n次元学習ベクトル)を生成する。
ステップS4;pの初期化
 続いて、特徴選択表作成部7が、優先順位が対応付けられている各特徴の数を表すpを、初期値0に設定する。p=0の場合、特徴選択表6には、優先順位が対応付けられた各特徴が1つもないことを示している。
ステップS5;追加特徴、(p+1)次元参照ベクトルの決定
 続いて、認識辞書作成部8が、次の優先順位(p+1番目の優先順位)に対応付けるべき追加特徴と、(p+1)次元参照ベクトルとを決定する。具体的には、特徴選択部3は、n次元学習ベクトルを、そのまま認識辞書作成部8に通知する。認識辞書作成部8は、n次元学習ベクトルに基づいて、損失Rが最小となるように、(p+1)番目の優先順位として追加される追加特徴と、(p+1)個の特徴を有する(p+1)次元の参照ベクトルとを決定する。ここで、損失Rは、入力データが異なるクラスに識別される危険度を示すパラメータである。損失Rは、各クラスの参照ベクトルが決まっていれば、所属クラスが既知である学習用データに基づいて、計算することができる。
ステップS6;認識辞書の修正
 認識辞書作成部8は、ステップS5で決定された(p+1)次元参照ベクトルに基づいて、認識辞書9を修正する。具体的には、認識辞書9のm次元参照ベクトルに含まれるm個の特徴のうちの(p+1)個について、その要素値を、ステップS5で決定された(p+1)次元参照ベクトルの要素値に修正する。具体例を挙げると、認識辞書9において、m(=4)次元参照ベクトルとして(1、0、0、0)が設定されており、(p+1)次元参照ベクトルとして(2、4)が計算された場合には、認識辞書9におけるm次元参照ベクトルを、(2、4、0、0)に修正する。
ステップS7;特徴選択表の修正
 特徴選択表作成部7は、認識辞書作成部8で決定された追加特徴に、(p+1)番目の優先順位を対応付けることにより、特徴選択表6を修正する。
ステップS8;pのインクリメント
 特徴選択表6が修正された後、pがインクリメントされる。
ステップS9;p<m?
 pが、規定の数(特徴選択時に選択される次元の数)mよりも少なければ、再びステップS5以降の処理が繰り返される。一方、pが数mに達した場合には、pのインクリメントを行わず、処理を終了する。すなわち、pは、「p+1=m」となるまでインクリメントされる。
 上述ステップS1~9の動作により、特徴選択表6及び認識辞書9が作成される。上述の手法によれば、特徴選択表6は、優先順位の順に、一つ一つ追加特徴が追加されることによって、作成される。ここで、ステップS5により、損失Rが最小となるように追加特徴が決められる。また、ステップS6において、(p+1)次元の参照ベクトルに基づいて、認識辞書9が修正される。このようにして作成された特徴選択表6及び認識辞書9を用いれば、常に損失Rが最小となるようにm個の特徴が選択される。また、識別に用いられるm次元参照ベクトルの要素値は、m次元での損失Rが最小となるような値に設定されている。すなわち、特徴選択表6に記載された優先順位、及び、認識辞書9に含まれる参照ベクトルは、特徴選択後の次元(m次元)において最適化されている。従って、識別時において、計算量を抑えた上で、精度良く識別を行うことができる。
 続いて、ステップS5における動作を詳述する。
 ステップS5において、認識辞書作成部8は、(p+1)番目の優先順位に対して追加特徴候補を追加したときの損失Rを、損失計算部83により計算する。追加特徴候補は、追加特徴候補選択部82により、n個の特徴のうちで優先順位が決まってない特徴群(以下、追加候補特徴群)の中から、選択される。また、認識辞書作成部8では、参照ベクトル候補設定部81により、各クラスの(p+1)次元参照ベクトルの候補が変更されつつ、損失Rが計算される。すなわち、損失計算部83は、追加特徴候補と(p+1)次元参照ベクトル候補の全ての組み合わせの各々について、損失Rを計算する。そして、決定部84は、損失Rが最小となるような、追加特徴ベクトル候補と参照ベクトル候補との組み合わせを求める(探索する)。決定部84は、探索結果の(p+1)次元参照ベクトル候補にもとづき、識別辞書9を修正する。また、探索結果の追加特徴候補を、追加特徴に決定する。この際、決定部84は、(p+1)次元参照ベクトルの候補における全ての特徴(p+1個の特徴)のそれぞれについて、最適な要素値を探索する。
 より詳細に説明するため、n個の特徴のうちp個の特徴について優先順位が決定されている場合について考える。すなわち、優先順位がp番目まで決定されている場合について考える。認識辞書作成部8では、(p+1)番目の優先順位に対応付けられるべき特徴を決定する処理を行う。具体的には、まず、追加特徴候補選択部82により、追加特徴候補が選択される。また、参照ベクトル候補設定部81により、各クラスの(p+1)次元参照ベクトル候補が設定される。更に、損失計算部83が、(p+1)番目として選択された追加特徴候補が加えられた特徴選択表6を用いたと仮定して、n次元学習ベクトルから(p+1)次元の学習ベクトルを生成する。そして、損失計算部83は、参照ベクトルとして(p+1)次元参照ベクトル候補を用いたものと仮定して、(p+1)次元学習ベクトルに基づき、損失Rを計算する。続いて、参照ベクトル候補設定部81により、(p+1)次元参照ベクトル候補が変更される。すなわち、(p+1)次元参照ベクトル候補の要素値が変更される。そして、損失計算部83が、変更された後の参照ベクトル候補を用いたものと仮定して、損失Rを再度計算する。このようにして、損失計算部83は、考えられる全ての参照ベクトル候補について、損失Rを計算する。その後、追加特徴候補選択部82が、追加特徴候補を変更する。そして、損失計算部83は、再度、考えられる全ての参照ベクトル候補について、損失Rを計算する。このような計算を繰り返し、参照ベクトル候補と追加特徴候補との全組み合わせについて、損失Rが計算される。その後、決定部84が、その組み合わせの中で損失Rが最小である組み合わせを探索する。決定部84は、探索の結果である追加特徴候補を追加特徴として特徴選択表作成部7に通知する。特徴選択表作成部7は、通知された追加特徴を、(p+1)番目の優先順位に対応付け、特徴選択表6を修正する。また、決定部84は、探索の結果である(p+1)次元参照ベクトル候補に基づいて、認識辞書9を修正(作成)する。
 続いて、損失Rの求め方について詳述する。損失Rは、入力データが所属するクラスを異なるクラスに識別してしまうことによる危険度を表すパラメータである。損失Rは、複数のクラスの参照ベクトルの値に依存する。そこで、複数のクラスの参照ベクトルを特定するパラメータを、以下、識別器パラメータθと定義する。損失計算部83は、式1に従って損失R(θ)を計算する。
  (数1)
Figure JPOXMLDOC01-appb-I000001
 数式1中、Cはクラス数、Pはa番目のクラスに関する事前確率、Nはa番目のクラスに属する特徴ベクトルの数、ベクトルxa,jはa番目のクラスに属するj番目の特徴ベクトル、θは、識別器パラメータである。
 事前確率Pとしては、所望の値が設定される。一例を挙げるなら、全特徴ベクトル数をNとした場合、P=N/Nと設定される。ただし、N=N+・・・+Nである。
 関数r(・)は、引数で与えられる特徴ベクトルが識別誤りとなる危険度を表し、識別誤りの危険度が高いほど高い値を返す。例を挙げるなら、下記数式2~5で示される関数を、関数r(・)として用いることができる。下記数式2~5において、g(x;θ)は、a番目のクラスとの類似度を計算する識別関数を示し、ベクトルxa,jは、最も誤りやすいクラスがh番目のクラスであることを示す。
  (数2)
Figure JPOXMLDOC01-appb-I000002
  (数3)
Figure JPOXMLDOC01-appb-I000003
  (数4)
Figure JPOXMLDOC01-appb-I000004
  (数5)
Figure JPOXMLDOC01-appb-I000005
 ただし、f(・)は任意の単調増加関数である。また、識別関数g(・)は、出力値が大きいほど、そのクラスに属する度合いが高い、すなわち類似度が高いことを表す。但し、識別関数として距離を用いた場合は、出力値が小さいほどそのクラスに属する度合いが高いことを表す。従って、距離を用いた場合には、数式2~5において、g(・)とg(・)を入れ替えた式が採用される。
 次に、本実施の形態の効果について説明する。
 本実施の形態では、認識辞書9の修正と特徴選択表6の修正とが、特徴選択表6に特徴が追加されるたびに実行される。従って、追加特徴を表に追加しながら、認識性能を高めることができる。これについて図を用いて、以下に詳しく説明する。
 説明を容易にするために、クラス数が2であり、類似度の尺度として、入力ベクトルと参照ベクトルとのユークリッド距離の2乗が用いられる場合について考える。
 図7に、優先順位が1位となる特徴fに対する、クラス1とクラス2とのデータ分布の例を示す。y[1]とy[1]は、それぞれ、優先順位が1位の特徴番号に対応する、クラス1とクラス2との参照ベクトルの値である。ユークリッド距離の2乗を、識別関数として用いると、図7に破線で示されるように、2つの参照ベクトルの値の中点に識別面が設定される。その識別面の左側がクラス1に、右側がクラス2に、それぞれ識別される。本実施形態に従えば、所属するクラスが誤って識別されてしまうデータの総数に相当する損失Rが最小となる位置に、識別面が設定される。
 図8に、優先順位が2位となる特徴fを追加した場合のデータ分布の例を示す。優先順位1位の特徴に対する参照ベクトルの値(y[1]及びy[1])と、優先順位2位の特徴に対する参照ベクトルの値(y[2]及びy[2])とが、損失Rが最小となる位置(×で示される位置)に決定される。その損失Rが最小となる位置は、f及びfがなす2次元平面内において求められる。そして、破線で示される位置に、識別面が設定される。
 図9に、優先順位が3位となる特徴値fを追加した場合のデータ分布の例を示す。優先順位が1位の特徴に対する参照ベクトルの値(y[1]及びy[1])と、優先順位が2位の特徴に対する参照ベクトルの値(y[2]及びy[2])と、優先順位3位の特徴に対する参照ベクトルの値(y[3]及びy[3])とのそれぞれが、損失Rが最小となる位置(×で示される位置)に決定される。その損失Rが最小となる位置は、f及びf及びfがなす3次元空間内において求められる。そして、破線で囲まれる位置に識別面が設定される。
 尚、特徴の数が3個、すなわち3次元の場合は、識別面が2次元平面になることに注意されたい。同様に、優先順位がm位の場合まで処理を進めることで、特徴選択表とm次元参照ベクトルの値が求められる。
 以上説明したように、本実施形態によれば、特徴選択表6が作成される際に、一つ一つの優先順位に対して最適な(損失Rが最小となるような)追加特徴が選定される。このようにしてm番目までの優先順位が決定されるので、特徴選択時には、最適なm個の特徴が選択されることになる。また、m次元参照ベクトルの要素値は、n次元ではなくm次元で最適な値に設定されることになる。これにより、高い認識性能が実現される。
(第2の実施形態)
 続いて、本発明の第2の実施形態について説明する。図10は、本実施形態に係るパターン認識装置を示すブロック図である。本実施形態に係るパターン認識装置は、第1の実施形態に対して、認識辞書作成部8に、誤棄却率(False Reject Rate;FRR)を計算するFRR計算部85が追加されている。また、本実施形態では、複数のクラスのうちの少なくとも一つのクラスが、設定クラスに設定されている。
 まず、本実施形態における識別時の動作について説明する。図11は、本実施形態における識別時の動作を示すフローチャートである。以下の動作は、特に断りの無い限り、識別部4により実行される。
 まず、第1の実施形態と同様に、特徴選択表6及び認識辞書9の初期化が行われる(ステップS21)。続いて、識別対象のデータが入力データとして読み込まれ(ステップS22)、特徴抽出部2によって、n次元入力ベクトルが生成される(ステップS23)。
 続いて、特徴選択部3が、処理を行う優先順位kを初期値に設定する(ステップS24)。
 さらに、特徴選択部3が、特徴選択表6に基づき、n次元入力ベクトルから優先順位がk番目である特徴の値を選択する(ステップS25)。
 次に、識別部4が、識別辞書9を参照し、抽出したn次元入力ベクトルのk番目の特徴値を、各クラスの参照ベクトルのk番目の特徴の値と比較する。具体的には、識別部4は、類似度を計算することにより、比較する。そして、識別部4は、n次元入力ベクトルがどのクラスに最も類似しているかを識別する(ステップS26)。
 次に、識別部4は、n次元入力ベクトルを棄却するか否かを決定する。具体的には、識別部4は、設定クラスに最も類似していたか否かを判定する。そして、設定クラスに最も類似していた場合には、棄却しないと判定し、設定クラス以外のクラスに最も類似していた場合には、棄却すると判定する(ステップS27)。
 設定クラスに最も類似していた場合(棄却しない場合)、識別部4は、kの値をインクリメントし(ステップS28)、kをmと比較する(ステップS29)。k<mであれば、ステップS25以降の処理が繰り返される。k=mであれば、識別結果として、設定クラスが出力される(ステップS30)。
 ステップS27において、入力ベクトルが設定クラス以外のクラス(非設定クラス)に最も類似していた場合には、識別部4は、棄却と判定する。識別部4は、棄却する旨を、結果出力部5に通知する(ステップS30)。
 以上のステップS21~S30までの処理により、一つの識別データに対する識別が行われる。その後、他に識別データが存在するか否かの判定が行われ(ステップS31)、他の識別データが存在する場合には、ステップS22以降の処理が繰り返される。他に識別データが存在しない場合には、全体の処理が終了される。
 本実施形態のような識別手法は、例えば、画像中から特定の対象物を検出する際などに有効である。対象物の面積は、画像全体の面積よりも小さい場合が多い。すなわち、画像中の大部分の領域は、背景などの非対象物領域である場合が多い。対象物を検出する際には、画像全体が小領域に分割され、各小領域に対して特徴ベクトルが求められる。そして、各小領域について、対象領域なのか非対象領域なのかが識別される。本実施形態を適用した場合、識別対象である各小領域が対象領域ではないと判定された段階で、非対象物領域として棄却される。従って、棄却された各小領域については、その後の識別処理を続ける必要がない。すなわち、非対象物領域におけるどのクラスに所属するかまでは、識別される必要がない。画像全体からの対象物領域を検出する際の計算量を減らすことができ、処理時間を短縮することができる。
 続いて、本実施形態における学習時の動作について説明する。図12は、本実施形態に係る学習時の動作を示すフローチャートである。
 複数の学習用のパターンが用意される。また、認識辞書作成部8及び特徴選択表作成部7により、特徴選択表6と認識辞書9が初期化される(ステップS1)。
 次に、複数の学習用のパターンの各々が入力データとして読み込まれる(ステップS2)。特徴抽出部2により、入力データに対する特徴抽出が行われ、n次元学習ベクトルが生成される(ステップS3)。
 次に、特徴選択表作成部7により、優先順位が対応付けられている特徴の数pが、初期値0に設定される(ステップS4)。
 次に、特徴選択部3が、特徴選択表6に基づき、n次元学習ベクトルからp個の次元を選択し、p次元学習ベクトルを生成する(ステップS5)。
 次に、ステップS6の処理が実行される。ステップS6では、認識辞書作成部8が、損失R(θ)が最小となるように、(p+1)番目の優先順位に対応付けられる特徴(追加特徴)を決定する。また、認識辞書作成部8は、各クラスの参照ベクトルにおける(p+1)番目の特徴の値として、損失R(θ)が最小となるような値を決定する。この際、認識辞書作成部8では、追加特徴候補選択部82が、既述の実施形態と同様に、追加特徴候補群の中から一つ追加特徴候補を選択する。一方、参照ベクトル候補設定部81は、既述の実施形態とは異なり、(p+1)次元の参照ベクトル候補として、p次元の参照ベクトルに追加特徴候補を追加したベクトルを、設定する。すなわち、参照ベクトル候補設定部81は、優先順位がp以下の特徴については、p次元参照ベクトルと同じ値を設定し、優先順位が(p+1)番目の特徴についてのみ、値を新しく設定する。具体例を挙げると、p(=3)次元の参照ベクトルが(1、2、5)であった場合、(p+1)次元の参照ベクトル候補として、(1、2、5、T)を設定する。ここで、Tは、追加特徴候補の値である。その後、損失計算部84が、損失R(θ)を計算する。
 また、本実施形態では、損失R(θ)が計算される際に、FRR計算部85により、設定クラスに関する誤棄却率FRRも計算される。設定クラスに関する誤棄却率FRRとは、識別時に、設定クラスに所属する入力データが誤って棄却されてしまう確率である。誤棄却率FRRは、損失R(θ)と同様、複数のクラスの参照ベクトルが決まっていれば、所属クラスが既知である学習ベクトルに基づいて、計算できる。
 そして、決定部84は、誤棄却率FRRが予め設定された目標値FRR*以下となる制約条件下にて、損失R(θ)が最小となるように、追加特徴候補及び参照ベクトル候補を探索する。そして、探索結果が、追加特徴及び参照ベクトルに決定される。この際、参照ベクトルに関しては、実質的には、(p+1)番目の優先順位に対応付けられる特徴の要素値だけが決定されることになる。認識辞書作成部8は、各クラスの参照ベクトルの(p+1)番目の特徴の要素値として、決定部84で決定された参照ベクトルの値を設定する。
 次に、ステップS7の処理が実行される。特徴選択表作成部7が、(p+1)番目の優先順位に対して、認識辞書作成部8で決定された追加特徴を対応付け、特徴選択表6を修正する(ステップS7)。
 続いて、特徴選択表作成部7が、pの値をインクリメントする(ステップS8)。特徴選択表作成部7により、pの値がmと比較される(ステップS9)。p<mであれば、ステップS5以降の処理が繰り返され、p=mであれば、処理を終了する。
 以下に、ステップS6における処理について詳述する。ステップS6においては、損失計算部83が、既述の実施形態と同様の式(数式1)に従って、損失R(θ)を計算する。また、FRR計算部85が、設定クラスに関して、下記式6に従い、誤棄却率FRRを計算する。
  (数6)
Figure JPOXMLDOC01-appb-I000006
 上式6中、Nはa番目のクラスに属する特徴ベクトルの数、ベクトルxa,jはa番目のクラスに属するj番目の特徴ベクトル、θは認識辞書9として格納される識別器パラメータ、S(θ)はa番目のクラスに関するFRRを表す。s(・)は、ベクトルxa,jが正認識される場合に0、誤認識される場合に1を返す関数である。
 また、ステップS6において、誤棄却率FRRが予め定められた目標値FRR*以下となる制約条件下で、損失R(θ)が最小となるような識別器パラメータθ(各クラスの参照ベクトル)を求めるときの動作について説明する。このような識別器パラメータθは、例えば、十分大きな値であるλを用いて、下記式7で示される関数F(θ)により、求めることができる。すなわち、下記式7で示される関数F(θ)が最小となるように、識別器パラメータθを求めればよい。
  (数7)
Figure JPOXMLDOC01-appb-I000007
 次に、本実施の形態の効果について説明する。
 本実施形態では、既述の実施形態と同様に、認識辞書9の修正と特徴選択表6の修正とが、特徴が表に追加されるたびに実行される。従って、特徴選択表に特徴を追加しながら、認識性能を高めることができる。
 さらに、本実施形態では、すでに特徴選択表6に優先順位が記載された特徴については、認識辞書9の作成時に、参照ベクトルの候補の値が変更されない。そのため、認識時の類似度計算を効率良く行うことができる。この点について、以下に詳しく説明する。
 一例として、認識辞書9としてm次元参照ベクトル群が用いられ、類似度の尺度としてユークリッド距離の2乗が用いられるものとする。m次元のベクトル同士の類似度Dは、例えば、下記式8で定義することができる。
  (数8)
Figure JPOXMLDOC01-appb-I000008
 数式8中、x[i]とy[i]とは、それぞれ、識別データに基づく入力ベクトルと参照ベクトルとのi番目の特徴の値を示す。また、特徴選択表6における優先順位kに対応する特徴番号をi[k]と表記すると、式8は、下記式9のように書き直すことができる。
  (数9)
Figure JPOXMLDOC01-appb-I000009
 優先順位が1~q(q<m)までの特徴に関して、入力ベクトルと参照ベクトルとの類似度をd[q]と表記すると、1~(q+1)番目までの特徴を用いたときの、類似度d[q+1]は、下記式10のように書くことができる。
  (数10)
Figure JPOXMLDOC01-appb-I000010
 すなわち、優先順位qまでの類似度d[q]が計算されていれば、優先順位(q+1)の類似度d[q+1]は、優先順位(q+1)に対応する特徴の値に関しての距離の2乗を、類似度d[q]に加えるだけでよい。従って、優先順位1~qまでの距離を再度計算する必要はない。数式10の漸化式に従って計算を行えば、d[m]は、数式9で示されるDと同じ値になる。このように効率よく距離計算が実現できる前提条件として、優先順位(q+1)の距離計算を行う際の参照ベクトルの各特徴の値(y[1]~y[q])が、優先順位qの距離計算を行った時の値と同じでなくてはならない。本実施形態では、すでに優先順位が決められた特徴に関しては、参照ベクトル候補の値が変更されない。そのため、効率のよい距離計算が実現可能である。ここでは、類似度の尺度としてユークリッド距離の2乗を例に挙げたが、内積などの他のパラメータを類似度の尺度として用いた場合でも、同様に有効である。
 さらに、本実施形態によれば、FRRが目標値FRR*となる制約条件の下で、追加特徴及び参照ベクトルが決められる。これにより、FRRを所望の値に抑えた上で、認識性能を高めることができる。この点について、以下に詳しく説明する。
 説明を容易にするために、クラス数を2とし、設定クラスとして1番目のクラスが設定されているものとする。また、類似度の尺度として、入力ベクトルと参照ベクトルとのユークリッド距離の2乗が用いられるものとする。
 図13は、優先順位が1位となる特徴の値fに対する、クラス1とクラス2のデータ分布の例を示している。図13において、y[1]とy[1]とは、それぞれ、優先順位が1位の特徴番号に対応するクラス1とクラス2との参照ベクトルの値である。その位置が「×」で示されている。ユークリッド距離の2乗を類似度の尺度として識別した場合、図13中、破線で示すように、2つの参照ベクトルの値の中点に識別面が設定される。この識別面の左側がクラス1に、右側がクラス2に識別される。本実施形態に従えば、識別面は、設定クラスであるクラス1に関するFRRが目標値FRR*以下となり、かつ損失が最小となる位置に、設定される。
 図14は、優先順位が2位となる特徴の値fが追加された例を示している。優先順位が1位である特徴に対する参照ベクトルの値(y[1]及びy[1])は、変更されていない。優先順位が2位である特徴に対する参照ベクトルの値(y[2]及びy[2])は、y[1]及びy[1]の位置(図14中の「黒丸」で示される位置)から伸びる線上に設定される。また、クラス1に関するFRRが目標値FRR*以下となり、かつ損失が最小となる位置(×で示す位置)が求められ、破線で示す位置に識別面が設定される。
 図15は、優先順位が3位である特徴の値fが追加された例を示している。優先順位が1位である特徴に対する参照ベクトルの値(y[1]及びy[1])、及び優先順位が2位である特徴に対する参照ベクトルの値(y[2]及びy[2])は固定されている。そのため、優先順位が3位である特徴に対する参照ベクトルの値(y[3]及びy[3])は、(y[1],y[2])及び(y[1],y[2])の位置(図15に黒丸で示される位置)から伸びる線上に設定されている。この線上において、クラス1に関するFRRが目標値FRR*以下となり、かつ損失が最小となる位置(×で示す位置)が求められ、破線で囲む位置に識別面が設定される。特徴数が3つ、すなわち3次元の場合は、識別面は2次元平面になることに注意されたい。同様に、優先順位がm位の場合まで処理を進めることで、特徴選択表6とm次元参照ベクトルの値が求められる。
 FRRを所望の値(目標値FRR*)に設定できる利点について、以下に説明する。画像中の対象物検出を例に説明すると、対象物の面積は画像全体の面積よりも小さい場合が多い。すなわち、画像の大部分の領域は背景などの非対象物領域である。対象物検出では、画像全体を小領域に分割し、各小領域に対して特徴ベクトルを求め対象領域なのか非対象領域なのかを識別する処理が行われる。この際、非対象物領域の識別処理に関わる時間を軽減することで、画像全体からの対象物検出に関わる処理時間を軽減することができる。図13乃至図15おいて、対象物をクラス1、非対象物をクラス2とすると、クラス1をクラス2に誤って識別する率、すなわちFRRは少ない方が望ましい。本実施の形態では、対象物に対するFRRを所望の値に設定できる。更に、識別時には、優先順位に従って、特徴の数を増やしつつ識別が行われる。ここで、入力ベクトルが非対象物であると(対象物ではない)識別された場合には、識別する特徴の追加が中止される。すなわち、入力ベクトルが棄却される。従って、認識精度を低下させることなく、高速で対象物を検出することができる。
(第1の実施形態に係る実施例;実施例1)
 本実施形態をより詳細に説明する為、実施例について説明する。
 クラス数が2であり、1クラスの1優先順位に対して1個の参照ベクトルが用いられ、類似度の尺度(識別関数)としてユークリッド距離の2乗が用いられるものとする。
 図16に、本実施例における学習時のフローチャートが記載されている。
 まず、学習に先立ち、複数の学習用データが準備される。複数の学習用データの各々が、特徴抽出部2によって、n次元の特徴ベクトル(以降、n次元学習ベクトルと呼ぶ)に変換される。クラス1に属する学習ベクトル数がN1と定義され、j番目の学習ベクトルが(x1[j][1],x1[j][2],・・・,x1[j][n])と表記される。同様に、クラス2に属する学習ベクトル数がN2と定義され、j番目の学習ベクトルが(x2[j][1],x2[j][2],・・・,x2[j][n])と表記される。クラス1及びクラス2の事前確率(P1及びP2)として、所望の値が設定される。例えば、P1及びP2が、それぞれ、P1=N1/N、P2=N2/Nに設定される。ただし、Nは学習ベクトルの総数で、N=N1+N2である。選択後の次元の数を示すm(m<n)が所望の値に設定される。クラス1に関する認識辞書9として、m次元参照ベクトル(y1[1],y1[2],・・・,y1[m])が準備され、クラス2に関する認識辞書としm次元参照ベクトル(y2[1],y2[2],・・・,y2[m])が準備される。各参照ベクトルにおける各要素の値は、初期値0に設定される。特徴選択表6として、m個の配列(i[1],i[2],・・・,i[m])が準備され、各要素の値に初期値0が設定される。
 以上の処理は、図6におけるステップS1からステップS3までの処理に対応している。
 続いて、学習が行われる。以下の動作は、特に断りの無い限り、認識辞書作成部8により行われる。
 まず、優先順位が対応付けられている特徴の数を表すpが、初期値0に設定される。さらに、追加特徴候補として選択される特徴番号を示すqが、初期値1に設定される(ステップS4)。
 続いて、特徴番号1~nのそれぞれについて、追加特徴として(p+1)番目の優先順位に対応付けたときの損失R(q)の値を、初期値に設定する。損失R(q)の初期値としては、予め求められる損失Rの最大値が設定される(ステップS5)。
 続いて、特徴選択表6における1~m番目の優先順位のそれぞれについて、追加特徴候補の特徴番号qが既に優先順位に対応付けられているか否かが確認される(ステップS61)。
 ステップS61において、特徴番号qの特徴に対応付けられた優先順位が1つも存在しなければ、特徴番号qを特徴選択表6に追加したときの損失の最小値Rと、損失Rの最小値を与えるクラス1及びクラス2の参照ベクトル(z1[q][1],z1[q][2],・・・,z1[q][m])及び(z2[q][1],z2[q][2],・・・,z2[q][m])が求められる。求められた参照ベクトルは、特徴番号qに対応付けられて保存される(ステップS62)。
 続いて、qの値がインクリメントされる(ステップS63)。
 続いて、qの値が、nと比較される(ステップS64)。q<nであれば、ステップS61以降の動作が繰り返される。
 ステップS64において、qの値がnと等しければ、1~nまでの特徴番号の中で、損失の最小値R(q)が最小となるような特徴番号q*が求められる(ステップS65)。
 そして、特徴番号q*に対応するクラス1の参照ベクトル(z1[q*][1],z1[q*][2],・・・,z1[q*][m])が、認識辞書9として格納される。同様に、特徴番号q*に対応するクラス2の参照ベクトル(z2[q*][1],z2[q*][2],・・・,z2[q*][m])が、認識辞書9に格納される(ステップS66)。
 更に、認識辞書作成部8は、特徴番号q*を追加特徴の番号として特徴選択表作成部7に通知する。特徴選択表作成部7は、(p+1)番目の優先順位に、特徴番号q*を対応付け、特徴選択表6に格納する(ステップS7)。特徴選択表作成部7は、優先順位が対応付けられている特徴の数pを、インクリメントする(ステップS8)。
 認識辞書作成部8は、pをmと比較する(ステップS9)。p<mである場合には、ステップS5以降の処理が繰り返される。pがmと等しい場合には、全体の処理が終了される。
 以上のステップS9までの処理により、特徴選択表6及び認識辞書9が作成される。
 続いて、ステップS62における損失Rの求め方について、より詳細に説明する。損失Rを求めるにあたっては、まず、参照ベクトル候補設定部81により、各クラスの参照ベクトルの候補の値が設定される。また、追加候補特徴選択部82により、n個の特徴のうちで優先順位の決定されていない特徴群(追加候補特徴群)の中から、追加候補特徴が一つ選択される。そして、追加候補特徴を特徴選択表6に追加し、参照ベクトル候補を参照ベクトルとして用いたと仮定して、損失Rが求められる。その損失Rは、クラス1に関する損失要素R1と、クラス2に関する損失要素R2との和として求められる。
 図17は、クラス1に関する損失要素R1を求める際の動作を示すフローチャートである。
 まず、クラス1の学習ベクトル群のうち、処理を行う学習ベクトルを示す番号jが、初期値1に設定される。また、クラス1に関する損失要素R1の値が初期値0に設定される(ステップS621)。
 続いて、処理を行う特徴番号の優先順位lの値が、初期値0に設定される。また、処理を行う学習ベクトルと参照ベクトル候補との間の類似度(距離)を示すD1が、初期値0に設定される(ステップS622)。
 続いて、優先順位が決められている特徴の数pと、処理を行う特徴番号lとが比較される(ステップS623)。
 ステップS623において、l<pである場合、lの値が1つインクリメントされる(ステップS624)。その後、特徴番号lについて、学習ベクトルx1の要素値と参照ベクトルy1の要素値(クラス1の参照ベクトル候補の要素値)との差の二乗が計算され、その計算結果がD1に加算される(ステップS625)。その後、ステップS623以降の動作が繰り返される。
 ステップS623において、l=pである場合、特徴番号lについて、学習ベクトルx1の要素値と参照ベクトルy1の要素値との差の二乗が計算され、その計算結果がD1に加算される(ステップS626)。その後、次のステップS627の処理が実行される。
 ステップS627では、lの値が初期値0に設定される。また、処理対象の学習ベクトルと参照ベクトル候補と類似度D2の値が、初期値0に設定される。
 次に、優先順位が決められている特徴の数pとlとが比較される(ステップS628)。
 ステップS628において、l<pである場合、lの値が1つインクリメントされる(ステップS629)。その後、特徴番号lについて、学習ベクトルx1の要素値と参照ベクトルy2の要素値(クラス2の参照ベクトル候補の要素値)との差の二乗が計算され、その計算結果がD2に加算される(ステップS630)。その後、ステップS628以降の動作が繰り返される。
 ステップS628において、l=pである場合、特徴番号lについて、学習ベクトルx1の要素値と参照ベクトルy2の要素値との差の二乗が計算され、その計算結果がD2に加算される(ステップS631)。その後、次のステップS632の処理が実行される。
 ステップS632では、予め定められた定義(関数)f(x)に従い、損失が求められ、R1に加算される(ステップS632)。関数f(x)としては、例えば、「f(x)=exp(αx)(但し、αは正の実数)」、などを用いることができる。
 続いて、学習ベクトルの番号jがクラス1の学習ベクトル数N1と比較される(ステップS633)。j<N1であれば、jの値がインクリメントされ(ステップS634)、ステップS622以降の処理が繰り返される。J=N1であれば、すなわちクラス1の学習ベクトルの全てについて処理が終了した場合には、所望の値に設定されたクラス1の事前確率P1とクラス1の学習ベクトルの数N1に基づいて、R1の値が補正され(ステップS635)、処理を終了する。
 以上のステップS621~ステップS635の処理により、クラス1に関する損失要素R1が計算される。クラス2に関する損失要素R2も、クラス2に所属する学習ベクトル群を用いて、クラス1と同様に計算される。一つの追加特徴候補及び1つの参照ベクトル候補を用いたときの損失Rが、損失要素R1と損失要素R2との和として計算される。このような損失要素Rの計算が、追加特徴候補群における各追加特徴候補について行われる。また、各追加特徴候補について、参照ベクトル候補を変更しつつ、損失Rが計算される。そして、全ての追加特徴候補と参照ベクトル候補との組み合わせの中で、損失Rが最小となるような組み合わせが決定される。なお、損失Rが最小になるような参照ベクトルの具体的求め方としては、例えば、参照ベクトルの各要素の値を符号なしの8ビットとし、各要素の値を0から255まで変化させながら、全ての要素値の組み合わせに対して損失Rを計算する方法がある。
 続いて、本実施例における識別時の動作について説明する。図18は、本実施例における識別時の動作を示すフローチャートである。以下の動作は、特に断りの無い限り、識別部4により行われる。
 識別対象のデータは、特徴抽出部2によって、n次元入力ベクトル(x[1],x[2],・・・,x[n])に変換される。n次元入力ベクトルは、特徴選択部3により、m次元入力ベクトルに変換される。ここまでの処理は、図5のステップS13までの処理に対応する。
 続いて、処理対象の優先順位を示すlが初期値1に設定される。また、m次元入力ベクトルと、クラス1の参照ベクトルとの類似度を示すD1が初期値0に設定される(ステップS141)。
 次に、特徴選択表6における優先順位l位に対応する特徴番号i[l]について、入力ベクトルxとクラス1の参照ベクトルy1とのユークリッド距離の2乗が計算される。計算の結果は、D1に加算される(ステップS142)。
 次に、lがmと比較される(ステップS143)。l<mならば、lがインクリメントされ(ステップS144)、ステップS142以降の処理が繰り返される。k=mであれば、次のステップS145の処理が実行される。
 次に、lが初期値1に設定される。また、m次元入力ベクトルとクラス2の参照ベクトルとの類似度を示すD2が、初期値0に設定される(ステップS145)。
 特徴選択表6における優先順位l位に対応する特徴番号i[l]について、m次元入力ベクトルxとクラス2の参照ベクトルy2とのユークリッド距離の2乗が計算される。計算結果は、D2に加算される(ステップS146)。
 次に、lがmと比較される(ステップS147)。l<mならば、lがインクリメントされ(ステップS148)、ステップS146以降の処理が繰り返される。l=mならば、次のステップS149の処理が実行される。
 ステップS149では、D1とD2とが比較される。D1<D2であれば、識別結果がクラス1に決定される(ステップS150)。D1>D2ならば、識別結果がクラス2に決定される(ステップS151)。
(第2の実施形態に係る実施例;実施例2)
 続いて、第2の実施形態をより詳細に説明する為、実施例2について説明する。
 実施例1と同様に、クラス数を2とし、各クラスについて1個の参照ベクトルが用いられ、類似度の尺度としてユークリッド距離の2乗が用いられるものとする。
 まず、学習時の動作について説明する。
 学習用に、複数の入力データが準備される。各学習用のデータが、特徴抽出部2により、n次元学習ベクトルに変換される。クラス1に属する学習ベクトル数をN1とし、j番目の学習ベクトルを(x1[j][1],x1[j][2],・・・,x1[j][n])と表記する。同様に、クラス2に属する学習ベクトル数をN2とし、j番目の入力ベクトルを(x2[j][1],x2[j][2],・・・,x2[j][n])と表記する。クラス1及びクラス2の事前確率として、所望の値が設定される。例えば、クラス1の事前確率P1とクラス2の事前確率P2が、それぞれ、P1=N1/N、P2=N2/Nと設定される。ただし、Nは入力ベクトルの総数であり、N=N1+N2である。特徴選択部3により選択される特徴の数m(m<n)が、所望の値に設定される。クラス1に関する認識辞書9として、1個のm次元参照ベクトル(y1[1],y1[2],・・・,y1[m])が設定される。クラス2に関する認識辞書9として、1個のm次元参照ベクトル(y2[1],y2[2],・・・,y2[m])が設定される。各m次元参照ベクトルの各特徴の値が、初期値0に設定される。特徴選択表6として、m個の配列(i[1],i[2],・・・,i[m])が準備される。特徴選択表6における各要素の値に、初期値0が設定される。
 以降の処理のフローチャートは、図16に示される実施例1と同様である。ただし、ステップS62において、最小となる損失Rと、その時のクラス1とクラス2の参照ベクトル(z1[q][1],z1[q][2],・・・,z1[q][m])、(z2[q][1],z2[q][2],・・・,z2[q][m])を求める処理が異なる。これについて、以下に詳しく説明する。
 まず、損失Rの求め方について説明する。クラス1に関する損失要素R1とクラス2に関する損失要素R2を求める処理における動作は、図17に示した実施例1と同様である。ただし、実施例1では、損失Rが、損失要素R1と損失要素R2との和(R1+R2)として定義されたのに対して、本実施例では、損失Rが、R1+R2+λ(S1-FRR*)として定義される。ここで、λ及びFRRは、予め定められる値である。また、S1は、設定クラスであるクラス1に関する誤棄却率であり、FRR計算部85により計算された値である。S1は、図17に示されるフローチャートにおいて、R1をS1に読み替え、ステップS635におけるP1に1を設定することにより、求めることができる。また、実施例1とは異なり、ステップS632において、関数f(x)として、xが正であれば1、xが負であれば0を出力するような関数が用いられる。
 つづいて、参照ベクトル候補における値の変え方について説明する。実施例1では、図16におけるステップS62の段階で、参照ベクトル候補(y1およびy2)の値は、優先順位1~p番目の特徴と新たに追加される(p+1)番目の特徴との全てについて、変更された。これに対して、本実施例では、参照ベクトル候補の要素値は、優先順位が1~p番目までの特徴については変更されず、(p+1)番目の特徴(追加特徴候補)だけ変更される。
 続いて、本実施例における認識時の動作について説明する。図19は、本実施例における認識時の動作を示すフローチャートである。
 まず、識別対象のデータが、入力データとして読み込まれ、特徴抽出部2によりn次元入力ベクトル(x[1],x[2],・・・,x[n])が生成される。その後、識別部4により、処理対象の優先順位を表すkが初期値1に、入力ベクトルとクラス1との類似度を示す距離D1が初期値0に、入力ベクトルとクラス2との類似度を示す距離D2が初期値0に設定される(S21~25)。
 続いて、識別部4は、特徴選択表6における優先順位がk番目の特徴番号i[k]について、入力ベクトルxとクラス1の参照ベクトルy1との類似度(ユークリッド距離の2乗)を計算する(ステップS26-1)。識別部4は、さらに、特徴選択表6における優先順位がk番目の特徴番号i[k]について、入力ベクトルxとクラス2の参照ベクトルy2との類似度を計算する(ステップS26-2)。続いて、識別部4は、D1とD2との大きさを比較する(ステップS27)。
 ステップS27においてD1>D2ならば、識別部4は、kをインクリメントし(ステップS28)、kとmとを比較する(ステップS29)。k<mならば、ステップS26-1以降の処理が繰り返される。k=mならば、識別部4は、入力ベクトルが所属するクラスを、クラス1に識別する(ステップS30-1)。
 ステップS27においてD1<D2ならば、識別部4は、入力ベクトルが所属するクラスをクラス2(棄却)と識別する(ステップS30-2)。
 以上、実施例1及び実施例2について説明した。尚、実施例1及び実施例2では、クラス数を2とした場合について説明した。しかクラス数が3以上であっても、本発明は有効である。また、一つのクラスを代表する参照ベクトルが複数存在する場合でも、本発明は有効である。また、類似度の尺度として、内積や、ユークリッド距離の2乗を求めた後にexp関数に入力する、いわゆるガウシアンカーネルなどのパラメータを用いることも可能である。
 本発明は、画像中に含まれる車両や人物などの対象物を自動検出する検出装置や、検出装置をコンピュータに実現するためのプログラムといった用途に適用できる。
 なお、本出願は、日本出願番号2009-022898に基づく優先権を主張するものであり、日本出願番号2009-022898における開示内容は引用により本出願に組み込まれる。
 1 データ入力部
 2 特徴抽出部
 3 特徴選択部
 4 識別部
 5 結果出力部
 6 特徴選択表
 7 特徴選択表作成部
 8 認識辞書作成部
 9 認識辞書
 81 参照ベクトル候補設定部
 82 追加特徴候補選択部
 83 損失計算部
 84 決定部
 85 FRR計算部

Claims (18)

  1.  入力データからn(nは自然数)個の特徴を抽出し、n次元特徴ベクトルを生成する特徴抽出部と、
     前記n次元特徴ベクトルから、特徴と優先順位との関係を示す特徴選択表に基づいて、m(m<n)個の特徴を選択し、m次元特徴ベクトルを生成する、特徴選択部と、
     前記m次元特徴ベクトルを、複数のクラスの各々についてm次元参照ベクトルを示す認識辞書と照合することにより、前記入力ベクトルが属するクラスを識別する識別部と、
     前記特徴選択表を作成する特徴選択表作成部と、
     前記認識辞書を作成する認識辞書作成部と、
    を具備し、
     前記特徴選択表作成部は、複数の優先順位に対して、一つずつ順番に追加特徴を対応付けることによって、前記特徴選択表を作成し、
     前記認識辞書作成部は、p(pは0以上の整数)番目の優先順位にまで前記各特徴が対応付けられているときに、前記入力データが異なるクラスに識別される危険度を示す損失Rが最小となるように、(p+1)番目の優先順位に対応付けられる前記追加特徴と、(p+1)個の特徴を有する(p+1)次元参照ベクトルとを決定し、前記pを「p+1=m」となるまでインクリメントすることにより、前記m次元参照ベクトルを決定する
    パターン認識装置。
  2.  請求項1に記載されたパターン認識装置であって、
     前記認識辞書作成部は、
      前記各クラスについて前記(p+1)次元参照ベクトルの候補を設定する参照ベクトル候補設定部と、
      前記n個の特徴のうちで優先順位が対応付けられていない前記追加特徴候補群の中から、追加特徴候補を選択する追加特徴候補選択部と、
      前記特徴選択表として前記(p+1)番目の優先順位に前記追加特徴候補が追加されたときの表が用いられ、且つ、参照ベクトルとして前記(p+1)次元参照ベクトル候補が用いられたときの条件で、前記損失Rを計算する損失計算部と、
      前記損失Rが最小となるように、前記追加特徴候補及び前記(p+1)次元参照ベクトル候補を探索し、探索結果を前記追加特徴及び前記(p+1)次元参照ベクトルに決定する決定部と、を備える
    パターン認識装置。
  3.  請求項2に記載されたパターン認識装置であって、
     前記決定部は、前記(p+1)次元参照ベクトルの候補を探索する際に、前記(p+1)次元参照ベクトルの候補に含まれる(p+1)個の特徴の全てについて、要素値を探索する
    パターン認識装置。
  4.  請求項2に記載されたパターン認識装置であって、
     前記認識辞書作成部は、
      前記複数のクラスから予め設定される設定クラスに属する前記入力データが、前記設定クラスとは別のクラスに識別される確率を、FRR(false reject rate)として計算する、FRR計算部を備え、
     前記決定部は、前記FRR計算部により計算されるFRRが予め設定された目標値FRR*以下となる条件の下で、前記損失Rが最小となるように、前記追加特徴候補及び前記(p+1)次元参照ベクトル候補を探索する
    パターン認識装置。
  5.  請求項4に記載されたパターン認識装置であって、
     前記決定部は、前記(p+1)次元参照ベクトル候補を探索するにあたり、優先順位が1番目からp番目までの特徴の値をp次元参照ベクトルと同じ値に固定し、前記追加特徴候補の要素値だけを探索する
    パターン認識装置。
  6.  請求項4又は5に記載されたパターン認識装置であって、
     前記識別部は、
      前記m次元特徴ベクトルにおいて優先順位がk(kは1~m)番目の特徴の要素値x(k)を、前記各クラスの参照ベクトルにおけるk番目の特徴の要素値y(k)と比較し、
      前記x(k)が前記設定クラスとは別の非設定クラスの前記y(k)に最も類似していたときに、前記入力データを棄却し、
      1番目からm番目の全ての特徴について、前記x(k)が前記設定クラスの前記y(k)に最も類似していた場合に、前記n次元特徴ベクトルが属するクラスが前記設定クラスであると識別する
    パターン認識装置。
  7.  入力データからn(nは自然数)個の特徴を抽出し、n次元特徴ベクトルを生成するステップと、
     前記n次元特徴ベクトルから、特徴と優先順位との関係を示す特徴選択表に基づいて、m(m<n)個の特徴を選択し、m次元特徴ベクトルを生成するステップと、
     前記m次元特徴ベクトルを、参照ベクトルを含む認識辞書と比較して、前記入力データベクトルが属するクラスを識別するステップと、
     前記特徴選択表を作成するステップと、
     前記認識辞書を作成するステップと、
    を具備し、
     前記特徴選択表を作成するステップは、
      前記m個の特徴のそれぞれに対し、優先順位の順番で、一つづつ優先順位を対応付けることによって、前記特徴選択表を作成するステップを備え、
     前記認識辞書を作成するステップは、
      p(pは0以上の整数)番目の優先順位にまで前記各特徴が対応付けられているときに、前記入力データが異なるクラスに識別される危険度を示す損失Rが最小となるように、(p+1)番目の優先順位に対応付けられる追加特徴と、(p+1)個の特徴を有する(p+1)次元の参照ベクトルとを決定するステップと、
      前記pを「p+1=m」となるまでインクリメントすることにより、前記m次元参照ベクトルを決定するステップとを備える
    パターン認識方法。
  8.  請求項7に記載されたパターン認識方法であって、
     前記認識辞書を作成するステップは、
      前記各クラスについて(p+1)次元参照ベクトルの候補を設定するステップと、
      前記n個の特徴のうちで優先順位が対応付けられていない追加特徴候補群の中から、追加特徴候補を設定するステップと、
      前記(p+1)番目の優先順位に前記追加特徴候補が追加され、且つ、前記参照ベクトルとして前記(p+1)次元参照ベクトル候補が採用されたときの前記損失Rを計算するステップと、
      前記損失Rが最小となるように前記追加特徴候補及び前記(p+1)次元参照ベクトルの候補を探索するステップと、
      前記探索するステップにおける探索結果を前記追加特徴及び前記(p+1)次元参照ベクトルとして決定するステップとを備える
    パターン認識方法。
  9.  請求項8に記載されたパターン認識方法であって、
     前記決定するステップは、前記(p+1)次元参照ベクトルの候補を探索する際に、前記(p+1)次元参照ベクトルの候補に含まれる(p+1)個の特徴の全てについて、要素値を探索するステップを含んでいる
    パターン認識方法。
  10.  請求項8に記載されたパターン認識方法であって、
     前記認識辞書を作成するステップは、
      前記複数のクラスから予め設定される設定クラスに属する前記入力データが、前記設定クラスとは別のクラスに識別される確率を、FRR(false reject rate)として計算するステップを含み、
     前記決定するステップは、前記FRRが予め設定された目標値FRR*以下となる条件の下で、前記損失Rが最小となるように、前記追加特徴候補及び前記(p+1)次元参照ベクトル候補を探索するステップを含んでいる
    パターン認識方法。
  11.  請求項10に記載されたパターン認識方法であって、
     前記決定するステップは、前記(p+1)次元参照ベクトル候補を探索するにあたり、1番目からp番目までの特徴の値をp次元参照ベクトルにおける値と同じ値に固定し、(p+1)番目の特徴の値だけを変更するステップを含んでいる
    パターン認識方法。
  12.  請求項10又は11に記載されたパターン認識方法であって、
     前記識別するステップは、
      前記m次元特徴ベクトルにおいて優先順位がk(kは1~m)番目の特徴の値x(k)を、前記各クラスの参照ベクトルにおけるk番目の特徴の値y(k)と比較するステップと、
      前記x(k)が前記設定クラスとは別の非設定クラスの前記y(k)に最も類似していたときに、前記入力データを棄却するステップと、
      1番目からm番目の全ての特徴について、前記x(k)が前記設定クラスの前記y(k)に最も類似していた場合に、前記n次元特徴ベクトルが属するクラスを前記設定クラスに識別するステップとを含んでいる
    パターン認識方法。
  13.  入力データからn(nは自然数)個の特徴を抽出し、n次元特徴ベクトルを生成するステップと、
     前記n次元特徴ベクトルから、特徴と優先順位との関係を示す特徴選択表に基づいて、m(m<n)個の特徴を選択し、m次元特徴ベクトルを生成するステップと、
     前記m次元特徴ベクトルを、参照ベクトルを含む認識辞書と比較して、前記入力データベクトルが属するクラスを識別するステップと、
     前記特徴選択表を作成するステップと、
     前記認識辞書を作成するステップと、
    を具備し、
     前記特徴選択表を作成するステップは、
      前記m個の特徴のそれぞれに対し、優先順位の順番で、一つづつ優先順位を対応付けることによって、前記特徴選択表を作成するステップを備え、
     前記認識辞書を作成するステップは、
      p(pは0以上の整数)番目の優先順位にまで前記各特徴が対応付けられているときに、前記入力データが異なるクラスに識別される危険度を示す損失Rが最小となるように、(p+1)番目の優先順位に対応付けられる追加特徴と、(p+1)個の特徴を有する(p+1)次元の参照ベクトルとを決定するステップと、
      前記pを「p+1=m」となるまでインクリメントすることにより、前記m次元参照ベクトルを決定するステップとを備える
    パターン認識方法をコンピュータに実行させるための、パターン認識プログラム。
  14.  請求項13に記載されたパターン認識プログラムであって、
     前記認識辞書を作成するステップは、
      前記各クラスについて(p+1)次元参照ベクトルの候補を設定するステップと、
      前記n個の特徴のうちで優先順位が対応付けられていない追加特徴候補群の中から、追加特徴候補を設定するステップと、
      前記(p+1)番目の優先順位に前記追加特徴候補が追加され、且つ、前記参照ベクトルとして前記(p+1)次元参照ベクトル候補が採用されたときの前記損失Rを計算するステップと、
      前記損失Rが最小となるように前記追加特徴候補及び前記(p+1)次元参照ベクトルの候補を探索するステップと、
      前記探索するステップにおける探索結果を前記追加特徴及び前記(p+1)次元参照ベクトルとして決定するステップとを備える
    パターン認識プログラム。
  15.  請求項14に記載されたパターン認識プログラムであって、
     前記決定するステップは、前記(p+1)次元参照ベクトルの候補を探索する際に、前記(p+1)次元参照ベクトルの候補に含まれる(p+1)個の特徴の全てについて、要素値を探索するステップを含んでいる
    パターン認識プログラム。
  16.  請求項14に記載されたパターン認識プログラムであって、
     前記認識辞書を作成するステップは、
      前記複数のクラスから予め設定される設定クラスに属する前記入力データが、前記設定クラスとは別のクラスに識別される確率を、FRR(false reject rate)として計算するステップを含み、
     前記決定するステップは、前記FRRが予め設定された目標値FRR*以下となる条件の下で、前記損失Rが最小となるように、前記追加特徴候補及び前記(p+1)次元参照ベクトル候補を探索するステップを含んでいる
    パターン認識プログラム。
  17.  請求項16に記載されたパターン認識プログラムであって、
     前記決定するステップは、前記(p+1)次元参照ベクトル候補を探索するにあたり、1番目からp番目までの特徴の値をp次元参照ベクトルにおける値と同じ値に固定し、(p+1)番目の特徴の値だけを変更するステップを含んでいる
    パターン認識プログラム。
  18.  請求項16又は17に記載されたパターン認識プログラムであって、
     前記識別するステップは、
      前記m次元特徴ベクトルにおいて優先順位がk(kは1~m)番目の特徴の値x(k)を、前記各クラスの参照ベクトルにおけるk番目の特徴の値y(k)と比較するステップと、
      前記x(k)が前記設定クラスとは別の非設定クラスの前記y(k)に最も類似していたときに、前記入力データを棄却するステップと、
      1番目からm番目の全ての特徴について、前記x(k)が前記設定クラスの前記y(k)に最も類似していた場合に、前記n次元特徴ベクトルが属するクラスを前記設定クラスに識別するステップとを含んでいる
    パターン認識プログラム。
PCT/JP2010/051444 2009-02-03 2010-02-02 パターン認識装置、パターン認識方法およびパターン認識プログラム WO2010090189A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/147,451 US8612370B2 (en) 2009-02-03 2010-02-02 Pattern recognition device, pattern recognition method, and pattern recognition program
JP2010549476A JP5408143B2 (ja) 2009-02-03 2010-02-02 パターン認識装置、パターン認識方法およびパターン認識プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009022898 2009-02-03
JP2009-022898 2009-02-03

Publications (1)

Publication Number Publication Date
WO2010090189A1 true WO2010090189A1 (ja) 2010-08-12

Family

ID=42542083

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/051444 WO2010090189A1 (ja) 2009-02-03 2010-02-02 パターン認識装置、パターン認識方法およびパターン認識プログラム

Country Status (3)

Country Link
US (1) US8612370B2 (ja)
JP (1) JP5408143B2 (ja)
WO (1) WO2010090189A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8965111B2 (en) 2010-09-09 2015-02-24 Nec Corporation Learning apparatus, a learning system, learning method and a learning program for object discrimination
JP6312913B1 (ja) * 2017-09-01 2018-04-18 ヤフー株式会社 情報処理装置、情報処理方法、および情報処理プログラム

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8983170B2 (en) * 2008-01-18 2015-03-17 Mitek Systems, Inc. Systems and methods for developing and verifying image processing standards for mobile deposit
US9842331B2 (en) 2008-01-18 2017-12-12 Mitek Systems, Inc. Systems and methods for mobile image capture and processing of checks
US10528925B2 (en) 2008-01-18 2020-01-07 Mitek Systems, Inc. Systems and methods for mobile automated clearing house enrollment
US10891475B2 (en) 2010-05-12 2021-01-12 Mitek Systems, Inc. Systems and methods for enrollment and identity management using mobile imaging
US10152533B2 (en) 2012-10-18 2018-12-11 Thomson Reuters Global Resources Unlimited Company System, method and interface for providing a search result using segment constraints
US9536139B2 (en) 2013-03-15 2017-01-03 Mitek Systems, Inc. Systems and methods for assessing standards for mobile image quality
JP2014215877A (ja) * 2013-04-26 2014-11-17 株式会社デンソー 物体検出装置
JP6904249B2 (ja) * 2015-03-19 2021-07-14 日本電気株式会社 オブジェクト検出装置、オブジェクト検出方法およびプログラム
TWI629675B (zh) * 2017-08-18 2018-07-11 財團法人工業技術研究院 影像辨識系統及其資訊顯示方法
US11126199B2 (en) * 2018-04-16 2021-09-21 Baidu Usa Llc Learning based speed planner for autonomous driving vehicles
US11393272B2 (en) 2019-09-25 2022-07-19 Mitek Systems, Inc. Systems and methods for updating an image registry for use in fraud detection related to financial documents
JP7297704B2 (ja) 2020-03-17 2023-06-26 株式会社東芝 照合装置、照合方法およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05101186A (ja) * 1991-10-08 1993-04-23 Sumitomo Cement Co Ltd 光学的パターン識別方法
JP2001184509A (ja) * 1999-12-24 2001-07-06 Nec Corp パターン認識装置及び方法並びに記録媒体
JP2008217589A (ja) * 2007-03-06 2008-09-18 Toshiba Corp 学習装置及びパターン認識装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05101186A (ja) * 1991-10-08 1993-04-23 Sumitomo Cement Co Ltd 光学的パターン識別方法
JP2001184509A (ja) * 1999-12-24 2001-07-06 Nec Corp パターン認識装置及び方法並びに記録媒体
JP2008217589A (ja) * 2007-03-06 2008-09-18 Toshiba Corp 学習装置及びパターン認識装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8965111B2 (en) 2010-09-09 2015-02-24 Nec Corporation Learning apparatus, a learning system, learning method and a learning program for object discrimination
JP6312913B1 (ja) * 2017-09-01 2018-04-18 ヤフー株式会社 情報処理装置、情報処理方法、および情報処理プログラム

Also Published As

Publication number Publication date
US20110289028A1 (en) 2011-11-24
JPWO2010090189A1 (ja) 2012-08-09
US8612370B2 (en) 2013-12-17
JP5408143B2 (ja) 2014-02-05

Similar Documents

Publication Publication Date Title
JP5408143B2 (ja) パターン認識装置、パターン認識方法およびパターン認識プログラム
Einsidler et al. A deep learning approach to target recognition in side-scan sonar imagery
CN110852349B (zh) 一种图像处理方法、检测方法、相关设备及存储介质
EP3355244A1 (en) Data fusion and classification with imbalanced datasets
US11537930B2 (en) Information processing device, information processing method, and program
US9600745B2 (en) Image recognition system, image recognition method, and non-transitory computer readable medium storing image recognition program
US8761510B2 (en) Object-centric spatial pooling for image classification
US11450023B2 (en) Method and apparatus for detecting anchor-free object based on deep learning
US10762389B2 (en) Methods and systems of segmentation of a document
CN111126482A (zh) 一种基于多分类器级联模型的遥感影像自动分类方法
CN114372968B (zh) 结合注意力机制与自适应记忆性融合网络的瑕疵检测方法
JP2006155594A (ja) パターン認識装置、パターン認識方法
Gonzalez-Diaz et al. Neighborhood matching for image retrieval
EP3526728B1 (en) System and method for object recognition based estimation of planogram compliance
JP2016151805A (ja) オブジェクト検出装置、オブジェクト検出方法、及びプログラム
Khaustov et al. Algorithm for optical handwritten characters recognition based on structural components extraction
CN116863250A (zh) 一种涉及多模态未知类识别的开放场景目标检测方法
Boillet et al. Confidence estimation for object detection in document images
US20230206589A1 (en) Apparatus and method for detecting object using object boundary localization uncertainty aware network and attention module
Gladence et al. A novel technique for multi-class ordinal regression-APDC
CN111931767B (zh) 一种基于图片信息度的多模型目标检测方法、装置、系统及存储介质
KR102295619B1 (ko) 소나영상에서 사전형상 판별을 통한 표적식별 고속화 방법
CN115393388A (zh) 一种基于位置不确定性估计的单目标跟踪方法
CN114764886B (zh) 基于cfar指导的双流ssd sar图像目标检测方法
Qin et al. Target tracking method based on interference detection

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10738521

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010549476

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13147451

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10738521

Country of ref document: EP

Kind code of ref document: A1