WO2010090189A1 - パターン認識装置、パターン認識方法およびパターン認識プログラム - Google Patents
パターン認識装置、パターン認識方法およびパターン認識プログラム Download PDFInfo
- Publication number
- WO2010090189A1 WO2010090189A1 PCT/JP2010/051444 JP2010051444W WO2010090189A1 WO 2010090189 A1 WO2010090189 A1 WO 2010090189A1 JP 2010051444 W JP2010051444 W JP 2010051444W WO 2010090189 A1 WO2010090189 A1 WO 2010090189A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- feature
- class
- reference vector
- dimensional
- vector
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
- G06F18/2113—Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
Definitions
- Non-Patent Document 1 (Ishii et al., “Easy-to-understand pattern recognition”, Ohm Publishing Co., Ltd., August 20, 1998, pp. 2-3), Patent Document 1 (Japanese Patent Laid-Open No. 2002-259911). 14; FIG. 1) and Non-Patent Document 2 (Toriwaki, “Recognition Engineering: Pattern Recognition and its Applications”, Television Society Textbook Series 9, Corona, March 15, 1993, pp. 153 -154).
- an object of the present invention is to provide a pattern recognition apparatus, a pattern recognition method, and a pattern recognition program capable of performing pattern recognition with high accuracy even on a vector after feature selection.
- the feature selection table creation unit creates the feature selection table by associating each of the m features with priorities one by one in order of priority.
- the recognition dictionary creation unit has a loss R indicating a risk that the input data is identified as a different class when each feature is associated with the p-th priority (p is an integer of 0 or more).
- An additional feature associated with the (p + 1) th priority and a (p + 1) -dimensional reference vector having (p + 1) features are determined so as to be minimized. The determined additional feature is notified to the feature selection table creation unit, and the recognition dictionary is created based on the determined (p + 1) -dimensional reference vector.
- a pattern recognition apparatus capable of performing pattern recognition with high accuracy even on a vector after a feature is selected.
- FIG. 4 is a conceptual diagram showing the feature selection table 6.
- the feature selection table 6 is a table showing the priority order when selecting features.
- the feature selection table 6 shows a plurality of priorities associated with a plurality of features. Specifically, the feature selection table 6 describes the correspondence between the feature number for identifying each feature and each priority.
- the feature extraction unit 2 extracts n features from the input data, and generates a vector having n features (n-dimensional feature vector). For example, when the input data is image data, the feature extraction unit 2 converts the image data into a monochrome grayscale image, divides the monochrome grayscale image into a plurality of 10 ⁇ 10 horizontal regions, The average of the luminance values is obtained in each. Thereby, a 100-dimensional feature vector is obtained.
- the identification unit 4 identifies the class to which the m-dimensional feature vector belongs by referring to the recognition dictionary 9.
- the result output unit 5 outputs the identification result in the identification unit 4 to an output device such as a display device (for example, a display).
- a display device for example, a display
- the feature selection table creation unit 7 creates the feature selection table 6.
- FIG. 5 is a flowchart showing the operation at the time of identification.
- the feature selection unit 5 performs dimension reduction based on the feature selection table 6. At this time, the feature selection unit 5 only needs to select m features from the n-dimensional feature vector according to the priority order. That is, among n features in the n-dimensional feature vector, the number of features used for processing is m, so that the amount of calculation at the time of feature selection can be reduced.
- the feature selection table 6 and the identification dictionary 9 must be created accurately. Therefore, in the present embodiment, a device has been devised for the processing when the feature selection table 6 and the recognition dictionary 9 are created.
- FIG. 6 is a flowchart schematically showing the operation during learning.
- Step S2 Reading Input Data
- the data input unit 1 reads each of a plurality of learning data as input data.
- the feature selection table 6 and the recognition dictionary 9 are created by the operations in steps S1 to S9 described above.
- the feature selection table 6 is created by adding additional features one by one in order of priority.
- the additional feature is determined so that the loss R is minimized.
- the recognition dictionary 9 is corrected based on the (p + 1) -dimensional reference vector. If the feature selection table 6 and the recognition dictionary 9 created in this way are used, m features are always selected so that the loss R is minimized.
- the element value of the m-dimensional reference vector used for identification is set to a value that minimizes the loss R in the m dimension. That is, the priority order described in the feature selection table 6 and the reference vector included in the recognition dictionary 9 are optimized in the dimension (m dimension) after feature selection. Therefore, at the time of identification, it is possible to perform the identification with high accuracy while suppressing the calculation amount.
- step S5 the recognition dictionary creation unit 8 calculates the loss R when the additional feature candidate is added to the (p + 1) -th priority by the loss calculation unit 83.
- the additional feature candidate is selected by the additional feature candidate selecting unit 82 from a feature group (hereinafter referred to as an additional candidate feature group) whose priority order is not determined among the n features.
- the reference vector candidate setting unit 81 calculates the loss R while changing the (p + 1) -dimensional reference vector candidates of each class. That is, the loss calculation unit 83 calculates the loss R for each of all combinations of additional feature candidates and (p + 1) -dimensional reference vector candidates.
- the determination unit 84 obtains (searches for) a combination of the additional feature vector candidate and the reference vector candidate that minimizes the loss R.
- the determining unit 84 corrects the identification dictionary 9 based on the (p + 1) -dimensional reference vector candidate as a search result. Further, the additional feature candidate of the search result is determined as the additional feature. At this time, the determination unit 84 searches for the optimum element value for each of all the features (p + 1 features) in the (p + 1) -dimensional reference vector candidates.
- the determination unit 84 searches for a combination having the smallest loss R among the combinations.
- the determination unit 84 notifies the feature selection table creation unit 7 of additional feature candidates that are the search results as additional features.
- the feature selection table creation unit 7 corrects the feature selection table 6 by associating the notified additional feature with the (p + 1) th priority. Further, the determination unit 84 corrects (creates) the recognition dictionary 9 based on the (p + 1) -dimensional reference vector candidate that is the result of the search.
- FIG. 14 shows an example in which a feature value f 2 having the second highest priority is added.
- the reference vector values (y 1 [1] and y 2 [1]) for the feature with the first priority are not changed.
- the reference vector values (y 1 [2] and y 2 [2]) for the feature having the second priority are the positions of y 1 [1] and y 2 [1] (“black circle” in FIG. 14). It is set on a line extending from the indicated position. Further, the position where the FRR relating to class 1 is equal to or less than the target value FRR * and the loss is minimum (the position indicated by x) is obtained, and the identification plane is set at the position indicated by the broken line.
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
Description
図3は、本実施形態に係るパターン認識装置を示す概略ブロック図である。このパターンに認識装置は、識別対象のデータを、複数のクラスのいずれかに識別する装置である。パターン認識装置は、データ入力部1と、特徴抽出部2と、特徴選択部3と、識別部4と、結果出力部5と、特徴選択表6と、特徴選択表作成部7と、認識辞書作成部8と、認識辞書9とを備えている。このパターン認識装置は、コンピュータにより実現される。データ入力部1、特徴抽出部2、特徴選択部3、識別部4、結果出力部5、特徴選択表作成部7、及び認識辞書作成部8は、CPUがROM(Read only memory)等にインストールされたパターン認識プログラムを実行することにより、実現される。特徴選択表6及び認識辞書9は、RAM(Random access memory)やハードディスクなどに例示される記憶媒体に格納されたデータにより実現できる。
まず、複数の学習用のデータが用意される。複数の学習用のデータの各々は、所属するクラスが既知であるデータである。また、特徴選択表6と認識辞書9とが初期化される。すなわち、特徴選択表6及び認識辞書9が、学習に使用できる状態に設定される。
次に、データ入力部1が、複数の学習用のデータの各々を、入力データとして読み込む。
特徴抽出部2が、読み込んだ入力データからn個の特徴を抽出し、n次元特徴ベクトル(以下、n次元学習ベクトル)を生成する。
続いて、特徴選択表作成部7が、優先順位が対応付けられている各特徴の数を表すpを、初期値0に設定する。p=0の場合、特徴選択表6には、優先順位が対応付けられた各特徴が1つもないことを示している。
続いて、認識辞書作成部8が、次の優先順位(p+1番目の優先順位)に対応付けるべき追加特徴と、(p+1)次元参照ベクトルとを決定する。具体的には、特徴選択部3は、n次元学習ベクトルを、そのまま認識辞書作成部8に通知する。認識辞書作成部8は、n次元学習ベクトルに基づいて、損失Rが最小となるように、(p+1)番目の優先順位として追加される追加特徴と、(p+1)個の特徴を有する(p+1)次元の参照ベクトルとを決定する。ここで、損失Rは、入力データが異なるクラスに識別される危険度を示すパラメータである。損失Rは、各クラスの参照ベクトルが決まっていれば、所属クラスが既知である学習用データに基づいて、計算することができる。
認識辞書作成部8は、ステップS5で決定された(p+1)次元参照ベクトルに基づいて、認識辞書9を修正する。具体的には、認識辞書9のm次元参照ベクトルに含まれるm個の特徴のうちの(p+1)個について、その要素値を、ステップS5で決定された(p+1)次元参照ベクトルの要素値に修正する。具体例を挙げると、認識辞書9において、m(=4)次元参照ベクトルとして(1、0、0、0)が設定されており、(p+1)次元参照ベクトルとして(2、4)が計算された場合には、認識辞書9におけるm次元参照ベクトルを、(2、4、0、0)に修正する。
特徴選択表作成部7は、認識辞書作成部8で決定された追加特徴に、(p+1)番目の優先順位を対応付けることにより、特徴選択表6を修正する。
特徴選択表6が修正された後、pがインクリメントされる。
pが、規定の数(特徴選択時に選択される次元の数)mよりも少なければ、再びステップS5以降の処理が繰り返される。一方、pが数mに達した場合には、pのインクリメントを行わず、処理を終了する。すなわち、pは、「p+1=m」となるまでインクリメントされる。
続いて、本発明の第2の実施形態について説明する。図10は、本実施形態に係るパターン認識装置を示すブロック図である。本実施形態に係るパターン認識装置は、第1の実施形態に対して、認識辞書作成部8に、誤棄却率(False Reject Rate;FRR)を計算するFRR計算部85が追加されている。また、本実施形態では、複数のクラスのうちの少なくとも一つのクラスが、設定クラスに設定されている。
本実施形態をより詳細に説明する為、実施例について説明する。
続いて、第2の実施形態をより詳細に説明する為、実施例2について説明する。
2 特徴抽出部
3 特徴選択部
4 識別部
5 結果出力部
6 特徴選択表
7 特徴選択表作成部
8 認識辞書作成部
9 認識辞書
81 参照ベクトル候補設定部
82 追加特徴候補選択部
83 損失計算部
84 決定部
85 FRR計算部
Claims (18)
- 入力データからn(nは自然数)個の特徴を抽出し、n次元特徴ベクトルを生成する特徴抽出部と、
前記n次元特徴ベクトルから、特徴と優先順位との関係を示す特徴選択表に基づいて、m(m<n)個の特徴を選択し、m次元特徴ベクトルを生成する、特徴選択部と、
前記m次元特徴ベクトルを、複数のクラスの各々についてm次元参照ベクトルを示す認識辞書と照合することにより、前記入力ベクトルが属するクラスを識別する識別部と、
前記特徴選択表を作成する特徴選択表作成部と、
前記認識辞書を作成する認識辞書作成部と、
を具備し、
前記特徴選択表作成部は、複数の優先順位に対して、一つずつ順番に追加特徴を対応付けることによって、前記特徴選択表を作成し、
前記認識辞書作成部は、p(pは0以上の整数)番目の優先順位にまで前記各特徴が対応付けられているときに、前記入力データが異なるクラスに識別される危険度を示す損失Rが最小となるように、(p+1)番目の優先順位に対応付けられる前記追加特徴と、(p+1)個の特徴を有する(p+1)次元参照ベクトルとを決定し、前記pを「p+1=m」となるまでインクリメントすることにより、前記m次元参照ベクトルを決定する
パターン認識装置。 - 請求項1に記載されたパターン認識装置であって、
前記認識辞書作成部は、
前記各クラスについて前記(p+1)次元参照ベクトルの候補を設定する参照ベクトル候補設定部と、
前記n個の特徴のうちで優先順位が対応付けられていない前記追加特徴候補群の中から、追加特徴候補を選択する追加特徴候補選択部と、
前記特徴選択表として前記(p+1)番目の優先順位に前記追加特徴候補が追加されたときの表が用いられ、且つ、参照ベクトルとして前記(p+1)次元参照ベクトル候補が用いられたときの条件で、前記損失Rを計算する損失計算部と、
前記損失Rが最小となるように、前記追加特徴候補及び前記(p+1)次元参照ベクトル候補を探索し、探索結果を前記追加特徴及び前記(p+1)次元参照ベクトルに決定する決定部と、を備える
パターン認識装置。 - 請求項2に記載されたパターン認識装置であって、
前記決定部は、前記(p+1)次元参照ベクトルの候補を探索する際に、前記(p+1)次元参照ベクトルの候補に含まれる(p+1)個の特徴の全てについて、要素値を探索する
パターン認識装置。 - 請求項2に記載されたパターン認識装置であって、
前記認識辞書作成部は、
前記複数のクラスから予め設定される設定クラスに属する前記入力データが、前記設定クラスとは別のクラスに識別される確率を、FRR(false reject rate)として計算する、FRR計算部を備え、
前記決定部は、前記FRR計算部により計算されるFRRが予め設定された目標値FRR*以下となる条件の下で、前記損失Rが最小となるように、前記追加特徴候補及び前記(p+1)次元参照ベクトル候補を探索する
パターン認識装置。 - 請求項4に記載されたパターン認識装置であって、
前記決定部は、前記(p+1)次元参照ベクトル候補を探索するにあたり、優先順位が1番目からp番目までの特徴の値をp次元参照ベクトルと同じ値に固定し、前記追加特徴候補の要素値だけを探索する
パターン認識装置。 - 請求項4又は5に記載されたパターン認識装置であって、
前記識別部は、
前記m次元特徴ベクトルにおいて優先順位がk(kは1~m)番目の特徴の要素値x(k)を、前記各クラスの参照ベクトルにおけるk番目の特徴の要素値y(k)と比較し、
前記x(k)が前記設定クラスとは別の非設定クラスの前記y(k)に最も類似していたときに、前記入力データを棄却し、
1番目からm番目の全ての特徴について、前記x(k)が前記設定クラスの前記y(k)に最も類似していた場合に、前記n次元特徴ベクトルが属するクラスが前記設定クラスであると識別する
パターン認識装置。 - 入力データからn(nは自然数)個の特徴を抽出し、n次元特徴ベクトルを生成するステップと、
前記n次元特徴ベクトルから、特徴と優先順位との関係を示す特徴選択表に基づいて、m(m<n)個の特徴を選択し、m次元特徴ベクトルを生成するステップと、
前記m次元特徴ベクトルを、参照ベクトルを含む認識辞書と比較して、前記入力データベクトルが属するクラスを識別するステップと、
前記特徴選択表を作成するステップと、
前記認識辞書を作成するステップと、
を具備し、
前記特徴選択表を作成するステップは、
前記m個の特徴のそれぞれに対し、優先順位の順番で、一つづつ優先順位を対応付けることによって、前記特徴選択表を作成するステップを備え、
前記認識辞書を作成するステップは、
p(pは0以上の整数)番目の優先順位にまで前記各特徴が対応付けられているときに、前記入力データが異なるクラスに識別される危険度を示す損失Rが最小となるように、(p+1)番目の優先順位に対応付けられる追加特徴と、(p+1)個の特徴を有する(p+1)次元の参照ベクトルとを決定するステップと、
前記pを「p+1=m」となるまでインクリメントすることにより、前記m次元参照ベクトルを決定するステップとを備える
パターン認識方法。 - 請求項7に記載されたパターン認識方法であって、
前記認識辞書を作成するステップは、
前記各クラスについて(p+1)次元参照ベクトルの候補を設定するステップと、
前記n個の特徴のうちで優先順位が対応付けられていない追加特徴候補群の中から、追加特徴候補を設定するステップと、
前記(p+1)番目の優先順位に前記追加特徴候補が追加され、且つ、前記参照ベクトルとして前記(p+1)次元参照ベクトル候補が採用されたときの前記損失Rを計算するステップと、
前記損失Rが最小となるように前記追加特徴候補及び前記(p+1)次元参照ベクトルの候補を探索するステップと、
前記探索するステップにおける探索結果を前記追加特徴及び前記(p+1)次元参照ベクトルとして決定するステップとを備える
パターン認識方法。 - 請求項8に記載されたパターン認識方法であって、
前記決定するステップは、前記(p+1)次元参照ベクトルの候補を探索する際に、前記(p+1)次元参照ベクトルの候補に含まれる(p+1)個の特徴の全てについて、要素値を探索するステップを含んでいる
パターン認識方法。 - 請求項8に記載されたパターン認識方法であって、
前記認識辞書を作成するステップは、
前記複数のクラスから予め設定される設定クラスに属する前記入力データが、前記設定クラスとは別のクラスに識別される確率を、FRR(false reject rate)として計算するステップを含み、
前記決定するステップは、前記FRRが予め設定された目標値FRR*以下となる条件の下で、前記損失Rが最小となるように、前記追加特徴候補及び前記(p+1)次元参照ベクトル候補を探索するステップを含んでいる
パターン認識方法。 - 請求項10に記載されたパターン認識方法であって、
前記決定するステップは、前記(p+1)次元参照ベクトル候補を探索するにあたり、1番目からp番目までの特徴の値をp次元参照ベクトルにおける値と同じ値に固定し、(p+1)番目の特徴の値だけを変更するステップを含んでいる
パターン認識方法。 - 請求項10又は11に記載されたパターン認識方法であって、
前記識別するステップは、
前記m次元特徴ベクトルにおいて優先順位がk(kは1~m)番目の特徴の値x(k)を、前記各クラスの参照ベクトルにおけるk番目の特徴の値y(k)と比較するステップと、
前記x(k)が前記設定クラスとは別の非設定クラスの前記y(k)に最も類似していたときに、前記入力データを棄却するステップと、
1番目からm番目の全ての特徴について、前記x(k)が前記設定クラスの前記y(k)に最も類似していた場合に、前記n次元特徴ベクトルが属するクラスを前記設定クラスに識別するステップとを含んでいる
パターン認識方法。 - 入力データからn(nは自然数)個の特徴を抽出し、n次元特徴ベクトルを生成するステップと、
前記n次元特徴ベクトルから、特徴と優先順位との関係を示す特徴選択表に基づいて、m(m<n)個の特徴を選択し、m次元特徴ベクトルを生成するステップと、
前記m次元特徴ベクトルを、参照ベクトルを含む認識辞書と比較して、前記入力データベクトルが属するクラスを識別するステップと、
前記特徴選択表を作成するステップと、
前記認識辞書を作成するステップと、
を具備し、
前記特徴選択表を作成するステップは、
前記m個の特徴のそれぞれに対し、優先順位の順番で、一つづつ優先順位を対応付けることによって、前記特徴選択表を作成するステップを備え、
前記認識辞書を作成するステップは、
p(pは0以上の整数)番目の優先順位にまで前記各特徴が対応付けられているときに、前記入力データが異なるクラスに識別される危険度を示す損失Rが最小となるように、(p+1)番目の優先順位に対応付けられる追加特徴と、(p+1)個の特徴を有する(p+1)次元の参照ベクトルとを決定するステップと、
前記pを「p+1=m」となるまでインクリメントすることにより、前記m次元参照ベクトルを決定するステップとを備える
パターン認識方法をコンピュータに実行させるための、パターン認識プログラム。 - 請求項13に記載されたパターン認識プログラムであって、
前記認識辞書を作成するステップは、
前記各クラスについて(p+1)次元参照ベクトルの候補を設定するステップと、
前記n個の特徴のうちで優先順位が対応付けられていない追加特徴候補群の中から、追加特徴候補を設定するステップと、
前記(p+1)番目の優先順位に前記追加特徴候補が追加され、且つ、前記参照ベクトルとして前記(p+1)次元参照ベクトル候補が採用されたときの前記損失Rを計算するステップと、
前記損失Rが最小となるように前記追加特徴候補及び前記(p+1)次元参照ベクトルの候補を探索するステップと、
前記探索するステップにおける探索結果を前記追加特徴及び前記(p+1)次元参照ベクトルとして決定するステップとを備える
パターン認識プログラム。 - 請求項14に記載されたパターン認識プログラムであって、
前記決定するステップは、前記(p+1)次元参照ベクトルの候補を探索する際に、前記(p+1)次元参照ベクトルの候補に含まれる(p+1)個の特徴の全てについて、要素値を探索するステップを含んでいる
パターン認識プログラム。 - 請求項14に記載されたパターン認識プログラムであって、
前記認識辞書を作成するステップは、
前記複数のクラスから予め設定される設定クラスに属する前記入力データが、前記設定クラスとは別のクラスに識別される確率を、FRR(false reject rate)として計算するステップを含み、
前記決定するステップは、前記FRRが予め設定された目標値FRR*以下となる条件の下で、前記損失Rが最小となるように、前記追加特徴候補及び前記(p+1)次元参照ベクトル候補を探索するステップを含んでいる
パターン認識プログラム。 - 請求項16に記載されたパターン認識プログラムであって、
前記決定するステップは、前記(p+1)次元参照ベクトル候補を探索するにあたり、1番目からp番目までの特徴の値をp次元参照ベクトルにおける値と同じ値に固定し、(p+1)番目の特徴の値だけを変更するステップを含んでいる
パターン認識プログラム。 - 請求項16又は17に記載されたパターン認識プログラムであって、
前記識別するステップは、
前記m次元特徴ベクトルにおいて優先順位がk(kは1~m)番目の特徴の値x(k)を、前記各クラスの参照ベクトルにおけるk番目の特徴の値y(k)と比較するステップと、
前記x(k)が前記設定クラスとは別の非設定クラスの前記y(k)に最も類似していたときに、前記入力データを棄却するステップと、
1番目からm番目の全ての特徴について、前記x(k)が前記設定クラスの前記y(k)に最も類似していた場合に、前記n次元特徴ベクトルが属するクラスを前記設定クラスに識別するステップとを含んでいる
パターン認識プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/147,451 US8612370B2 (en) | 2009-02-03 | 2010-02-02 | Pattern recognition device, pattern recognition method, and pattern recognition program |
JP2010549476A JP5408143B2 (ja) | 2009-02-03 | 2010-02-02 | パターン認識装置、パターン認識方法およびパターン認識プログラム |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009022898 | 2009-02-03 | ||
JP2009-022898 | 2009-02-03 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2010090189A1 true WO2010090189A1 (ja) | 2010-08-12 |
Family
ID=42542083
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2010/051444 WO2010090189A1 (ja) | 2009-02-03 | 2010-02-02 | パターン認識装置、パターン認識方法およびパターン認識プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US8612370B2 (ja) |
JP (1) | JP5408143B2 (ja) |
WO (1) | WO2010090189A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8965111B2 (en) | 2010-09-09 | 2015-02-24 | Nec Corporation | Learning apparatus, a learning system, learning method and a learning program for object discrimination |
JP6312913B1 (ja) * | 2017-09-01 | 2018-04-18 | ヤフー株式会社 | 情報処理装置、情報処理方法、および情報処理プログラム |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8983170B2 (en) * | 2008-01-18 | 2015-03-17 | Mitek Systems, Inc. | Systems and methods for developing and verifying image processing standards for mobile deposit |
US9842331B2 (en) | 2008-01-18 | 2017-12-12 | Mitek Systems, Inc. | Systems and methods for mobile image capture and processing of checks |
US10528925B2 (en) | 2008-01-18 | 2020-01-07 | Mitek Systems, Inc. | Systems and methods for mobile automated clearing house enrollment |
US10891475B2 (en) | 2010-05-12 | 2021-01-12 | Mitek Systems, Inc. | Systems and methods for enrollment and identity management using mobile imaging |
US10152533B2 (en) | 2012-10-18 | 2018-12-11 | Thomson Reuters Global Resources Unlimited Company | System, method and interface for providing a search result using segment constraints |
US9536139B2 (en) | 2013-03-15 | 2017-01-03 | Mitek Systems, Inc. | Systems and methods for assessing standards for mobile image quality |
JP2014215877A (ja) * | 2013-04-26 | 2014-11-17 | 株式会社デンソー | 物体検出装置 |
JP6904249B2 (ja) * | 2015-03-19 | 2021-07-14 | 日本電気株式会社 | オブジェクト検出装置、オブジェクト検出方法およびプログラム |
TWI629675B (zh) * | 2017-08-18 | 2018-07-11 | 財團法人工業技術研究院 | 影像辨識系統及其資訊顯示方法 |
US11126199B2 (en) * | 2018-04-16 | 2021-09-21 | Baidu Usa Llc | Learning based speed planner for autonomous driving vehicles |
US11393272B2 (en) | 2019-09-25 | 2022-07-19 | Mitek Systems, Inc. | Systems and methods for updating an image registry for use in fraud detection related to financial documents |
JP7297704B2 (ja) | 2020-03-17 | 2023-06-26 | 株式会社東芝 | 照合装置、照合方法およびプログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05101186A (ja) * | 1991-10-08 | 1993-04-23 | Sumitomo Cement Co Ltd | 光学的パターン識別方法 |
JP2001184509A (ja) * | 1999-12-24 | 2001-07-06 | Nec Corp | パターン認識装置及び方法並びに記録媒体 |
JP2008217589A (ja) * | 2007-03-06 | 2008-09-18 | Toshiba Corp | 学習装置及びパターン認識装置 |
-
2010
- 2010-02-02 JP JP2010549476A patent/JP5408143B2/ja not_active Expired - Fee Related
- 2010-02-02 WO PCT/JP2010/051444 patent/WO2010090189A1/ja active Application Filing
- 2010-02-02 US US13/147,451 patent/US8612370B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05101186A (ja) * | 1991-10-08 | 1993-04-23 | Sumitomo Cement Co Ltd | 光学的パターン識別方法 |
JP2001184509A (ja) * | 1999-12-24 | 2001-07-06 | Nec Corp | パターン認識装置及び方法並びに記録媒体 |
JP2008217589A (ja) * | 2007-03-06 | 2008-09-18 | Toshiba Corp | 学習装置及びパターン認識装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8965111B2 (en) | 2010-09-09 | 2015-02-24 | Nec Corporation | Learning apparatus, a learning system, learning method and a learning program for object discrimination |
JP6312913B1 (ja) * | 2017-09-01 | 2018-04-18 | ヤフー株式会社 | 情報処理装置、情報処理方法、および情報処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20110289028A1 (en) | 2011-11-24 |
JPWO2010090189A1 (ja) | 2012-08-09 |
US8612370B2 (en) | 2013-12-17 |
JP5408143B2 (ja) | 2014-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5408143B2 (ja) | パターン認識装置、パターン認識方法およびパターン認識プログラム | |
Einsidler et al. | A deep learning approach to target recognition in side-scan sonar imagery | |
CN110852349B (zh) | 一种图像处理方法、检测方法、相关设备及存储介质 | |
EP3355244A1 (en) | Data fusion and classification with imbalanced datasets | |
US11537930B2 (en) | Information processing device, information processing method, and program | |
US9600745B2 (en) | Image recognition system, image recognition method, and non-transitory computer readable medium storing image recognition program | |
US8761510B2 (en) | Object-centric spatial pooling for image classification | |
US11450023B2 (en) | Method and apparatus for detecting anchor-free object based on deep learning | |
US10762389B2 (en) | Methods and systems of segmentation of a document | |
CN111126482A (zh) | 一种基于多分类器级联模型的遥感影像自动分类方法 | |
CN114372968B (zh) | 结合注意力机制与自适应记忆性融合网络的瑕疵检测方法 | |
JP2006155594A (ja) | パターン認識装置、パターン認識方法 | |
Gonzalez-Diaz et al. | Neighborhood matching for image retrieval | |
EP3526728B1 (en) | System and method for object recognition based estimation of planogram compliance | |
JP2016151805A (ja) | オブジェクト検出装置、オブジェクト検出方法、及びプログラム | |
Khaustov et al. | Algorithm for optical handwritten characters recognition based on structural components extraction | |
CN116863250A (zh) | 一种涉及多模态未知类识别的开放场景目标检测方法 | |
Boillet et al. | Confidence estimation for object detection in document images | |
US20230206589A1 (en) | Apparatus and method for detecting object using object boundary localization uncertainty aware network and attention module | |
Gladence et al. | A novel technique for multi-class ordinal regression-APDC | |
CN111931767B (zh) | 一种基于图片信息度的多模型目标检测方法、装置、系统及存储介质 | |
KR102295619B1 (ko) | 소나영상에서 사전형상 판별을 통한 표적식별 고속화 방법 | |
CN115393388A (zh) | 一种基于位置不确定性估计的单目标跟踪方法 | |
CN114764886B (zh) | 基于cfar指导的双流ssd sar图像目标检测方法 | |
Qin et al. | Target tracking method based on interference detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 10738521 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2010549476 Country of ref document: JP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 13147451 Country of ref document: US |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 10738521 Country of ref document: EP Kind code of ref document: A1 |