JP5846127B2 - 認識辞書生成装置及びパターン認識装置 - Google Patents

認識辞書生成装置及びパターン認識装置 Download PDF

Info

Publication number
JP5846127B2
JP5846127B2 JP2012552546A JP2012552546A JP5846127B2 JP 5846127 B2 JP5846127 B2 JP 5846127B2 JP 2012552546 A JP2012552546 A JP 2012552546A JP 2012552546 A JP2012552546 A JP 2012552546A JP 5846127 B2 JP5846127 B2 JP 5846127B2
Authority
JP
Japan
Prior art keywords
vector
value
distance
reference vector
learning input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012552546A
Other languages
English (en)
Other versions
JPWO2012095938A1 (ja
Inventor
佐藤 敦
敦 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2012552546A priority Critical patent/JP5846127B2/ja
Publication of JPWO2012095938A1 publication Critical patent/JPWO2012095938A1/ja
Application granted granted Critical
Publication of JP5846127B2 publication Critical patent/JP5846127B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/046Forward inferencing; Production systems
    • G06N5/047Pattern matching networks; Rete networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Description

本発明は、パターン認識技術に関する。
現在、パターン認識技術は、個人認証、表情認識、音声認識、文字認識等、様々な分野で利用されている。パターン認識は、一般的には、入力パターンから特徴ベクトルを抽出し、抽出された特徴ベクトルと予め用意されている認識辞書とを照合することにより入力パターンがどのカテゴリに属するかを判定する。
下記非特許文献1では、認識辞書と呼ばれる複数の参照ベクトルと、入力パターンをベクトルで表現した入力ベクトルとの距離計算に基づき、入力ベクトルとの距離が最も小さい参照ベクトルが属するクラスを、その入力ベクトルの認識結果とするパターン認識装置が提案されている。このパターン認識装置は、参照ベクトルを学習する段階において、学習データに対する誤りを表す評価関数の値が減少するように参照ベクトルの値を勾配法に基づいて修正する。
また、下記特許文献1では、以下のような参照ベクトルの学習手法が提案されている。入力ベクトルと同じクラスに属する参照ベクトルの中で、入力ベクトルとの距離が最も小さい第1の参照ベクトルとの距離をべき乗変換して得た値と、入力ベクトルと異なるクラスに属する参照ベクトルの中で、入力ベクトルとの距離が最も小さい第2の参照ベクトルとの距離をべき乗変換して得た値を用いて、第1の参照ベクトルと第2の参照ベクトルが修正される。
特許第3452160号
A. Sato & K. Yamada, "Generalized Learning Vector Quantization," Advances in Neural Information Processing Systems, Vol. 8, pp. 423-429, MIT Press, 1996.
上述のような認識辞書の学習では、入力されたデータが特徴抽出手段によりd(dは1以上の整数)次元の特徴ベクトルに変換され、この特徴ベクトルを用いて当該参照ベクトルが修正される。このとき、参照ベクトル修正手段は、特徴ベクトルからの引力と斥力とを用いて、参照ベクトルの位置をd次元の特徴ベクトル空間内で移動させることで、学習データの誤り率が減るように参照ベクトルを修正する。
ところが、認識辞書に、認識精度に影響を及ぼさない多くの参照ベクトルが含まれる場合がある。上述の手法では、このような冗長な参照ベクトルも含めて全ての参照ベクトルを用いた処理をしていたため、パターン認識処理に多くの時間を要してしまっていた。
本発明の目的は、認識精度を落とすことなくパターン認識処理の高速化を実現する技術を提供することにある。
本発明の各態様では、上述した課題を解決するために、それぞれ以下の構成を採用する。
第1の態様は、複数の参照ベクトルから形成される認識辞書を生成する認識辞書生成装置に関する。第1の態様に係る認識辞書生成装置は、(dは1以上の整数)個の特徴値、及び、各参照ベクトルの重要度を示すオフセット値をそれぞれ含む(d+1)次元の複数の参照ベクトルと、(d+1)次元の学習用入力ベクトルを取得する取得手段と、この取得手段により取得された複数の参照ベクトルの中から、学習用入力ベクトルと同じクラスに属しかつ学習用入力ベクトルとの距離が最小となる第1の参照ベクトル、及び、学習用入力ベクトルと異なるクラスに属しかつ学習用入力ベクトルとの距離が最小となる第2の参照ベクトルを選択する選択手段と、学習用入力ベクトルと第1の参照ベクトルとの間の距離を示す第1距離値、及び、学習用入力ベクトルと第2の参照ベクトルとの間の距離を示す第2距離値を取得する距離取得手段と、第1距離値及び第2距離値の関係に応じて変化する係数、第2距離値のべき乗された値、及び、学習用入力ベクトルと第1の参照ベクトルとの差分を乗算することにより得られる第1修正ベクトルを用いて第1の参照ベクトルを修正し、当該係数、第1距離値のべき乗された値、及び、学習用入力ベクトルと第2の参照ベクトルとの差分を乗算することにより得られる第2修正ベクトルを用いて第2の参照ベクトルを修正する修正手段と、この修正手段により修正された第1の参照ベクトル及び第2の参照ベクトルの各オフセット値に応じて、上記認識辞書から除外する参照ベクトルを決定する決定手段とを備える。
第2の態様は、複数の参照ベクトルから形成される認識辞書を生成する認識辞書生成方法に関する。第2の態様に係る認識辞書生成方法は、コンピュータが、d(dは1以上の整数)個の特徴値、及び、各参照ベクトルの重要度を示すオフセット値をそれぞれ含む(d+1)次元の複数の参照ベクトルと、(d+1)次元の学習用入力ベクトルを取得し、この取得された複数の参照ベクトルの中から、学習用入力ベクトルと同じクラスに属しかつ学習用入力ベクトルとの距離が最小となる第1の参照ベクトル、及び、学習用入力ベクトルと異なるクラスに属しかつ学習用入力ベクトルとの距離が最小となる第2の参照ベクトルを選択し、学習用入力ベクトルと第1の参照ベクトルとの間の距離を示す第1距離値、及び、学習用入力ベクトルと第2の参照ベクトルとの間の距離を示す第2距離値を取得し、第1距離値及び第2距離値の関係に応じて変化する係数、第2距離値のべき乗された値、及び、学習用入力ベクトルと第1の参照ベクトルとの差分を乗算することにより得られる第1修正ベクトルを用いて第1の参照ベクトルを修正し、上記係数、第1距離値のべき乗された値、及び、学習用入力ベクトルと第2の参照ベクトルとの差分を乗算することにより得られる第2修正ベクトルを用いて第2の参照ベクトルを修正し、この修正された第1の参照ベクトル及び第2の参照ベクトルの各オフセット値に応じて、上記認識辞書から除外する参照ベクトルを決定する、ことを含む。
第3の態様は、上記第1の態様に係る認識辞書生成装置と、入力データから得られたd個の特徴値を含む特徴ベクトルを(d+1)次元の入力ベクトルに変換する第1変換手段と、上記第1の態様に係る決定手段により決定された除外対象の参照ベクトルが削除された上記複数の(d+1)次元の参照ベクトルから形成される認識辞書と、この認識辞書を形成する複数の参照ベクトルと上記第1変換手段により変換された入力ベクトルとを用いて上記入力データの属するクラスを識別する識別手段と、を備えるパターン認識装置に関する。なお、本発明の別態様として、上記第1の態様又は上記第3の態様の各構成をコンピュータに実現させるプログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記録媒体であってもよい。この記録媒体は、非一時的な有形の媒体を含む。
上記各態様によれば、認識精度を落とすことなくパターン認識処理の高速化を実現する技術を提供することができる。
図1は、参照ベクトルの学習の概念を示す図である。 図2は、参照ベクトルを用いた入力ベクトルの識別の概念を示す図である。 図3は、本実施形態における参照ベクトル及び入力ベクトルの概念を示す図である。 図4は、第2実施形態におけるパターン認識装置の構成例を概念的に示す図である。 図5は、認識辞書作成部の構成例を概念的に示す図である。 図6は、パターン識別部の構成例を概念的に示す図である。 図7は、第2実施形態における認識辞書の生成処理の具体例を示すフローチャートである。 図8は、第2実施形態におけるパターン認識処理の具体例を示すフローチャートである。 図9は、第3実施形態における認識辞書の生成処理の具体例を示すフローチャートである。
以下、本発明の実施の形態について説明する。なお、以下に挙げる実施形態は例示であり、本発明は以下の実施形態の構成に限定されない。
[第1実施形態]
本実施形態に係る認識辞書生成装置は、複数の参照ベクトルから形成される認識辞書を生成する装置であって、取得部、選択部、距離取得部、修正部、決定部等を備える。各参照ベクトルは、複数のクラスのいずれか1つにそれぞれ属するように管理される。
取得部は、d(dは1以上の整数)個の特徴値、及び、各参照ベクトルの重要度を示すオフセット値をそれぞれ含む(d+1)次元の複数の参照ベクトルと、(d+1)次元の学習用入力ベクトルを取得する。
選択部は、上記取得部により取得された複数の参照ベクトルの中から、学習用入力ベクトルと同じクラスに属しかつ学習用入力ベクトルとの距離が最小となる第1の参照ベクトル、及び、学習用入力ベクトルと異なるクラスに属しかつ学習用入力ベクトルとの距離が最小となる第2の参照ベクトルを選択する。
距離取得部は、学習用入力ベクトルと第1の参照ベクトルとの間の距離を示す第1距離値、及び、学習用入力ベクトルと第2の参照ベクトルとの間の距離を示す第2距離値を取得する。本実施形態は、ベクトル間の距離の算出手法を制限せず、例えば、ユークリッド距離を利用する。
修正部は、上記選択部により選択された第1の参照ベクトル及び第2の参照ベクトルを修正する。具体的には、修正部は、第1修正ベクトル及び第2修正ベクトルを算出し、第1修正ベクトルを用いて第1の参照ベクトルを修正し、第2修正ベクトルを用いて第2の参照ベクトルを修正する。修正部は、第1距離値及び第2距離値の関係に応じて変化する係数、第2距離値のべき乗された値、及び、学習用入力ベクトルと第1の参照ベクトルとの差分を乗算することにより第1修正ベクトルを算出する。修正部は、上記係数、第1距離値のべき乗された値、及び、学習用入力ベクトルと第2の参照ベクトルとの差分を乗算することにより第2修正ベクトルを算出する。
決定部は、上記修正部により修正された第1の参照ベクトル及び第2の参照ベクトルの各オフセット値に応じて、当該認識辞書から除外する参照ベクトルを決定する。
以下、参照ベクトルの重要度を示すオフセット値について説明する。図1は、参照ベクトルの学習の概念を示す図である。
図1の例では、学習に用いられる入力ベクトルは2次元(d=2)の特徴ベクトルであり、白丸は正のクラスに属する入力ベクトルの位置を示し、黒丸は負のクラスに属する入力ベクトルの位置を示す。黒四角101は黒丸と同じクラスに属する参照ベクトルを示し、白四角105は白丸と同じクラスに属する参照ベクトルを示す。
参照ベクトル101は、認識辞書作成時において、同じクラスに属する入力ベクトル(黒丸)から引力102を受け、異なるクラスに属する入力ベクトル(白丸)から斥力103を受ける。これにより、参照ベクトル101の位置は、引力102及び斥力103の合力の向きに修正される。同様に、参照ベクトル105は、同じクラスに属する入力ベクトル(白丸)から引力106を受け、異なるクラスに属する入力ベクトル(黒丸)から斥力107を受ける。これにより、参照ベクトル105の位置は、引力106及び斥力107の合力の向きに修正される。
図2は、参照ベクトルを用いた入力ベクトルの識別の概念を示す図である。図2の例では、正及び負の各クラスにおいて3個の参照ベクトルがそれぞれ存在する。黒四角111、112及び113が負のクラスに属する参照ベクトルを示し、白四角115、116及び117が正のクラスに属する参照ベクトルを示す。ここで、各クラスの識別関数は、以下の(式1)で表される。
Figure 0005846127
上記(式1)において、ベクトルxは入力ベクトルを示し、ベクトルykiはクラスωに属する参照ベクトルを示し、Mはクラスωに属する参照ベクトルの数を示す。図2の例によれば、M及びMは共に3である。また、minは変数iについて最小値を求める関数を示す。これにより、クラスωの識別関数d(x)は、ベクトルxと、ベクトルxに最も近い参照ベクトルとの間のユークリッド距離の2乗(以降、平方ユークリッド距離とも表記する)を取得する。この識別関数d(x)の値が最も小さいクラスωがその入力ベクトルxの認識結果とされる。
図2の例において、正のクラスをω、負のクラスをωとすると、入力ベクトルxが属するクラス(ω又はω)を識別するための境界(以降、識別境界と表記する)は、d(x)値とd(x)値とが等しくなる(d(x)=d(x))ベクトルxの集合となる。つまり、識別境界は、隣接する異なるクラスの参照ベクトルからの等距離面として定義される。図2では、正のクラスと負のクラスとの間の識別境界は符号120で示される。
ここで、図2の例では、正のクラスに属する参照ベクトル115と負のクラスに属する参照ベクトル111とからの等距離面として識別境界120が設定されれば、全てのサンプル(入力ベクトル)を正しく識別することができる。つまり、他の参照ベクトル112、113、116及び117は、認識精度に影響を及ぼさないため、冗長な参照ベクトルとみなすことができる。本実施形態では、このような冗長な参照ベクトルの重要度は低く設定される。
本実施形態では、各参照ベクトルに、このような重要度を示すオフセット値がそれぞれ設けられる。図3は、本実施形態における参照ベクトル及び入力ベクトルの概念を示す図である。図3の例では、白四角及び黒四角で示す参照ベクトル131、132、133、134、135及び136はそれぞれ2次元の特徴値及びオフセット値を含む3次元のベクトルである。一方、白丸及び黒丸で示される各入力ベクトルはそれぞれ2次元の特徴ベクトルに要素(0)が追加された3次元のベクトルである。
ここで、各入力ベクトルは、付加要素が0であるため、2次元平面140内に存在している。一方、各参照ベクトルは、オフセット値を有しているため、2次元平面140にオフセット軸145を加えた3次元空間内に存在する。上記修正部の修正処理により、参照ベクトルは、同一クラスに属する学習用入力ベクトルから引力を受け、異なるクラスに属する学習用入力ベクトルから斥力を受けることにより、このような3次元空間内を移動する。
ここで、オフセット値が大きい参照ベクトル132、133、135及び136は、オフセット値の小さい参照ベクトル131及び134よりも入力ベクトルから遠くなるため、識別境界150の構成には関与せず、削除しても認識精度には影響しない。つまり、オフセット値は参照ベクトルの重要度を示す。これにより、オフセット値が大きい参照ベクトルは、重要度が低いため、認識辞書としての保存対象から除外することができる。
図3に示す概念は、以下のように説明することもできる。本実施形態では、オフセット値を設けるため、識別関数は、次の(式2)のように示される。以下の(式2)は、上記(式1)にオフセット値σkiを付加したものである。
Figure 0005846127
ここで、入力ベクトル及び参照ベクトルの次元数を1つ増やし、以下の(式3−1)及び(式3−2)のように表記すれば、上記(式2)は、以下の(式4)のように書き直すことができる。以下の(式4)は、上記(式1)と同じ形式となっている。
Figure 0005846127
〔第1実施形態の作用及び効果〕
このように、本実施形態では、各参照ベクトルにオフセット値がそれぞれ設けられ、各参照ベクトルが学習(修正)されるに従って、各オフセット値が各参照ベクトルの重要度を示すようになる。そして、各オフセット値に応じて、認識辞書から除外される参照ベクトルが決定される。
従って、本実施形態によれば、各参照ベクトルのオフセット値を参照することにより、重要度が低い、即ち、認識精度に影響を及ぼさない冗長な参照ベクトルを簡単に特定することができ、ひいては、認識辞書に保存すべきでない参照ベクトルを決めることができる。結果、本実施形態によれば、認識精度への影響を強く与える重要な参照ベクトルのみを用いてパターン認識処理を実行することができるため、認識精度を低下させることなく、パターン認識処理の時間を短縮することができる。
[第2実施形態]
以下、第2実施形態は、上述の第1実施形態における認識辞書生成装置の構成を更に具体化しパターン認識装置に適用した場合の例である。
〔装置構成〕
図4は、第2実施形態におけるパターン認識装置7の構成例を概念的に示す図である。パターン認識装置7は、ハードウェア構成として、CPU(Central Processing Unit)1、メモリ2(RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスク、可搬型記憶装置等)、入出力インタフェース3等を有する。これらハードウェア要素は例えばバス5により接続される。なお、本実施形態は、パターン認識装置7のハードウェア構成を限定しない。
パターン認識装置7は、ソフトウェア構成として、認識辞書作成部10、認識辞書20、パターン識別部30等を有する。認識辞書作成部10及びパターン識別部30は、例えば、CPU1によりメモリ2に格納されるプログラムが実行されることで実現される。
認識辞書20は、認識辞書作成部10により修正された複数の参照ベクトルであって重要度の低い参照ベクトルが除外された複数の参照ベクトルにより形成される。認識辞書20は、メモリ2上に保存される。
パターン識別部30は、認識辞書20として保存される参照ベクトルを用いて、入力データが属するクラス(カテゴリ)を判別する。
認識辞書作成部10は、第1実施形態における認識辞書生成装置の構成に対応する。認識辞書作成部10は、学習用の入力ベクトル及び初期化された参照ベクトルを取得し、学習用入力ベクトルに応じて参照ベクトルを修正し、重要度の低い参照ベクトルが除外された複数の参照ベクトルを認識辞書20として保存する。
図5は、認識辞書作成部10の構成例を概念的に示す図である。認識辞書作成部10は、取得部12、選択部13、距離取得部14、修正部15、決定部16等を有する。認識辞書作成部10に含まれる各処理部についても、例えば、CPU1によりメモリ2に格納されるプログラムが実行されることで実現される。以下、これら各処理部について第1実施形態と異なる内容を中心に説明し、第1実施形態と同じ内容については適宜省略する。
第2実施形態における修正部15は、選択部13により選択された第1の参照ベクトル及び第2の参照ベクトルを以下の(式5)を用いて修正する。以下の(式5)において、Xは学習用入力ベクトルを示し、Yは上述の第1の参照ベクトルを示し、Yは上述の第2の参照ベクトルを示す。以下の(式5)では、第1の参照ベクトルYに加算される項が上述の第1修正ベクトルに相当し、第2の参照ベクトルYから減算される項が上述の第2修正ベクトルに相当する。
Figure 0005846127
上記(式5)において、D及びDは、距離取得部14により取得された第1距離値及び第2距離値を示す。kは、1より大きい任意の実数であり、ベクトル間のユークリッド距離をk乗するための値である。
f(D、D)は、第1距離値D及び第2距離値Dの差が小さい程大きくなる関数(以降、第1方式と表記する)、又は、第2距離値Dが第1距離値Dより小さくかつ第1距離値Dと第2距離値Dとの差が大きい程大きくなる関数(以降、第2方式と表記する)である。α1及びα2は、任意の正の実数パラメータである。第2実施形態では、α1とf(D、D)とが掛け合わされた値、及び、α2とf(D、D)とが掛け合わされた値が第1距離値及び第2距離値の関係に応じて変化する係数に相当する。
上記(式5)によれば、第1修正ベクトルは、学習用入力ベクトルXから第1の参照ベクトルYを引いたベクトルに、当該係数及び学習用入力ベクトルXと第2の参照ベクトルYとのユークリッド距離をk乗した値を乗算することにより得られる。第2修正ベクトルは、学習用入力ベクトルXから第2の参照ベクトルYを引いたベクトルに、当該係数及び学習用入力ベクトルXと第1の参照ベクトルYとのユークリッド距離をk乗した値を乗算することにより得られる。
修正部15は、第1の参照ベクトルYを第1修正ベクトルと加算することにより修正し、第2の参照ベクトルYを第2修正ベクトルを減算することにより修正する。結果として、学習用入力ベクトルXと同じクラスに属する第1の参照ベクトルYは、その学習用入力ベクトルXに近づく方向に修正され、学習用入力ベクトルXと異なるクラスに属する第2の参照ベクトルYは、その学習用入力ベクトルXから離れる方向に修正される。
ここで、所定の関数f(D、D)について説明する。関数f(D、D)としては、上述のように2つの方式のいずれか一方が利用される。第1距離値D及び第2距離値Dが近い場合は、その学習用入力ベクトルXが識別境界の近くに存在していることを意味する。誤って識別される可能性が高い入力ベクトルは識別境界に近い場合が多いため、第1の方式のように、識別境界に近い入力ベクトルXに対する参照ベクトルの修正量は、識別境界から遠い入力ベクトルXに対する参照ベクトルの修正量よりも大きく設定される。
第1方式が利用される場合には、関数f(D、D)は、例えば、以下の(式6)及び(式7)で表すことができる。bは、任意の正の実数であり、mは、第1距離値Dから第2距離値Dを減算した値である。
Figure 0005846127
一方、学習用入力ベクトルXが正しく識別される場合には、第1距離値Dが第2距離値Dよりも小さくなり、学習用入力ベクトルXが誤って識別される場合には、第1距離値Dが第2距離値Dよりも大きくなる。つまり、第2距離値Dが第1距離値Dより小さくかつ第1距離値Dと第2距離値Dとの差が大きい程、誤認識され易くなる。そこで、上記第2の方式のように、第2距離値Dが第1距離値Dより小さくかつ第1距離値Dと第2距離値Dとの差が大きい程修正量が大きく設定される。
第2方式が利用される場合には、関数f(D、D)は、例えば、以下の(式8)及び(式9)で表すことができる。b及びmは、上述の(式6)及び(式7)と同様である。
Figure 0005846127
このように、当該係数に含まれる所定関数f(D、D)として、上述の第1方式及び第2方式のいずれか一方の方式が利用されることにより、誤認識が減るように、参照ベクトルが修正される。
この参照ベクトルの修正に従って、各参照ベクトルに付加されている各オフセット値の絶対値は、学習用入力ベクトルと同じクラスに属する参照ベクトルのもの程小さくなり、学習用入力ベクトルと異なるクラスに属する参照ベクトルのもの程大きくなるように修正される。その修正量は、対応する学習用入力ベクトルが識別境界に近い程大きくされるか、又は、誤認識され易い程大きくされる。
決定部16は、修正部15により上述のように修正された各参照ベクトルを受け、オフセット値が所定閾値(例えば、1)以上の参照ベクトルを認識辞書20から除外する参照ベクトルと決定する。決定部16は、オフセット値が所定閾値(例えば、1)より小さい参照ベクトルを認識辞書20として保存する。
なお、決定部16による認識辞書20として保存すべき参照ベクトルの決定は、他の方法により行うようにしてもよい。例えば、決定部16は、全オフセット値の絶対値の最小値の定数倍より小さいオフセット値の絶対値を持つ参照ベクトルを認識辞書20として保存するようにしてもよいし、オフセット値の絶対値の小さいものから所望の個数を選んで認識辞書20として保存するようにしてもよい。
図6は、パターン識別部30の構成例を概念的に示す図である。パターン識別部30は、入力データ取得部31、特徴抽出部32、変換部33、識別部34等を有する。パターン識別部30に含まれる各処理部についても、例えば、CPU1によりメモリ2に格納されるプログラムが実行されることで実現される。
入力データ取得部31は、識別対象となる入力データを取得する。入力データは、例えば、画像データ、音声データ等である。本実施形態は、この入力データ自体を制限しない。
特徴抽出部32は、入力データ取得部31により取得された入力データから特徴情報(特徴値)を抽出し、その特徴値を要素に含むd(dは1以上の整数)次元の特徴ベクトルを生成する。なお、ここでは、1次元データであってもベクトルと表記する。例えば、特徴抽出部32は、入力データとしての画像データを白黒濃淡画像に変換した後、画像全体を縦10個及び横10個の各領域に分割し、各領域内で画像の輝度値の平均を求め、100次元の特徴ベクトルを得る。
変換部33は、特徴抽出部32により生成されたd次元の特徴ベクトルに付加要素(0)を追加することにより、当該特徴ベクトルを(d+1)次元の入力ベクトルに変換する。
識別部34は、上述の認識辞書作成部10により生成(学習)された認識辞書20に格納されている複数の(d+1)次元の参照ベクトルを利用することにより、変換部33により変換された(d+1)次元の入力ベクトルを識別する。識別部34で利用される識別関数は、上述の(式4)で示される。識別部34は、その識別結果として、(d+1)次元の入力ベクトルが属するクラス情報を取得し、その取得されたクラス情報を出力する。
認識辞書作成部10の取得部12は、パターン識別部30の変換部33から(d+1)次元の学習用入力ベクトルを取得するようにしてもよい。この場合、パターン識別部30において、入力データ取得部31が学習用の入力データを取得し、特徴抽出部32がその学習用入力データからd次元の学習用特徴ベクトルを生成し、変換部33がそのd次元の学習用特徴ベクトルを(d+1)次元の学習用入力ベクトルに変換する。また、認識辞書作成部10が、パターン識別部30の入力データ取得部31、特徴抽出部32及び変換部33と同様の各処理部を、(d+1)次元の学習用入力ベクトルの生成のために備えるようにしてもよい。
〔動作例〕
以下、第2実施形態におけるパターン認識装置7の動作例について説明する。図7は、第2実施形態における認識辞書の生成処理の具体例を示すフローチャートである。認識辞書20の生成処理では、認識辞書作成部10が以下のように動作する。
取得部12が、M個の(d+1)次元の参照ベクトルと、N個の(d+1)次元の学習用入力ベクトルとを取得する(S701)。(d+1)次元の参照ベクトルは、d個の特徴値及び1つのオフセット値(σ)を含む。(d+1)次元の学習用入力ベクトルは、予め準備された学習用入力データから特徴情報が抽出されることにより得られるd次元の特徴ベクトルに付加要素(0)が追加されることにより、生成される。
ここで、各学習用入力ベクトル及び各参照ベクトルには、いずれか1つのクラスがそれぞれ予め付与されている。例えば、N個の配列CX[]が用意され、n番目の学習用入力ベクトルがクラスkに属する場合、CX[n]=kと設定される。同様に、M個の配列CY[]が用意され、j番目の参照ベクトルがクラスkに属する場合、CY[j]=kと設定される。
各参照ベクトルの特徴値の初期値は、クラス毎にK平均法などのクラスタリング手法が用いられることにより設定される。各参照ベクトルのオフセット値(σ)は、例えば、1に設定される。ここでは、N個の学習用入力ベクトルは、(X[1]、X[2]、 ... 、X[N])と表記され、M個の参照ベクトルは、(Y[1]、Y[2]、 ... 、Y[M])と表記される。
取得部12は、予め準備されたN個の学習用入力データを取得し、この取得された学習用入力データから(d+1)次元の学習用入力ベクトルを生成するようにしてもよい。また、取得部12は、学習用入力データからパターン識別部30の各処理部(入力データ取得部31、特徴抽出部32及び変換部33)により変換された(d+1)次元の学習用入力ベクトルを取得するようにしてもよい。
認識辞書作成部10は、変数tを1(初期値)に設定し(S702)、変数nを1(初期値)に設定する(S703)。
選択部13は、M個の参照ベクトルの中から、学習用入力ベクトルX[n]と同じクラスに属する各参照ベクトルY[j]との間の平方ユークリッド距離の値を計算し、その値が最も小さい参照ベクトルY[J1]を選択する。距離取得部14は、選択された参照ベクトルY[J1]と学習用入力ベクトルX[n]との間の平方ユークリッド距離の値を変数D1に格納する(S704)。つまり、図7の例では、ベクトル間の距離には、平方ユークリッド距離が利用される。
選択部13は、M個の参照ベクトルの中から、学習用入力ベクトルX[n]と異なるクラスに属する各参照ベクトルY[j]との間の平方ユークリッド距離の値を計算し、その値が最も小さい参照ベクトルY[J2]を選択する。距離取得部14は、選択された参照ベクトルY[J2]と学習用入力ベクトルX[n]との間の平方ユークリッド距離の値を変数D2に格納する(S705)。ここで、学習用入力ベクトルX[n]と同じクラスか否かの判定は、例えば、配列CX[n]及び配列CY[j]との比較により行われる。
修正部15は、上記(式5)を用いて、参照ベクトルY[J1]及びY[J2]を修正する(S706及びS707)。ここでは、例えば、(式5)におけるkが2に設定され、パラメータα1及びα2が0.01に設定される。なお、本実施形態は、k、α1及びα2の各値をこのような値に限定するものではない。
認識辞書作成部10は、変数nが学習用入力ベクトルの総数Nより小さい場合には(S708;YES)、変数nに1加算する(S709)。認識辞書作成部10は、その後、選択部13に処理(S704)を再度実行させる。
一方、認識辞書作成部10は、変数nが学習用入力ベクトルの総数N以上の場合(S708;NO)、変数tを予め設定された学習回数Tと比較する(S710)。認識辞書作成部10は、変数tが学習回数Tより小さい場合(S710;YES)、変数tに1加算する(S711)。認識辞書作成部10は、その後、変数nを1(初期値)に設定し(S703)、選択部13に処理(S704)を再度実行させる。
認識辞書作成部10は、変数tが学習回数T以上の場合には(S710;NO)、決定部16に処理させる。決定部16は、修正後の参照ベクトル(Y[1]、Y[2]、 ... 、Y[M])のうち、オフセット値の絶対値が所定閾値(例えば1)より小さい参照ベクトルを認識辞書20として保存する(S712)。
図8は、第2実施形態におけるパターン認識処理の具体例を示すフローチャートである。パターン認識処理では、パターン識別部30が以下のように動作する。
入力データ取得部31が入力データを取得する(S801)。特徴抽出部32は、取得された入力データに対して既定の特徴抽出処理を行うことにより、d次元の特徴ベクトルを生成する(S802)。変換部33は、d次元の特徴ベクトルの要素に付加要素(0)を加えることにより、(d+1)次元の入力ベクトルXを生成する(S803)。
識別部34は、(d+1)次元の入力ベクトルXを変換部33から取得し、参照ベクトルY[j]を認識辞書20から取得する。識別部34は、入力ベクトルXと各参照ベクトルY[j]との間の平方ユークリッド距離の値を算出し、その算出値が最も小さい参照ベクトルY[J]を選択する(S804)。
識別部34は、その選択された参照ベクトルY[J]が属するクラスCY[J]を識別結果として出力する(S805)。なお、複数の入力データが取得された場合には、処理(S802)から(S805)がその入力データの数分繰り返される。
〔第2実施形態の作用及び効果〕
上述したように、第2実施形態では、認識辞書の生成処理において、上記(式5)により参照ベクトルが修正される。この参照ベクトルの学習に従って、各参照ベクトルに付加される各オフセット値の絶対値は、学習用入力ベクトルと同じクラスに属する参照ベクトルのもの程小さくなり、学習用入力ベクトルと異なるクラスに属する参照ベクトルのもの程大きくなるように修正される。結果として、オフセット値の絶対値が所定閾値以上の参照ベクトルは、識別境界に影響を与えない冗長なデータであるとして除外され、識別境界に影響を与える重要な参照ベクトルのみが認識辞書20として保存される。
パターン認識時には、入力データから得られた特徴ベクトルが、オフセット値を含む参照ベクトルの次元に合わせられた入力ベクトルに変換され、冗長な参照ベクトルが除外された状態の認識辞書20から得られる参照ベクトルとその入力ベクトルとの関係から、当該入力データが識別される。
よって、第2実施形態によれば、各参照ベクトルにオフセット値を付加することにより、各参照ベクトルの重要度を自動的に得ることができると共に、冗長な参照ベクトルを適切にかつ簡単に特定することができる。これにより、冗長な参照ベクトルを認識辞書から除外することにより、認識精度を落とすことなく、パターン認識処理を高速化することができる。
[第3実施形態]
上述の第2実施形態における認識辞書の生成処理では、(式5)により、オフセット値を含む参照ベクトルの全要素が修正されたが、オフセット値のみが修正されるようにしてもよい。以下、認識辞書の生成処理においては、各参照ベクトルのオフセット値のみが修正される態様を第3実施形態として説明する。
第3実施形態におけるパターン認識装置7の構成は、第2実施形態と同様であるが、認識辞書作成部10の修正部15の処理のみが第2実施形態と異なる。以下、第2実施形態と異なる内容を中心に、第3実施形態におけるパターン認識装置7の構成について説明する。
第3実施形態における修正部15は、選択部13により選択された第1の参照ベクトル及び第2の参照ベクトルの各オフセット値を以下の(式10)を用いて修正する。以下の(式10)において、σは第1の参照ベクトルYのオフセット値を示し、σは第2の参照ベクトルYのオフセット値を示す。kは、1より大きい任意の実数であり、オフセット値(σ又はσ)の絶対値をk乗するための値である。関数f(D、D)、パラメータα及びα、kはそれぞれ第2実施形態の上記(式5)と同様である。
Figure 0005846127
上記(式10)は、上記(式5)から(d+1)番目の要素(オフセット値及び付加要素(0))に関する計算要素を抜き出したものに相当する。よって、上記(式10)によりオフセット値を修正すれば、オフセット値は第2実施形態と同様に参照ベクトルの重要度を示すように修正される。
具体的には、各参照ベクトルのオフセット値は、学習用入力ベクトルと同じクラスに属する参照ベクトルのもの程小さくなり、学習用入力ベクトルと異なるクラスに属する参照ベクトルのもの程大きくなるように修正される。その修正量は、対応する学習用入力ベクトルが識別境界に近い程大きくされ、また、誤認識され易い程大きくされる。
〔動作例〕
以下、第3実施形態におけるパターン認識装置7の動作例について説明する。図9は、第3実施形態における認識辞書の生成処理の具体例を示すフローチャートである。なお、パターン認識処理は第2実施形態と同様であるため、ここでは説明を省略する。
処理(S901)及び処理(S902)を除いた残りの処理は、第2実施形態と同様であるため、ここでは説明を省略する。
修正部15は、上記(式10)を用いて、参照ベクトルY[J1]のオフセット値σ[J1]、及び、参照ベクトルY[J2]のオフセット値σ[J2]を修正する(S901及びS902)。ここでは、例えば、(式10)におけるkが2に設定され、パラメータα1及びα2が0.01に設定される。なお、本実施形態は、k、α1及びα2の各値をこのような値に限定するものではない。オフセット値σ[j](j=1からMの整数)は、参照ベクトルY[j]の(d+1)番目の要素値を示す配列である。
〔第3実施形態の作用及び効果〕
第3実施形態では、認識辞書20の生成処理において、各参照ベクトルのオフセット値のみがその重要度を示すように修正される。よって、第3実施形態によれば、第2実施形態と同様の効果を得ることができると共に、ベクトル間の加減算が減ることから、処理負荷を軽減することができる。
なお、上記実施形態の説明は、複数のフローチャートを用いており、それぞれに複数のステップ(処理)を順番に記載しているが、その記載の順番は、本実施形態で実行される処理ステップの各順番を必ずしも限定するものではない。本実施形態では、図示される処理ステップの順番を内容的に支障しない範囲で変更することができる。また、上述した各実施形態は、その内容が相反しない範囲で組み合わせることができる。
この出願は、2011年1月11日に出願された日本出願特願2011−002728を基礎とする優先権を主張し、その開示の全てをここに取り込む。
上記の各実施形態の一部又は全部は、以下の付記のようにも特定され得る。但し、各実施形態が以下の記載に限定されるものではない。
(付記1)
複数の参照ベクトルから形成される認識辞書を生成する認識辞書生成装置において、
d(dは1以上の整数)個の特徴値、及び、各参照ベクトルの重要度を示すオフセット値をそれぞれ含む(d+1)次元の複数の参照ベクトルと、(d+1)次元の学習用入力ベクトルを取得する取得手段と、
前記取得手段により取得された複数の参照ベクトルの中から、前記学習用入力ベクトルと同じクラスに属しかつ前記学習用入力ベクトルとの距離が最小となる第1の参照ベクトル、及び、前記学習用入力ベクトルと異なるクラスに属しかつ前記学習用入力ベクトルとの距離が最小となる第2の参照ベクトルを選択する選択手段と、
前記学習用入力ベクトルと前記第1の参照ベクトルとの間の距離を示す第1距離値、及び、前記学習用入力ベクトルと前記第2の参照ベクトルとの間の距離を示す第2距離値を取得する距離取得手段と、
前記第1距離値及び前記第2距離値の関係に応じて変化する係数、前記第2距離値のべき乗された値、及び、前記学習用入力ベクトルと前記第1の参照ベクトルとの差分を乗算することにより得られる第1修正ベクトルを用いて前記第1の参照ベクトルを修正し、該係数、前記第1距離値のべき乗された値、及び、前記学習用入力ベクトルと前記第2の参照ベクトルとの差分を乗算することにより得られる第2修正ベクトルを用いて前記第2の参照ベクトルを修正する修正手段と、
前記修正手段により修正された前記第1の参照ベクトル及び前記第2の参照ベクトルの各オフセット値に応じて、前記認識辞書から除外する参照ベクトルを決定する決定手段と、
を備えることを特徴とする認識辞書生成装置。
(付記2)
前記係数は、前記第1距離値と前記第2距離値との間の差が小さい程大きくなる、又は、前記第2距離値が前記第1距離値より小さくかつ前記第1距離値と前記第2距離値との差が大きい程大きくなる、
ことを特徴とする付記1に記載の認識辞書生成装置。
(付記3)
前記修正手段は、前記係数、前記第2の参照ベクトルのオフセット値の絶対値のべき乗された値、及び、前記第1の参照ベクトルのオフセット値を乗算することにより得られる値を用いて、前記第1の参照ベクトルのオフセット値のみを修正し、前記係数、前記第1の参照ベクトルのオフセット値の絶対値のべき乗された値、及び、前記第2の参照ベクトルのオフセット値を乗算することにより得られる値を用いて、前記第2の参照ベクトルのオフセット値のみを修正する、
ことを特徴とする付記1又は2に記載の認識辞書生成装置。
(付記4)
付記1から3のいずれか1つに記載の認識辞書生成装置と、
入力データから得られたd個の特徴値を含む特徴ベクトルを(d+1)次元の入力ベクトルに変換する第1変換手段と、
前記決定手段により決定された除外対象の参照ベクトルが削除された前記複数の(d+1)次元の参照ベクトルから形成される認識辞書と、
前記認識辞書を形成する複数の参照ベクトルと前記第1変換手段により変換された入力ベクトルとを用いて前記入力データの属するクラスを識別する識別手段と、
を備えることを特徴とするパターン認識装置。
(付記5)
複数の参照ベクトルから形成される認識辞書を生成する認識辞書生成方法において、
コンピュータが、
d(dは1以上の整数)個の特徴値、及び、各参照ベクトルの重要度を示すオフセット値をそれぞれ含む(d+1)次元の複数の参照ベクトルと、(d+1)次元の学習用入力ベクトルを取得し、
前記取得された複数の参照ベクトルの中から、前記学習用入力ベクトルと同じクラスに属しかつ前記学習用入力ベクトルとの距離が最小となる第1の参照ベクトル、及び、前記学習用入力ベクトルと異なるクラスに属しかつ前記学習用入力ベクトルとの距離が最小となる第2の参照ベクトルを選択し、
前記学習用入力ベクトルと前記第1の参照ベクトルとの間の距離を示す第1距離値、及び、前記学習用入力ベクトルと前記第2の参照ベクトルとの間の距離を示す第2距離値を取得し、
前記第1距離値及び前記第2距離値の関係に応じて変化する係数、前記第2距離値のべき乗された値、及び、前記学習用入力ベクトルと前記第1の参照ベクトルとの差分を乗算することにより得られる第1修正ベクトルを用いて前記第1の参照ベクトルを修正し、
前記係数、前記第1距離値のべき乗された値、及び、前記学習用入力ベクトルと前記第2の参照ベクトルとの差分を乗算することにより得られる第2修正ベクトルを用いて前記第2の参照ベクトルを修正し、
前記修正された第1の参照ベクトル及び前記第2の参照ベクトルの各オフセット値に応じて、前記認識辞書から除外する参照ベクトルを決定する、
ことを含む認識辞書生成方法。
(付記6)
前記係数は、前記第1距離値と前記第2距離値との間の差が小さい程大きくなる、又は、前記第2距離値が前記第1距離値より小さくかつ前記第1距離値と前記第2距離値との差が大きい程大きくなる、
ことを特徴とする付記5に記載の認識辞書生成方法。
(付記7)
前記第1の参照ベクトルの修正に代え、前記係数、前記第2の参照ベクトルのオフセット値の絶対値のべき乗された値、及び、前記第1の参照ベクトルのオフセット値を乗算することにより得られる値を用いて、前記第1の参照ベクトルのオフセット値のみを修正し、
前記第2の参照ベクトルの修正に代え、前記係数、前記第1の参照ベクトルのオフセット値の絶対値のべき乗された値、及び、前記第2の参照ベクトルのオフセット値を乗算することにより得られる値を用いて、前記第2の参照ベクトルのオフセット値のみを修正する、
ことを特徴とする付記5又は6に記載の認識辞書生成方法。
(付記8)
複数の参照ベクトルから形成される認識辞書を生成するプログラムにおいて、
コンピュータに、
d(dは1以上の整数)個の特徴値、及び、各参照ベクトルの重要度を示すオフセット値をそれぞれ含む(d+1)次元の複数の参照ベクトルと、(d+1)次元の学習用入力ベクトルを取得する取得手段と、
前記取得手段により取得された複数の参照ベクトルの中から、前記学習用入力ベクトルと同じクラスに属しかつ前記学習用入力ベクトルとの距離が最小となる第1の参照ベクトル、及び、前記学習用入力ベクトルと異なるクラスに属しかつ前記学習用入力ベクトルとの距離が最小となる第2の参照ベクトルを選択する選択手段と、
前記学習用入力ベクトルと前記第1の参照ベクトルとの間の距離を示す第1距離値、及び、前記学習用入力ベクトルと前記第2の参照ベクトルとの間の距離を示す第2距離値を取得する距離取得手段と、
前記第1距離値及び前記第2距離値の関係に応じて変化する係数、前記第2距離値のべき乗された値、及び、前記学習用入力ベクトルと前記第1の参照ベクトルとの差分を乗算することにより得られる第1修正ベクトルを用いて前記第1の参照ベクトルを修正し、該係数、前記第1距離値のべき乗された値、及び、前記学習用入力ベクトルと前記第2の参照ベクトルとの差分を乗算することにより得られる第2修正ベクトルを用いて前記第2の参照ベクトルを修正する修正手段と、
前記修正手段により修正された前記第1の参照ベクトル及び前記第2の参照ベクトルの各オフセット値に応じて、前記認識辞書から除外する参照ベクトルを決定する決定手段と、
を実現させることを特徴とするプログラム。
(付記9)
前記係数は、前記第1距離値と前記第2距離値との間の差が小さい程大きくなる、又は、前記第2距離値が前記第1距離値より小さくかつ前記第1距離値と前記第2距離値との差が大きい程大きくなる、
ことを特徴とする付記8に記載のプログラム。
(付記10)
前記修正手段は、前記係数、前記第2の参照ベクトルのオフセット値の絶対値のべき乗された値、及び、前記第1の参照ベクトルのオフセット値を乗算することにより得られる値を用いて、前記第1の参照ベクトルのオフセット値のみを修正し、前記係数、前記第1の参照ベクトルのオフセット値の絶対値のべき乗された値、及び、前記第2の参照ベクトルのオフセット値を乗算することにより得られる値を用いて、前記第2の参照ベクトルのオフセット値のみを修正する、
ことを特徴とする付記8又は9に記載のプログラム。

Claims (7)

  1. 複数の参照ベクトルから形成される認識辞書を生成する認識辞書生成装置において、
    d(dは1以上の整数)個の特徴値、及び、各参照ベクトルの重要度を示すオフセット値をそれぞれ含む(d+1)次元の複数の参照ベクトルと、(d+1)次元の学習用入力ベクトルを取得する取得手段と、
    前記取得手段により取得された複数の参照ベクトルの中から、前記学習用入力ベクトルと同じクラスに属しかつ前記学習用入力ベクトルとの距離が最小となる第1の参照ベクトル、及び、前記学習用入力ベクトルと異なるクラスに属しかつ前記学習用入力ベクトルとの距離が最小となる第2の参照ベクトルを選択する選択手段と、
    前記学習用入力ベクトルと前記第1の参照ベクトルとの間の距離を示す第1距離値、及び、前記学習用入力ベクトルと前記第2の参照ベクトルとの間の距離を示す第2距離値を取得する距離取得手段と、
    前記第1距離値及び前記第2距離値の関係に応じて変化する係数、前記第2の参照ベクトルのオフセット値の絶対値のべき乗された値、及び、前記第1の参照ベクトルのオフセット値を乗算することにより得られる値を用いて前記第1の参照ベクトルのオフセット値のみを修正し、該係数、前記第1の参照ベクトルのオフセット値の絶対値のべき乗された値、及び、前記第2の参照ベクトルのオフセット値を乗算することにより得られる値を用いて前記第2の参照ベクトルのオフセット値のみを修正する修正手段と、
    前記修正手段により修正された前記第1の参照ベクトル及び前記第2の参照ベクトルの各オフセット値に応じて、前記認識辞書から除外する参照ベクトルを決定する決定手段と、
    を備えることを特徴とする認識辞書生成装置。
  2. 前記係数は、前記第1距離値と前記第2距離値との間の差が小さい程大きくなる、又は、前記第2距離値が前記第1距離値より小さくかつ前記第1距離値と前記第2距離値との差が大きい程大きくなる、
    ことを特徴とする請求項1に記載の認識辞書生成装置。
  3. 請求項1又は2に記載の認識辞書生成装置と、
    入力データから得られたd個の特徴値を含む特徴ベクトルを(d+1)次元の入力ベクトルに変換する第1変換手段と、
    前記決定手段により決定された除外対象の参照ベクトルが削除された前記複数の(d+1)次元の参照ベクトルから形成される認識辞書と、
    前記認識辞書を形成する複数の参照ベクトルと前記第1変換手段により変換された入力ベクトルとを用いて前記入力データの属するクラスを識別する識別手段と、
    を備えることを特徴とするパターン認識装置。
  4. 複数の参照ベクトルから形成される認識辞書を生成する認識辞書生成方法において、
    コンピュータが、
    d(dは1以上の整数)個の特徴値、及び、各参照ベクトルの重要度を示すオフセット値をそれぞれ含む(d+1)次元の複数の参照ベクトルと、(d+1)次元の学習用入力ベクトルを取得し、
    前記取得された複数の参照ベクトルの中から、前記学習用入力ベクトルと同じクラスに属しかつ前記学習用入力ベクトルとの距離が最小となる第1の参照ベクトル、及び、前記学習用入力ベクトルと異なるクラスに属しかつ前記学習用入力ベクトルとの距離が最小となる第2の参照ベクトルを選択し、
    前記学習用入力ベクトルと前記第1の参照ベクトルとの間の距離を示す第1距離値、及び、前記学習用入力ベクトルと前記第2の参照ベクトルとの間の距離を示す第2距離値を取得し、
    前記第1距離値及び前記第2距離値の関係に応じて変化する係数、前記第2の参照ベクトルのオフセット値の絶対値のべき乗された値、及び、前記第1の参照ベクトルのオフセット値を乗算することにより得られる値を用いて前記第1の参照ベクトルのオフセット値のみを修正し、
    前記係数、前記第1の参照ベクトルのオフセット値の絶対値のべき乗された値、及び、前記第2の参照ベクトルのオフセット値を乗算することにより得られる値を用いて前記第2の参照ベクトルのオフセット値のみを修正し、
    前記修正された第1の参照ベクトル及び前記第2の参照ベクトルの各オフセット値に応じて、前記認識辞書から除外する参照ベクトルを決定する、
    ことを含む認識辞書生成方法。
  5. 前記係数は、前記第1距離値と前記第2距離値との間の差が小さい程大きくなる、又は、前記第2距離値が前記第1距離値より小さくかつ前記第1距離値と前記第2距離値との差が大きい程大きくなる、
    ことを特徴とする請求項に記載の認識辞書生成方法。
  6. 複数の参照ベクトルから形成される認識辞書を生成するプログラムにおいて、
    コンピュータに、
    d(dは1以上の整数)個の特徴値、及び、各参照ベクトルの重要度を示すオフセット値をそれぞれ含む(d+1)次元の複数の参照ベクトルと、(d+1)次元の学習用入力ベクトルを取得する取得手段と、
    前記取得手段により取得された複数の参照ベクトルの中から、前記学習用入力ベクトルと同じクラスに属しかつ前記学習用入力ベクトルとの距離が最小となる第1の参照ベクトル、及び、前記学習用入力ベクトルと異なるクラスに属しかつ前記学習用入力ベクトルとの距離が最小となる第2の参照ベクトルを選択する選択手段と、
    前記学習用入力ベクトルと前記第1の参照ベクトルとの間の距離を示す第1距離値、及び、前記学習用入力ベクトルと前記第2の参照ベクトルとの間の距離を示す第2距離値を取得する距離取得手段と、
    前記第1距離値及び前記第2距離値の関係に応じて変化する係数、前記第2の参照ベクトルのオフセット値の絶対値のべき乗された値、及び、前記第1の参照ベクトルのオフセット値を乗算することにより得られる値を用いて前記第1の参照ベクトルのオフセット値のみを修正し、該係数、前記第1の参照ベクトルのオフセット値の絶対値のべき乗された値、及び、前記第2の参照ベクトルのオフセット値を乗算することにより得られる値を用いて前記第2の参照ベクトルのオフセット値のみを修正する修正手段と、
    前記修正手段により修正された前記第1の参照ベクトル及び前記第2の参照ベクトルの各オフセット値に応じて、前記認識辞書から除外する参照ベクトルを決定する決定手段と、
    を実現させることを特徴とするプログラム。
  7. 前記係数は、前記第1距離値と前記第2距離値との間の差が小さい程大きくなる、又は、前記第2距離値が前記第1距離値より小さくかつ前記第1距離値と前記第2距離値との差が大きい程大きくなる、
    ことを特徴とする請求項に記載のプログラム。
JP2012552546A 2011-01-11 2011-12-28 認識辞書生成装置及びパターン認識装置 Active JP5846127B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012552546A JP5846127B2 (ja) 2011-01-11 2011-12-28 認識辞書生成装置及びパターン認識装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011002728 2011-01-11
JP2011002728 2011-01-11
PCT/JP2011/007342 WO2012095938A1 (ja) 2011-01-11 2011-12-28 認識辞書生成装置及びパターン認識装置
JP2012552546A JP5846127B2 (ja) 2011-01-11 2011-12-28 認識辞書生成装置及びパターン認識装置

Publications (2)

Publication Number Publication Date
JPWO2012095938A1 JPWO2012095938A1 (ja) 2014-06-09
JP5846127B2 true JP5846127B2 (ja) 2016-01-20

Family

ID=46506864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012552546A Active JP5846127B2 (ja) 2011-01-11 2011-12-28 認識辞書生成装置及びパターン認識装置

Country Status (3)

Country Link
US (1) US9245234B2 (ja)
JP (1) JP5846127B2 (ja)
WO (1) WO2012095938A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019181675A1 (ja) * 2018-03-19 2019-09-26 日本電気株式会社 識別器修正装置、識別器修正方法、および記憶媒体
CN110516175B (zh) * 2019-08-29 2022-05-17 秒针信息技术有限公司 一种确定用户标签的方法、装置、设备和介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH096745A (ja) * 1995-06-23 1997-01-10 Nec Corp 認識辞書学習方法及びそれを用いた認識辞書学習システム
JP2007199787A (ja) * 2006-01-23 2007-08-09 Yamaguchi Univ 意味空間を表示した自己組織化マップ

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2994533B2 (ja) * 1993-08-06 1999-12-27 シャープ株式会社 パターン認識装置
JPH07225837A (ja) * 1994-02-10 1995-08-22 N T T Data Tsushin Kk パターン認識辞書作成方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH096745A (ja) * 1995-06-23 1997-01-10 Nec Corp 認識辞書学習方法及びそれを用いた認識辞書学習システム
JP2007199787A (ja) * 2006-01-23 2007-08-09 Yamaguchi Univ 意味空間を表示した自己組織化マップ

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6015042297; 伊藤隆太,外2名: '教師なしクラスタリングを行う競合モデル' 電子情報通信学会論文誌 J79-D-II No.8, 19960825, pp.1390-1400 *

Also Published As

Publication number Publication date
US20130290228A1 (en) 2013-10-31
JPWO2012095938A1 (ja) 2014-06-09
US9245234B2 (en) 2016-01-26
WO2012095938A1 (ja) 2012-07-19

Similar Documents

Publication Publication Date Title
US10395098B2 (en) Method of extracting feature of image to recognize object
US10395136B2 (en) Image processing apparatus, image processing method, and recording medium
Kumar et al. Gender classification using machine learning with multi-feature method
US9563822B2 (en) Learning apparatus, density measuring apparatus, learning method, computer program product, and density measuring system
KR102190484B1 (ko) 인식기 학습 방법 및 장치, 데이터 인식 방법 및 장치
WO2016138838A1 (zh) 基于投影极速学习机的唇语识别方法和装置
US20180157892A1 (en) Eye detection method and apparatus
US9460336B2 (en) Apparatus and method for extracting feature of depth image
KR101117549B1 (ko) 얼굴 인식 시스템 및 그 얼굴 인식 방법
EP2893491A1 (en) Image processing apparatus and method for fitting a deformable shape model to an image using random forest regression voting
JP5207870B2 (ja) 次元削減方法、パターン認識用辞書生成装置、及びパターン認識装置
JP5621787B2 (ja) パターン認識装置、パターン認識方法及びパターン認識用プログラム
US9690985B2 (en) Apparatus and method for recognizing object using depth image
KR20170108339A (ko) 영상에서 다수의 객체를 인식하는 방법
KR101558547B1 (ko) 얼굴 포즈 변화에 강한 연령 인식방법 및 시스템
JP6713162B2 (ja) 画像認識装置、画像認識方法、及び画像認識プログラム
US9576222B2 (en) Image retrieval apparatus, image retrieval method, and recording medium
JP5846127B2 (ja) 認識辞書生成装置及びパターン認識装置
KR102306319B1 (ko) 포즈 추정 매핑 데이터를 생성하는 방법, 프로그램 및 컴퓨팅 장치
KR101847175B1 (ko) 객체 인식방법 및 이를 이용한 객체 인식장치
KR101521136B1 (ko) 얼굴 인식 방법 및 얼굴 인식 장치
JP2017084006A (ja) 画像処理装置およびその方法
JP2016062249A (ja) 識別辞書学習システム、認識辞書学習方法および認識辞書学習プログラム
Tierney et al. Segmentation of subspaces in sequential data
Kumar et al. Pixel-based skin color classifier: A review

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151109

R150 Certificate of patent or registration of utility model

Ref document number: 5846127

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150