JP6095858B2 - 特徴量分類システム - Google Patents
特徴量分類システム Download PDFInfo
- Publication number
- JP6095858B2 JP6095858B2 JP2016539787A JP2016539787A JP6095858B2 JP 6095858 B2 JP6095858 B2 JP 6095858B2 JP 2016539787 A JP2016539787 A JP 2016539787A JP 2016539787 A JP2016539787 A JP 2016539787A JP 6095858 B2 JP6095858 B2 JP 6095858B2
- Authority
- JP
- Japan
- Prior art keywords
- feature quantity
- feature
- learning
- classifier
- converter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明は、例えば音声認識や画像認識における特徴量の分類を行う特徴量分類システムに関するものである。
パターン分類器にとって、どのような特徴量を使うかは性能に大きな影響を与える。たとえば音声認識の場合にはスペクトル包絡をモデル化したような特徴量が使われ、画像認識の場合には各画素の画素値を重みづけしたような特徴量が使われる。このような特徴量は比較的高次元になりやすい。高次元の特徴量をそのままモデル化すると、精度が低下することが多いので、次元圧縮を行って有用な特徴量のみを取り出すことが多い。そのような次元圧縮の手法の代表的なものには、主成分分析や線形判別分析(Linear Discriminant Analysis:LDA)がある。このような次元圧縮法は元の特徴量の情報をできるだけ残すような変換を実現する。
次元圧縮法では元の特徴量の情報をできるだけ残すような変換を実現するが、そのようにして得られた変換特徴量が後段の分類器にとって適したものである保証はない。その理由は、分類器にとって識別しやすい特徴パターンと識別しにくい(混同しやすい)特徴パターンが存在するが、そのことを考慮せずに次元を圧縮しているためである。本来、この次元圧縮は後段の分類器のために行うのであるから、分類器にとって混同しやすい特徴量パターンの情報が失われないように、特徴量を変換するべきである。
このような問題に対して、従来、混同行列を使うことで、分類結果を反映した線形変換行列を求めるようにした線形変換行列計算装置があった(例えば、特許文献1参照)。この装置では、クラス間共分散行列の計算を行う際の混同行列係数を、混同の傾向を考慮して決定するようにしたものである。
しかしながら、上記特許文献1に記載された技術では、係数の求め方は経験的および直観的に決めることを示しているだけであって、具体的にどのように求めるかは示されておらず、従って、必ずしも分類結果の精度を向上させることができるとは限らないという問題があった。
この発明は、かかる問題を解決するためになされたもので、分類結果の精度を向上させることのできる特徴量分類システムを得ることを目的とする。
この発明の特徴量分類システムは、与えられた特徴量を変換すると共に、教師データである正解クラスラベルを用いて特徴量変換を行うための識別基準の学習を行う特徴量変換器と、特徴量変換器で変換された変換特徴量を分類する分類器とを備え、特徴量変換器は、学習を行う場合、分類器の事後確率を用いて行うようにしたものである。
この発明に係る特徴量分類システムは、分類器の事後確率を用いて特徴量変換器の学習を行うようにしたので、分類器の誤り傾向を考慮した特徴量変換が可能となり、分類結果の精度を向上させることができる。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。まず、実施の形態の説明に先立ち、本発明の特徴量変換を行うための識別基準となるLDA(線形判別分析)について説明する。
ここで、認識対象を何らかの基準で2つ以上にクラス分けしたときに、Bはクラス間分散、Wはクラス内分散であり、それぞれ
で与えられる。lは系列xの要素のインデクスtと関連付けられたクラスjへのマッピングである。
で与えられる。lは系列xの要素のインデクスtと関連付けられたクラスjへのマッピングである。
の一般化固有値問題の解のうち、所望のp次元の行を選択したものとして与えられる。これを実現する構成を図4に示す。何らかの特徴量1は特徴量変換器3により変換特徴量4に変換される。この特徴量変換器3がLDAによる特徴量変換を行う演算部である。特徴量変換器3の学習の際には、教師データである正解クラスラベル2を用いて特徴量変換の学習を行う。
実施の形態1.
従来のLDAは正解クラスに基づき、それらのクラスの分離性が高くなるように、分類器を構築するものであった。正解クラスjに対する事後確率γt a(j)は常に1であり、それ以外の不正解クラスj’≠jに対して、γt a(j′)は0であることに注意すれば、式(2)は一般性を失わずに
のように変形できる。このLDAは分類器の出力結果が全く考慮されていない。通常分類器にとって、識別しやすいクラスと識別しにくいクラスが存在する。また混同しやすいクラスとしにくいクラスが存在するが、これが全く考慮されていない。
従来のLDAは正解クラスに基づき、それらのクラスの分離性が高くなるように、分類器を構築するものであった。正解クラスjに対する事後確率γt a(j)は常に1であり、それ以外の不正解クラスj’≠jに対して、γt a(j′)は0であることに注意すれば、式(2)は一般性を失わずに
のように変形できる。このLDAは分類器の出力結果が全く考慮されていない。通常分類器にとって、識別しやすいクラスと識別しにくいクラスが存在する。また混同しやすいクラスとしにくいクラスが存在するが、これが全く考慮されていない。
そこで、本発明では、分類器のxtのクラスjに対する事後確率γt d(j)を導入することで、分類器の誤り傾向を考慮した特徴量変換を可能とする。たとえば、式(3)を下式(4)のように置き換えれば、分類器の傾向を自然に取り入れることができる。すなわち、(γt a(j)−γt d(j))の部分をxtに対する重みと考えれば、分類器が正解の時(すなわちγt d(j)が1に近い)に重みは小さくなり、分類器が不正解の時(すなわちγt d(j)が0に近い)に重みは大きくなることから、この基準に基づいて構築された特徴量変換器は、もとの分類器の特徴を考慮し、その分類器にとって有利な空間に特徴量を変換していると考えることができる。
図1は、実施の形態1の特徴量分類システムを示す構成図である。分類器5は、特徴量1から特徴量変換器3により変換された変換特徴量4とモデル6とを照合することで、分類結果7を出力する。特徴量変換器3の学習の際に、正解クラスラベル2に加えて分類結果7を用いて学習を行う。その際にモデル6も再学習する。これにより、分類器5の誤りやすさを考慮に入れた特徴量変換器3およびそれに由来する変換特徴量4を得ることができ、最終的な分類結果7の精度が向上することが期待できる。
以上説明したように、実施の形態1の特徴量分類システムによれば、与えられた特徴量を変換すると共に、教師データである正解クラスラベルを用いて特徴量変換を行うための識別基準の学習を行う特徴量変換器と、特徴量変換器で変換された変換特徴量を分類する分類器とを備え、特徴量変換器は、学習を行う場合、分類器の事後確率を用いて行うようにしたので、分類器の誤り傾向を考慮した特徴量変換が可能となり、分類結果の精度を向上させることができる。
また、実施の形態1の特徴量分類システムによれば、学習は、事後確率が低いほど重みが大きくなる重みづけで行うようにしたので、分類器の誤り傾向を考慮した特徴量変換が可能となる。
また、実施の形態1の特徴量分類システムによれば、事後確率は、正解クラスの事後確率を集積して用いるようにしたので、不合理な学習結果となるのを防止することができる。
実施の形態2.
実施の形態2は、下式(4a)のように、分類器の事後確率γt d(j)に重みαを導入したものである。αが0の時は通常のLDAに一致する。これはベースの分類器の認識性能が悪く、あまり事後確率γt d(j)に信頼がおけない時に有効であると考えられる。たとえば、騒音下音声認識のように分類器の誤り傾向がランダムに近い場合には、式(4)では正解クラスの情報が正しく特徴量変換器に伝えられないため、過学習が起こり、特徴量変換により認識率が低下することが考えられるが、そのような場合には小さめのαを設定することで、過学習の影響を避けることができる。
実施の形態2は、下式(4a)のように、分類器の事後確率γt d(j)に重みαを導入したものである。αが0の時は通常のLDAに一致する。これはベースの分類器の認識性能が悪く、あまり事後確率γt d(j)に信頼がおけない時に有効であると考えられる。たとえば、騒音下音声認識のように分類器の誤り傾向がランダムに近い場合には、式(4)では正解クラスの情報が正しく特徴量変換器に伝えられないため、過学習が起こり、特徴量変換により認識率が低下することが考えられるが、そのような場合には小さめのαを設定することで、過学習の影響を避けることができる。
αは開発セットでチューニングするほか、分類器の認識性能に応じて変える方法も考えられる。この際は重みづけ器8を用いて分類結果7の重みαを調整する。図2はこれを実現する特徴量分類システムを示す構成図である。図中、特徴量1〜分類結果7は、図1に示した実施の形態1と同様である。このような構成により、過学習の影響を避けつつ、分類器5の出力傾向を考慮に入れるという本発明の効果を最大限に活用することができる。
以上説明したように、実施の形態2の特徴量分類システムによれば、事後確率の重みを調整する重みづけ器を備えたので、過学習の影響を避けつつ、分類器の出力傾向を考慮に入れることができる。
のようにすることや
のように今まで得られたものすべてで重みづけする方法が考えられる。ここでβは1より小さい正の数である。これにより、過学習を避けつつ、変換行列をよりよいものに更新するという効果が得られる。
以上説明したように、実施の形態3の特徴量分類システムによれば、学習を複数回繰り返すようにしたので、よりよい特徴量変換器を得ることができる。
また、実施の形態3の特徴量分類システムによれば、学習を複数回繰り返すと共に、学習を実行する度に、事後確率に対する重みを小さくした重みづけを行うようにしたので、過学習を避けつつ、よりよい特徴量変換器を得ることができる。
また、実施の形態3の特徴量分類システムによれば、学習を複数回繰り返すと共に、学習を実行する度に、前回の学習で推定された識別基準との重みづけ平均をとるようにしたので、過学習を避けつつ、よりよい特徴量変換器を得ることができる。
実施の形態4.
実施の形態4は、複数の特徴量変換器と分類器を用いた例である。
複数の分類器の利用を行う際には、それらの仮説傾向が異なる分類器を構築することが重要である。そこで第二のシステムを構築する際に、特徴量変換を第一のシステムとは異なるようにしたいということが考えられる。この際にも第一のシステムの事後確率を第二のシステムが自システムの事後確率と同様に考慮することで、第一のシステムの仮説傾向とは異なる第二のシステムを構築することができる。たとえば、下式(6)に基づき、s番目のシステムを構築する際には1番目からs番目までの分類器の事後確率γts′ d(j)を重みαs′で重みづけして用いることで同様の定式化が行える。
実施の形態4は、複数の特徴量変換器と分類器を用いた例である。
複数の分類器の利用を行う際には、それらの仮説傾向が異なる分類器を構築することが重要である。そこで第二のシステムを構築する際に、特徴量変換を第一のシステムとは異なるようにしたいということが考えられる。この際にも第一のシステムの事後確率を第二のシステムが自システムの事後確率と同様に考慮することで、第一のシステムの仮説傾向とは異なる第二のシステムを構築することができる。たとえば、下式(6)に基づき、s番目のシステムを構築する際には1番目からs番目までの分類器の事後確率γts′ d(j)を重みαs′で重みづけして用いることで同様の定式化が行える。
二つのシステムを用いる場合の構成を図3に示す。特徴量変換器(a)3a、分類器(a)5a、モデル(a)6a、重みづけ器(a)8aが第1のシステムであり、特徴量変換器(b)3b、分類器(b)5b、モデル(b)6b、重みづけ器(b)8bが第2のシステムである。それぞれのシステムにおける各構成は実施の形態2における特徴量変換器3、分類器5、モデル6、重みづけ器8と同様である。
実施の形態4では、特徴量変換器(b)3bには分類器(b)5bの分類結果(b)7bのほか、分類器(a)5aの分類結果(a)7aが重みづけ器(b)8bによって重みづけられ、特徴量変換器(b)3bに入力されるよう構成されている。これにより、特徴量変換器(b)3bでは、特徴量変換器(a)3aとは異なる特徴量変換が達成される。しかも、分類器(a)5aの正解率の低い学習データが重点的に学習されるため、分類器(a)5aと分類器(b)5bの分類結果(a),(b)7a,7bを組み合わせた時に性能が向上するような特徴量変換器(b)3bを構築することができる。
これにより単一のシステムを用いていた場合よりも分類結果の多様性が増し、これらを多数決の原理(たとえばRecognizer Output Voting Error Reduction(ROVER)といった手法)でうまく統合することで、システム全体として性能を向上させることができる。その際には、異なる特徴量の使用が有効であることがわかっているため、本発明の効果を利用できると考えられる。
なお、上記例では二つのシステムを用いた場合であるが、三つ以上のシステムであっても、あるシステムの特徴量変換器が他のシステムの事後確率を考慮して学習を行うよう構成することで同様に適用可能である。
以上説明したように、実施の形態4の特徴量分類システムによれば、実施の形態2に記載の特徴量分類システムを複数備え、複数の特徴量分類システムのうち、いずれかの特徴量分類システムの特徴量変換器は、他の特徴量分類システムの特徴量変換器とは異なる特徴量変換を行うようにしたので、より分類結果の精度を向上させることができる。
また、実施の形態4の特徴量分類システムによれば、いずれかの特徴量分類システムの特徴量変換器は、学習を行う場合、他の特徴量分類システムの分類器の事後確率を含めて用いるようにしたので、複数の特徴量変換器のうち、他の特徴量変換器とは異なる特徴量変換を行う特徴量変換器を備えたシステムを実現することができる。
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。また、各実施の形態では、音声認識を例として説明したが、特徴量を画像特徴量、モデルを画像のモデルや言語モデルに置き換えることで、文字または画像認識にも同様の構成を用いることができる。さらに拡張して一般のパターン認識問題、すなわち任意のクラス分類問題に適用することができる。
以上のように、この発明に係る特徴量分類システムは、正解クラスラベルを用いて特徴量変換器が学習を行う構成に関するものであり、音声認識や画像認識における特徴量変換の学習に適している。
1 特徴量、2 正解クラスラベル、3 特徴量変換器、3a 特徴量変換器(a)、3b 特徴量変換器(b)、4 変換特徴量、4a 変換特徴量(a)、4b 変換特徴量(b)、5 分類器、5a 分類器(a)、5b 分類器(b)、6 モデル、6a モデル(a)、6b モデル(b)、7 分類結果、7a 分類結果(a)、7b 分類結果(b)、8 重みづけ器、8a 重みづけ器(a)、8b 重みづけ器(b)。
Claims (9)
- 与えられた特徴量を変換すると共に、教師データである正解クラスラベルを用いて特徴量変換を行うための識別基準の学習を行う特徴量変換器と、
前記特徴量変換器で変換された変換特徴量を分類する分類器とを備え、
前記特徴量変換器は、前記学習を行う場合、前記分類器の事後確率を用いて行うことを特徴とする特徴量分類システム。 - 前記学習は、前記事後確率が低いほど重みが大きくなる重みづけで行うことを特徴とする請求項1記載の特徴量分類システム。
- 前記事後確率は、正解クラスの事後確率を集積して用いることを特徴とする請求項1記載の特徴量分類システム。
- 前記事後確率の重みを調整する重みづけ器を備えたことを特徴とする請求項1記載の特徴量分類システム。
- 前記学習を複数回繰り返すことを特徴とする請求項1記載の特徴量分類システム。
- 前記学習を複数回繰り返すと共に、当該学習を実行する度に、前記事後確率に対する重みを小さくした重みづけを行うことを特徴とする請求項4記載の特徴量分類システム。
- 前記学習を複数回繰り返すと共に、当該学習を実行する度に、前回の学習で推定された識別基準との重みづけ平均をとることを特徴とする請求項4記載の特徴量分類システム。
- 請求項4に記載の特徴量分類システムを複数備え、
前記複数の特徴量分類システムのうち、いずれかの特徴量分類システムの特徴量変換器は、他の特徴量分類システムの特徴量変換器とは異なる特徴量変換を行うことを特徴とする特徴量分類システム。 - 前記いずれかの特徴量分類システムの特徴量変換器は、学習を行う場合、前記他の特徴量分類システムの分類器の事後確率を含めて用いることを特徴とする請求項8記載の特徴量分類システム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2014/071065 WO2016021060A1 (ja) | 2014-08-08 | 2014-08-08 | 特徴量分類システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6095858B2 true JP6095858B2 (ja) | 2017-03-15 |
JPWO2016021060A1 JPWO2016021060A1 (ja) | 2017-04-27 |
Family
ID=55263362
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016539787A Expired - Fee Related JP6095858B2 (ja) | 2014-08-08 | 2014-08-08 | 特徴量分類システム |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP6095858B2 (ja) |
CN (1) | CN106575375A (ja) |
WO (1) | WO2016021060A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11100374B2 (en) | 2019-06-19 | 2021-08-24 | Samsung Electronics Co., Ltd. | Apparatus and method with classification |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008192031A (ja) * | 2007-02-07 | 2008-08-21 | Nec Corp | 圧縮方法、圧縮装置、圧縮データ復元方法、圧縮データ復元装置、可視化方法および可視化装置 |
JP2013117683A (ja) * | 2011-12-05 | 2013-06-13 | Nippon Hoso Kyokai <Nhk> | 音声認識装置、誤り傾向学習方法、及びプログラム |
-
2014
- 2014-08-08 WO PCT/JP2014/071065 patent/WO2016021060A1/ja active Application Filing
- 2014-08-08 JP JP2016539787A patent/JP6095858B2/ja not_active Expired - Fee Related
- 2014-08-08 CN CN201480081120.7A patent/CN106575375A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008192031A (ja) * | 2007-02-07 | 2008-08-21 | Nec Corp | 圧縮方法、圧縮装置、圧縮データ復元方法、圧縮データ復元装置、可視化方法および可視化装置 |
JP2013117683A (ja) * | 2011-12-05 | 2013-06-13 | Nippon Hoso Kyokai <Nhk> | 音声認識装置、誤り傾向学習方法、及びプログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11100374B2 (en) | 2019-06-19 | 2021-08-24 | Samsung Electronics Co., Ltd. | Apparatus and method with classification |
Also Published As
Publication number | Publication date |
---|---|
CN106575375A (zh) | 2017-04-19 |
JPWO2016021060A1 (ja) | 2017-04-27 |
WO2016021060A1 (ja) | 2016-02-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6345276B2 (ja) | 顔認証方法およびシステム | |
WO2020003533A1 (en) | Pattern recognition apparatus, pattern recognition method, and computer-readable recording medium | |
Sadjadi et al. | The IBM 2016 speaker recognition system | |
US8805752B2 (en) | Learning device, learning method, and computer program product | |
US9639779B2 (en) | Feature point detection device, feature point detection method, and computer program product | |
Dutta et al. | Machine learning techniques for Indian sign language recognition | |
JP5207870B2 (ja) | 次元削減方法、パターン認識用辞書生成装置、及びパターン認識装置 | |
JPWO2010004958A1 (ja) | 個人認証システム、個人認証方法 | |
JP2018529157A (ja) | ドメイン適応を用いたパターン認識装置、方法およびプログラム | |
CN110717401A (zh) | 年龄估计方法及装置、设备、存储介质 | |
Brueckner et al. | Hierarchical neural networks and enhanced class posteriors for social signal classification | |
CN1952919A (zh) | 考虑全局数据结构的学习机 | |
JP7056345B2 (ja) | データ分析システム、方法、及びプログラム | |
JP6095858B2 (ja) | 特徴量分類システム | |
EP2641212A1 (en) | Systems and methods for robust pattern classification | |
JP2004178569A (ja) | データ分類装置、物体認識装置、データ分類方法及び物体認識方法 | |
JP7047849B2 (ja) | 識別装置、識別方法、および識別プログラム | |
US20230196810A1 (en) | Neural ode-based conditional tabular generative adversarial network apparatus and method | |
KR100852630B1 (ko) | 비디오 영상에서 확률적 접근법을 이용한 생체인식방법 | |
JP4995027B2 (ja) | データ変換方法及び装置、パターン識別方法及び装置、プログラム | |
US11270163B2 (en) | Learning device, learning method, and storage medium | |
US11526691B2 (en) | Learning device, learning method, and storage medium | |
WO2018116918A1 (ja) | 照合処理装置、照合処理方法、及び、照合処理プログラムが格納された記録媒体 | |
US20150234937A1 (en) | Information retrieval system, information retrieval method and computer-readable medium | |
JP6947460B1 (ja) | プログラム、情報処理装置、及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170117 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6095858 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |