JP5321596B2 - 統計モデル学習装置、統計モデル学習方法、およびプログラム - Google Patents
統計モデル学習装置、統計モデル学習方法、およびプログラム Download PDFInfo
- Publication number
- JP5321596B2 JP5321596B2 JP2010534655A JP2010534655A JP5321596B2 JP 5321596 B2 JP5321596 B2 JP 5321596B2 JP 2010534655 A JP2010534655 A JP 2010534655A JP 2010534655 A JP2010534655 A JP 2010534655A JP 5321596 B2 JP5321596 B2 JP 5321596B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- statistical model
- learning
- model
- statistical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013179 statistical model Methods 0.000 title claims description 203
- 238000000034 method Methods 0.000 title claims description 66
- 230000008569 process Effects 0.000 claims description 26
- 238000004364 calculation method Methods 0.000 claims description 23
- 239000000203 mixture Substances 0.000 claims description 17
- 230000005236 sound signal Effects 0.000 claims description 11
- 238000005286 illumination Methods 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims 2
- 238000013500 data storage Methods 0.000 description 55
- 238000003909 pattern recognition Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000009826 distribution Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000013518 transcription Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19147—Obtaining sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Probability & Statistics with Applications (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Image Analysis (AREA)
Description
図1を参照すると、本発明の第1の実施の形態は、学習データ記憶手段101と、データ分類手段102と、統計モデル学習手段103と、統計モデル記憶手段104と、予備データ記憶手段105と、データ認識手段106と、情報量計算手段107と、データ選択手段108と、データ構造情報記憶手段109とを含み、データ構造情報記憶手段109に記憶されたデータの構造に関する情報に基づき、一般に極めて高次元の統計モデル空間に、T個の統計モデルを偏りなく生成し、また、個々の予備データが有する情報量を、T個の統計モデルから得られる認識結果の多様性、すなわち不一致の度合いに基づいて計算するよう動作する。このような構成を採用し、実世界のデータの構造を考慮してより可能性の高い領域に配置されたT個の統計モデルを用いて、統計モデルの品質向上に有効なデータを予備データから選択することにより、本発明の目的を達成することができる。以下、構成要素の詳細について説明する。
Mixture ModelまたはGMM)などの確率モデルが好適と考えられる。よって以下ではGMMを仮定して説明を行うが、構造情報の表現に適していれば他の任意のモデルでもよく、また確率モデルをさらに特殊化したような単純な形式、例えば単なるデータ点(GMMの平均ベクトルなど)を用いることも可能である。
次に、本発明の第2の実施の形態について、図面を参照して詳細に説明する。
次に、本発明の第3の実施の形態を、図6を参照して説明する。図6は、本実施の形態における統計モデル学習装置の構成を示す機能ブロック図である。なお、本実施の形態では、上述した統計モデル学習装置の概略を説明する。
102…データ分類手段
103…統計モデル学習手段
104…統計モデル記憶手段
105…予備データ記憶手段
106…データ認識手段
107…情報量計算手段
108…データ選択手段
109…データ構造情報記憶手段
201…データ記憶手段
202…クラスタリング手段
203-1〜203-T…クラスタ
204…生成手段
205-1〜205-T…GMM λ1〜λT
501…ラベル付きデータ記憶手段
502…統計モデル学習手段
503…統計モデル記憶手段
504…ラベルなしデータ記憶手段
505…データ認識手段
506…信頼度計算手段
507…データ選択手段
41…入力装置
42…表示装置
43…データ処理装置
44…統計モデル学習用プログラム
45…記憶装置
451…学習データ記憶手段
452…予備データ記憶手段
453…データ構造情報記憶手段
454…統計モデル記憶手段
Claims (37)
- 学習対象となるデータが通常有する構造情報を参照して、学習データから複数個のサブセットを抽出するデータ分類手段と、
前記サブセットを学習してそれぞれ統計モデルを作成する統計モデル学習手段と、
前記それぞれの統計モデルを用いて前記学習データと異なる別のデータを認識して認識結果を取得するデータ認識手段と、
前記それぞれの統計モデルから得られた認識結果の不一致の度合いから前記別のデータの情報量を計算する情報量計算手段と、
前記別のデータの中から、前記情報量の高いものを選択し、前記学習データに追加するデータ選択手段と
を備えたことを特徴とする統計モデル学習装置。 - 前記データ分類手段による前記サブセットの抽出、前記統計モデル学習手段による統計モデルの作成、前記データ認識手段による認識結果の取得、前記情報量計算手段による情報量の計算、および、前記データ選択手段による前記学習データへの別のデータの追加を1つのサイクルとして、所定の条件が満たされるまで前記サイクルを繰り返すことを特徴とする請求項1記載の統計モデル学習装置。
- 前記統計モデル学習手段は、前記所定の条件が満たされた後の前記学習データから1つの統計モデルを作成することを特徴とする請求項2記載の統計モデル学習装置。
- 前記データが通常有する構造情報は、データの変動要因に関するモデルであることを特徴とする請求項1乃至3の何れか1項に記載の統計モデル学習装置。
- 前記データの変動要因に関するモデルは、典型的な変動を受けたデータの複数個のセットであることを特徴とする請求項4記載の統計モデル学習装置。
- 前記データの変動要因に関するモデルは、変動を受けたデータの典型的なパターンを表した確率モデルであることを特徴とする請求項4記載の統計モデル学習装置。
- 前記確率モデルはガウス混合モデルであることを特徴とする請求項6記載の統計モデル学習装置。
- 変動要因による様々な影響を受けた多数のデータを複数個のクラスタに分類するクラスタリング手段と、前記クラスタ毎に前記ガウス混合モデルを生成するガウス混合モデル生成手段とを備えることを特徴とする請求項7記載の統計モデル学習装置。
- 前記データは音声信号であり、前記変動要因は話者、雑音環境のうち少なくともいずれか一つであることを特徴とする請求項4乃至8の何れか1項に記載の統計モデル学習装置。
- 前記データは文字画像であり、前記変動要因は筆者、フォント、筆記具のうち少なくともいずれか一つであることを特徴とする請求項4乃至8の何れか1項に記載の統計モデル学習装置。
- 前記データは物体画像であり、前記変動要因は照明条件、物体の姿勢のうち少なくともいずれか一つであることを特徴とする請求項4乃至8の何れか1項に記載の統計モデル学習装置。
- 前記データ分類手段は、前記確率モデルとラベルが付与されたデータとの類似度に基づいて、前記ラベルが付与されたデータから複数個のサブセットを抽出することを特徴とする請求項6乃至8の何れか1項に記載の統計モデル学習装置。
- 学習対象となるデータが通常有する構造情報を参照して、学習データから複数個のサブセットを抽出し、
前記サブセットを学習してそれぞれ統計モデルを作成し、
前記それぞれの統計モデルを用いて前記学習データと異なる別のデータを認識して認識結果を取得し、
前記それぞれの統計モデルから得られた認識結果の不一致の度合いから前記別のデータの情報量を計算し、
前記別のデータの中から、前記情報量の高いものを選択し、前記学習データに追加する、
ことを特徴とする統計モデル学習方法。 - 前記複数個のサブセットの抽出、前記統計モデルの作成、前記別のデータの認識結果の取得、前記別のデータの情報量の計算、前記学習データへの追加を、1つのサイクルとして、所定の条件が満たされるまで前記サイクルを繰り返すことを特徴とする請求項13記載の統計モデル学習方法。
- 前記所定の条件が満たされた後の前記学習データから1つの統計モデルを作成することを特徴とする請求項14記載の統計モデル学習方法。
- 前記データが通常有する構造情報は、データの変動要因に関するモデルであることを特徴とする請求項13乃至15の何れか1項に記載の統計モデル学習方法。
- 前記データの変動要因に関するモデルは、典型的な変動を受けたデータの複数個のセットであることを特徴とする請求項16記載の統計モデル学習方法。
- 前記データの変動要因に関するモデルは、変動を受けたデータの典型的なパターンを表した確率モデルであることを特徴とする請求項16記載の統計モデル学習方法。
- 前記確率モデルはガウス混合モデルであることを特徴とする請求項18記載の統計モデル学習方法。
- 変動要因による様々な影響を受けた多数のデータを複数個のクラスタに分類し、前記クラスタ毎に前記ガウス混合モデルを生成することを特徴とする請求項19記載の統計モデル学習方法。
- 前記データは音声信号であり、前記変動要因は話者、雑音環境のうち少なくともいずれか一つであることを特徴とする請求項16乃至20の何れか1項に記載の統計モデル学習方法。
- 前記データは文字画像であり、前記変動要因は筆者、フォント、筆記具のうち少なくともいずれか一つであることを特徴とする請求項16乃至20の何れか1項に記載の統計モデル学習方法。
- 前記データは物体画像であり、前記変動要因は照明条件、物体の姿勢のうち少なくともいずれか一つであることを特徴とする請求項16乃至20の何れか1項に記載の統計モデル学習方法。
- 前記複数個のサブセットの抽出では、前記確率モデルとラベルが付与されたデータとの類似度に基づいて、前記ラベルが付与されたデータから複数個のサブセットを抽出することを特徴とする請求項18乃至20の何れか1項に記載の統計モデル学習方法。
- 学習対象となるデータが通常有する構造情報を参照して、学習データから複数個のサブセットを抽出するデータ分類処理と、
前記サブセットを学習してそれぞれ統計モデルを作成する統計モデル学習処理と、
前記それぞれの統計モデルを用いて前記学習データと異なる別のデータを認識して認識結果を取得するデータ認識処理と、
前記それぞれの統計モデルから得られた認識結果の不一致の度合いから前記別のデータの情報量を計算する情報量計算処理と、
前記別のデータの中から、前記情報量の高いものを選択し、前記学習データに追加するデータ選択処理と
をコンピュータに実行させるためのプログラム。 - 前記データ分類処理、前記統計モデル学習処理、前記データ認識処理、前記情報量計算処理および前記データ選択処理を1つのサイクルとして、所定の条件が満たされるまで前記サイクルを繰り返すことを特徴とする請求項25記載のプログラム。
- 前記所定の条件が満たされた後の前記学習データから1つの統計モデルを作成する処理を、前記コンピュータにさらに実行させることを特徴とする請求項26記載のプログラム。
- 前記データが通常有する構造情報は、データの変動要因に関するモデルであることを特徴とする請求項25乃至27の何れか1項に記載のプログラム。
- 前記データの変動要因に関するモデルは、典型的な変動を受けたデータの複数個のセットであることを特徴とする請求項28記載のプログラム。
- 前記データの変動要因に関するモデルは、変動を受けたデータの典型的なパターンを表した確率モデルであることを特徴とする請求項28記載のプログラム。
- 前記確率モデルはガウス混合モデルであることを特徴とする請求項30記載のプログラム。
- 変動要因による様々な影響を受けた多数のデータを複数個のクラスタに分類し、前記クラスタ毎に前記ガウス混合モデルを生成する処理を、前記コンピュータにさらに行わせることを特徴とする請求項31記載のプログラム。
- 前記データは音声信号であり、前記変動要因は話者、雑音環境のうち少なくともいずれか一つであることを特徴とする請求項28乃至32の何れか1項に記載のプログラム。
- 前記データは文字画像であり、前記変動要因は筆者、フォント、筆記具のうち少なくともいずれか一つであることを特徴とする請求項28乃至32の何れか1項に記載のプログラム。
- 前記データは物体画像であり、前記変動要因は照明条件、物体の姿勢のうち少なくともいずれか一つであることを特徴とする請求項28乃至32の何れか1項に記載のプログラム。
- 前記データ分類処理では、前記確率モデルとラベルが付与されたデータとの類似度に基づいて、前記ラベルが付与されたデータから複数個のサブセットを抽出することを特徴とする請求項30乃至32の何れか1項に記載のプログラム。
- 前記所定の条件は、前記サイクルの繰り返し数、前記学習データの量、または、前記統計モデルの更新状況の何れか1つまたは複数の組み合わせによって定められていることを特徴とする請求項2または3記載の統計モデル学習装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010534655A JP5321596B2 (ja) | 2008-10-21 | 2009-07-22 | 統計モデル学習装置、統計モデル学習方法、およびプログラム |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008270802 | 2008-10-21 | ||
JP2008270802 | 2008-10-21 | ||
PCT/JP2009/003416 WO2010047019A1 (ja) | 2008-10-21 | 2009-07-22 | 統計モデル学習装置、統計モデル学習方法、およびプログラム |
JP2010534655A JP5321596B2 (ja) | 2008-10-21 | 2009-07-22 | 統計モデル学習装置、統計モデル学習方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2010047019A1 JPWO2010047019A1 (ja) | 2012-03-15 |
JP5321596B2 true JP5321596B2 (ja) | 2013-10-23 |
Family
ID=42119077
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010534655A Active JP5321596B2 (ja) | 2008-10-21 | 2009-07-22 | 統計モデル学習装置、統計モデル学習方法、およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20110202487A1 (ja) |
JP (1) | JP5321596B2 (ja) |
WO (1) | WO2010047019A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10475442B2 (en) | 2015-11-25 | 2019-11-12 | Samsung Electronics Co., Ltd. | Method and device for recognition and method and device for constructing recognition model |
US10878657B2 (en) | 2018-07-25 | 2020-12-29 | Konami Gaming, Inc. | Casino management system with a patron facial recognition system and methods of operating same |
US11521460B2 (en) | 2018-07-25 | 2022-12-06 | Konami Gaming, Inc. | Casino management system with a patron facial recognition system and methods of operating same |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8521664B1 (en) * | 2010-05-14 | 2013-08-27 | Google Inc. | Predictive analytical model matching |
US8438122B1 (en) | 2010-05-14 | 2013-05-07 | Google Inc. | Predictive analytic modeling platform |
US8473431B1 (en) | 2010-05-14 | 2013-06-25 | Google Inc. | Predictive analytic modeling platform |
US8533222B2 (en) | 2011-01-26 | 2013-09-10 | Google Inc. | Updateable predictive analytical modeling |
US8595154B2 (en) | 2011-01-26 | 2013-11-26 | Google Inc. | Dynamic predictive modeling platform |
US8533224B2 (en) | 2011-05-04 | 2013-09-10 | Google Inc. | Assessing accuracy of trained predictive models |
US8554703B1 (en) * | 2011-08-05 | 2013-10-08 | Google Inc. | Anomaly detection |
US8370279B1 (en) | 2011-09-29 | 2013-02-05 | Google Inc. | Normalization of predictive model scores |
JP5821590B2 (ja) * | 2011-12-06 | 2015-11-24 | 富士ゼロックス株式会社 | 画像識別情報付与プログラム及び画像識別情報付与装置 |
US9031897B2 (en) * | 2012-03-23 | 2015-05-12 | Nuance Communications, Inc. | Techniques for evaluation, building and/or retraining of a classification model |
US9679224B2 (en) * | 2013-06-28 | 2017-06-13 | Cognex Corporation | Semi-supervised method for training multiple pattern recognition and registration tool models |
JP6072103B2 (ja) * | 2015-02-04 | 2017-02-01 | エヌ・ティ・ティ・コムウェア株式会社 | 学習装置、学習方法、およびプログラム |
JP6267667B2 (ja) * | 2015-03-02 | 2018-01-24 | 日本電信電話株式会社 | 学習データ生成装置、方法及びプログラム |
JP6073952B2 (ja) * | 2015-03-23 | 2017-02-01 | 日本電信電話株式会社 | 学習データ生成装置、方法及びプログラム |
US10074042B2 (en) | 2015-10-06 | 2018-09-11 | Adobe Systems Incorporated | Font recognition using text localization |
US9875429B2 (en) | 2015-10-06 | 2018-01-23 | Adobe Systems Incorporated | Font attributes for font recognition and similarity |
US10692012B2 (en) * | 2016-05-29 | 2020-06-23 | Microsoft Technology Licensing, Llc | Classifying transactions at network accessible storage |
US10007868B2 (en) * | 2016-09-19 | 2018-06-26 | Adobe Systems Incorporated | Font replacement based on visual similarity |
JP6874827B2 (ja) | 2017-03-21 | 2021-05-19 | 日本電気株式会社 | 画像処理装置、画像処理方法及び記録媒体 |
WO2019017874A1 (en) * | 2017-07-17 | 2019-01-24 | Intel Corporation | DATA MANAGEMENT TECHNIQUES OF CALCULATION MODEL |
US11537814B2 (en) | 2018-05-07 | 2022-12-27 | Nec Corporation | Data providing system and data collection system |
US10950017B2 (en) | 2019-07-08 | 2021-03-16 | Adobe Inc. | Glyph weight modification |
US11295181B2 (en) | 2019-10-17 | 2022-04-05 | Adobe Inc. | Preserving document design using font synthesis |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11316754A (ja) * | 1998-05-06 | 1999-11-16 | Nec Corp | 実験計画法及び実験計画プログラムを記録した記録媒体 |
JP2001229026A (ja) * | 1999-12-09 | 2001-08-24 | Nec Corp | 知識発見方式 |
JP2005258480A (ja) * | 2002-02-20 | 2005-09-22 | Nec Corp | 能動学習システム及びそれに用いる能動学習法並びにそのプログラム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5428710A (en) * | 1992-06-29 | 1995-06-27 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Fast temporal neural learning using teacher forcing |
US7263489B2 (en) * | 1998-12-01 | 2007-08-28 | Nuance Communications, Inc. | Detection of characteristics of human-machine interactions for dialog customization and analysis |
KR100612840B1 (ko) * | 2004-02-18 | 2006-08-18 | 삼성전자주식회사 | 모델 변이 기반의 화자 클러스터링 방법, 화자 적응 방법및 이들을 이용한 음성 인식 장치 |
-
2009
- 2009-07-22 JP JP2010534655A patent/JP5321596B2/ja active Active
- 2009-07-22 US US13/063,683 patent/US20110202487A1/en not_active Abandoned
- 2009-07-22 WO PCT/JP2009/003416 patent/WO2010047019A1/ja active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11316754A (ja) * | 1998-05-06 | 1999-11-16 | Nec Corp | 実験計画法及び実験計画プログラムを記録した記録媒体 |
JP2001229026A (ja) * | 1999-12-09 | 2001-08-24 | Nec Corp | 知識発見方式 |
JP2005258480A (ja) * | 2002-02-20 | 2005-09-22 | Nec Corp | 能動学習システム及びそれに用いる能動学習法並びにそのプログラム |
Non-Patent Citations (7)
Title |
---|
CSNG200400501003; 馬見塚拓ほか1名: '集団能動学習-データマイニング・バイオインフォマティックスへの展開-' 電子情報通信学会論文誌 VOL.J85-D-II NO.5, 200205, pp.717-724, 社団法人電子情報通信学会 * |
CSNG200600661040; 加藤智之ほか3名: '音響尤度を用いた書き起こしデータ選択による音響モデル構築コストの削減' 情報処理学会研究報告(2005-SLP-59) Vol.2005 No.127, 20051222, pp.229-234, 社団法人情報処理学会 * |
CSNG201000286003; 濱中悠三ほか4名: '音声認識のための複数の認識器を利用した能動学習' 電子情報通信学会技術研究報告 vol.2009-SLP-79, no.4, pp.19-23, 社団法人電子情報通信学会 * |
JPN6013017366; 加藤智之ほか3名: '音響尤度を用いた書き起こしデータ選択による音響モデル構築コストの削減' 情報処理学会研究報告(2005-SLP-59) Vol.2005 No.127, 20051222, pp.229-234, 社団法人情報処理学会 * |
JPN6013017367; Gokhan Tur et al.: 'Active learning for spoken language understanding' 2003 IEEE International Conference on Acoustics, Speech, and Signal Processing, 2003 Proceedings(ICA vol.1, 20030406, pp.I-276-I-279 * |
JPN6013017369; Ido Dagan et al.: 'Committee-Based Sampling For Training Probabilistic Classifiers' In Proceedings of the Twelfth International Conference on Machine Learning , 1995, pp.150-157 * |
JPN6013017371; 馬見塚拓ほか1名: '集団能動学習-データマイニング・バイオインフォマティックスへの展開-' 電子情報通信学会論文誌 VOL.J85-D-II NO.5, 200205, pp.717-724, 社団法人電子情報通信学会 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10475442B2 (en) | 2015-11-25 | 2019-11-12 | Samsung Electronics Co., Ltd. | Method and device for recognition and method and device for constructing recognition model |
US10878657B2 (en) | 2018-07-25 | 2020-12-29 | Konami Gaming, Inc. | Casino management system with a patron facial recognition system and methods of operating same |
US11455864B2 (en) | 2018-07-25 | 2022-09-27 | Konami Gaming, Inc. | Casino management system with a patron facial recognition system and methods of operating same |
US11521460B2 (en) | 2018-07-25 | 2022-12-06 | Konami Gaming, Inc. | Casino management system with a patron facial recognition system and methods of operating same |
Also Published As
Publication number | Publication date |
---|---|
US20110202487A1 (en) | 2011-08-18 |
WO2010047019A1 (ja) | 2010-04-29 |
JPWO2010047019A1 (ja) | 2012-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5321596B2 (ja) | 統計モデル学習装置、統計モデル学習方法、およびプログラム | |
CN110021308B (zh) | 语音情绪识别方法、装置、计算机设备和存储介质 | |
US10109280B2 (en) | Blind diarization of recorded calls with arbitrary number of speakers | |
JP4728972B2 (ja) | インデキシング装置、方法及びプログラム | |
CN106782560B (zh) | 确定目标识别文本的方法及装置 | |
Zhuang et al. | Real-world acoustic event detection | |
US8099288B2 (en) | Text-dependent speaker verification | |
JP5229478B2 (ja) | 統計モデル学習装置、統計モデル学習方法、およびプログラム | |
Sainath et al. | Exemplar-based processing for speech recognition: An overview | |
Turnbull et al. | Fast recognition of musical genres using RBF networks | |
Sharma et al. | Acoustic model adaptation using in-domain background models for dysarthric speech recognition | |
CN105122279A (zh) | 在识别系统中保守地适配深度神经网络 | |
CN109461441B (zh) | 一种自适应、无监督式的课堂教学活动智能感知方法 | |
US8595010B2 (en) | Program for creating hidden Markov model, information storage medium, system for creating hidden Markov model, speech recognition system, and method of speech recognition | |
WO2021174760A1 (zh) | 声纹数据生成方法、装置、计算机装置及存储介质 | |
US7702145B2 (en) | Adapting a neural network for individual style | |
CN110992988B (zh) | 一种基于领域对抗的语音情感识别方法及装置 | |
Calvo-Zaragoza et al. | Hybrid hidden Markov models and artificial neural networks for handwritten music recognition in mensural notation | |
CN115205930A (zh) | 一种基于决策融合的多模态情感分类方法 | |
JP5387274B2 (ja) | 標準パタン学習装置、ラベル付与基準算出装置、標準パタン学習方法およびプログラム | |
US7263486B1 (en) | Active learning for spoken language understanding | |
Putri et al. | Music information retrieval using Query-by-humming based on the dynamic time warping | |
Aradilla | Acoustic models for posterior features in speech recognition | |
CN115512692A (zh) | 语音识别方法、装置、设备及存储介质 | |
CN115472185A (zh) | 一种语音生成方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120510 |
|
RD07 | Notification of extinguishment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7427 Effective date: 20120719 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130416 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130618 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130701 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5321596 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |