JP2012255867A - Voice recognition device - Google Patents
Voice recognition device Download PDFInfo
- Publication number
- JP2012255867A JP2012255867A JP2011128127A JP2011128127A JP2012255867A JP 2012255867 A JP2012255867 A JP 2012255867A JP 2011128127 A JP2011128127 A JP 2011128127A JP 2011128127 A JP2011128127 A JP 2011128127A JP 2012255867 A JP2012255867 A JP 2012255867A
- Authority
- JP
- Japan
- Prior art keywords
- phoneme
- label
- pattern
- dictionary
- phoneme label
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、音声認識装置に関する。 The present invention relates to a speech recognition apparatus.
近年では、コマンド型の音声認識システムが用いられている。コマンド型の音声認識システムでは、タスクが限定されているため認識文法をあらかじめ固定することができる。音声認識制御において、認識文法は音素系列(音響モデルの連鎖パターン)の制約条件として利用される。 In recent years, command type speech recognition systems have been used. In the command-type speech recognition system, the recognition grammar can be fixed in advance because the tasks are limited. In speech recognition control, the recognition grammar is used as a constraint condition for phoneme sequences (acoustic model chain patterns).
また従来では、通常読み仮名と音素パターンを1対1に割付ける方法がとられ、この方法は音声認識において、多くの場合に有効である。しかしながら、この方法を用いて音声認識を行ったであっても、誤認識率が5%〜50%となる場合がある。
このような場合において、誤認識されやすいコマンドは偏っており、誤認識による結果も偏る場合が多い。すなわち、間違えやすいパターンが存在している。
Conventionally, a method of assigning a normal reading kana and a phoneme pattern on a one-to-one basis has been used, and this method is effective in many cases in speech recognition. However, even if speech recognition is performed using this method, the recognition error rate may be 5% to 50%.
In such a case, commands that are easily misrecognized are biased, and the results of misrecognition are often biased. That is, there are patterns that are easy to make mistakes.
特許文献1では、ノイズの存在によりS/N比が低下した場合の音声認識手法が開示されている。これによると、あらかじめ異なったS/N比の音響モデルを準備することで、音響的なゆれを吸収することができる。またノイズにより音素の変換が起こる点を、あらかじめ想定できる範囲で事前に音素パターンを生成する。 Patent Document 1 discloses a speech recognition method when the S / N ratio is reduced due to the presence of noise. According to this, acoustic fluctuations can be absorbed by preparing acoustic models having different S / N ratios in advance. In addition, a phoneme pattern is generated in advance within a range in which a phoneme can be converted by noise.
特許文献2では、音声認識箇所の誤認識部分を正しく且つ効率良く修正する修正箇所決定装置が開示されている。これによると、修正箇所決定手段は、正解文字列と発音が類似する文字列部分が音声認識結果に存在しない場合に、単語の接続制約を記述した言語モデルを用いて正解文字列が挿入される確率の高い位置を挿入位置として検索するものであり、認識結果修正手段は決定された挿入位置に正解文字列を挿入する。 Patent Document 2 discloses a correction location determination apparatus that corrects a misrecognition portion of a speech recognition location correctly and efficiently. According to this, when the character string portion whose pronunciation is similar to the correct character string does not exist in the speech recognition result, the corrected part determining means inserts the correct character string using the language model describing the word connection constraint. A position with a high probability is searched as an insertion position, and the recognition result correcting means inserts a correct character string at the determined insertion position.
特許文献3では、意味適合性を向上させつつ頑健性の高いに音声認識結果を得る音声認識装置が開示されている。これによると、微量抽出部で抽出された音声特徴量、音声モデル記憶部に記憶された音素HMM、言語モデル記憶部に記憶された単語2−gramモデルを用いて、N個以上の最尤解及びその尤度(スコア)を演算する。 Patent Document 3 discloses a speech recognition apparatus that obtains a speech recognition result with high robustness while improving semantic suitability. According to this, N or more maximum likelihood solutions using the speech feature amount extracted by the micro extraction unit, the phoneme HMM stored in the speech model storage unit, and the word 2-gram model stored in the language model storage unit And its likelihood (score) is calculated.
通常読み仮名と音素パターンを1対1に割付ける方法の場合において、音素が消滅した場合と、音素の変換がある場合と、音素の中間化がある場合には、誤認識が発生しやすい。音素が消滅した場合とは、例えば「秋田」の発音について「i」が発音されず、「a k (i) t a」となる場合である。音素の変換がある場合とは、例えば「本」は「h o N」であるが、「一本」は「i q p o N」となるような場合である。音素の中間化がある場合とは、例えば「右ロール」の発音は「m i g i r o_ r u」であるが、音素の「i r」が「y」と置き換わり、「m i g y o_ r u」となるような場合である。 In the case of a method in which a normal reading kana and a phoneme pattern are assigned one-to-one, erroneous recognition is likely to occur when a phoneme disappears, when there is a phoneme conversion, and when there is a phoneme intermediate. When the phoneme disappears, for example, “i” is not pronounced for the pronunciation of “Akita” but becomes “a k (i) t a”. The case where there is a phoneme conversion is a case where “book” is “h o N” but “one” is “i q p o N”. For example, there is a phoneme neutralization, for example, the right roll is pronounced “migir o_ ru” but the phoneme “ir” is replaced by “y” and becomes “migy o_ ru”. is there.
このようなケースでは、先に出る音素パターンに認識結果が影響され、誤認識を起こしやすい。例えば、認識文法に「芥(あくた)」があれば「秋田」と間違えやすく、ユーザ発話が「秋田」であっても、認識結果が「芥」となる場合がある。また同様に、「右ヨー」があれば「右ロール」と間違えやすく、ユーザ発話が「右ロール」であっても、認識結果が「右ヨー」となる場合がある。 In such a case, the recognition result is affected by the phoneme pattern that appears first, and erroneous recognition is likely to occur. For example, if the recognition grammar contains “Akita”, it may be easily mistaken for “Akita”, and even if the user utterance is “Akita”, the recognition result may be “芥”. Similarly, if there is “right yaw”, it is easily mistaken for “right roll”, and even if the user utterance is “right roll”, the recognition result may be “right yaw”.
音声認識装置は、音素系列のパターンに制限を与える固定文法を記憶する言語モデルと、前記言語モデルにより抽出された文を音素ごとに分割する音素ラベルを記憶する単語音素ラベル辞書と、前記単語音素ラベル辞書により分割された音素パターンに特定のパターンがある場合に、音素モデルを変換するルールを記憶するラベル変換ルール辞書と、標準音素パターンをモデル化した音響モデルと、を有し、入力された音声信号を特徴量化する音響特徴量変換部と、前記言語モデルと、前記単語音素ラベル辞書と、前記ラベル変換ルール辞書とを参照して、音素ラベルに変換する音素ラベル変換部と、前記音素ラベル変換部により変換された音素ラベルを、前記音響モデルに基づいて音声パターンに変換し、前記音響特徴量変換部で特徴量化された音声信号との類似度を計算する類似度計算部と、前記類似度計算部による計算結果に基づいて、適切な入力文章を判定する最尤文法決定部と、を備える。
これにより、音響モデルや言語モデルの事前学習は必要とせず、特定のパターンついて音素ラベルをオンラインで変換することができる。
The speech recognition apparatus comprises: a language model that stores a fixed grammar that restricts a phoneme sequence pattern; a word phoneme label dictionary that stores a phoneme label that divides a sentence extracted by the language model into phonemes; and the word phoneme When a phoneme pattern divided by the label dictionary has a specific pattern, the phoneme pattern has a label conversion rule dictionary that stores rules for converting a phoneme model, and an acoustic model that models a standard phoneme pattern. A phoneme label conversion unit that converts a sound signal into a phoneme label with reference to an acoustic feature value conversion unit that converts a speech signal into a feature value, the language model, the word phoneme label dictionary, and the label conversion rule dictionary, and the phoneme label The phoneme label converted by the conversion unit is converted into a voice pattern based on the acoustic model, and the acoustic feature value conversion unit converts the phoneme label into a feature value. Comprises a similarity calculating unit calculating a similarity between the audio signal, based on the calculation result of the similarity calculation unit, and a maximum likelihood grammar determining section determines an appropriate input sentence.
As a result, phoneme labels can be converted online for a specific pattern without the need for prior learning of an acoustic model or a language model.
ロバスト性が高く、誤認識率を低減させた音声認識装置を提供する。 Provided is a speech recognition device that is highly robust and has a reduced misrecognition rate.
実施の形態1
以下、図面を参照して本発明の実施の形態について説明する。図1は、音声認識装置1の構成物品を示した図である。音声認識装置1は、音声入力部11、音響特徴量変換部12、音素ラベル変換部13、類似度計算部14、最尤文法決定部15、単語音素ラベル辞書21、言語モデル22、ラベル変換ルール辞書23、音響モデル24、により構成されている。
Embodiment 1
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing the components of the voice recognition device 1. The speech recognition apparatus 1 includes a
音声入力部11は、使用者が発した音声を集音する。例えば、音声入力部11はマイクである。音声入力部11は、入力された音声を、音響特徴量変換部12に出力する。
The
音響特徴量変換部12は、集音された音声をサンプリングし、サンプリングされた音声データについて音声分析を行う。これにより、音響特徴量変換部12では、一定の区間ごとに特徴量を抽出する。例えば、音響特徴量変換部12は、MFCC(Mel Frequency Cepstral Coefficient:メル周波数ケプストラム)(非特許文献1)を用いて、音声の特徴量化を行う。音響特徴量変換部12は、特徴量化した音声を、類似度計算部14に出力する。
The acoustic feature
音素ラベル変換部13は、単語音素ラベル辞書21と、言語モデル22と、ラベル変換ルール辞書23をそれぞれ参照することにより、音素ラベルを変換する。また、音素ラベル変換部13は、記憶した音素ラベルを、類似度計算部14に出力する。
The phoneme
単語音素ラベル辞書21には、音素ごとに設けられたラベルが記憶されている。図2は、単語音素ラベル辞書21に記憶されている音素ラベルの例である。なお、単語音素ラベルによる記述を行う場合には、長音はスペースをつけずに記述する。例えば、「あー」であれば「a_」、「ヨーカン」であれば「y o_ k a N」とする。
The word
言語モデル22は、形態素の系列を固定的に定義し、音素系列のパターンに制限を与える固定文法である。すなわち言語モデル22は、語の連鎖を、文法および統計に基づいてモデル化したものである。
例えば言語モデル22は、音素ラベル変換部13に入力された音データが「佐藤さんの電話番号を教えて」であれば、「佐藤」「さん」「の」「電話」「番号」「を」「教え」「て」の各要素について、文法と統計的モデルに基づいて、出現パターンの制限を与える。より具体的には、「佐藤」の後には、「さん」や「君」などの語が出現するものとして制限する。また例えば、「さん」の後には、「の」や「は」などの語が出現するものとして制限する。その他の語についても同様に、出現パターンの制限を行う。なお、言語モデル22は、確率付きのN-gramを用いて同様の処理が可能である。
The
For example, in the
ラベル変換ルール辞書23は、単語音素ラベル辞書21と、言語モデル22の結合から定義される音素ラベル中に特定のパターンがあれば、対応するラベルパターンに変換するルールが記録される。例えば、音素パターンの{i r}がある場合には{i y r}に変更するというルールなどである。典型的には、ラベル変換ルール辞書23は、任意にルールの追加や削除を行うことができる。
音素ラベル変換部13は、ラベル変換ルール辞書23に記録されている音素のパターンが含まれていれば、ルールに従って音素のパターンを変更したものを記録する。なお、音素ラベル変換部13では、音素パターン変更前及び音素パターン変更後の両方の音素モデルを記録しているのが望ましい。
In the label
If the phoneme
類似度計算部14は、音響モデル24を参照し、言語的制限のもとで標準音素パターンと入力音声パターンの類似度を計算する。より具体的には、類似度計算部14は、音素ラベル変換部13から入力された音素ラベルについて、音響モデル24を参照して生成した音声パターンと、音響特徴量変換部12から入力された音声パターンとの類似度を計算する。
類似度計算部14は、計算した類似度を最尤文法決定部15に出力する。
The
The
音響モデル24には、1つの音素について、その前後の他の音素との組み合わせの標準パターンが記録されている。例えば、音素{m}について、その前後の音素{aやiなど}との組み合わせのパターンが記録されている。さらに音響モデル24には、音素の組合せに応じた発音が記録されている。
類似度計算部14は、音素ラベル変換部13から入力された音素ラベルと、音響モデル24に基づいて標準音声パターンを作成し、音響特徴量変換部12の出力である特徴量化された音声との類似度を計算する。
In the
The
最尤文法決定部15は、類似度計算部14で計算された類似度に基づいて、最も類似度の高い文法を決定する。
The maximum likelihood
次に、音声認識装置1の動作について説明する。以下では、音声入力部11に、「右ロール」が音声として入力されるものとして説明する。図3は、音声認識装置1の構成物品と、音声入力部11に「右ロール」が音声入力される場合のデータについて示した図である。
Next, the operation of the voice recognition device 1 will be described. In the following description, it is assumed that “right roll” is input to the
音声入力部11は、使用者が発した音声を集音する。また、音声入力部11は、集音された音声を音響特徴量変換部12に出力する。
The
音響特徴量変換部12は、音声入力部11に入力された音声信号を分析して、無音で区切られた音声区間を切り出し、特徴量化する。音響特徴量変換部12は、類似度計算部14に特徴量化した音声パターンを出力する。
The acoustic feature
音素ラベル変換部13は、ルールに基づいて、音素ラベルを変換する。
具体的には、音素ラベル変換部13は言語モデル22を参照する。これにより、音素ラベル変換部13は、音声入力部11に入力された「右ロール方向」という文のうち、「右」「ロール」「方向」の各要素の出現パターンについて、文法及び統計的モデルに基づいて制限を与える。より具体的には、音素ラベル変換部13では、言語モデル22を参照することにより、「右」という語に文法として繋がる、「ロール」や「ヨー」を抽出する。
次に、音素ラベル変換部13は、言語モデル22を用いて抽出された語について、単語音素ラベル辞書21を参照し、「右」{m i g i}、「ロール」{r o_ r u}、「ヨー」{y o_}を抽出する。すなわち、音素ラベル変換部13には、「右ロール」として{m i g i r o_ r u}と「右ヨー」として{m i g i y o_}が記憶される。
The phoneme
Specifically, the phoneme
Next, the phoneme
次に、音素ラベル変換部13は、ラベル変換ルール辞書23を参照する。ここで、ラベル変換ルール辞書23に{i r}を{i y r}に変換するルールが記載されているものとする。
「右ロール方向」を音素ラベルで記述した場合には、{m i g i r o_ r u h o_ k o_}であり、ラベル変換ルール辞書23に{i r}を{i y r}に変換するルールがあるため、音素ラベル変換部13は、{m i g i r o_ r u h o_ k o_}を{m i g i y r o_ r u h o_ k o_}に変換して記憶する。なお、音素ラベル変換部13は、ラベル変換ルール辞書23に基づいて変換される前の音素モデルと、変換された後の音素モデルの両方を記憶する。すなわち、音素ラベル変換部13は、「右ロール」として{m i g i r o_ r u}と{m i g i y r o_ r u}の両方を記録する。
なお、ラベル変換ルール辞書23には、「右ヨー」に含まれる音素ラベルを変換するルールは記録されていない。したがって、音素ラベル変換部13には、「右ヨー」として{m i g i y o_}が記録されたままの状態となる。
Next, the phoneme
When the “right roll direction” is described by a phoneme label, {migir o_ ruho o_ k o_} and there is a rule for converting {ir} to {iyr} in the label
Note that the label
類似度計算部14は、音素ラベル変換部13に記録されている{m i g i r o_ r u}、{m i g i y r o_r u}、{m i g i y o_}のそれぞれについて、音響モデル24に記録されている標準音素パターンの当てはめを行う。これにより、類似度計算部14は、{m i g i r o_ r u}、{m i g i y r o_ r u}、{m i g i y o_}のそれぞれについて、音声パターンを生成する。
The
類似度計算部14は、音響モデル24と音素ラベル変換部13に記録された音素ラベルを用いて生成した複数の音声パターンと、音響特徴量変換部12から入力された音声パターンとの類似度を計算する。すなわち、音響特徴量変換部12から入力された音声パターンに対し、「右ロール」として{m i g i r o_ r u}、{m i g i y r o_ r u}、「右ヨー」として{m i g i y o_}の音声パターンの類似度を計算する。典型的には、類似度計算部14は、生成した音声パターンの音声の周波数と、音響特徴量変換部12から入力された音声パターンの音声の周波数の類似度を計算する(非特許文献2)。
The
最尤文法決定部15は、類似度計算部14により算出された類似度のうち、最も類似度の高いものを判定する。例えば、類似度計算部14において、言語モデルの{m i g i y r o_ r u}の類似度が最も高いという計算結果であれば、「右ロール」が入力されていたものと判定する。
The maximum likelihood
これにより音声認識装置1は、音声認識に際して、誤認識率を低減させることができる。
音声認識装置1は、特定の音素パターンについて、対応する音素パターンへの変更を行うことができる。この変更対象は、音響モデルではなく言語モデルである。したがって、音響モデルにおいて変更を行う場合には音声認識装置1による学習やデータの収集などが必要となるところ、学習やデータの収集を行うことなく、ユーザが任意にラベル変換ルール辞書23の変更パターンの設定を行うことができる。
Thereby, the speech recognition apparatus 1 can reduce the misrecognition rate during speech recognition.
The speech recognition apparatus 1 can change a specific phoneme pattern to a corresponding phoneme pattern. This change target is not an acoustic model but a language model. Therefore, when a change is made in the acoustic model, learning by the speech recognition apparatus 1 and data collection are required. However, the user can arbitrarily change the change pattern of the label
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、ラベル変換ルール辞書23には、{i r}を{i y r}に変換するルールが記載されているものとして説明したが、さらに多数の変換ルールを記憶しておき、音素ラベルの変換に用いても良い。さらに、音素ラベル変換部13は、1つの音素モデルについて、ラベル変換ルール辞書23に登録されている変換のルールの複数個が該当する場合には、例えば、第1の変換ルールのみを適用したもの、第2の変換ルールのみを適用したもの、第1と第2のルールの両方を適用したもの、などの様々な組み合わせの、変換後の音素ラベルを生成しても良い。
Note that the present invention is not limited to the above-described embodiment, and can be changed as appropriate without departing from the spirit of the present invention. For example, the label
1 音声認識装置
11 音声入力部
12 音響特徴量変換部
13 音素ラベル変換部
14 類似度計算部
15 最尤文法決定部
21 単語音素ラベル辞書
22 言語モデル
23 ラベル変換ルール辞書
24 音響モデル
DESCRIPTION OF SYMBOLS 1
Claims (1)
前記言語モデルにより抽出された文を音素ごとに分割する音素ラベルを記憶する単語音素ラベル辞書と、
前記単語音素ラベル辞書により分割された音素パターンに特定のパターンがある場合に、音素モデルを変換するルールを記憶するラベル変換ルール辞書と、
標準的な音素パターンを記憶した音響モデルと、を有し、
入力された音声信号を特徴量化する音響特徴量変換部と、
前記言語モデルと、前記単語音素ラベル辞書と、前記ラベル変換ルール辞書とを参照して、音素ラベルに変換する音素ラベル変換部と、
前記音素ラベル変換部により変換された音素ラベルを、前記音響モデルに基づいて音声パターンに変換し、前記音響特徴量変換部で特徴量化された音声信号との類似度を計算する類似度計算部と、
前記類似度計算部による計算結果に基づいて、適切な入力文章を判定する最尤文法決定部と、を備える音声認識装置。 A language model that stores fixed grammars that restrict phoneme sequence patterns;
A word phoneme label dictionary that stores phoneme labels that divide sentences extracted by the language model into phonemes;
A label conversion rule dictionary for storing rules for converting a phoneme model when there is a specific pattern in the phoneme pattern divided by the word phoneme label dictionary;
An acoustic model storing a standard phoneme pattern;
An acoustic feature amount conversion unit for converting the input audio signal into a feature amount;
A phoneme label conversion unit for converting to a phoneme label with reference to the language model, the word phoneme label dictionary, and the label conversion rule dictionary;
A similarity calculation unit that converts the phoneme label converted by the phoneme label conversion unit into a speech pattern based on the acoustic model, and calculates a similarity with the speech signal characterized by the acoustic feature amount conversion unit; ,
A speech recognition apparatus comprising: a maximum likelihood grammar determination unit that determines an appropriate input sentence based on a calculation result by the similarity calculation unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011128127A JP2012255867A (en) | 2011-06-08 | 2011-06-08 | Voice recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011128127A JP2012255867A (en) | 2011-06-08 | 2011-06-08 | Voice recognition device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012255867A true JP2012255867A (en) | 2012-12-27 |
Family
ID=47527495
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011128127A Withdrawn JP2012255867A (en) | 2011-06-08 | 2011-06-08 | Voice recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012255867A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107895578A (en) * | 2017-11-15 | 2018-04-10 | 百度在线网络技术(北京)有限公司 | Voice interactive method and device |
CN109841210A (en) * | 2017-11-27 | 2019-06-04 | 西安中兴新软件有限责任公司 | A kind of Intelligent control implementation method and device, computer readable storage medium |
CN113378970A (en) * | 2021-06-28 | 2021-09-10 | 平安普惠企业管理有限公司 | Sentence similarity detection method and device, electronic equipment and storage medium |
-
2011
- 2011-06-08 JP JP2011128127A patent/JP2012255867A/en not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107895578A (en) * | 2017-11-15 | 2018-04-10 | 百度在线网络技术(北京)有限公司 | Voice interactive method and device |
CN109841210A (en) * | 2017-11-27 | 2019-06-04 | 西安中兴新软件有限责任公司 | A kind of Intelligent control implementation method and device, computer readable storage medium |
CN109841210B (en) * | 2017-11-27 | 2024-02-20 | 西安中兴新软件有限责任公司 | Intelligent control implementation method and device and computer readable storage medium |
CN113378970A (en) * | 2021-06-28 | 2021-09-10 | 平安普惠企业管理有限公司 | Sentence similarity detection method and device, electronic equipment and storage medium |
CN113378970B (en) * | 2021-06-28 | 2023-08-22 | 山东浪潮成方数字服务有限公司 | Sentence similarity detection method and device, electronic equipment and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10210862B1 (en) | Lattice decoding and result confirmation using recurrent neural networks | |
US10134388B1 (en) | Word generation for speech recognition | |
JP5040909B2 (en) | Speech recognition dictionary creation support system, speech recognition dictionary creation support method, and speech recognition dictionary creation support program | |
US8972243B1 (en) | Parse information encoding in a finite state transducer | |
JP6251958B2 (en) | Utterance analysis device, voice dialogue control device, method, and program | |
CN106663424B (en) | Intention understanding device and method | |
US10163436B1 (en) | Training a speech processing system using spoken utterances | |
US10176809B1 (en) | Customized compression and decompression of audio data | |
JP4734155B2 (en) | Speech recognition apparatus, speech recognition method, and speech recognition program | |
JP5322655B2 (en) | Speech recognition system with huge vocabulary | |
EP2048655B1 (en) | Context sensitive multi-stage speech recognition | |
US10963497B1 (en) | Multi-stage query processing | |
JP2011033680A (en) | Voice processing device and method, and program | |
JP2004258658A (en) | Continuous speech recognition method using inter-word phoneme information and device thereforfor | |
JP2007047412A (en) | Apparatus and method for generating recognition grammar model and voice recognition apparatus | |
CN110675866B (en) | Method, apparatus and computer readable recording medium for improving at least one semantic unit set | |
JP2008243080A (en) | Device, method, and program for translating voice | |
JP2010078877A (en) | Speech recognition device, speech recognition method, and speech recognition program | |
KR20160061071A (en) | Voice recognition considering utterance variation | |
US20040006469A1 (en) | Apparatus and method for updating lexicon | |
US6963832B2 (en) | Meaning token dictionary for automatic speech recognition | |
KR101283271B1 (en) | Apparatus for language learning and method thereof | |
JP2005148342A (en) | Method for speech recognition, device, and program and recording medium for implementing the same method | |
JP2012255867A (en) | Voice recognition device | |
JP6001944B2 (en) | Voice command control device, voice command control method, and voice command control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140902 |