JP2012252026A - Voice recognition device, voice recognition method, and voice recognition program - Google Patents
Voice recognition device, voice recognition method, and voice recognition program Download PDFInfo
- Publication number
- JP2012252026A JP2012252026A JP2011122054A JP2011122054A JP2012252026A JP 2012252026 A JP2012252026 A JP 2012252026A JP 2011122054 A JP2011122054 A JP 2011122054A JP 2011122054 A JP2011122054 A JP 2011122054A JP 2012252026 A JP2012252026 A JP 2012252026A
- Authority
- JP
- Japan
- Prior art keywords
- word
- speaker
- score
- speech recognition
- speech
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、音声認識装置、音声認識方法、及び音声認識プログラムに関する。 The present invention relates to a voice recognition device, a voice recognition method, and a voice recognition program.
従来より、人の音声の音響モデルと言語モデルとを用いた統計的手法により、音声認識を行う技術が提案されている(例えば、特許文献1参照)。 Conventionally, a technique for performing speech recognition by a statistical method using an acoustic model of human speech and a language model has been proposed (for example, see Patent Document 1).
しかしながら、上記特許文献に記載された技術では、発話者の音声ではない雑音に人の音声が含まれているときに、雑音に含まれる人の音声から抽出した単語を音声認識結果として誤採用してしまう場合がある。このため、音声認識精度が低下してしまうという問題がある。 However, in the technique described in the above-mentioned patent document, when the human voice is included in the noise that is not the voice of the speaker, the word extracted from the human voice included in the noise is erroneously adopted as the voice recognition result. May end up. For this reason, there exists a problem that voice recognition accuracy will fall.
本発明は、上記のような課題を解決するために成されたものであり、音声認識精度を向上させることができる音声認識装置、音声認識方法、及び音声認識プログラムを提供することを目的とする。 The present invention has been made to solve the above-described problems, and it is an object of the present invention to provide a speech recognition device, a speech recognition method, and a speech recognition program that can improve speech recognition accuracy. .
本発明に係る音声認識装置は、音データに含まれる単語を抽出し、各単語の信頼度を出力する音声処理手段と、各単語に対応する音データの発話者の音声らしさを示す各単語の発話者度を算出する発話者度算出手段と、音声処理手段により出力された各単語の信頼度、及び発話者度算出手段により算出された各単語の発話者度に基づいて、各単語のスコアを算出するスコア算出手段と、各単語のスコアと所定の閾値とに基づいて、音声認識結果として採用する単語を選定する単語選定手段とを備える、ことを特徴とする。 The speech recognition apparatus according to the present invention extracts a word included in sound data and outputs a reliability of each word, and a speech processing unit that outputs the reliability of each word, The score of each word based on the speaker degree calculating means for calculating the speaker degree, the reliability of each word output by the speech processing means, and the speaker degree of each word calculated by the speaker degree calculating means And a word selection means for selecting a word to be adopted as a speech recognition result based on the score of each word and a predetermined threshold value.
また、本発明に係る音声認識方法は、音声認識装置により実行される音声認識方法であって、音データに含まれる単語を抽出し、各単語の信頼度を出力する音声処理ステップと、各単語に対応する音データの発話者の音声らしさを示す各単語の発話者度を算出する発話者度算出ステップと、音声処理ステップにより出力された各単語の信頼度、及び発話者度算出ステップにより算出された各単語の発話者度に基づいて、各単語のスコアを算出するスコア算出ステップと、各単語のスコアと所定の閾値とに基づいて、音声認識結果として採用する単語を選定する単語選定ステップとを備える、ことを特徴とする。 The speech recognition method according to the present invention is a speech recognition method executed by a speech recognition apparatus, which extracts a word included in sound data and outputs a reliability of each word; and each word Calculated by the speaker degree calculating step for calculating the speaker degree of each word indicating the speech quality of the speaker corresponding to the sound data, the reliability of each word output by the voice processing step, and the speaker degree calculating step A score calculation step for calculating the score of each word based on the degree of utterance of each word, and a word selection step for selecting a word to be adopted as a speech recognition result based on the score of each word and a predetermined threshold It is characterized by comprising.
また、本発明に係る音声認識プログラムは、コンピュータを、音データに含まれる単語を抽出し、各単語の信頼度を出力する音声処理手段と、各単語に対応する音データの発話者の音声らしさを示す各単語の発話者度を算出する発話者度算出手段と、音声処理手段により出力された各単語の信頼度、及び発話者度算出手段により算出された各単語の発話者度に基づいて、各単語のスコアを算出するスコア算出手段と、各単語のスコアと所定の閾値とに基づいて、音声認識結果として採用する単語を選定する単語選定手段、として機能させることを特徴とする。 In addition, the speech recognition program according to the present invention allows a computer to extract a word included in sound data and output the reliability of each word, and the voice likeness of a speaker of sound data corresponding to each word. Utterance degree calculating means for calculating the degree of utterance of each word, and the reliability of each word output by the speech processing means and the degree of utterance of each word calculated by the utterance degree calculating means And a score calculating means for calculating the score of each word, and a word selecting means for selecting a word to be adopted as a speech recognition result based on the score of each word and a predetermined threshold value.
上記音声認識装置、音声認識方法、及び音声認識プログラムでは、音データに含まれる単語が抽出され、各単語の信頼度が出力され、各単語に対応する音データの発話者の音声らしさを示す発話者度が算出される。そして、各単語の信頼度及び各単語の発話者度に基づいて各単語のスコアが算出され、各単語のスコアと所定の閾値とに基づいて音声認識結果として採用する単語が選定される。このように、各単語の信頼度に加え、各単語の発話者度に基づいて各単語のスコアを算出することで、発話者の音声から抽出された単語のスコアと、雑音から抽出された単語のスコアとの差異を明確にすることができ、音声認識精度を向上させることができる。 In the speech recognition apparatus, the speech recognition method, and the speech recognition program, a word included in sound data is extracted, the reliability of each word is output, and an utterance that indicates the speech likeness of the speaker of the sound data corresponding to each word The degree is calculated. Then, the score of each word is calculated based on the reliability of each word and the degree of speaker of each word, and a word to be adopted as a speech recognition result is selected based on the score of each word and a predetermined threshold. In this way, by calculating the score of each word based on the degree of speaker of each word in addition to the reliability of each word, the word score extracted from the voice of the speaker and the word extracted from noise The difference from the score can be clarified, and the speech recognition accuracy can be improved.
また、発話者度算出手段は、各単語の音量、各単語の音声モデルの尤度、各単語の雑音モデルの尤度、各単語の空間伝達特性、各単語の基本周波数、及び各単語の声質、の少なくとも一つを用いて各単語の発話者度を算出してもよい。この場合、各単語の音量、各単語の音声モデルの尤度、各単語の雑音モデルの尤度、各単語の空間伝達特性、各単語の基本周波数、及び各単語の声質、の少なくとも一つによって、発話者の音声から抽出された単語の発話者度と、雑音から抽出された単語の発話者度との差異がより明確となるため、音声認識精度をより向上させることができる。 Further, the speaker degree calculation means includes a volume of each word, a likelihood of the speech model of each word, a likelihood of a noise model of each word, a spatial transfer characteristic of each word, a fundamental frequency of each word, and a voice quality of each word The degree of utterance of each word may be calculated using at least one of. In this case, at least one of the volume of each word, the likelihood of the speech model of each word, the likelihood of the noise model of each word, the spatial transfer characteristics of each word, the fundamental frequency of each word, and the voice quality of each word Since the difference between the speaker degree of the word extracted from the speech of the speaker and the speaker degree of the word extracted from the noise becomes clearer, the speech recognition accuracy can be further improved.
また、発話者度算出手段は、人の音声の周波数帯域における各単語の音量を用いて各単語の発話者度を算出してもよい。この場合、発話者の音声から抽出された単語と、人の音声以外の周波数帯域の音を多く含む雑音から抽出された単語とで、音量の差異がより明確となり、発話者度の差異がより明確となる。このため、音声認識精度をより向上させることができる。 Further, the speaker degree calculating means may calculate the speaker degree of each word using the volume of each word in the frequency band of human speech. In this case, the difference in volume between the word extracted from the speech of the speaker and the word extracted from noise that contains a lot of sounds in frequency bands other than human speech becomes clearer, and the difference in the degree of speaker is more pronounced. It becomes clear. For this reason, the voice recognition accuracy can be further improved.
また、音声認識装置は、スコア算出手段により算出されたスコアの最大値に基づいて、所定の閾値を設定する閾値設定手段を更に備え、単語選定手段は、閾値設定手段により設定された所定の閾値を用いて音声認識結果として採用する単語を選定してもよい。この場合、集音環境による全単語のスコアの増減に柔軟に対応して、音声認識結果として採用する単語を選定することができ、集音環境による音声認識結果のばらつきを抑制することができる。 The speech recognition apparatus further includes threshold setting means for setting a predetermined threshold based on the maximum value of the score calculated by the score calculation means, and the word selection means has the predetermined threshold set by the threshold setting means. You may select the word employ | adopted as a speech recognition result using. In this case, it is possible to select a word to be adopted as a speech recognition result in a flexible manner corresponding to an increase / decrease in the score of all words due to the sound collection environment, and to suppress variations in the speech recognition result due to the sound collection environment.
また、音声処理手段は、各単語の信頼度の最大値を基準として、各単語の相対的な信頼度を出力し、スコア算出手段は、音声処理手段により出力された各単語の相対的な信頼度を用いて各単語のスコアを算出してもよい。この場合、集音環境による全単語の信頼度の増減に柔軟に対応してスコアを算出し、音声認識結果として採用する単語を選定することができる。従って、集音環境による音声認識結果のばらつきをより抑制することができる。 The speech processing means outputs the relative reliability of each word with reference to the maximum reliability of each word, and the score calculation means outputs the relative reliability of each word output by the speech processing means. The score of each word may be calculated using the degree. In this case, it is possible to select a word to be adopted as a speech recognition result by calculating a score flexibly corresponding to an increase or decrease in the reliability of all words due to the sound collection environment. Therefore, it is possible to further suppress the variation in the speech recognition result due to the sound collection environment.
また、発話者度算出手段は、各単語の発話者度の最大値を基準として、各単語の相対的な発話者度を算出し、スコア算出手段は、発話者度算出手段により算出された各単語の相対的な発話者度を用いて各単語のスコアを算出してもよい。この場合、集音環境による全単語の発話者度の増減に柔軟に対応してスコアを算出し、音声認識結果として採用する単語を選定することができる。このため、集音環境による音声認識結果のばらつきをより抑制することができる。 Further, the speaker degree calculating means calculates the relative speaker degree of each word on the basis of the maximum value of the speaker degree of each word, and the score calculating means calculates each speaker calculated by the speaker degree calculating means. You may calculate the score of each word using the relative speaker degree of a word. In this case, it is possible to select a word to be adopted as a speech recognition result by calculating a score flexibly corresponding to increase / decrease in the degree of utterance of all words due to the sound collection environment. For this reason, the dispersion | variation in the speech recognition result by sound collection environment can be suppressed more.
また、単語選定手段は、各単語のスコアと所定の閾値とに基づいて、音声認識結果として採用しない単語を削除した後に、スコアが最大である単語を含む単語列と不連続となる単語を更に削除し、残った単語を音声認識結果として採用してもよい。この場合、雑音から抽出された単語の誤採用をより低減させることができ、音声認識精度をより向上させることができる。 Further, the word selection means further deletes a word that is discontinuous from the word string including the word having the maximum score after deleting a word that is not adopted as the speech recognition result based on the score of each word and a predetermined threshold. You may delete and employ | adopt the remaining word as a speech recognition result. In this case, erroneous adoption of words extracted from noise can be further reduced, and speech recognition accuracy can be further improved.
本発明に係る音声認識装置、音声認識方法、及び音声認識プログラムによれば、音声認識精度を向上させることができる。 According to the speech recognition apparatus, speech recognition method, and speech recognition program according to the present invention, speech recognition accuracy can be improved.
以下、本発明に係る音声認識方法を採用した音声認識装置及び音声認識プログラムの実施形態を説明する。 Hereinafter, embodiments of a speech recognition apparatus and a speech recognition program that employ a speech recognition method according to the present invention will be described.
図1は、本発明に係る音声認識方法を採用した音声認識装置100の機能を示すブロック図である。音声認識装置100は、例えば、音声によるアプリケーションへのデータ入力を可能とするために用いられる装置である。
FIG. 1 is a block diagram illustrating functions of a
図1に示すように、音声認識装置100は、音データ入力部110と、特徴量算出部120と、音声処理部130と、音響モデル保持部131と、言語モデル保持部132と、辞書データ保持部133と、発話者度算出部140と、スコア算出部150と、閾値設定部160と、閾値保持部161と、単語選定部170と、音声認識結果出力部180と、を備えている。
As shown in FIG. 1, the
音データ入力部110は、例えばマイクロホンにより音データを取得する部分である。
The sound
特徴量算出部120は、例えば10msの時間区間(フレーム)ごとに、音データから音響特徴を示す特徴量データを算出する部分である。音響特徴を示す特徴量データは、音声認識スペクトルであって、例えば、MFCC(Mel Frequency Cepstrum Coefficient)のような周波数で表されるデータである。
The feature
音声処理部130は、特徴量算出部120により算出された特徴量データと、音響モデル保持部131、言語モデル保持部132、及び辞書データ保持部133に記憶されているデータとを参照し、音データ入力部110で取得された音データに含まれる単語を抽出し、各単語の信頼度を出力する部分である。
The
音響モデル保持部131は、音素とそのスペクトルとを対応付けて記憶する部分である。言語モデル保持部132は、単語、文字などの連鎖確率を示す統計的情報を記憶する部分である。辞書データ保持部133は、単語のデータとして、例えば単語とその発音を表記する音素や発音記号を記憶する部分である。
The acoustic
発話者度算出部140は、各単語に対応する音データ又は特徴量データから、各単語に対応する音データの発話者の音声らしさを示す発話者度を算出する部分である。
The speaker
スコア算出部150は、音声処理部130により出力された各単語の信頼度と、発話者度算出部140により算出された各単語の発話者度とに基づいて、各単語のスコアを算出する部分である。本実施形態では、信頼度及び発話者度が高くなるのに応じ高いスコアが算出される例を説明する。なお、信頼度及び発話者度が高くなるのに応じ低いスコアが算出されてもよい。
The
閾値設定部160は、スコア算出部150によって算出されたスコアの最高値と、閾値保持部161に記憶されているデータとを参照し、音声認識結果として採用する単語を選定するための閾値を設定する部分である。閾値保持部161は、相対閾値データとして、例えば、上記閾値とスコアの最高値との差分を記憶する部分である。閾値設定部160は、スコア算出部150によって算出されたスコアの最高値と、閾値保持部161に記憶された差分とを加算して閾値を設定する。これにより、音声認識結果として採用する単語を選定するための閾値は、スコア算出部150によって算出されたスコアの最高値に応じて変わるようになっている。
The
単語選定部170は、スコア算出部150によって算出された各単語のスコアと、閾値設定部160によって設定された閾値とに基づいて、音声認識結果として採用する単語を選定する部分である。本実施形態では、閾値設定部160によって設定された閾値よりも高いスコアの単語が選定される。
The
音声認識結果出力部180は、単語選定部170によって選定された単語を出力し、例えばアプリケーションの表示画面等に表示する部分である。
The speech recognition
図2は、音声認識装置100のハードウェア構成を示すブロック図である。音声認識装置100は、ハードウェア構成として、CPU11と、RAM12と、ROM13と、入力装置14と、補助記憶装置15と、通信装置16と、出力装置17と、記憶媒体18aの読取装置18と、を備えている。上述した音声認識装置100の各部分の機能は、RAM12等に補助記憶装置15や読取装置18等からプログラムやデータ等を読み込ませ、CPU11によりプログラムを実行させることで実現される。入力装置14は、例えば、音データ入力部110を構成するマイクロホン等であり、出力装置17は、例えば、音声認識結果出力部180を構成するモニタ等である。
FIG. 2 is a block diagram illustrating a hardware configuration of the
図3は、音声認識装置100により実行される音声認識手順を示すフローチャートである。音声認識装置100では、まず、音データ入力部110によって音データが取得され(ステップS10)、特徴量算出部120によって、音データからフレームごとに特徴量データが算出される(ステップS20)。
FIG. 3 is a flowchart showing a speech recognition procedure executed by the
続いて、音声処理部130により、特徴量データに対して統計的手法を用いた処理が行われ、音データに含まれる単語が抽出され、各単語の信頼度が出力される(ステップS30)。具体例として、まず単語列(以下、仮説という)の複数の候補(Nベスト)が挙げられ、各仮説をなす単語の信頼度が算出される。更に、各単語の信頼度から各仮説の信頼度が算出され、信頼度が最上位となる仮説が選定される。選定された仮説をなす単語が、音データに含まれる単語の抽出結果となる。そして、選定された仮説について、単語区切り、各単語の音素列、各単語の表記、各単語の読み、各単語の品詞情報、各単語の時間情報、及び各単語の係り受け情報等のデータと共に、各単語の信頼度が出力される。各単語の時間情報は、例えば、単語に対応する音データの開始フレーム番号と終了フレーム番号とによって表される。各単語の信頼度は、各単語の正答確度を示す情報であり、各単語の音響モデルの尤度や、各単語の言語モデルの尤度等に基づいて算出される。本実施形態では、各単語の信頼度として、例えばGWPP(一般化単語事後確率:Generalized Word Posterior Probability)が算出される。
Subsequently, the
続いて、発話者度算出部140により、音声処理部130により抽出された各単語の発話者度が算出される(ステップS40)。本実施形態では、各単語の発話者度は、各単語の音量を用いて算出される。具体例として、各単語ごとに、各単語の時間情報に対応する音データが切り出される。更に、人の音声の周波数帯域の音データが切り出される。人の音声の周波数帯域とは、人の音声の振幅が高くなる周波数帯域であり、例えば300Hz〜3.4kHzである。そして、切り出された音データから音量が算出され、
発話者度=音量
とされる。例えば、音量は、音データの振幅の時間平均値として算出されてもよいし、音データの振幅の最大値として算出されてもよい。また、本実施形態では、各単語の発話者度の最大値を基準として、各単語の相対発話者度が算出される。具体例として、各単語の発話者度と、各単語の発話者度の最大値との差分が算出される。なお、音量の算出には、音データではなく特徴量データが用いられてもよいし、音データ及び特徴量データの両方が用いられてもよい。
Subsequently, the speaker
Speaker degree = volume. For example, the volume may be calculated as a time average value of the amplitude of the sound data, or may be calculated as a maximum value of the amplitude of the sound data. In the present embodiment, the relative speaker level of each word is calculated with reference to the maximum speaker level of each word. As a specific example, the difference between the speaker level of each word and the maximum value of the speaker level of each word is calculated. Note that the sound volume may be calculated using feature data instead of sound data, or both sound data and feature data may be used.
続いて、スコア算出部150により、各単語のスコアが算出される(ステップS50)。本実施形態では、スコアは、各単語のGWPPと、各単語の相対発話者度とに基づき、例えば
スコア=10Log10(GWPP)+相対発話者度
により算出される。
Subsequently, the score of each word is calculated by the score calculation unit 150 (step S50). In the present embodiment, the score is calculated based on the GWPP of each word and the relative speaker level of each word, for example, score = 10 Log 10 (GWPP) + relative speaker level.
続いて、閾値設定部160により、音声認識結果として採用する単語を選定するための閾値が設定される(ステップS60)。本実施形態では、閾値は、例えば
閾値=スコアの最大値+相対閾値
により算出される。
Subsequently, the threshold
続いて、単語選定部170により、閾値よりも高いスコアの単語が選定され(ステップS70)、選定された単語が音声認識結果出力部180によって出力される(ステップS80)。
Subsequently, the
図4は、雑音に人の音声が含まれている環境において、発話者が、上記音データ入力部110を構成するマイクロホン等に向って「広島、お好み焼き」と発話した場合の音声認識結果を示している。この例において、閾値保持部161には、相対閾値データとして−4が記憶されている。図4に示す例では、「恋」、「待って」、「ます」、「広島」、「お好み焼き」、「ジュエリー」、「書房」、「株主」が抽出されている。これらの単語に対して、GWPPの算出結果は、0.008,0.059,0.03,0.554,0.708,0.049,0.014,0.57となっている。発話者度の算出結果は、−10,−7,−20,−5,−8,−2,−7,−11となっている。相対発話者度の算出結果は、発話者度の最大値が−2であることから、−8,−5,−18,−3,−6,0,−5,−9となっている。そして、スコアの算出結果は、−29,−17.3,−33.2,−5.6,−7.5,−13.1,−23.5,−11.4となっている。スコアの最大値が−5.6であることから、閾値は
−5.6−4=−9.6
となり、この閾値よりも高いスコアの「広島、お好み焼き」が音声認識結果として採用され、他の単語は不採用とされている。
FIG. 4 shows a speech recognition result when a speaker utters “Hiroshima, Okonomiyaki” toward a microphone or the like constituting the sound
Thus, “Hiroshima, Okonomiyaki” having a score higher than this threshold is adopted as a speech recognition result, and other words are not adopted.
図4の例では、雑音から抽出された単語である「株主」のGWPPは0.57であり、発話者の音声から抽出された単語である「広島」のGWPPは0.554である。即ち、雑音から抽出された単語の信頼度が、発話者の音声から抽出された単語の信頼度よりも高くなっている。これに対し、「株主」のスコアは−11.4であり、「広島」のスコアは−5.6である。即ち、雑音から抽出された単語のスコアは、発話者の音声から抽出された単語のスコアよりも低くなっている。これにより、「広島」よりも信頼度が高かった「株主」が、音声認識結果として採用されることなく、発話者の音声から抽出された「広島」及び「お好み焼き」のみが音声認識結果として採用されている。このように、音声認識装置100によれば、各単語の信頼度に加え、各単語の発話者度に基づいて各単語のスコアを算出することで、発話者の音声から抽出された単語のスコアと、雑音から抽出された単語のスコアとの差異を明確にすることができ、音声認識精度を向上させることができる。特に、発話者度算出部140は、各単語に対応する音データの音量を用いて発話者度を算出しているため、発話者の音声から抽出された単語の発話者度と、雑音から抽出された単語の発話者度との差異がより明確となり、音声認識精度をより向上させることができる。
In the example of FIG. 4, the GWPP of “shareholder”, which is a word extracted from noise, is 0.57, and the GWPP of “Hiroshima”, which is a word extracted from the voice of the speaker, is 0.554. That is, the reliability of the word extracted from the noise is higher than the reliability of the word extracted from the speech of the speaker. On the other hand, the score of “shareholder” is −11.4, and the score of “Hiroshima” is −5.6. That is, the score of the word extracted from the noise is lower than the score of the word extracted from the speech of the speaker. As a result, “shareholders” who are more reliable than “Hiroshima” are not adopted as speech recognition results, but only “Hiroshima” and “okonomiyaki” extracted from the speech of the speaker are adopted as speech recognition results. Has been. Thus, according to the
また、発話者度算出部140は、人の音声の周波数帯域における各単語の音量を用いて発話者度を算出している。これにより、発話者の音声から抽出された単語と、人の音声以外の周波数帯域の音を多く含む雑音から抽出された単語とで、音量の差異がより明確となり、発話者度の差異がより明確となる。このため、音声認識精度をより向上させることができる。
Further, the speaker
また、音声認識装置100は、スコア算出部150により算出されたスコアの最大値に基づいて閾値を設定する閾値設定部160を更に備え、単語選定部170は、閾値設定部160により設定された閾値を用いて単語を選定している。このため、集音環境による全単語のスコアの増減に柔軟に対応して単語を選定することができ、集音環境による音声認識結果のばらつきを抑制することができる。
The
また、発話者度算出部140は、各単語の発話者度の最大値を基準として、各単語の相対発話者度を算出し、スコア算出部150は、発話者度算出部140により算出された各単語の相対発話者度を用いて各単語のスコアを算出している。このため、集音環境による全単語の発話者度の増減に柔軟に対応してスコアを算出し、単語を選定することができる。従って、集音環境による音声認識結果のばらつきをより抑制することができる。
Further, the speaker
以上、本発明に係る音声認識方法を採用した音声認識装置の好適な実施形態について説明してきたが、本発明は上述した実施形態に限られるものではなく、その要旨を逸脱しない範囲で様々な変更が可能である。 The preferred embodiments of the speech recognition apparatus employing the speech recognition method according to the present invention have been described above. However, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention. Is possible.
発話者度算出部140は、各単語の音量を用いて発話者度を算出しているが、各単語の音量に代えて、各単語の音声モデルの尤度、各単語の雑音モデルの尤度、各単語の空間伝達特性、各単語の基本周波数、及び各単語の声質、のいずれかを用いて発話者度を算出しても、発話者の音声から抽出された単語の発話者度と、雑音から抽出された単語の発話者度との差異を明確にすることができる。また、各単語の音量、各単語の音声モデルの尤度、各単語の雑音モデルの尤度、各単語の空間伝達特性、各単語の基本周波数、及び各単語の声質、のうち2つ以上を組み合わせて用い、発話者度を算出してもよい。この場合の発話者度は、例えば、音量と、音声モデルの尤度及び雑音モデルの尤度に基づいて算出される雑音尤度比と、空間伝達特性、基本周波数及び声質から算出される発話者度調整値とを用いて、
発話者度=音量−α×10Log10(雑音尤度比)+β×(発話者度調整値)
により算出される。α,βは所定の重み係数である。
The speaker
Speaker degree = volume−α × 10 Log 10 (noise likelihood ratio) + β × (speaker degree adjustment value)
Is calculated by α and β are predetermined weighting factors.
音声モデルの尤度は、音声から学習したGMM(Gaussian mixture model)に基づいてフレームごとに算出される。雑音モデルの尤度は、雑音から学習したGMMに基づいてフレームごとに算出される。各単語の音声モデルの尤度及び各単語の雑音モデルの尤度は、各単語に対応するフレームについて算出された尤度の総和として算出される。また、各単語の雑音尤度比は、
雑音尤度比=雑音モデルの尤度/音声モデルの尤度
により算出される。発話者の音声は、音データ入力部110を構成するマイクロホン等の近くで発せられることから、発話者の音声を含む音データの雑音尤度比は、発話者の音声を含まない音データの雑音尤度比よりも低くなる。このため、発話者の音声を含む音データから抽出された単語と、発話者の音声を含まない音データから抽出された単語との間では、雑音尤度比の差異が大きくなり易い。
The likelihood of the speech model is calculated for each frame based on a GMM (Gaussian mixture model) learned from speech. The likelihood of the noise model is calculated for each frame based on the GMM learned from the noise. The likelihood of the speech model of each word and the likelihood of the noise model of each word are calculated as the sum of the likelihoods calculated for the frame corresponding to each word. Also, the noise likelihood ratio of each word is
Noise likelihood ratio = noise model likelihood / speech model likelihood. Since the voice of the speaker is emitted near a microphone or the like constituting the sound
各単語の空間伝達特性は、例えば線形予測分析により得られる線形予測係数や、残響時間として算出される。残響時間は、各単語の終端において、音量が所定値まで減衰するのに要する時間である。各単語の空間伝達特性は、音声の残響の程度に応じて変動する。発話者の音声は、音データ入力部110を構成するマイクロホン等の近くで発せられることから、発話者の音声を含む音データの残響は、発話者の音声を含まない音データの残響と比べて少ない。このため、発話者の音声を含む音データから抽出された単語と、発話者の音声を含まない音データから抽出された単語との間では、空間伝達特性の差異が大きくなり易い。
The spatial transfer characteristic of each word is calculated as, for example, a linear prediction coefficient obtained by linear prediction analysis or a reverberation time. The reverberation time is the time required for the sound volume to decay to a predetermined value at the end of each word. The spatial transfer characteristic of each word varies depending on the degree of reverberation of the speech. Since the voice of the speaker is emitted near a microphone or the like constituting the sound
各単語の基本周波数は、例えば、フーリエ変換により得られる周波数パワー特性に対して、音声の基本周波数F0の倍音を透過させるくし形フィルタを適用し、フィルタ通過後のパワーが最大となっている成分の周波数として算出される。或いは、各単語の基本周波数は、音声波形の時間領域での自己相関が最大となる値を1周期とする周波数として算出される。各単語の基本周波数により、各単語の音声らしさを把握することができる。発話者の音声は、音データ入力部110を構成するマイクロホン等の近くで発せられることから、発話者の音声を含む音データの基本周波数は、発話者の音声を含まない音データの基本周波数と比べてより音声らしい値となる。このため、発話者の音声を含む音データから抽出された単語と、発話者の音声を含まない音データから抽出された単語との間では、基本周波数の差異が大きくなり易い。
The fundamental frequency of each word is, for example, a component in which a comb filter that transmits harmonics of the fundamental frequency F0 of speech is applied to the frequency power characteristics obtained by Fourier transform, and the power after passing through the filter is maximum. Is calculated as the frequency of. Alternatively, the fundamental frequency of each word is calculated as a frequency with a period having a maximum autocorrelation in the time domain of the speech waveform. Based on the fundamental frequency of each word, it is possible to grasp the sound quality of each word. Since the voice of the speaker is emitted near a microphone or the like constituting the sound
各単語の声質は、例えば、音声のスペクトル傾斜係数として算出される。各単語の声質により、発声方法の傾向が示される。このため、発話者の音声を含む音データから抽出された単語と、発話者の音声を含まない音データから抽出された単語との間では、声質の差異が大きくなり易い。 The voice quality of each word is calculated as, for example, a spectral slope coefficient of speech. The voice quality of each word indicates the tendency of the utterance method. For this reason, a difference in voice quality tends to be large between a word extracted from sound data including the voice of the speaker and a word extracted from sound data not including the voice of the speaker.
図5は、図4に示す例と同じ条件において、各単語の音量、各単語の音声モデルの尤度、各単語の雑音モデルの尤度、各単語の空間伝達特性、各単語の基本周波数、及び各単語の声質、の全てを組み合わせて用い、スコアを算出した場合の音声認識結果を示している。この例において、閾値保持部161には、相対閾値データとして−6が記憶されている。また、上記重み係数αは0.2に設定され、係数βは0.2に設定されている。この場合、スコアの算出結果は、−33,−17.5,−33.4,−2.2,−2.5,−13.1,−23.3,−13となっている。スコアの最大値が−2.2であることから、閾値は
−2.2−6=−8.2
となり、この閾値よりも高いスコアの「広島、お好み焼き」が音声認識結果として採用され、他の単語は不採用とされている。
FIG. 5 shows the volume of each word, the likelihood of the speech model of each word, the likelihood of the noise model of each word, the spatial transfer characteristics of each word, the fundamental frequency of each word, under the same conditions as the example shown in FIG. The voice recognition results are shown when the score is calculated using a combination of all the voice qualities of each word. In this example, the
Thus, “Hiroshima, Okonomiyaki” having a score higher than this threshold is adopted as a speech recognition result, and other words are not adopted.
図5の例では、雑音から抽出された単語である「株主」のスコアは−13であり、発話者の音声から抽出された単語である「広島」のスコアは−2.2であり、これらの単語のスコアの差は−10.8である。一方、図4の例では、「株主」のスコアは−11.4であり、広島のスコアは−5.6であり、これらの単語のスコアの差は−5.8であった。即ち、図5の例では、雑音から抽出された単語のスコアと、発話者の音声から抽出されたスコアとの差異がより大きくなっている。このように、各単語の音量、各単語の音声モデルの尤度、各単語の雑音モデルの尤度、各単語の空間伝達特性、各単語の基本周波数、及び各単語の声質、のうち2つ以上を組み合わせて用いることによって、発話者の音声から抽出された単語の発話者度と、雑音から抽出された単語の発話者度との差異をより明確にすることができ、音声認識精度をより向上させることができる。 In the example of FIG. 5, the score of “shareholder” that is a word extracted from noise is −13, and the score of “Hiroshima” that is a word extracted from the voice of the speaker is −2.2. The difference in the scores of the words is −10.8. On the other hand, in the example of FIG. 4, the score of “shareholder” was −11.4, the score of Hiroshima was −5.6, and the difference between the scores of these words was −5.8. That is, in the example of FIG. 5, the difference between the score of the word extracted from the noise and the score extracted from the speech of the speaker is larger. Thus, two of the volume of each word, the likelihood of the speech model of each word, the likelihood of the noise model of each word, the spatial transfer characteristics of each word, the fundamental frequency of each word, and the voice quality of each word By using a combination of the above, it is possible to clarify the difference between the degree of utterance of words extracted from the speech of the speaker and the degree of utterance of words extracted from noise, and the speech recognition accuracy is further improved. Can be improved.
また、音声処理部130は、各単語の信頼度の最大値を基準として、各単語の相対的な信頼度を出力し、スコア算出部150は、音声処理部130により出力された各単語の相対的な信頼度を用いて各単語のスコアを算出してもよい。この場合、集音環境による全単語の信頼度の増減に柔軟に対応してスコアを算出し、単語を選定することができる。従って、集音環境による音声認識結果のばらつきをより抑制することができる。
The
また、単語選定部170は、各単語のスコアと閾値とに基づいて、音声認識結果として採用しない単語を削除した後に、スコアが最大である単語を含む単語列と不連続となる単語を更に削除し、残った単語を音声認識結果として採用してもよい。この場合、図4の例において、第3位のスコアである「株主」までが閾値を上回っていたとしても、「株主」は、最大スコアの「広島」を含む単語列「広島、お好み焼き」と不連続であるために削除される。このように、雑音から抽出された単語の誤採用をより低減させることができ、音声認識精度をより向上させることができる。
In addition, the
また、音声認識装置100のハードウェア構成の一例として、図2の構成を示したが、これに限られない。例えば、音声認識装置100のハードウェア構成は、図6に示すように、ネットワークを介して接続されたクライアント装置210及びサーバ装置220に機能が分散された構成であってもよい。例えば、音データ入力部110、特徴量算出部120、単語選定部170、及び音声認識結果出力部180をクライアント装置210に構成し、残りの部分をサーバ装置220に構成することで、クライアント装置210の演算負荷を軽減することができる。この場合、クライアント装置210とサーバ装置220との間では、特徴量データ、スコア算出結果、閾値設定結果等が送受信されるため、これらのデータを圧縮し、ネットワークの負荷を軽減することができる。クライアント装置210とサーバ装置220との機能の分担は上述した例に限られない。更に、クライアント装置210又はサーバ装置220が更に複数の装置に分かれていてもよい。
Moreover, although the structure of FIG. 2 was shown as an example of the hardware structure of the
なお、音声認識装置100に係る発明は、コンピュータを音声認識装置として機能させるための音声認識プログラムに係る発明として捉えることができる。
The invention relating to the
図7は、コンピュータを音声認識装置100として機能させるための音声認識プログラムP100のモジュールを示すブロック図である。図7の音声認識プログラムP100は、音データ入力モジュールP110と、特徴量算出モジュールP120と、音声処理モジュールP130と、発話者度算出モジュールP140と、スコア算出モジュールP150と、閾値設定モジュールP160と、単語選定モジュールP170と、音声認識結果出力モジュールP180と、を備えている。各モジュールP110〜P180が実行されることにより実現される機能は、図1の各部110〜180の機能とそれぞれ同様である。音声認識プログラムP100は、例えば、図2に示す記憶媒体18aに格納されて音声認識装置100に提供される。記憶媒体18aとしては、フレキシブルディスク、CD、DVD等の記憶媒体が挙げられる。また、音声認識プログラムP100は、搬送波に重畳されたコンピュータデータ信号として、有線ネットワーク又は無線ネットワークを介して音声認識装置100に提供されるものであってもよい。
FIG. 7 is a block diagram showing modules of a speech recognition program P100 for causing a computer to function as the
100…音声認識装置、130…音声処理部、140…発話者度算出部、150…スコア算出部、160…閾値設定部、170…単語選定部、P100…音声認識プログラム、P130…音声処理モジュール、P140…発話者度算出モジュール、P150…スコア算出モジュール、P160…閾値設定モジュール、P170…単語選定モジュール。
DESCRIPTION OF
Claims (9)
前記各単語に対応する音データの発話者の音声らしさを示す各単語の発話者度を算出する発話者度算出手段と、
前記音声処理手段により出力された前記各単語の信頼度、及び前記発話者度算出手段により算出された前記各単語の発話者度に基づいて、前記各単語のスコアを算出するスコア算出手段と、
前記各単語のスコアと所定の閾値とに基づいて、音声認識結果として採用する単語を選定する単語選定手段とを備える、
ことを特徴とする音声認識装置。 Voice processing means for extracting words included in the sound data and outputting the reliability of each word;
A speaker degree calculating means for calculating a speaker degree of each word indicating the speech likeness of a speaker of sound data corresponding to each word;
Score calculating means for calculating the score of each word based on the reliability of each word output by the speech processing means and the speaker degree of each word calculated by the speaker degree calculating means;
Word selection means for selecting a word to be adopted as a speech recognition result based on the score of each word and a predetermined threshold;
A speech recognition apparatus characterized by that.
ことを特徴とする請求項1記載の音声認識装置。 The speaker degree calculating means includes a volume of each word, a likelihood of a speech model of each word, a likelihood of a noise model of each word, a spatial transfer characteristic of each word, a fundamental frequency of each word, and Calculating the degree of speaker of each word using at least one of the voice qualities of each word;
The speech recognition apparatus according to claim 1.
ことを特徴とする請求項2記載の音声認識装置。 The speaker degree calculating means calculates the speaker degree of each word using the volume of each word in the frequency band of human speech.
The speech recognition apparatus according to claim 2.
前記単語選定手段は、前記閾値設定手段により設定された前記所定の閾値を用いて音声認識結果として採用する単語を選定する、
ことを特徴とする請求項1〜3のいずれか一項記載の音声認識装置。 The voice recognition device further includes threshold setting means for setting the predetermined threshold based on the maximum score calculated by the score calculating means,
The word selecting means selects a word to be adopted as a speech recognition result using the predetermined threshold set by the threshold setting means;
The speech recognition apparatus according to claim 1, wherein
前記スコア算出手段は、前記音声処理手段により出力された前記各単語の相対的な信頼度を用いて前記各単語のスコアを算出する、
ことを特徴とする請求項1〜4のいずれか一項記載の音声認識装置。 The speech processing means outputs the relative reliability of each word based on the maximum reliability of each word,
The score calculation means calculates the score of each word using the relative reliability of each word output by the voice processing means.
The speech recognition apparatus according to claim 1, wherein
前記スコア算出手段は、前記発話者度算出手段により算出された前記各単語の相対的な発話者度を用いて前記各単語のスコアを算出する、
ことを特徴とする請求項1〜5のいずれか一項記載の音声認識装置。 The speaker degree calculating means calculates the relative speaker degree of each word based on the maximum value of the speaker degree of each word,
The score calculating means calculates the score of each word using the relative speaker degree of each word calculated by the speaker degree calculating means;
The speech recognition apparatus according to claim 1, wherein
ことを特徴とする請求項1〜6のいずれか一項記載の音声認識装置。 The word selection means, after deleting a word that is not adopted as a speech recognition result based on the score of each word and the predetermined threshold, a word that is discontinuous with a word string including a word having the maximum score Delete further and adopt the remaining words as speech recognition results.
The speech recognition apparatus according to claim 1, wherein
音データに含まれる単語を抽出し、各単語の信頼度を出力する音声処理ステップと、
前記各単語に対応する音データの発話者の音声らしさを示す各単語の発話者度を算出する発話者度算出ステップと、
前記音声処理ステップにより出力された前記各単語の信頼度、及び前記発話者度算出ステップにより算出された前記各単語の発話者度に基づいて、前記各単語のスコアを算出するスコア算出ステップと、
前記各単語のスコアと所定の閾値とに基づいて、音声認識結果として採用する単語を選定する単語選定ステップとを備える、
ことを特徴とする音声認識方法。 A speech recognition method executed by a speech recognition device,
A voice processing step of extracting words included in the sound data and outputting the reliability of each word;
A speaker degree calculating step of calculating a speaker degree of each word indicating the speech quality of the speaker of the sound data corresponding to each word;
A score calculation step of calculating a score of each word based on the reliability of each word output by the speech processing step and the speaker degree of each word calculated by the speaker degree calculation step;
A word selection step of selecting a word to be adopted as a speech recognition result based on the score of each word and a predetermined threshold;
A speech recognition method characterized by the above.
音データに含まれる単語を抽出し、各単語の信頼度を出力する音声処理手段と、
前記各単語に対応する音データの発話者の音声らしさを示す各単語の発話者度を算出する発話者度算出手段と、
前記音声処理手段により出力された前記各単語の信頼度、及び前記発話者度算出手段により算出された前記各単語の発話者度に基づいて、前記各単語のスコアを算出するスコア算出手段と、
前記各単語のスコアと所定の閾値とに基づいて、音声認識結果として採用する単語を選定する単語選定手段、
として機能させることを特徴とする音声認識プログラム。 Computer
Voice processing means for extracting words included in the sound data and outputting the reliability of each word;
A speaker degree calculating means for calculating a speaker degree of each word indicating the speech likeness of a speaker of sound data corresponding to each word;
Score calculating means for calculating the score of each word based on the reliability of each word output by the speech processing means and the speaker degree of each word calculated by the speaker degree calculating means;
Word selection means for selecting a word to be adopted as a speech recognition result based on the score of each word and a predetermined threshold;
A voice recognition program characterized by functioning as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011122054A JP5752488B2 (en) | 2011-05-31 | 2011-05-31 | Speech recognition apparatus, speech recognition method, and speech recognition program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011122054A JP5752488B2 (en) | 2011-05-31 | 2011-05-31 | Speech recognition apparatus, speech recognition method, and speech recognition program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012252026A true JP2012252026A (en) | 2012-12-20 |
JP5752488B2 JP5752488B2 (en) | 2015-07-22 |
Family
ID=47524932
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011122054A Active JP5752488B2 (en) | 2011-05-31 | 2011-05-31 | Speech recognition apparatus, speech recognition method, and speech recognition program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5752488B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016505893A (en) * | 2012-12-31 | 2016-02-25 | バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド | Method and apparatus for realizing speech input |
JP6336219B1 (en) * | 2017-03-24 | 2018-06-06 | 三菱電機株式会社 | Speech recognition apparatus and speech recognition method |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06105400B2 (en) * | 1988-11-04 | 1994-12-21 | 日本電気株式会社 | Voice recognition system |
JP2000003190A (en) * | 1998-06-17 | 2000-01-07 | Nec Corp | Voice model learning device and voice recognition device |
JP2002132293A (en) * | 2000-10-27 | 2002-05-09 | Ricoh Co Ltd | Speech recognizer |
JP2006030915A (en) * | 2004-07-22 | 2006-02-02 | Iwatsu Electric Co Ltd | Method and device for speech recognition |
JP2009288630A (en) * | 2008-05-30 | 2009-12-10 | Denso Corp | Voice recognition system for vehicle |
JP2010078986A (en) * | 2008-09-26 | 2010-04-08 | Hitachi Ltd | Equipment controller by speech recognition |
US20110125496A1 (en) * | 2009-11-20 | 2011-05-26 | Satoshi Asakawa | Speech recognition device, speech recognition method, and program |
-
2011
- 2011-05-31 JP JP2011122054A patent/JP5752488B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06105400B2 (en) * | 1988-11-04 | 1994-12-21 | 日本電気株式会社 | Voice recognition system |
JP2000003190A (en) * | 1998-06-17 | 2000-01-07 | Nec Corp | Voice model learning device and voice recognition device |
JP2002132293A (en) * | 2000-10-27 | 2002-05-09 | Ricoh Co Ltd | Speech recognizer |
JP2006030915A (en) * | 2004-07-22 | 2006-02-02 | Iwatsu Electric Co Ltd | Method and device for speech recognition |
JP2009288630A (en) * | 2008-05-30 | 2009-12-10 | Denso Corp | Voice recognition system for vehicle |
JP2010078986A (en) * | 2008-09-26 | 2010-04-08 | Hitachi Ltd | Equipment controller by speech recognition |
US20110125496A1 (en) * | 2009-11-20 | 2011-05-26 | Satoshi Asakawa | Speech recognition device, speech recognition method, and program |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016505893A (en) * | 2012-12-31 | 2016-02-25 | バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド | Method and apparatus for realizing speech input |
US10199036B2 (en) | 2012-12-31 | 2019-02-05 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and device for implementing voice input |
JP6336219B1 (en) * | 2017-03-24 | 2018-06-06 | 三菱電機株式会社 | Speech recognition apparatus and speech recognition method |
WO2018173270A1 (en) * | 2017-03-24 | 2018-09-27 | 三菱電機株式会社 | Voice recognition device and voice recognition method |
Also Published As
Publication number | Publication date |
---|---|
JP5752488B2 (en) | 2015-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | Analysis and classification of speech mode: whispered through shouted. | |
US9196247B2 (en) | Voice recognition method and voice recognition apparatus | |
US10074384B2 (en) | State estimating apparatus, state estimating method, and state estimating computer program | |
US8271282B2 (en) | Voice recognition apparatus, voice recognition method and recording medium | |
EP2363852B1 (en) | Computer-based method and system of assessing intelligibility of speech represented by a speech signal | |
US20050143997A1 (en) | Method and apparatus using spectral addition for speaker recognition | |
Yadav et al. | Addressing noise and pitch sensitivity of speech recognition system through variational mode decomposition based spectral smoothing | |
JP2017506767A (en) | System and method for utterance modeling based on speaker dictionary | |
Ismail et al. | Mfcc-vq approach for qalqalahtajweed rule checking | |
JP2014235345A (en) | Voice processing device, method and program | |
JP6127422B2 (en) | Speech recognition apparatus and method, and semiconductor integrated circuit device | |
Costa et al. | Speech and phoneme segmentation under noisy environment through spectrogram image analysis | |
US9058820B1 (en) | Identifying speech portions of a sound model using various statistics thereof | |
Revathy et al. | Performance comparison of speaker and emotion recognition | |
JP6373621B2 (en) | Speech evaluation device, speech evaluation method, program | |
JP5752488B2 (en) | Speech recognition apparatus, speech recognition method, and speech recognition program | |
Vlaj et al. | Voice activity detection algorithm using nonlinear spectral weights, hangover and hangbefore criteria | |
JP2016186516A (en) | Pseudo-sound signal generation device, acoustic model application device, pseudo-sound signal generation method, and program | |
JP5949634B2 (en) | Speech synthesis system and speech synthesis method | |
Kaur et al. | Power-Normalized Cepstral Coefficients (PNCC) for Punjabi automatic speech recognition using phone based modelling in HTK | |
WO2021152786A1 (en) | Training device, training method, and program | |
Wani et al. | Automatic speech recognition of isolated words in Hindi language | |
JP2011180308A (en) | Voice recognition device and recording medium | |
JP6526602B2 (en) | Speech recognition apparatus, method thereof and program | |
JP6234134B2 (en) | Speech synthesizer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140224 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150128 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150421 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150520 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5752488 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |