JP2737122B2 - Voice dictionary creation device - Google Patents

Voice dictionary creation device

Info

Publication number
JP2737122B2
JP2737122B2 JP62190654A JP19065487A JP2737122B2 JP 2737122 B2 JP2737122 B2 JP 2737122B2 JP 62190654 A JP62190654 A JP 62190654A JP 19065487 A JP19065487 A JP 19065487A JP 2737122 B2 JP2737122 B2 JP 2737122B2
Authority
JP
Japan
Prior art keywords
pattern
syllable
unit
word
unvoiced
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP62190654A
Other languages
Japanese (ja)
Other versions
JPS6433600A (en
Inventor
教幸 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP62190654A priority Critical patent/JP2737122B2/en
Publication of JPS6433600A publication Critical patent/JPS6433600A/en
Application granted granted Critical
Publication of JP2737122B2 publication Critical patent/JP2737122B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】 〔概 要〕 本発明は、無声化音節をもつ単語の音声パターンを作
成して記憶し、入力音声の単語認識を行う音声辞書作成
装置に関し、 入力音声の特徴量を抽出するパラメータ抽出部と、抽
出された前記特徴量の音節区間を検出する音節区間検出
回路とからなり、入力音声の単語パターンまたは単音節
パターンを出力する入力部と、 前記単音節パターンを記憶する音節テンプレート辞書
部と、 前記音節テンプレート辞書部に記憶されている前記単
音節パターンのうち子音区間を抽出する子音区間抽出部
と、 前記子音区間内の特徴量の平均値を算出する平均値算
出部と、 前記平均算出部からの出力を無声化音節パターンとし
て記憶する無声化音節パターン辞書部と、 単語の発音を予め記憶しておく単語辞書部と、 無声化音節のもつ規則を記憶しておく無声化規則部
と、 前記音節プレート辞書部と、前記無声化音節パターン
辞書部と、前記単語辞書部と、前記無声化規則部との出
力から、無声化音節を含む単語の合成パターンを作成す
る合成パターン作成部と を有するように音声辞書作成装置を構成する。 〔産業上の利用分野〕 本発明は、無声化音節をもつ単語の音声パターンを作
成して記憶し、入力音声の単語認識を行う音声辞書作成
装置に関するものである。 単語音声認識装置はオペレータの発声の単音節をパタ
ーン化して、この単音節パターンから単語の合成パター
ンを生成しておき、オペレータが入力する音声の単語を
認識する装置である。 しかし、単語が実際に発音されたとき、声帯振動を伴
わない音節を含む単語がある。 これらの単語は認識率が低くなるので、この認識率を
向上させる方法が要望されている。 〔従来の技術〕 第4図は従来例の単語音声認識装置の構成を説明する
図、 先ず、音節パターンが登録される手順を説明する。 第4図において、入力部1に入力した音声はパラメー
タ抽出回路11で音声パラメータ(特徴量が抽出される。 即ち、一定時間ごとのクロックに応じて入力音声の周
波数成分、スペクトル強度(パワー)等の成分が特徴量
として抽出される。 次いで、区間検出回路12で入力音声の発声による単音
節区間の長短を弁別して、単音節それぞれの区間を検出
し、単音節に分離する。 分離された単音節は、パターン化された単音節パター
ンとして音節テンプレート辞書部2に登録される。 一方、この認識装置が認識すべき単語を平仮名、片仮
名、アルファベット、あるいは、発音記号等のコードの
記号列で表記して単語辞書部3に記憶させる。 合成パターン作成部4は、音節テンプレート辞書部2
に登録された単音節パターンを結合して、単語辞書部3
に記憶された単語それぞれの合成パターンを作成する。 そして、単語ごとに作成された単語の合成パターンは
合成パターン辞書部5に記憶される。 次いで、入力音声の認識手順を説明する。 被認識音声入力は、入力部1でパターン化され、パタ
ーン照合部6に入力して合成パターン辞書部5が記憶す
る単語パターンと逐一照合され、合致したパターンの単
語が認識結果として出力される。 具体的に説明すると、例えば、第3図の例1のよう
に、単語辞書部3に認識すべき単語として、「にちで
ん」が登録されると、予めオペレータの音声で登録され
た単音節パターンの中から「に」、「ち」、「で」、
「ん」が抽出されて、合成作成部4で単語パターン「に
ちでん」が合成されて合成パターン辞書部5に登録され
る。 被認識音声入力「にちでん」が入力されると、入力部
1でパターン化されて、パターン照合部6で、合成パタ
ーン辞書部5に記憶された単語の合成パターンと照合さ
れ、この例では、「にちでん」とのパターンの照合がと
れて認識結果として出力される。 〔発明が解決しようとする問題点〕 単語の中には発声時に声帯振動を伴なわずに発声され
る音節、即ち、無声化音節をもつ単語がある。 例えば、単語「ひたち」の「ち」のように、通常の発
声では声帯振動なく発声される。 このような単語は、単語の仮名表記に音声パターンを
当てはめて合成しても、実際の発声から得られた単語の
合成パターンと異なり、上記した従来の方式による音声
認識装置では単語認識が不可能な場合、あるいは誤認識
する場合がある。 本発明はこのような点に鑑みて創作されたものであっ
て、無声化音節を有する単語パターンを合成して単語音
声認識の高い単語音声認識装置を提供することを目的と
している。 〔問題点を解決するための手段〕 上記した目的は、入力音声の特徴量を抽出するパラメ
ータ抽出部と、抽出された前記特徴量の音節区間を検出
する音節区間検出回路とからなり、入力音声の単語パタ
ーンまたは単音節パターンを出力する入力部と、 前記単音節パターンを記憶する音節テンプレート辞書
部と、 前記音節テンプレート辞書部に記憶されている前記単
音節パターンのうち子音区間を抽出する子音区間抽出部
と、 前記子音区間内の特徴量の平均値を算出する平均値算
出部と、 前記平均算出部からの出力を無声化音節パターンとし
て記憶する無声化音節パターン辞書部と、 単語の発音を予め記憶しておく単語辞書部と、 無声化音節のもつ規則を記憶しておく無声化規則部
と、 前記音節プレート辞書部と、前記無声化音節パターン
辞書部と、前記単語辞書部と、前記無声化規則部との出
力から、無声化音節を含む単語の合成パターンを作成す
る合成パターン作成部と を有するように構成された音声辞書作成装置によって
解決される。 〔作 用〕 単語辞書部に記憶された単語の中で、無声化規則部に
記憶された規則に適合する単語を抽出して合成パターン
作成部で単語パターンを作成する際に、無声化規則で通
常無声化して発声される音節パターンを無声化した特殊
単音節パターンを用いて作成する。 そのために、音節テンプレート辞書部に登録された所
要の音節パターンの子音区間を子音区間抽出部で抽出
し、平均値算出部でその音節パターンの子音区間の特徴
値の平均値を算出し、子音部の特徴量パターンを抽出
し、その平均値を求め、該平均値を振幅とするパターン
を無声化音節の音節パターンとする。 そして、作成された無声化部を示す音節パターンを無
声化規則に適合した単語を合成する場合の単音節パター
ンとして無声化音節パターン辞書部に記憶しておく。 このようにして無声化規則に則って作成された単語パ
ターンは、他の単語パターンとともに合成パターン記憶
部に記憶される。 従って、合成パターン記憶部には発声単語に近い単語
の合成パターンが記憶されることになり、パターン照合
部で照合して認識する入力単語の認識率が向上すること
になる。 〔実施例〕 以下、図面を参照して本発明の単語音声入力装置の実
施例を説明する。 第1図は本発明の一実施例の構成ブロック図、 第2図は音節の構成を説明する図、 第3図は無声化音節の例を示す図である。 なお、全図を通じて同一符号は同一対象物を示す。 先ず、オペレータの音声登録に際して、オペレータの
音声が入力部1でパターン化され、単音節に分離されて
音節テンプレート辞書部2に音節パターンとして記憶さ
れる。 記憶された音節パターンで、例えば「ち」は第2図の
ように、子音区間抽出部7が高域スペクトルと低域スペ
クトルとの特徴値比によって、子音区間〔t∫〕と母音
区間〔i〕が決められる。 平均値算出部8で子音区間〔t∫〕の特徴値の平均値
が算出され、「ち」の音節区間に〔t∫〕のスペクトル
の特徴値の平均値をもち、所定の継続時間をもつ単音節
パターンに「ち*」が無声化音節パターン辞書部9に記
憶される。 一方、発声される単語の「ち」は前後の音節によって
通常第3図に示すように、3つの場合がある。即ち、 (1)「にちでん」の「ち」のように、有音で発音され
る場合、 (2)「ひたち」の「ち」のように、高い確率で無声化
する場合、 (3)「いち」の「ち」のように、(1)、(2)のい
ずれかの場合、 従って、(1)の場合は音節パターン「ち」を用い
て、(2)の場合は「ち*」を、(3)の場合は「ち」
と「ち*」の両方を用いた単語の合成パターンを合成パ
ターン作成部4で作成し、合成パターン辞書部5に記憶
する。 以上音節パターン「ち」の場合を具体的に述べたが、
一般的な母音の無声化の法則として、 法則1 「キ」「ク」「シ」「ス」「チ」「ツ」「ヒ」
「フ」「ビ」「ブ」「シュ」などの拍が「カ」「サ」
「タ」「ハ」「バ」などの各行の拍の直前にきたとき。 法則2 「キ」「ク」「シ」「ス」「チ」「ツ」「ヒ」
「フ」「ビ」「ブ」「シュ」などの拍が息の切れ目の直
前にきてその拍のアクセントが低いとき。 〔NHK編 日本語発音アクセント辞典参照〕 このような法則を無声化規則部10に記憶し、単語辞書
部3に登録される単語が合成パターン作成部4で単語パ
ターンが作成される時に適用される。 その結果、合成パターン辞書部5には発声音に類似度
の高い単語の合成パターンが用意されることになり、従
って、認識時のパターン照合部6における入力音声との
照合確率が高くなる。 なお、合成パターン辞書部5はすべての合成パターン
を常時保持する必要はなく、一パターン分の領域だけを
有し、照合時に順次パターンを置換するようにしてもよ
い。 こうすることによって、メモリ容量は大幅に削減する
ことができる。 また、無声化音節パターンは子音区間の特徴値の平均
値を用いて作成したが、他の方法として、例えば抽出さ
れた子音パターンを補完又は間引きによって、所定の継
続時間のパターンを合成する方法でも良い。 〔発明の効果〕 以上述べてきたように、本発明によれば、無声化音節
パターンを原単音節パターンの子音区間から作成し、実
際の音声の単語発音に近似した単語の合成パターンが記
憶されるので単語音声認識の認識率が向上し、実用的に
は極めて有用である。
DETAILED DESCRIPTION OF THE INVENTION [Overview] The present invention relates to a speech dictionary creating apparatus for creating and storing speech patterns of words having unvoiced syllables and performing word recognition of input speech. An input unit for outputting a word pattern or a monosyllabic pattern of an input voice, comprising: a parameter extracting unit to be extracted; a syllable interval detecting circuit for detecting a syllable interval of the extracted feature quantity; and storing the monosyllabic pattern. A syllable template dictionary unit, a consonant interval extraction unit that extracts a consonant interval from the single syllable patterns stored in the syllable template dictionary unit, and an average value calculation unit that calculates an average value of the feature amount in the consonant interval An unvoiced syllable pattern dictionary unit that stores the output from the average calculation unit as a unvoiced syllable pattern; a word dictionary unit that stores word pronunciation in advance; A voiceless syllable from the output of the unvoiced rule unit that stores the rules of the syllables, the syllable plate dictionary, the voiceless syllable pattern dictionary, the word dictionary, and the voiceless rule And a synthesis pattern creation unit that creates a synthesis pattern of a word including. BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a speech dictionary creation device that creates and stores speech patterns of words having unvoiced syllables and performs word recognition of input speech. The word speech recognition device is a device that patterns a single syllable of an operator's utterance, generates a synthesized pattern of words from the single syllable pattern, and recognizes a word of a voice input by the operator. However, some words contain syllables without vocal fold vibration when the word is actually pronounced. Since these words have a low recognition rate, there is a need for a method of improving the recognition rate. [Prior Art] FIG. 4 is a diagram for explaining a configuration of a conventional word speech recognition apparatus. First, a procedure for registering a syllable pattern will be described. In FIG. 4, voice parameters (features) are extracted from a voice input to the input unit 1 by a parameter extraction circuit 11. That is, a frequency component, a spectrum intensity (power), and the like of the input voice in accordance with a clock at regular time intervals. Is extracted as a feature quantity. Next, the section detection circuit 12 discriminates the length of a single syllable section by utterance of the input speech, detects each single syllable section, and separates the single syllable into single syllables. The syllables are registered as a patterned single syllable pattern in the syllable template dictionary unit 2. On the other hand, words to be recognized by this recognition device are represented by hiragana, katakana, alphabet, or a symbol string of codes such as phonetic symbols. Is stored in the word dictionary unit 3. The synthetic pattern creating unit 4 is configured to store the syllable template dictionary unit 2.
By combining the monosyllabic patterns registered in the word dictionary unit 3
Create a composite pattern for each of the words stored in. Then, the synthesized pattern of the words created for each word is stored in the synthesized pattern dictionary unit 5. Next, a procedure for recognizing an input voice will be described. The input of the voice to be recognized is patterned by the input unit 1, input to the pattern matching unit 6, collated with the word pattern stored in the combined pattern dictionary unit 5 one by one, and the words of the matched pattern are output as the recognition result. More specifically, for example, as shown in Example 1 of FIG. 3, when “Nichiden” is registered as a word to be recognized in the word dictionary unit 3, a single word registered in advance by the voice of the operator is used. From the syllable patterns, "ni", "chi", "de",
“N” is extracted, the word pattern “Nichiden” is synthesized by the synthesizing unit 4 and registered in the synthesizing pattern dictionary unit 5. When a recognized voice input “Nichiden” is input, the input unit 1 forms a pattern, and the pattern matching unit 6 compares the pattern with the combined pattern of the words stored in the combined pattern dictionary unit 5. Then, the pattern is compared with "Nichiden" and output as a recognition result. [Problems to be Solved by the Invention] Among words, there are syllables uttered without vocal cord vibration when uttering, that is, words having unvoiced syllables. For example, a normal utterance is uttered without vocal cord vibration, such as "chi" of the word "Hitachi". Even if such a word is synthesized by applying a voice pattern to a kana notation of a word, unlike a synthesized pattern of a word obtained from an actual utterance, word recognition cannot be performed by the above-described conventional voice recognition device. Or incorrect recognition. The present invention has been made in view of such a point, and an object of the present invention is to provide a word-speech recognition device having high word-speech recognition by synthesizing a word pattern having unvoiced syllables. [Means for Solving the Problems] The object described above comprises a parameter extraction unit for extracting a feature amount of the input speech, and a syllable interval detection circuit for detecting a syllable interval of the extracted feature amount, An input unit for outputting a word pattern or a monosyllabic pattern, a syllable template dictionary for storing the monosyllabic pattern, and a consonant interval for extracting a consonant interval among the monosyllabic patterns stored in the syllable template dictionary An extraction unit; an average value calculation unit that calculates an average value of the feature amount in the consonant section; an unvoiced syllable pattern dictionary unit that stores an output from the average calculation unit as a voiceless syllable pattern; A word dictionary section stored in advance, a voiceless rule section storing rules of voiceless syllables, the syllable plate dictionary section, and the voiceless syllable pattern A speech dictionary creating apparatus configured to have a combined pattern creating unit that creates a combined pattern of words including unvoiced syllables from the output of the writing unit, the word dictionary unit, and the unvoiced rule unit. Is done. [Operation] When words that match the rules stored in the unvoiced rule section are extracted from the words stored in the word dictionary section and the combined pattern creating section creates a word pattern, A syllable pattern that is usually voiced and uttered is created using a special syllable pattern that is devoiced. For that purpose, the consonant section of the required syllable pattern registered in the syllable template dictionary section is extracted by the consonant section extracting section, and the average value calculating section calculates the average value of the characteristic values of the consonant section of the syllable pattern, and the consonant section Are extracted, the average value thereof is obtained, and the pattern having the average value as the amplitude is used as the syllable pattern of the unvoiced syllable. Then, the created syllable pattern indicating the unvoiced portion is stored in the unvoiced syllable pattern dictionary as a single syllable pattern when a word conforming to the unvoiced rule is synthesized. The word pattern created in accordance with the devoicing rule in this manner is stored in the combined pattern storage unit together with other word patterns. Therefore, the synthesized pattern storage unit stores the synthesized pattern of words close to the utterance word, and the pattern matching unit improves the recognition rate of the input word to be recognized. [Embodiment] Hereinafter, an embodiment of a word speech input device of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of an embodiment of the present invention, FIG. 2 is a diagram for explaining the configuration of a syllable, and FIG. 3 is a diagram showing an example of a voiceless syllable. The same reference numerals indicate the same objects throughout the drawings. First, when registering the voice of the operator, the voice of the operator is patterned by the input unit 1, separated into single syllables, and stored as a syllable pattern in the syllable template dictionary unit 2. In the stored syllable pattern, for example, for "chi", as shown in FIG. 2, the consonant interval extraction unit 7 determines the consonant interval [t 域] and the vowel interval [i ] Is determined. The average value calculating section 8 calculates the average value of the characteristic values in the consonant section [t∫], and has the average value of the characteristic values of the spectrum [t∫] in the syllable section “chi” and has a predetermined duration. “Chi *” is stored in the unvoiced syllable pattern dictionary unit 9 as a single syllable pattern. On the other hand, the word "chi" to be uttered may have three cases depending on the syllables before and after as shown in FIG. That is, (1) When voice is pronounced like "Chi" of "Nichiden", (2) When voice is voiced with a high probability like "Chi" of "Hitachi", ( 3) Like “chi” of “ichi”, in any of (1) and (2), therefore, in the case of (1), the syllable pattern “chi” is used, and in the case of (2), “ "*" In the case of (3)
And a composite pattern of words using both “*” and “chi *” is created by the composite pattern creation unit 4 and stored in the composite pattern dictionary unit 5. Although the case of the syllable pattern "chi" was specifically described above,
As a general rule for unvoicing vowels, Rule 1 "K""K""S""S""J""T""H"
The beats of "F", "B", "B", "S" are "K", "S"
When it comes just before the beat of each line such as "ta", "c", "ba". Rule 2 "ki""ku""shi""su""chi""tsu""hi"
When a beat such as “F”, “B”, “B”, or “S” comes right before the break, and the accent of that beat is low. [Refer to NHK Japanese Pronunciation Accent Dictionary] These rules are stored in the devoicing rule section 10 and the words registered in the word dictionary section 3 are applied when the composite pattern creating section 4 creates a word pattern. . As a result, a synthesized pattern of a word having a high similarity to the uttered sound is prepared in the synthesized pattern dictionary section 5, and therefore, the probability of matching with the input voice in the pattern matching section 6 at the time of recognition is increased. Note that the composite pattern dictionary unit 5 does not need to hold all the composite patterns at all times, but may have only one pattern area, and replace the patterns sequentially at the time of comparison. By doing so, the memory capacity can be significantly reduced. Further, the unvoiced syllable pattern was created using the average value of the characteristic values of the consonant sections. However, as another method, for example, a method of synthesizing a pattern of a predetermined duration by complementing or thinning out the extracted consonant pattern is also used. good. [Effects of the Invention] As described above, according to the present invention, an unvoiced syllable pattern is created from a consonant section of an original monosyllable pattern, and a synthesized pattern of words that approximates the word pronunciation of an actual voice is stored. Therefore, the recognition rate of word speech recognition is improved, and it is extremely useful in practice.

【図面の簡単な説明】 第1図は本発明の一実施例の構成ブロック図、 第2図は音節の構成を説明する図、 第3図は無声化音節の例を説明する図、 第4図は従来例の構成を説明する図である。 図において、 1は入力部、 2は音節テンプレート辞書部、 3は単語辞書部、 4は合成パターン作成部、 5は合成パターン辞書部、 6はパターン照合部、 7は子音区間抽出部、 8は平均値算出部、 9は無声化音節パターン辞書部、 10は無声化規則辞書部、 11は特徴量抽出部、 12は区間検出回路である。[Brief description of the drawings] FIG. 1 is a configuration block diagram of an embodiment of the present invention, FIG. 2 is a diagram illustrating the configuration of syllables, FIG. 3 is a diagram illustrating an example of unvoiced syllables; FIG. 4 is a diagram illustrating the configuration of a conventional example. In the figure, 1 is an input unit, 2 is a syllable template dictionary, 3 is a word dictionary section, 4 is a composite pattern creation unit, 5 is a composite pattern dictionary unit, 6 is a pattern matching unit, 7 is a consonant section extraction unit, 8 is an average value calculation unit, 9 is a voiceless syllable pattern dictionary section, 10 is the voiceless rule dictionary, 11 is a feature amount extraction unit, Reference numeral 12 denotes a section detection circuit.

Claims (1)

(57)【特許請求の範囲】 1.入力音声の特徴量を抽出するパラメータ抽出部と、
抽出された前記特徴量の音節区間を検出する音節区間検
出回路とからなり、入力音声の単語パターンまたは単音
節パターンを出力する入力部と、 前記単音節パターンを記憶する音節テンプレート辞書部
と、 前記音節テンプレート辞書部に記憶されている前記単音
節パターンのうち子音区間を抽出する子音区間抽出部
と、 前記子音区間内の特徴量の平均値を算出する平均値算出
部と、 前記平均算出部からの出力を無声化音節の音節パターン
として記憶する無声化音節パターン辞書部と、 単語の発音を予め記憶しておく単語辞書部と、 無声化音節のもつ規則を記憶しておく無声化音節パター
ン選択規則部と、 前記音節プレート辞書部と、前記無声化音節パターン辞
書部と、前記単語辞書部と、前記無声化音節パターン選
択規則部との出力から、無声化音節を含む単語の合成パ
ターンを作成する合成パターン作成部と を有することを特徴とする音声辞書作成装置。
(57) [Claims] A parameter extraction unit that extracts a feature amount of the input voice;
An input unit configured to output a word pattern or a single syllable pattern of the input speech, and a syllable template dictionary unit that stores the single syllable pattern; A consonant interval extraction unit that extracts a consonant interval from the single syllable patterns stored in the syllable template dictionary unit; an average value calculation unit that calculates an average value of a feature amount in the consonant interval; Unvoiced syllable pattern dictionary unit that stores the output of vocalized syllables as syllable patterns, word dictionary unit that stores the pronunciation of words in advance, and unvoiced syllable pattern selection that stores the rules of unvoiced syllables A rule unit, the syllable plate dictionary unit, the unvoiced syllable pattern dictionary unit, the word dictionary unit, and the output of the unvoiced syllable pattern selection rule unit. A synthesizing pattern creating unit for creating a synthesizing pattern of words including unvoiced syllables.
JP62190654A 1987-07-29 1987-07-29 Voice dictionary creation device Expired - Fee Related JP2737122B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62190654A JP2737122B2 (en) 1987-07-29 1987-07-29 Voice dictionary creation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62190654A JP2737122B2 (en) 1987-07-29 1987-07-29 Voice dictionary creation device

Publications (2)

Publication Number Publication Date
JPS6433600A JPS6433600A (en) 1989-02-03
JP2737122B2 true JP2737122B2 (en) 1998-04-08

Family

ID=16261683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62190654A Expired - Fee Related JP2737122B2 (en) 1987-07-29 1987-07-29 Voice dictionary creation device

Country Status (1)

Country Link
JP (1) JP2737122B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6497651B2 (en) * 2015-03-19 2019-04-10 株式会社レイトロン Speech recognition apparatus and speech recognition program

Also Published As

Publication number Publication date
JPS6433600A (en) 1989-02-03

Similar Documents

Publication Publication Date Title
JP2000163088A (en) Speech synthesis method and device
JP2737122B2 (en) Voice dictionary creation device
JPS6050600A (en) Rule synthesization system
JP2615643B2 (en) Word speech recognition device
JP2707552B2 (en) Word speech recognition device
JP2615649B2 (en) Word speech recognition device
JPH037995A (en) Generating device for singing voice synthetic data
JPH04350699A (en) Text voice synthesizing device
JP3522005B2 (en) Speech synthesizer
JPH1130994A (en) Voice recognizing method and device therefor and recording medium recorded with voice recognition program
JP2001324995A (en) Voice recognition method
JP3308875B2 (en) Voice synthesis method and apparatus
JPS6180298A (en) Voice recognition equipment
JPS60182499A (en) Voice recognition equipment
JP2995814B2 (en) Voice synthesis method
JP3109807B2 (en) Speech synthesis method and device
JP2578771B2 (en) Voice recognition device
JPH0573039B2 (en)
JPS6027433B2 (en) Japanese information input device
JPH0635494A (en) Speech recognizing device
JPH07134596A (en) Method and device for processing speech duration time for speech synthesis
JPS60150098A (en) Voice recognition equipment
JPH04127199A (en) Japanese pronunciation determining method for foreign language word
JPH01126694A (en) Phoneme sign adding system for voice recognition equipment
KR20010086492A (en) Word model producing method for a voice recognition system

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees