JPS63261400A - Voice recognition method - Google Patents
Voice recognition methodInfo
- Publication number
- JPS63261400A JPS63261400A JP9539087A JP9539087A JPS63261400A JP S63261400 A JPS63261400 A JP S63261400A JP 9539087 A JP9539087 A JP 9539087A JP 9539087 A JP9539087 A JP 9539087A JP S63261400 A JPS63261400 A JP S63261400A
- Authority
- JP
- Japan
- Prior art keywords
- speech
- syllables
- pattern
- word
- created
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 15
- 230000006835 compression Effects 0.000 claims description 35
- 238000007906 compression Methods 0.000 claims description 35
- 235000016496 Panda oleosa Nutrition 0.000 claims description 10
- 240000000220 Panda oleosa Species 0.000 claims description 10
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 1
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.
Description
【発明の詳細な説明】
〔概要〕
この発明は、登録した単語と入力単語とを照合して音声
認識候補を判定する音声認識方式において、入力音声に
ついて音節毎などに分割して圧縮パターンを作成し難い
問題を解決するため、音声認識しようとする単語群につ
いて予め求めた平均音節数Nで入力音声を区切って圧縮
パターンを生成し、この圧縮パターンを予め登録した単
語の圧縮バクーンと照合して音声認識候補を判定するこ
とにより、少ない計算量で音声認識候補の削減を行うよ
うにしている。[Detailed Description of the Invention] [Summary] The present invention is a speech recognition method that compares registered words and input words to determine speech recognition candidates. In order to solve this difficult problem, a compressed pattern is generated by dividing the input speech by the average number N of syllables determined in advance for the group of words to be speech recognized, and this compressed pattern is compared with the compressed word group registered in advance. By determining the speech recognition candidates, the number of speech recognition candidates can be reduced with a small amount of calculation.
本発明は、音声認識しようとする単語群の平均音節数N
で入力音声を区切って圧縮パターンを生成し、登録した
圧縮パターンと照合して音声認識候補を判定するよう構
成した音声認識方式に関するものである。In the present invention, the average number of syllables N of a word group to be speech recognized is
The present invention relates to a speech recognition method configured to divide input speech into compressed patterns, generate compression patterns, and compare them with registered compression patterns to determine speech recognition candidates.
〔従来の技術と発明が解決しようとする問題点〕計算量
を少なくし、かつ効果的に音声認識候補を削減する方式
として、時間軸上でパターンを圧縮して照合する方式が
ある。この方式は、音声データをある区間に区切り、こ
の区間内の平均パターンを求め、この平均パターン間で
照合を行うものである。この方式を実現するものとして
、例えば時間軸上の区間として音節区間毎に圧縮パター
ンを作成することが考えられる。この場合、音声認識し
ようとする単語に対して予め1!備する圧縮パターンは
、音節毎に圧縮パターンを生成すればよ<、簡単に生成
することができる。しかし、人力音声は連続して発生さ
れるものであって音節単位に区切ることが困難であり、
音節単位に圧縮した圧縮パターンを生成し難いという問
題点があっ[問題点を解決するための手段]
本発明は、前記問題点を解決するため、音声認識しよう
とするカナ表記された単語群の平均音節fiNを用いて
この単語について作成した単語テンプレートを分割し、
この分割した区間毎に音声の特徴を表すよう予め作成し
た圧縮パターン6と、入力された音声について、上記平
均音節数Nで分割し、この分割した区間毎に特徴を表す
圧縮パターンを作成する圧縮パターン作成部8と、この
圧縮パターン作成部8によって作成された圧縮パターン
と、上記圧縮パターン6とを照合して一致度を算出する
照合部9とを設け、この照合部9によって算出された一
致度が高い単語を音声認識候補として判定するようにし
ている。[Problems to be Solved by the Prior Art and the Invention] As a method for reducing the amount of calculation and effectively reducing the number of speech recognition candidates, there is a method that compresses and matches patterns on the time axis. In this method, audio data is divided into sections, an average pattern within this section is determined, and the average patterns are compared. One way to implement this method is, for example, to create a compression pattern for each syllable section as a section on the time axis. In this case, 1! for the word to be voice recognized in advance! The compression pattern provided can be easily generated by generating a compression pattern for each syllable. However, human speech is generated continuously and it is difficult to divide it into syllables.
There is a problem in that it is difficult to generate a compressed pattern compressed into syllable units [Means for solving the problem] In order to solve the above problem, the present invention aims to solve the above-mentioned problem. Divide the word template created for this word using the average syllable fiN,
The compression pattern 6 is created in advance to express the characteristics of the voice for each divided section, and the input voice is divided by the average number of syllables N, and a compression pattern representing the characteristics is created for each divided section. A pattern creation section 8 and a matching section 9 that compares the compressed pattern created by the compressed pattern creation section 8 with the compressed pattern 6 to calculate the degree of matching are provided. Words with a high degree of accuracy are determined as speech recognition candidates.
第1図は本発明の原理構成図を示す。図中音節登録部1
は、離散単音節音声人力に基づいて、単音節を音節テン
プレート2として登録するものである。FIG. 1 shows a basic configuration diagram of the present invention. Syllable registration part 1 in the diagram
This registers a monosyllable as a syllable template 2 based on discrete monosyllable speech.
単語テンプレート生成部3は、カナ表記でキー入力され
た単語の夫々の音節に対応する単音節テンプレート2を
組み合わせて単語テンプレートを生成するものである。The word template generation unit 3 generates a word template by combining monosyllable templates 2 corresponding to each syllable of a word key-input in kana notation.
平均音節数計算部4は、カナ表記でキー人力された単語
群の平均音節数Nを計算するものである。The average number of syllables calculation unit 4 calculates the average number of syllables N of a word group manually written in kana notation.
圧縮パターン作成部5は、平均音節数Nで、単語テンプ
レート生成部3によって生成された単語テンプレートを
分割し、この分割した区間について圧縮パターン6を作
成するものである。The compressed pattern creation unit 5 divides the word template generated by the word template generation unit 3 by the average number of syllables N, and creates a compression pattern 6 for the divided sections.
音声分析部7は、音声認識しようとする入力音声の特徴
点などを分析するものである。The speech analysis section 7 analyzes the characteristic points of the input speech to be speech recognized.
圧縮パターン作成部8は、平均音節数計算部4によって
計算された平均音節数Nを用いて入力音声を分?JL、
この分割した区間の圧縮パターンを作成するものである
。The compression pattern creation section 8 divides the input speech into segments using the average number N of syllables calculated by the average syllable number calculation section 4. JL,
A compression pattern for this divided section is created.
照合部9は、圧縮パターン作成部8によって作成された
圧縮パターンと、予め圧縮して登録した圧縮パーン6と
を照合して一致度を算出するものである。The matching unit 9 compares the compressed pattern created by the compressed pattern creating unit 8 with the compressed pattern 6 that has been compressed and registered in advance to calculate the degree of matching.
判定部10は、照合部9で算出された一致度の高いもの
を音声認識候補として判定するものである。The determining unit 10 determines the one with a high degree of matching calculated by the matching unit 9 as a speech recognition candidate.
次に動作を説明する。 Next, the operation will be explained.
第1図において、離散単音節音声を音声登録部1に人力
して音節テンプレート2を登録する。単語テンプレート
生成部3は、カナ表記でキー人力された音声認識しよう
とする単語に対応する音節テンプレート2を組み合わせ
て単語テンプレートを生成する。平均音節数計算部4は
、カナ表記でキー人力された単語の平均音節数Nを計算
する。In FIG. 1, a syllable template 2 is registered by inputting discrete monosyllabic speech into a speech registration section 1 manually. The word template generation unit 3 generates a word template by combining syllable templates 2 corresponding to words to be voice recognized manually in kana notation. The average number of syllables calculation unit 4 calculates the average number of syllables N of words manually written in kana notation.
圧縮パターン作成部5は、平均音節数計算部4から通知
された平均音節数Nで、単語テンプレート生成部3によ
って生成された単語テンプレートを分割し、この分割し
た区間について夫々圧縮パターン6を作成する。これに
よって、音声認識しようとする単語の圧縮パターン6の
’36Mができたこととなる。The compression pattern creation unit 5 divides the word template generated by the word template generation unit 3 by the average number of syllables N notified from the average syllable number calculation unit 4, and creates compression patterns 6 for each of the divided sections. . As a result, compression pattern 6 '36M of the word to be speech recognized is created.
次に、人力音声が音声分析部7を介して圧縮バターン作
成部8に通知されると、平均音節数算出部4によって計
算された平均音節数Nで当該入力音声を分割し、この分
割した区間について圧縮パターンを夫々作成する。照合
部9は、この作成された圧縮パターンと、予め作成され
た圧縮パターン6とを照合して一致度を計算する。判定
部10は、照合部9から通知された一致度の高いものを
音声認識候補と判定して出力する。Next, when the human voice is notified to the compressed pattern creation unit 8 via the voice analysis unit 7, the input voice is divided by the average number N of syllables calculated by the average number of syllables calculation unit 4, and the divided sections are A compression pattern is created for each. The matching unit 9 matches the created compressed pattern with the compressed pattern 6 created in advance to calculate the degree of matching. The determining unit 10 determines that the one with a high degree of matching notified from the matching unit 9 is a speech recognition candidate and outputs it.
以上のように、音声認識しようとする単語の平均音節数
Nを計算し、この平均音節数Nで人力音声を区切って圧
縮パターンを夫々作成し、予め登録した圧縮パターンと
照合して一致度の高いものを音声認識候補として判定す
ることにより、少ない計算量で音声認識候補の削減を行
うことが可能となる。As described above, the average number N of syllables of the word to be recognized is calculated, the human speech is divided by this average number N of syllables, compressed patterns are created, and the degree of matching is determined by comparing them with pre-registered compressed patterns. By determining the highest value as a speech recognition candidate, it is possible to reduce the number of speech recognition candidates with a small amount of calculation.
次に第1図ないし第4図を用いて本発明の1実、施例の
構成および動作を具体的に説明する。Next, the structure and operation of one embodiment of the present invention will be specifically explained using FIGS. 1 to 4.
第2図(イ)は、第1同音節テンプレート2を組み合わ
せて生成したカナ表記“トウキヨウ”に対応する単語テ
ンプレート例を示す。この単語テンプレート例“トウキ
ヨウ”は、点線を用いて区切ったように4音節からなっ
ている。この単語テンプレート“トウキヨウ”は、音声
認識対象として登録した全ての単語の平均音節数Nが例
えば3として計算された場合、図中実線を用いて示すよ
うに等分に区間1から区間3に分割される。FIG. 2(A) shows an example of a word template corresponding to the kana notation "Toukiyo" generated by combining the first homosyllabic template 2. This word template example "Tokyo" consists of four syllables as separated by dotted lines. If the average number of syllables N of all the words registered as speech recognition targets is calculated as, for example, 3, this word template "Tokyo" is divided equally into sections 1 to 3 as shown by the solid line in the figure. be done.
第2図(ロ)は、第2図(イ)に示す3分割した区間1
から区間3について生成した圧縮パターン例を示す。こ
の圧縮パターンは、例えば第2図(ハ)に示すように、
第2図(イ)の各区間1から区間3の間における夫々累
積したスペクトラム強度を、周波数方向に例えば20チ
ヤンネルについて夫々算出したものである。Figure 2 (B) shows section 1 divided into three parts shown in Figure 2 (A).
An example of a compression pattern generated for section 3 is shown below. This compression pattern is, for example, as shown in FIG.
The accumulated spectrum intensities between each section 1 to section 3 in FIG. 2(a) are calculated for, for example, 20 channels in the frequency direction.
次に、第3図を用いて圧縮パターン6を生成する手順を
詳細に説明する。Next, the procedure for generating compressed pattern 6 will be explained in detail using FIG.
第3図(イ)は、音節テンプレートを登録する手順を示
す。図中■は、登録用の音声入力を行う状態を示す。こ
れは、第11音節登録部1に対して離散単音節音声を入
力、例えば“ト”、“つ”、“キョ°、“つ”のように
1つの音節毎に区切った音声を入力することを意味して
いる。FIG. 3(a) shows the procedure for registering a syllable template. ■ in the figure indicates a state in which voice input for registration is performed. This is done by inputting discrete monosyllabic sounds to the 11th syllable registration unit 1, for example, inputting sounds divided into syllables such as "to", "tsu", "kyo°," and "tsu". It means.
図中■は、音節テンプレートを作成する状態を示す。こ
れは、第1図音声登録部lに入力された離散単音節音声
から音声テンブートを作成することを意味している。■ in the figure indicates a state in which a syllable template is created. This means that a speech tenboot is created from the discrete monosyllabic speech input to the speech registration section 1 in FIG.
図中■は、登録する状態を示す。これは、図中■で作成
した音声テンプレートをファイルに登録する状態を示す
。■ in the figure indicates the state to be registered. This shows the state in which the voice template created in section 3 in the figure is registered in a file.
図中■は、全ての音節が終了したか否かを判別する状態
を示す、YESの場合には、終了する。■ in the figure indicates a state in which it is determined whether or not all syllables have ended; if YES, the process ends.
Noの場合には、図中■以下を繰り返し実行する。In the case of No, repeat the steps below (■) in the figure.
以上の手順によって、音声認識しようとする単語の全て
の音節テンプレート(例えば101種位)が音節テンプ
レート2としてファイルに登録される。Through the above procedure, all syllable templates (for example, 101 types) of the word to be voice recognized are registered in the file as syllable template 2.
第3図(ロ)は、音声認識しようとする単語の圧縮パタ
ーンを登録する手順を示す。図中0は、登録用のカナ表
記の単語をキー人力する状態を示す。これは、カナ表記
の単語例えば“トウキヨウ”を第11単語テンプレート
生成部3および平均音節数計算部4に対してキー人力し
て通知することを意味している。FIG. 3(b) shows a procedure for registering a compression pattern of a word to be voice recognized. 0 in the figure indicates a state in which a word in kana notation for registration is entered manually. This means that the 11th word template generation section 3 and the average syllable count calculation section 4 are notified of a word written in kana, for example, "Tokyo" by keystroke.
図中0は、音節数の平均値を計算する状態を示す。これ
は、第1図平均量節数計算部4が、キー人力されたカナ
表記の単語の音節数の平均値Nを計算することを意味し
ている。0 in the figure indicates a state in which the average value of the number of syllables is calculated. This means that the average number of syllables calculation unit 4 in FIG. 1 calculates the average number N of the number of syllables of the word in kana written manually.
図中@は、単語テンプレートを生成する状態を示す。こ
れは、第11単語テンプレート生成部3が、キー人力さ
れたカナ表記の単語例えば“トウキヨウ”に対応する音
節テンプレート2を組み合わせて単語テンプレート例え
ば第2図(イ)に示す単語テンプレートを生成すること
を意味している。In the figure, @ indicates a state in which a word template is generated. This means that the 11th word template generation unit 3 generates a word template, for example, the word template shown in FIG. 2 (a) by combining the syllable templates 2 corresponding to the key-generated word in kana notation, for example, "Tokyo". It means.
図中[相]は、圧縮パターンを作成する状態を示す。In the figure, [phase] indicates the state in which the compression pattern is created.
これは、第1図圧縮パターン作成部5が、平均音節数計
算部4から通知された平均音節数Nで、単語テンプレー
ト生成部3から通知された単語テンプレートを等分に分
割、例えば第2図(イ)に示すように、区間1から区間
3に等分に3分割し、この分割した各区間1から区間3
について、夫々第2図(ロ)に示すような圧縮パターン
を作成することを意味している。This means that the compressed pattern creation section 5 in FIG. As shown in (a), it is divided into three equal parts from section 1 to section 3, and each divided section 1 to section 3 is divided into three equal parts.
This means creating a compression pattern as shown in FIG. 2 (b), respectively.
図中■は、登録する状態を示す。これは、図中@で作成
した圧縮パターン6をファイルに登録することを意味し
ている。■ in the figure indicates the state to be registered. This means that the compressed pattern 6 created by @ in the figure is registered in the file.
以上の手順によって、音声認識しようとする単語の圧縮
パターン6が全て作成され、ファイルに登録される。Through the above procedure, all compressed patterns 6 of words to be speech recognized are created and registered in a file.
次に、第4図を用いて人力音声の認識候補を判定する手
順を詳細に説明する。Next, the procedure for determining recognition candidates for human speech will be explained in detail using FIG.
第4図において、図中■は、分析を行う状態を示す。こ
れは、入力音声の特徴を分析することを意味している。In FIG. 4, ■ indicates a state in which analysis is performed. This means analyzing the characteristics of the input voice.
図中0は、分割して圧縮パターンを作成する状態を示す
。これは、第1図圧縮パターン作成部8が、平均音節計
算部4から通知された平均音節数Nで人力音声を等分に
分割し、この分割した各区間について第2図(ロ)に示
すような圧縮パターンを作成することを意味している。0 in the figure indicates a state in which a compressed pattern is created by dividing. The compression pattern creation unit 8 in Figure 1 divides the human voice into equal parts by the average number of syllables N notified from the average syllable calculation unit 4, and each divided section is shown in Figure 2 (B). This means creating a compression pattern like this.
図中■は、照合する状態を示す。これは、第11照合部
9が図中0で作成した圧縮パターンと、第3図(ロ)図
中■で音声認識しようとして予め登録した圧縮パターン
6との間で照合を行い、下式を用いて一致度Sを算出す
ることを意味している。■ in the figure indicates a state to be compared. This is done by comparing the compressed pattern created by the 11th matching unit 9 at 0 in the figure with the compressed pattern 6 registered in advance for voice recognition in Figure 3 (b), and then formulating the following formula. This means that the degree of matching S is calculated using
ここで、fi(j)は音声認識しようとする圧縮パター
ン、f+’(j)は音声認識しようとして予め作成して
登録した圧縮パターン6、iは平均音節数N=3、jは
第2図(ハ)に示すように区間1から区間3の間におけ
る累積したスペクトラム強度の周波数方向の分割チャン
ネル数(20)を表す。Here, fi(j) is the compression pattern for speech recognition, f+'(j) is the compression pattern 6 created and registered in advance for speech recognition, i is the average number of syllables N=3, and j is the compression pattern shown in Figure 2. As shown in (c), it represents the number of divided channels (20) in the frequency direction of the accumulated spectrum intensity between section 1 and section 3.
図中[相]は、ソーティングする状態を示す。これは、
図中0で弐(1)を用いて算出した一致度の高い順(S
の小さい順)に並び変えることを意味している。In the figure, [phase] indicates the sorting state. this is,
In the figure, 0 indicates the highest degree of matching calculated using 2 (1) (S
This means to rearrange them in ascending order (from smallest to largest).
図中[相]は、判定する状態を示す。これは、図中[相
]で一致度の高い順に並び変えたもののうち、例えば先
頭から所定番目までのものを音声認識候補として判定す
ることを意味している。In the figure, [phase] indicates the state to be determined. This means that among the items rearranged in descending order of degree of matching according to [phase] in the figure, for example, the items from the beginning to a predetermined number are determined as speech recognition candidates.
以上のように、予め計算した平均音節数Nを用いて連続
した入力音声を時間軸上で分割し、この区間について夫
々生成した圧縮パターンを、予め登録した圧縮パターン
と照合して一致度の高いものを音声認識候補として判定
することにより、連続して人力された音声を音節単位に
区切る場合の難しさを解決し、圧縮パターンを容易に生
成して照合を行い、音声認識候補を判定することが可能
となる。As described above, continuous input speech is divided on the time axis using the pre-calculated average number of syllables N, and the compression patterns generated for each section are compared with the pre-registered compression patterns to find the one with a high degree of matching. By determining things as speech recognition candidates, it solves the difficulty of dividing continuous human-generated speech into syllable units, easily generates compressed patterns, performs matching, and determines speech recognition candidates. becomes possible.
以上説明したように、本発明によれば、音声認識しよう
とする単語群について予め求めた平均音節数Nで入力音
声を区切って圧縮パターンを生成し、この圧縮パターン
を予め登録した単語の圧縮パターンと照合して音声認識
候補を判定する構成を採用しているため、連続する入力
音声を音節毎に区切る難しさを解決し、容易かつ少ない
計算量で音声認識候補を判定することができる。As explained above, according to the present invention, a compression pattern is generated by dividing input speech by the average number N of syllables determined in advance for a group of words to be speech recognized, and a compression pattern of words in which this compression pattern is registered in advance. Since the system adopts a configuration in which speech recognition candidates are determined by comparing with the syllables, it is possible to solve the difficulty of dividing continuous input speech into syllables and to easily determine speech recognition candidates with a small amount of calculation.
第1図は本発明の原理構成図、第2図は圧縮バクーンの
作成説明図、第3図は圧縮パターン作成フローチャート
、第4図は入力音声の認識候補判定フローチャートを示
す。
図中、2は音節テンプレート、3は単語テンプレート生
成部、4は平均音節数計算部、5.8は圧縮パターン作
成部、6は圧縮パターン、9は照合部、10は判定部を
表す。FIG. 1 is a diagram illustrating the principle of the present invention, FIG. 2 is an explanatory diagram for creating a compression pattern, FIG. 3 is a flowchart for creating a compression pattern, and FIG. 4 is a flowchart for determining recognition candidates for input speech. In the figure, 2 represents a syllable template, 3 represents a word template generation unit, 4 represents an average syllable number calculation unit, 5.8 represents a compression pattern creation unit, 6 represents a compression pattern, 9 represents a collation unit, and 10 represents a determination unit.
Claims (1)
縮パターンと照合を行って音声認識候補を判定する音声
認識方式において、 音声認識しようとするカナ表記された単語群の平均音節
数Nを用いてこの単語について作成した単語テンプレー
トを分割し、この分割した区間毎に音声の特徴を表すよ
う予め作成した圧縮パターン(6)と、 入力された音声について、上記平均音節数Nで分割し、
この分割した区間毎に特徴を表す圧縮パターンを作成す
る圧縮パターン作成部(8)と、この圧縮パターン作成
部(8)によって作成された圧縮パターンと、上記圧縮
パターン(6)とを照合して一致度を算出する照合部(
9)とを備え、この照合部(9)によって算出された一
致度が高い単語を音声認識候補として判定するよう構成
したことを特徴とする音声認識方式。[Claims] In a speech recognition method in which speech recognition candidates are determined by extracting and compressing the features of input speech and comparing them with pre-registered compression patterns, a group of words written in kana to be speech recognized is provided. Divide the word template created for this word using the average number of syllables N, and use the compression pattern (6) created in advance to represent the characteristics of the voice for each divided section, and the average number of syllables for the input voice. Divide by number N,
A compressed pattern creating unit (8) creates a compressed pattern representing the characteristics for each divided section, and the compressed pattern created by this compressed pattern creating unit (8) is compared with the compressed pattern (6). The matching unit that calculates the degree of matching (
9), and is configured to determine words with a high degree of matching calculated by the matching unit (9) as speech recognition candidates.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9539087A JPS63261400A (en) | 1987-04-20 | 1987-04-20 | Voice recognition method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9539087A JPS63261400A (en) | 1987-04-20 | 1987-04-20 | Voice recognition method |
Publications (1)
Publication Number | Publication Date |
---|---|
JPS63261400A true JPS63261400A (en) | 1988-10-28 |
Family
ID=14136319
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP9539087A Pending JPS63261400A (en) | 1987-04-20 | 1987-04-20 | Voice recognition method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS63261400A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02135500A (en) * | 1988-11-17 | 1990-05-24 | Sekisui Chem Co Ltd | Talker recognizing system |
JPH02273797A (en) * | 1989-04-14 | 1990-11-08 | Sekisui Chem Co Ltd | Speaker recognition system |
JPH02273798A (en) * | 1989-04-14 | 1990-11-08 | Sekisui Chem Co Ltd | Speaker recognition system |
JPH02273800A (en) * | 1989-04-14 | 1990-11-08 | Sekisui Chem Co Ltd | Speaker recognition system |
JPH02273796A (en) * | 1989-04-14 | 1990-11-08 | Sekisui Chem Co Ltd | Speaker recognition system |
JPH02273799A (en) * | 1989-04-14 | 1990-11-08 | Sekisui Chem Co Ltd | Speaker recognition system |
JPH02304498A (en) * | 1989-05-18 | 1990-12-18 | Sekisui Chem Co Ltd | Word recognition system |
JPH02304500A (en) * | 1989-05-18 | 1990-12-18 | Sekisui Chem Co Ltd | Word recognition system |
JPH03111899A (en) * | 1989-09-26 | 1991-05-13 | Sekisui Chem Co Ltd | Voice lock device |
JPH03111898A (en) * | 1989-09-26 | 1991-05-13 | Sekisui Chem Co Ltd | Voice detection system |
JPH03157697A (en) * | 1989-11-16 | 1991-07-05 | Sekisui Chem Co Ltd | Word recognizing system |
-
1987
- 1987-04-20 JP JP9539087A patent/JPS63261400A/en active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02135500A (en) * | 1988-11-17 | 1990-05-24 | Sekisui Chem Co Ltd | Talker recognizing system |
JPH02273797A (en) * | 1989-04-14 | 1990-11-08 | Sekisui Chem Co Ltd | Speaker recognition system |
JPH02273798A (en) * | 1989-04-14 | 1990-11-08 | Sekisui Chem Co Ltd | Speaker recognition system |
JPH02273800A (en) * | 1989-04-14 | 1990-11-08 | Sekisui Chem Co Ltd | Speaker recognition system |
JPH02273796A (en) * | 1989-04-14 | 1990-11-08 | Sekisui Chem Co Ltd | Speaker recognition system |
JPH02273799A (en) * | 1989-04-14 | 1990-11-08 | Sekisui Chem Co Ltd | Speaker recognition system |
JPH02304498A (en) * | 1989-05-18 | 1990-12-18 | Sekisui Chem Co Ltd | Word recognition system |
JPH02304500A (en) * | 1989-05-18 | 1990-12-18 | Sekisui Chem Co Ltd | Word recognition system |
JPH03111899A (en) * | 1989-09-26 | 1991-05-13 | Sekisui Chem Co Ltd | Voice lock device |
JPH03111898A (en) * | 1989-09-26 | 1991-05-13 | Sekisui Chem Co Ltd | Voice detection system |
JPH03157697A (en) * | 1989-11-16 | 1991-07-05 | Sekisui Chem Co Ltd | Word recognizing system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2815579B2 (en) | Word candidate reduction device in speech recognition | |
EP0085543A2 (en) | Speech recognition apparatus | |
EP0146470A2 (en) | A text to speech system | |
EP0109190A1 (en) | Monosyllable recognition apparatus | |
JPS63261400A (en) | Voice recognition method | |
US4426551A (en) | Speech recognition method and device | |
JP3298658B2 (en) | Voice recognition method | |
JP2989231B2 (en) | Voice recognition device | |
JP2615643B2 (en) | Word speech recognition device | |
JPS58176698A (en) | Pattern matching system | |
JPH03179498A (en) | Voice japanese conversion system | |
JPS62144200A (en) | Continuous speech recognition device | |
JPH0830960B2 (en) | High speed voice recognition device | |
JP2615649B2 (en) | Word speech recognition device | |
JPS63192098A (en) | Standard pattern creation device for speech recognition | |
JPH0554678B2 (en) | ||
JPS6310840B2 (en) | ||
JPS60200296A (en) | Voice recognition equipment | |
JPS63124099A (en) | Generation of spectrum reference pattern | |
JPS63223696A (en) | Voice pattern generation system | |
JPH022159B2 (en) | ||
JPS595294A (en) | Voice recognition equipment | |
JPS6029797A (en) | Voice recognition equipment | |
JPS61184597A (en) | Preselection circuit for word voice recognition equipment | |
JPS6193500A (en) | Voice recognition equipment |