JPS5855995A - Voice recognition system - Google Patents

Voice recognition system

Info

Publication number
JPS5855995A
JPS5855995A JP56154501A JP15450181A JPS5855995A JP S5855995 A JPS5855995 A JP S5855995A JP 56154501 A JP56154501 A JP 56154501A JP 15450181 A JP15450181 A JP 15450181A JP S5855995 A JPS5855995 A JP S5855995A
Authority
JP
Japan
Prior art keywords
candidate
string
word
speech
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP56154501A
Other languages
Japanese (ja)
Other versions
JPH0210957B2 (en
Inventor
裕士 内田
健司 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP56154501A priority Critical patent/JPS5855995A/en
Publication of JPS5855995A publication Critical patent/JPS5855995A/en
Publication of JPH0210957B2 publication Critical patent/JPH0210957B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 本発明は、音声認識システム、特に音声分析装置によっ
て得られた情報にもとづいて、入力音声を複数の候補列
に変換しておき、単語辞書と少なくとも文法接続マトリ
クスとを索引して、上記候補列を意味のある単瞼列に変
換するようにし、文法チェックされた単語列として抽出
するようにして認識率を向上せしめた音声認識システム
に関するものである。
DETAILED DESCRIPTION OF THE INVENTION The present invention converts input speech into a plurality of candidate sequences based on information obtained by a speech recognition system, particularly a speech analysis device, and converts a word dictionary and at least a grammar connection matrix into a plurality of candidate sequences. The present invention relates to a speech recognition system that improves the recognition rate by indexing, converting the candidate string into a meaningful single eyelid string, and extracting the word string as a syntax-checked word string.

従来から音声amシステムにおいては、入力された音声
の音節について特徴辞書と照合をとり、類似度の高いカ
テゴリを認識結果として出方するようにされている。
Conventionally, in speech AM systems, syllables of input speech are checked against a feature dictionary, and categories with a high degree of similarity are output as recognition results.

しかし一般には各音節毎に一義的に当該音節のカテゴリ
を決定することはむづかしく必らずしも正しい認識結果
が得られるとは限らない。
However, it is generally difficult to unambiguously determine the category of each syllable, and correct recognition results may not always be obtained.

本発明は、上記の点を解決することを目的としており、
複数個の候補列を抽出しておいて、例えば日本語として
意味のある単Mをつらねた単語列を抽出するようにし、
tlt!IlJ率を向上せしめることを目的としている
。そして、そのため、本発明の音声g#システムは、音
声入力信号にもとづいて当咳音声入力信号を分析し当該
入力された音声を!1議する音声分析装置を有する音声
認識システムにおいて、上記音声分析装置が上記入力さ
れた音声を発声順に各音節毎に複数の候補音彫を抽出す
ると共に各候補音節に対応した類似度情報を附与するよ
う構成され、かつ上記各音節毎の候補音節のうちの1つ
を選んで組合わせた候補列を作成する候補列作成装置と
、候補列解析装置と該候補列解析装置によって抽出され
九単語列を格納する単語列バッファとがもうけられてな
り、上記候補列解析装置は、入力され良上記候補列にも
とづいて、少なくとも文法情報と頻度情報と単語情報と
を有する単語辞書を索引すると共に、抽出された単語に
ついて上記文法情報にもとづいて文法接続マトリクスを
索引しつつ、上記入力された候補列を、意味を有する単
語列に変換するよう構成され、上記入力された音声を単
語列に変換して出力すると共に各単語列に対して優先順
位を附与するようにしたことを特徴としている。以下図
面を参照しつつ説明する。
The present invention aims to solve the above points,
A plurality of candidate strings are extracted, and for example, a word string stringed with a single M that has meaning in Japanese is extracted.
tlt! The purpose is to improve the IlJ rate. Therefore, the audio g# system of the present invention analyzes the coughing audio input signal based on the audio input signal and outputs the input audio! In a speech recognition system having a speech analysis device, the speech analysis device extracts a plurality of candidate sound carvings for each syllable from the input speech in the order of pronunciation, and attaches similarity information corresponding to each candidate syllable. a candidate string generation device configured to select and combine one of the candidate syllables for each syllable, and a candidate string analysis device; A word string buffer for storing word strings is provided, and the candidate string analysis device indexes a word dictionary having at least grammatical information, frequency information, and word information based on the input candidate strings. , is configured to convert the input candidate string into a meaningful word string while indexing the grammatical connection matrix for the extracted words based on the grammatical information, and converts the input speech into a word string. The system is characterized in that it outputs the word strings and gives priority to each word string. This will be explained below with reference to the drawings.

第1図は本発明の一実施例全体構成図、第2図線第1図
図示の候補列作成装置の一実施例構成、第3図は第1図
図示の候補列解析装置の一実施例構成を示す。
FIG. 1 is an overall configuration diagram of an embodiment of the present invention, FIG. 2 is an embodiment of the configuration of the candidate string creation device shown in FIG. 1, and FIG. 3 is an embodiment of the candidate string analysis device shown in FIG. 1. Show the configuration.

第1図において、1はマイクロフォン、2は音声分析装
置であって従来公知の如く例えば周波数分析して特徴ノ
々ラメータを抽出し特徴辞書と照合する構成をもつもの
、3は音声分析装置2によって分析された例えば各単音
節毎の候補単音節を格納する音節候補バッファ、4は候
補列作成装置であって音節候補バッファ3に格納されて
いる候補単音節を入力音声の各単音節毎に1つ選択して
候補列を作成する候補列作成装置、5は候補列ノ(ツフ
ァ、6は候補列解析装置であって上記候補ダリノ(ツフ
ァの内容にもとづいて意味のある単語列を抽出するもの
、7は単語列〕(ツファであって抽出された単語列を格
納するもの、8は出力表示装置制御部、9はディスプレ
イを表わしている。
In FIG. 1, 1 is a microphone, 2 is a voice analysis device which has a conventionally known structure, for example, to perform frequency analysis to extract a feature parameter and check it with a feature dictionary, and 3 is a voice analysis device 2. A syllable candidate buffer 4 stores candidate monosyllables for each monosyllable that has been analyzed, and 4 is a candidate string creation device that stores candidate monosyllables stored in the syllable candidate buffer 3 for each monosyllable of input speech. 5 is a candidate string creation device that selects the candidate string and creates a candidate string; 5 is a candidate string analysis device that extracts a meaningful word string based on the content of the candidate string; , 7 is a word string] (a buffer for storing the extracted word string, 8 is an output display device control unit, and 9 is a display.

音声分析装置2としては、従来公知であるので具体的な
説明を省略するが、入力音声が今例えば7つの音節で構
成されているものとすると、各音節毎に候補単語節を類
似度情報を附して抽出するようにされる。図示の場合、
第1音節について、候補単音節「テ」、「ケ」、「へ」
、「工」力I抽出され、夫々の候補単音節についての類
似度情報が「1」・r2J、r!5JIr9Jとして抽
出されている。tた第2音節について、候補単音節「イ
」、「ピ」、「キ」、「ヒ」力I抽出され夫々の類似度
情報「o 」、r 3 J +、 r 4 J 、r 
5Jが抽出されている。
As the speech analysis device 2 is conventionally known, a detailed explanation will be omitted, but assuming that the input speech is composed of, for example, seven syllables, the speech analysis device 2 analyzes candidate word phrases for each syllable and generates similarity information. It is made to be attached and extracted. In the case shown,
Regarding the first syllable, candidate monosyllables "te", "ke", "he"
, "technical" force I is extracted, and the similarity information for each candidate monosyllable is "1" r2J, r! It is extracted as 5JIr9J. Regarding the second syllable t, the candidate monosyllables "i", "pi", "ki", "hi" are extracted and the respective similarity information "o", r 3 J +, r 4 J, r
5J is extracted.

候補列作成装置4は、第2図を参照して詳述されるが、
入力音声の各音・節について1つの候補単音にを選択す
る形で組合わせをつくり、上記類似度情報の合計値の小
さい順に並べた形で候補列「テイヤウサレル」、「ケイ
ヤウサレル」、「テイヤプサレル」、「テイヤウソレル
」、・・・・・・を作成する・ 候補列解析装置6は、第3図を参照して詳述されるが、
上記各候補列について意味のある単語のつながりを調べ
、その結果を単語列)くツファフに格納する。この場合
、上記候補列の抽出順序や後述する単語辞書中の単語に
ついての頻度情報などにもとづいて、得られた単語列に
対して優先順位を附与するようにされる。
The candidate sequence creation device 4 will be explained in detail with reference to FIG.
A combination is created by selecting one candidate single sound for each syllable/phrase of the input speech, and the candidate strings are arranged in descending order of the total value of the above similarity information: "Teiyausarel", "Keyausarel", "Teiyapusarel". The candidate sequence analysis device 6 will be described in detail with reference to FIG.
For each of the above candidate strings, we check the connections between meaningful words and store the results in a word string. In this case, priority is assigned to the obtained word strings based on the extraction order of the candidate strings and frequency information about words in a word dictionary, which will be described later.

出力表示装置制御部8は、上記単語列を文字・ぞターン
の形でディスプレイ9に表示せしめる。このとき上記優
先順位にしたがって順次表示するようにされる。
The output display device control unit 8 causes the display 9 to display the word string in the form of letters and turns. At this time, the images are displayed in order according to the priority order.

第2図は第1図図示の候補列作成装置の一実施例構成を
示す0図中の符号5は第1図に対応し、10−1ないし
10−7は夫々候補単音節群、。
FIG. 2 shows the structure of an embodiment of the candidate string creation device shown in FIG. 1. Reference numeral 5 in FIG. 1 corresponds to that in FIG. 1, and 10-1 to 10-7 are candidate monosyllable groups, respectively.

11−1ないし11−7は単音節読出し部、12は候補
列生成レジスタ、13は類似度加算部を表わしている。
Reference numerals 11-1 to 11-7 represent monosyllable reading sections, 12 a candidate string generation register, and 13 a similarity addition section.

単音節読出し部11−1ないし11−7は夫々の候補単
音節群から1つを読出して候補列生成レジスタ12に供
給する。このとき、例えば、各群l○−1ないし10−
7から先頭の各単音節を読出して「テイヤウサレル」を
取出し、次に群1O−1のみを第2の単音節として「ケ
イヤウサレル」を取出し、次に$10−1のみを先頭単
音節に戻し群10−2のみを第2の単音節にし「テ♂ヤ
ウサレル」を取出し、・・・・・・・・・・・・の如く
して、類似度の合計値がより小さいものとなると考えら
れるものをより先に取出すようにし、順次いわばすべて
の組合をつくる。候補列生成レジスタ12に生成された
候補列は、類似度加算部13によって類似度情報を加算
され、より小さい値となる候補列を順に候補列バッファ
5に格納する。
The monosyllable reading units 11 - 1 to 11 - 7 read one from each candidate monosyllable group and supply it to the candidate string generation register 12 . At this time, for example, each group l○-1 to 10-
Read each first monosyllable from 7 and take out "teiyausarel", then take out "keyausalel" with only group 1O-1 as the second monosyllable, then return only $10-1 to the first monosyllable. By making only 10-2 the second monosyllable and extracting "te♂yausarel", it is thought that the total value of similarity will be smaller. , and create all the unions one after another. The candidate sequences generated in the candidate sequence generation register 12 have similarity information added thereto by a similarity adder 13, and candidate sequences with smaller values are sequentially stored in the candidate sequence buffer 5.

第3図は、第1図図示の候補列解析装置の一実施例構成
を示す。図中の符号6.7は第1図に対応し、Gはゲー
ト、14は入力レジスタ、1δは解析処理部、16は単
語辞書、17は文法接続マ書検索装愛、20は!1ll
jIAチェック処理部、21は単語列チェック部を表わ
している。
FIG. 3 shows the configuration of an embodiment of the candidate sequence analysis device shown in FIG. Reference numerals 6 and 7 in the figure correspond to those in FIG. 1, G is a gate, 14 is an input register, 1δ is an analysis processing unit, 16 is a word dictionary, 17 is a grammar connection book search tool, and 20 is! 1ll
jIA check processing section 21 represents a word string checking section.

第1図図示の候補列バッファ5から1つの候補列が入力
レジスタ14にセットされ、解析処理部15によって処
理される。図示の場合、当該候補列の先頭から順に「テ
」、「イ」、「ヤ」、・・・・・・であることから、辞
書検索装置19を介して単語辞書16を索引し、最長一
致法と当該単語についての発生頻度とを組合わせた形の
最大評価法にもとづいて順に単語辞書16がら単語を読
出してくる。
One candidate string is set in the input register 14 from the candidate string buffer 5 shown in FIG. 1, and processed by the analysis processing section 15. In the case shown in the figure, since the candidate string is "te", "i", "ya", etc. in order from the beginning, the word dictionary 16 is indexed via the dictionary search device 19, and the longest matching Words are sequentially read out from the word dictionary 16 based on the maximum evaluation method, which is a combination of the modulus and the frequency of occurrence of the word.

なお、単語辞書16は、読み22、単語情報23、文法
情報24、意味情報25、頻度情報26などがl#lと
して格納されている。
Note that the word dictionary 16 stores readings 22, word information 23, grammatical information 24, meaning information 25, frequency information 26, etc. as l#l.

図示の場合には、例えば「体」、「底」、「手」など0
*譜が読出され、夫々の単語についての文法情報が一緒
に読出される。次いで「体」や「底」に対応して単語「
や」が、また「手」に対応して「いや」や「い」が読出
されてくる。そして、接続チェック処理部20を介して
、文法接続チェックや意味接続チェックが行なわれる。
In the case of illustrations, for example, "body", "bottom", "hand", etc.
*The staff is read out, and the grammatical information about each word is read out as well. Next, the word “body” and “bottom” correspond to “body” and “bottom”.
``ya'' is read out, and ``ya'' and ``i'' are read out in correspondence with ``hand''. Then, a grammatical connection check and a semantic connection check are performed via the connection check processing section 20.

第3図図示の解析処理部15内に図示したものは、単語
間の接続の態様を表わしており、「体」−「や」は接続
が可能であることを示し、「手」−+「いや」は接続が
不可であることを表わしている。
What is illustrated in the analysis processing unit 15 shown in FIG. 3 represents the mode of connection between words, and "body" - "ya" indicates that connection is possible, "hand" - + ""No" indicates that connection is not possible.

なお文法接続マ) IJクス17は、縦軸・横軸に文法
情報を並べたマトリクスによって構成されているものと
考えてよく、図示の場合には、例えば(+)文法情報「
1」をもつ単語は文法情報「53」をもつ単語と文法的
に接続せず(論理「O」)、<1)文法情報「3」をも
つ単語は文法情報「53」をもつ単語と文法的に接続可
能であシ(論理「1」)、(lit)文法情報「53」
をもつ単語は文法情報「44」をもつ単語と接続可能で
あり、・・・・・・・・・・・・を示している。このた
め、例えば辞書16から、(1)文法情報「3」をもつ
単語「形容」が読出され、(■)次いで文法情報「53
」をもつ単語「され」が読出され、(−)次いで文法情
報「44」をもつ単fj「る」が読出された場合には、
文法接続マトリクス17を索引した結果において、「形
容−され−る」が1つの文法接続可能なものとして得ら
れる。なお、文法接続マトリクス17を用いた文法チェ
ックの態様については、特願昭54−92270号に開
示されている。
The IJ box 17 can be thought of as a matrix in which grammatical information is arranged on the vertical and horizontal axes.
Words with grammatical information ``1'' are not grammatically connected to words with grammatical information ``53'' (logical ``O''), and <1) words with grammatical information ``3'' are grammatically connected to words with grammatical information ``53''. (Logic "1"), (lit) Grammar information "53"
A word with ``44'' can be connected to a word with grammatical information ``44'', indicating . Therefore, for example, from the dictionary 16, (1) the word "adjective" with grammatical information "3" is read out, (■) and then the word "adjective" with grammatical information "53" is read out.
” is read out, and then the single fj “ru” with (-) and grammatical information “44” is read out,
As a result of indexing the grammar connection matrix 17, "adjective" is obtained as one grammar connection possible. Note that the aspect of grammar checking using the grammar connection matrix 17 is disclosed in Japanese Patent Application No. 54-92270.

また意味接fiff)+3クス1Bは、文法接続マトリ
クス1フの場合と同様な形で、縦軸・横軸に意味情報を
並べたマトリクスと考えてよく、意味的に接続可能な単
語間に対応して交点上に論理「1」が記述されている。
In addition, semantic conjunction fiff) + 3x 1B can be thought of as a matrix in which semantic information is arranged on the vertical and horizontal axes, in the same form as the grammatical connection matrix 1f, and there are correspondences between words that can be semantically connected. Logic "1" is written on the intersection point.

該意味接続マトリクスを用いた意味チェックについては
、特願昭56−102636号に開示されており、具体
的な説明を省略する。
The semantic check using the semantic connection matrix is disclosed in Japanese Patent Application No. 102636/1982, and a detailed explanation thereof will be omitted.

第3図図示の解析処理部15は、上述の如く、単語辞書
16を索引し、文法接続マ) IJクスlフや意味接続
マトリクス18を索引しては、入力された候補列を、意
味のある単語列にしてゆく処理を行なう。そして1つの
候補列についての処理が終了すると、次の候補列を入力
レジスタ14にセツトするようゲー)Gを制御し、かつ
得られた意味のある単語列を単語列バッファ7に格納す
る。
As described above, the analysis processing unit 15 shown in FIG. Perform processing to form a certain word string. When the processing for one candidate string is completed, the game controller G is controlled to set the next candidate string in the input register 14, and the obtained meaningful word string is stored in the word string buffer 7.

このとき、得られた単語列について優先順位をあわせて
附加するようにされる。なお、解析処理部15の構成に
ついては、特願昭54−92271号に開示されている
At this time, the obtained word string is added according to its priority order. The configuration of the analysis processing section 15 is disclosed in Japanese Patent Application No. 1983-92271.

第2図図示の如き候補単音節群10−1ないし10−7
が得られている場合には、結果的K、「形容される」や
「併用される」・・・・・・・・・・・・などが単語列
バツファフ内にセットされることとなろう。
Candidate monosyllable groups 10-1 to 10-7 as shown in FIG.
If this is obtained, the resultant K, such as ``described'' or ``used in conjunction with'', etc., will be set in the word string BUTSUFF. .

以上説明した如く、本発明によれば、音声分析装置によ
る分析結果について、文法的に更には必要に応じて意味
的にチェックされて、意味の有る単語列として抽出する
ことができ、音声分析装置のみによる認識率にくらべて
、認識率が大きく向上される。
As explained above, according to the present invention, the analysis result by the speech analysis device can be checked grammatically and semantically if necessary, and extracted as a meaningful word string. The recognition rate is greatly improved compared to the recognition rate obtained only by using this method.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の一実施例全体構成図、第2図は第1図
図示の候補列作成装置の一実施例構成、第3図は第1図
図示の候補列解析装置の一実施例構成を示す。 図中、2は音声分析装置、4は候補列作成装置、6は候
補列解析装置、7は単語列バッファ、15は解析処理部
、16は単語辞書、1フは文法接続マトリクス、18は
意味接続マトリクス、19は辞書検索装置、20は接続
チェック処理部を表わす。 特許出駁人 富士通株式会社
FIG. 1 is an overall configuration diagram of an embodiment of the present invention, FIG. 2 is a configuration diagram of an embodiment of the candidate string creation device shown in FIG. 1, and FIG. 3 is an embodiment of the candidate string analysis device shown in FIG. 1. Show the configuration. In the figure, 2 is a speech analysis device, 4 is a candidate string creation device, 6 is a candidate string analysis device, 7 is a word string buffer, 15 is an analysis processing unit, 16 is a word dictionary, 1f is a grammar connection matrix, and 18 is a meaning A connection matrix, 19 a dictionary search device, and 20 a connection check processing unit. Patent issuer Fujitsu Limited

Claims (1)

【特許請求の範囲】[Claims] 音声入力信号にもとづいて当該音声入力信号を分析し尚
該入力され喪音声を認識する5、音声分析装置を有する
音声認識システムにおいて、上記音声分析装置が上記入
力された音声を発声INK各音節毎に複数の候補音節を
抽出すると共に各候補音節に対応した類似度情報を附与
するよう構成され、かつ上記各音節毎の候補音節のうち
の1つを選んで組合わせた候補列を作成する候補列作成
装置と、候補列解析装置と咳候補列解析装置によって抽
出された単語列を格納する単語列バッファとがもうけら
れてな夛、上記候補列解析装置は、入力された上記候補
列にもとづいて、少なくとも文法情報とS*情報と単語
情報とを有する単語辞書を索引すると共に、抽出された
単語について上記文法情報にもとづいて文法接続マトリ
クスを索引しつつ、上記入力された候補列を、意味を有
する単語列に変換するよう構成され、上記入力された音
声を単語列に変換して出力すると共に各単語列に対して
優先順位を附与するようにしたことを特徴とする音声認
識システム。
5. In a speech recognition system having a speech analysis device, the speech analysis device analyzes the input speech signal based on the speech input signal and recognizes the input mourning speech. The system is configured to extract a plurality of candidate syllables and provide similarity information corresponding to each candidate syllable, and create a candidate string by selecting and combining one of the candidate syllables for each syllable. A candidate string creation device and a word string buffer for storing word strings extracted by the candidate string analysis device and the cough candidate string analysis device are provided, and the candidate string analysis device is configured to perform processing based on the input candidate string. Based on this, while indexing a word dictionary having at least grammatical information, S* information, and word information, and indexing a grammatical connection matrix for the extracted words based on the grammatical information, the input candidate string is A speech recognition system configured to convert the input speech into a word string having a meaning, converting the input speech into a word string and outputting the same, and assigning a priority to each word string. .
JP56154501A 1981-09-29 1981-09-29 Voice recognition system Granted JPS5855995A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP56154501A JPS5855995A (en) 1981-09-29 1981-09-29 Voice recognition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP56154501A JPS5855995A (en) 1981-09-29 1981-09-29 Voice recognition system

Publications (2)

Publication Number Publication Date
JPS5855995A true JPS5855995A (en) 1983-04-02
JPH0210957B2 JPH0210957B2 (en) 1990-03-12

Family

ID=15585616

Family Applications (1)

Application Number Title Priority Date Filing Date
JP56154501A Granted JPS5855995A (en) 1981-09-29 1981-09-29 Voice recognition system

Country Status (1)

Country Link
JP (1) JPS5855995A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6078495A (en) * 1983-10-05 1985-05-04 松下電器産業株式会社 Big vocabulary word recognition equipment
JPS60130798A (en) * 1983-12-19 1985-07-12 松下電器産業株式会社 Voice indentifier
US4908864A (en) * 1986-04-05 1990-03-13 Sharp Kabushiki Kaisha Voice recognition method and apparatus by updating reference patterns
US4926483A (en) * 1983-11-15 1990-05-15 Nec Corporation Pattern recognition system using hueristic search technique
US5054084A (en) * 1986-04-05 1991-10-01 Sharp Kabushiki Kaisha Syllable recognition system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5617468A (en) * 1979-07-20 1981-02-19 Fujitsu Ltd *kana* japanese syllabary *kanji* chinese character converter
JPS5617467A (en) * 1979-07-20 1981-02-19 Fujitsu Ltd Word-to-word connection approval unit
JPS5680770A (en) * 1979-12-04 1981-07-02 Dainippon Printing Co Ltd "kanji" (chinese character) input device for print

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5617468A (en) * 1979-07-20 1981-02-19 Fujitsu Ltd *kana* japanese syllabary *kanji* chinese character converter
JPS5617467A (en) * 1979-07-20 1981-02-19 Fujitsu Ltd Word-to-word connection approval unit
JPS5680770A (en) * 1979-12-04 1981-07-02 Dainippon Printing Co Ltd "kanji" (chinese character) input device for print

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6078495A (en) * 1983-10-05 1985-05-04 松下電器産業株式会社 Big vocabulary word recognition equipment
US4926483A (en) * 1983-11-15 1990-05-15 Nec Corporation Pattern recognition system using hueristic search technique
JPS60130798A (en) * 1983-12-19 1985-07-12 松下電器産業株式会社 Voice indentifier
US4908864A (en) * 1986-04-05 1990-03-13 Sharp Kabushiki Kaisha Voice recognition method and apparatus by updating reference patterns
US5054084A (en) * 1986-04-05 1991-10-01 Sharp Kabushiki Kaisha Syllable recognition system

Also Published As

Publication number Publication date
JPH0210957B2 (en) 1990-03-12

Similar Documents

Publication Publication Date Title
US6134528A (en) Method device and article of manufacture for neural-network based generation of postlexical pronunciations from lexical pronunciations
CN112352275A (en) Neural text-to-speech synthesis with multi-level textual information
US20080027725A1 (en) Automatic Accent Detection With Limited Manually Labeled Data
KR101424193B1 (en) System And Method of Pronunciation Variation Modeling Based on Indirect data-driven method for Foreign Speech Recognition
US6963832B2 (en) Meaning token dictionary for automatic speech recognition
JPS5855995A (en) Voice recognition system
CN109859746B (en) TTS-based voice recognition corpus generation method and system
JP2002278579A (en) Voice data retrieving device
Szarvas et al. Evaluation of the stochastic morphosyntactic language model on a one million word hungarian dictation task.
JP3378547B2 (en) Voice recognition method and apparatus
Liu et al. The imu speech synthesis entry for blizzard challenge 2019
Phaiboon et al. Isarn Dharma Alphabets lexicon for natural language processing
JPS5958493A (en) Recognition system
KR920009961B1 (en) Unlimited korean language synthesis method and its circuit
JPH0552506B2 (en)
JP2003131679A (en) Device and software for voice output using spoken language
JP3001334B2 (en) Language processor for recognition
CN117711370A (en) Phonetic notation method and device, voice synthesis system, storage medium and electronic equipment
KR0175247B1 (en) Text conversion method for speech synthesis
Tursun et al. Large vocabulary continuous speech recognition in Uyghur: data preparation and experimental results
Silamu et al. HMM-based uyghur continuous speech recognition system
JPS6162166A (en) Japanese language sentence writing device
JPH0916575A (en) Pronunciation dictionary device
CN114495939A (en) Neural voice transliteration method based on distinctive features
JPS61256396A (en) Voice recognition equipment