JPS5955576A - Word recognizing system - Google Patents

Word recognizing system

Info

Publication number
JPS5955576A
JPS5955576A JP57164936A JP16493682A JPS5955576A JP S5955576 A JPS5955576 A JP S5955576A JP 57164936 A JP57164936 A JP 57164936A JP 16493682 A JP16493682 A JP 16493682A JP S5955576 A JPS5955576 A JP S5955576A
Authority
JP
Japan
Prior art keywords
similarity
word
standard
resemblance
dictionary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP57164936A
Other languages
Japanese (ja)
Inventor
Kenichi Maeda
賢一 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Tokyo Shibaura Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Tokyo Shibaura Electric Co Ltd filed Critical Toshiba Corp
Priority to JP57164936A priority Critical patent/JPS5955576A/en
Publication of JPS5955576A publication Critical patent/JPS5955576A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Character Discrimination (AREA)

Abstract

PURPOSE:To recognize words with high accuracy, by obtaining the 1st resemblance for each element pattern of input data and then the 2nd resemblance between the order of array of element patterns and the standard array of a word dictionary from the standard element pattern of an element disctionary. CONSTITUTION:The 1st resemblance is obtained by calculating 31 the composite resemblance to each standard element for each element pattern forming the words to be recognized which are given from an input part 1 on the bais of the data stored in an element dictionary 2. This 1st resemblance is obtained. edited 32 and stored 33 in the form of a matrix expression. A word dictionary 4 stores the numbers (category names) of standard element patterns related to each other with each array order of the standard element patterns in terms of each standard word consisting of plural categories. Using the dictionary 4, the 2nd resemblance is calculted from the 1st resemblance expressed in a matrix and then delivered. A deciding part 6 decides the category of the word to be recognized from the degree of the 2nd resemblance. Thus the recognition factor is improved for each words although the 1st resemblance is low, which is suitably applied to recognition of characters or aural words.

Description

【発明の詳細な説明】 〔発明の技術分野〕 本発明は文字読取装置や音声タイプライタ−に適した単
語認識方式に関する。
DETAILED DESCRIPTION OF THE INVENTION [Technical Field of the Invention] The present invention relates to a word recognition method suitable for character reading devices and voice typewriters.

〔発明の技術的背景とその問題点〕[Technical background of the invention and its problems]

漢字や音声の認識技術は最近急速に進歩している。しか
し認識率を見ると従来の数字認識装置と比較して、まだ
十分とは言えない。このため単語としての冗長性を利用
した単語認識技術が重要である。単語認識技術の一例と
して、例えば同一出願人により特願昭56−13816
3号等が提案されている。
Kanji and speech recognition technology has been rapidly progressing recently. However, when looking at the recognition rate, it is still not sufficient compared to conventional digit recognition devices. For this reason, word recognition technology that utilizes word redundancy is important. As an example of word recognition technology, for example, Japanese patent application No. 56-13816 filed by the same applicant
No. 3 etc. have been proposed.

一方パターン認識技術として、さらに同一発明者により
特願昭56−63844号等が提案されている。この方
式はパターンの認識のために類似度のマトリックスを用
いるものであった。
On the other hand, as a pattern recognition technique, Japanese Patent Application No. 56-63844 and the like have been proposed by the same inventor. This method used a similarity matrix for pattern recognition.

しかし前者の発明は単語の一致度計算の融通性が弱く、
規定された順位以内に文字または音素パターン(以下要
素パターンという)が候補カテゴリとして選出される必
要があり、要素パターン同志の類似性が利用できなかっ
た。また後者の発明は単語は各要素パターンのカテゴリ
数が多いという単語認識の特殊性に対、yる工夫が欠け
ていた。
However, the former invention lacks flexibility in word matching calculations;
Characters or phoneme patterns (hereinafter referred to as element patterns) must be selected as candidate categories within a specified ranking, and similarities between element patterns cannot be used. Furthermore, the latter invention lacked any ingenuity to deal with the special nature of word recognition in that words have a large number of categories for each element pattern.

〔発明の目的〕[Purpose of the invention]

本発明は前記事情を考慮してなされたものであり、その
目的は融通性があり、比較的少量のハードウェアで実現
できる実用性の高い単語認識方式を提供することにある
The present invention has been made in consideration of the above circumstances, and its purpose is to provide a highly practical word recognition method that is flexible and can be implemented with a relatively small amount of hardware.

〔発明の概要〕[Summary of the invention]

本発明の特徴の一つは前記特願昭56−63844号の
発明のマトリックスの概念全周いる点にある。
One of the features of the present invention is that it fully incorporates the matrix concept of the invention disclosed in Japanese Patent Application No. 56-63844.

即ち単語のある位置(配列順位)にある要素パターンが
各要素カテゴリに対して似゛Cいる度合いを第1の類似
度で表現し、位置と要素カテゴリとの一方を行、他力を
列とする第1の類似度のマトリックスで単語を表現する
ものである。このマトリックスは老素カテゴリの数が多
い場合には大きなものになるが、成分は全てが値奢持つ
訳ではない。
In other words, the degree to which an element pattern at a certain position (arrangement order) of a word is similar to each element category is expressed as a first degree of similarity, and one of the positions and element categories is expressed as a row, and the other is expressed as a column. Words are expressed using a first similarity matrix. This matrix becomes large when there are many elementary categories, but not all components have luxurious values.

従って第1図(a)に示すようにマトリックスの全てを
記憶する必要はなく、(b)に示すように0でない成分
とその行または列の番号とを組にして表現するほうが効
率が良い場合がある0そして、単語認識のため、上記第
1の類(U度を用いて第2の類似度を計算する0この第
2の類似度としては、単語辞書に存在する単語の要素の
位置(配列順位)毎に、少なくとも1個以上の要素の力
゛テゴリに対する第1の類似度の係数和を2乗したもの
を該位置毎の第1の類似度の2乗和と該係数の2乗和と
で割ったものの総和を用いる。
Therefore, as shown in Figure 1 (a), it is not necessary to memorize the entire matrix; instead, as shown in Figure 1 (b), there are cases where it is more efficient to represent the non-zero component and its row or column number as a pair. 0 Then, for word recognition, a second similarity is calculated using the first class (U degree) 0 This second similarity is calculated based on the position of the word element in the word dictionary ( For each position (array order), the sum of the squares of the coefficients of the first similarity for the power category of at least one element is calculated as the sum of the squares of the first similarity for each position and the square of the coefficient. Use the sum of the sum divided by the sum.

〔発明の効果〕〔Effect of the invention〕

これにより前記特願昭56−138163号の欠点であ
った単語の一致度の計算に融通性を持たせ、各要素パタ
ーンの類似性を利用することができる。
This makes it possible to provide flexibility in calculating the degree of matching between words, which was a drawback of the Japanese Patent Application No. 56-138163, and to utilize the similarity of each element pattern.

また、要素カテゴリ数が多い場合にマトリックス)が大
きくなるのを防ぐこともできる。
It is also possible to prevent the matrix from becoming large when there are many element categories.

〔発明の実施例〕[Embodiments of the invention]

以下に図面を参照しながら本発明の具体的実施例につい
て説明する○ 第2図(a) 、 (b)に木1発明の実施例をフロー
ブーヤードおよびブロック図で示す。まず単語の各位置
の要素パターンの類似度(第1の類似度)を従来から知
られている方法で計算する。ここでは複合類似度を用い
るのが現在のところ最も有効であると考えられる。
Specific embodiments of the present invention will be described below with reference to the drawings. Figs. 2(a) and 2(b) show an embodiment of the present invention in flow diagrams and block diagrams. First, the degree of similarity (first degree of similarity) between element patterns at each position of a word is calculated using a conventionally known method. It is currently considered that the use of composite similarity is the most effective here.

この結果、類似度のマトリックスが出来るが、これを全
て記憶するには多くのメモリーを必要とする場合がある
。例えば複数の漢字がら成る単語を認識する場合がこれ
に相当し、1単語あたり数千ワードのメモリーが必要で
ある。しがし一般には第1の類似度は全ての漢字カテゴ
リーについて計算される訳ではないので、マトリックス
の要素はほとんど0になっている。従って後述のように
第2の類似度を”計算する際に工夫をすれば、マトリッ
クスを第1図(b)に示すような表現形式で記憶すれば
良い。
The result is a similarity matrix, which may require a lot of memory to store all of it. For example, this is the case when recognizing a word consisting of multiple kanji characters, which requires several thousand words of memory per word. Generally speaking, the first degree of similarity is not calculated for all kanji categories, so most of the elements in the matrix are zero. Therefore, if some effort is made when calculating the second degree of similarity as will be described later, the matrix may be stored in an expression format as shown in FIG. 1(b).

次に単語単位の類似度(第2の類似度)を計算する0こ
の計算は原理的には前記マトリックス同志の類似度計算
である○ 次に同様のマトリックスで表現された単語辞書との間で
第2の類似度を計算する。
Next, calculate the word-by-word similarity (second similarity). This calculation is, in principle, a similarity calculation between the matrices. Next, calculate the similarity between the two matrices. Calculate a second similarity.

第2の類似度は、単語辞書に存在する単語の要素の位置
ごとに少なくとも1個以上の要素のカテゴリに対する第
1の類似度の係数和を2乗したものを該位置ごとの類似
度の2乗和と該係数の2乗和とで割ったものの総和であ
る。これを数式で表■、(k)は、 & fL Zy oユ、覗呪ヶヶ5.8(、、(k))
、□、〕ヶ要素ごとの第1の類似度とすると、 はに番目の単語のγ番目の位置における部分的類似度で
ある。
The second degree of similarity is calculated by multiplying the sum of coefficients of the first degree of similarity for at least one element category for each position of the word element in the word dictionary to the second power of the degree of similarity for each position. It is the sum of the sum of the multiplications and the sum of the squares of the coefficients. This can be expressed as a mathematical formula.
, □, ] is the partial similarity at the γ-th position of the h-th word.

なお、R(k>はカテゴリにの単語の長さく配列順位数
)、 fJr  は位置γの要素パターン、α(k)は
カテゴリにの(標準)単語に関連する要素の種類の集合
を示す。
Note that R (k> is the length and arrangement rank number of words in the category), fJr is the element pattern at position γ, and α(k) is a set of element types related to (standard) words in the category.

この場合、単語の長さはまちまちであるから一般に単語
の長さが大きい単語の第2の類似度は大きくなる傾向に
あり、」−記総和を単語の長さで正規化するほうが良い
場合もある。このとき正規化された第2の類似度として
は となる。このような第2の類似度を用いることにより、
たまたまある特定の要素カテゴリに対する類似度が計算
されていないような場合でも似た要素の類似度によって
救われる可能性がある。なぜならば、似た要素に対する
類似度はもともと近い値を持っていると考えられるので
、前記係数として似た要素に対応して適当な値を周忌す
ることができるからである。この似た要素に対する係数
によって、前記部分的類似度はOでない適渦な値を持つ
ことができる。
In this case, since word lengths vary, the second similarity tends to be larger for words with larger word lengths, so it may be better to normalize the summation by the word length. be. At this time, the normalized second similarity is as follows. By using such second similarity,
Even if it happens that the similarity for a certain element category has not been calculated, it may be saved by the similarity of similar elements. This is because the degrees of similarity for similar elements are considered to have close values to begin with, so it is possible to set an appropriate value as the coefficient corresponding to the similar elements. Due to the coefficients for the similar elements, the partial similarity can have a suitable value other than O.

また、前述のように単語認識では要素カテゴリが多くな
るので、マトリックスを全て記憶しておくのには多くの
メモリーが必要となる。本発明は、マトリックスを全て
記憶していない場合でも第2の類似度が計算できる。以
下、マトリックスを第1図(b)の形式で記憶した場合
の実施例について第3図のフローチャートも参照して説
明する0第2図(b)において、月ま入力部であり、音
声入力の場合には、マイクロホン、音響処理回路等で構
成され、文字入力の場合には九電走査部、前処理回路等
で#1成される。
Furthermore, as mentioned above, word recognition involves a large number of element categories, so a large amount of memory is required to store all the matrices. According to the present invention, the second similarity can be calculated even when the entire matrix is not stored. Hereinafter, an embodiment in which the matrix is stored in the format shown in FIG. 1(b) will be explained with reference to the flowchart in FIG. In the case of inputting characters, it consists of a microphone, a sound processing circuit, etc., and in the case of character input, it consists of a Kyuden scanning section, a pre-processing circuit, etc.

2は、複数種の標準要素パターンのそれぞれについてそ
の粍部・を示すデータを収容した要素辞書である。被認
識単語が音声単語である場合には、例えばこの即語庖構
成する母上ノ(ターンや1七)くターンが要素パターン
として用いられる0被認識学飴が漢字用語からなる場合
には、例えば漢字用語を構成する個々の漢字ノ;ターン
が要素/くターンとして用いられる。したがって、被認
識単語は複数の要素パターンからなり、こiLらは所定
の配列順位(時間的順序もしぐは空間的位骸、)ヲ持つ
Reference numeral 2 denotes an element dictionary containing data indicating the periphery of each of a plurality of types of standard element patterns. If the word to be recognized is a phonetic word, for example, the mother's turn (turn or 17) that makes up this sokugoko is used as an element pattern.0 If the word to be recognized is composed of kanji terms, for example, Individual kanji turns that make up a kanji term are used as elements/turns. Therefore, the word to be recognized is composed of a plurality of element patterns, and these iL have a predetermined arrangement order (temporal order or spatial order).

3は第1の類似度計算部であり、複合類似度NI算回路
31.編集回路32.及びマトリックス記憶回路33と
により構成される。回路31は例えば特許第73989
0号に示された複合類似度Mi算回路が用いられる。入
力部lより得られた被認識単語を構成する各要素パター
ン毎に、贋素辞譬12内のデータを用いて、各標準要素
との間の複合類似度を創a−シこれ金弟1の類似度とし
ている0イ0られた第1の類似度は編集回路32により
編集され、第1図(b)のようなマトリックス表現で回
路33に@’き込まれる0この場合、編集回路32が例
えば各位置毎に類似度値の上位n個以外については第1
の類似度がOであるとして編集したり、あるいは特定の
カテゴリについて最大類(IJ度イ111とその次に大
きい類似度値の差が著しく太きいものについては最大類
似度値のみ記憶するようにしてもよい。
3 is a first similarity calculation unit, which includes a composite similarity NI calculation circuit 31. Editing circuit 32. and a matrix storage circuit 33. For example, the circuit 31 is disclosed in Patent No. 73989.
The composite similarity Mi arithmetic circuit shown in No. 0 is used. For each element pattern constituting the recognized word obtained from the input part l, use the data in the fake dictionary 12 to create a composite similarity with each standard element. The first similarity, which is 0, is edited by the editing circuit 32 and entered into the circuit 33 in a matrix representation as shown in FIG. 1(b).In this case, the editing circuit 32 For example, for each position other than the top n similarity values, the first
For a specific category, edit it as if the similarity is O, or store only the maximum similarity value for a specific category where the difference between the maximum similarity value (IJ degree I111 and the next largest similarity value is extremely large). You can.

4は単語辞書であり、複数カテゴリからなる各標準単語
について、その標準単語を構成する標準要素パターンの
配列順位(位置)毎に、関連する少なくとも1以上の標
準要素パターンの番号(カテゴリ名)を示す情報を記憶
している。
4 is a word dictionary that stores, for each standard word consisting of multiple categories, the number (category name) of at least one related standard element pattern for each arrangement order (position) of the standard element patterns constituting the standard word. The information shown is memorized.

5は、第2の類似度割算部であり、第3図に示すフロー
チャートに従って各カテゴリ毎の第2の類似度を計算す
る。
5 is a second similarity dividing unit, which calculates the second similarity for each category according to the flowchart shown in FIG.

カテゴ’J kの標準単語に対する被認識単語の第2の
類似度は、まず単語辞書4より位Nノの要素番号tv、
取り出し、tキ0であれば、マトリックス記憶回路33
より位置I、要素番号lの第1の類似度s(A[L〕 
x取り出し、(2)式に従って位置1における部分的類
似度U、(k)y、求める。以下位置γf2,3.・・
、 R(k)と順次変更して同様に各位置での部分的類
似度UγCk)を求め、これらの総和k (1)式に従
って削aすれば第2の類似度が得られる0 再び第2図(b)において、6は決定部であり、第2の
類似度!I算部5により得られた第2の類似度の大小関
係によって被認識単語のカテゴリを決定する。
The second degree of similarity of the recognized word to the standard word of category 'J k is first calculated by the element number tv of rank N from the word dictionary 4,
If the t key is 0, the matrix storage circuit 33
The first similarity s(A[L] of position I and element number l
x is extracted, and partial similarity U, (k)y at position 1 is determined according to equation (2). The following positions γf2, 3.・・・
, R(k) to obtain the partial similarity UγCk) at each position in the same way, and remove the total sum k according to equation (1) to obtain the second similarity 0. In figure (b), 6 is the determination part, and the second similarity! The category of the word to be recognized is determined based on the magnitude relationship of the second degree of similarity obtained by the I calculation unit 5.

したがって、本発明によ第1は要素パターン個々の認識
率が低い場合でも単語単位の認識を極めて高精度で行な
うことができる。
Therefore, firstly, according to the present invention, word-by-word recognition can be performed with extremely high accuracy even when the recognition rate of each element pattern is low.

本発明は」1記実施例に限られるものではない。The present invention is not limited to the first embodiment.

例えば、マ) IJソックス記憶形式は第4図に示すも
のを用いることができる。また要素パターンとしては音
素パターン、音節パターン等を用いることができる。
For example, the IJ sock storage format shown in FIG. 4 can be used. Further, as the element pattern, a phoneme pattern, a syllable pattern, etc. can be used.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図はマトリックスの表現形式を説明するための図、
第2図(a) 、 (b)は本発明の詳細な説明するた
めのフローチャートおJ:びブロック図、第3図は第2
の類似度の剖q方式を説、明するだめのフローチャート
、第4図はマトリックスの記+、ぐ形式の他の一例を示
す図である。 1・・入力部、2・・・要素辞書、3・・第1の類似度
計算部、4・・単語辞書、5・・第2の類似度!l(1
1fil、6・・・決定部。 も 第  2  図 (b)
Figure 1 is a diagram for explaining the representation format of a matrix.
FIGS. 2(a) and 2(b) are flowcharts and block diagrams for explaining the present invention in detail, and FIG.
FIG. 4 is a flowchart for explaining the similarity analysis method. FIG. 4 is a diagram showing another example of the matrix notation format. 1... Input section, 2... Element dictionary, 3... First similarity calculation section, 4... Word dictionary, 5... Second similarity! l(1
1fil, 6...Decision section. Figure 2 (b)

Claims (3)

【特許請求の範囲】[Claims] (1)配列順位を持つ複数の要素パターンによって構成
された被認識単語を入力する手段と。 複数種の標準要素パターンのそれぞれについてその特徴
を示すデータ全収容した要素辞書と。 この要素辞書内のデータを用いて前記入力単語全構成す
る各入力要素パターン毎に各標準要素パターンとの間の
類似性を示す第1の類似度を計算する第1割算手段と。 この手段により得られた第1の類似度のそれぞれを前記
入力要素パターンの配列順位及び標準要素パターンの種
類と対応付けて記憶する手段と。 複数カテゴリの標準単語のそれぞれについて、その標準
単語を構成する標準要素パターンの配列順位毎に関連す
る少なくとも1以上の標準要素パターンの種類を示す情
報全記憶した単語辞書と。 この単語辞書内の情報に従って前記記憶手段より対応す
る第1の類似度を順次取り出し、各カテゴリの標準単語
と前記入力単語との間の第2の類似度を計算する第2計
算手段とを備え、第2計算手段は、配列順位毎に少なく
とも1以上の第1の類似度の係数布を2乗したものを同
一配列順位毎の第1の類似度の2乗和と前記係数の2乗
和との積で割った値の総和を各カテゴリの第2の類似度
として求め、各カテゴリ毎に得られた第2の類似度の犬
/J・関係より前記被認識単語のカテゴリを決定するこ
とを特徴とする単語認識方式。
(1) Means for inputting a recognized word composed of a plurality of element patterns having an arrangement order. An element dictionary containing all data showing the characteristics of each of multiple types of standard element patterns. and a first dividing means for calculating a first degree of similarity indicating the similarity between each input element pattern constituting the entire input word and each standard element pattern using the data in the element dictionary. means for storing each of the first degrees of similarity obtained by this means in association with the arrangement order of the input element pattern and the type of standard element pattern; A word dictionary that stores all information indicating the type of at least one standard element pattern associated with each of the standard words of a plurality of categories for each arrangement order of the standard element patterns constituting the standard word. a second calculation means for sequentially extracting the corresponding first similarity from the storage means according to the information in the word dictionary and calculating a second similarity between the standard word of each category and the input word; , the second calculation means squares the coefficient distribution of at least one first similarity for each arrangement rank, and calculates the sum of squares of the first similarity for each same arrangement rank and the sum of squares of the coefficients. The sum of the values divided by the product of is determined as the second similarity of each category, and the category of the recognized word is determined from the dog/J relationship of the second similarity obtained for each category. A word recognition method featuring
(2)第2計算手段は、前記総和を配列順位数で正規化
した値を第2の類似度とすることを特徴とする特許請求
の範囲第1項記載の単語認識方式。
(2) The word recognition method according to claim 1, wherein the second calculation means normalizes the total sum by the number of sequence ranks as the second similarity.
(3)第1削算手段は、第1の類似度として複合類似度
を用いたことを特徴とする特許請求の範囲第1項又は第
2項記載の単語認識方式。
(3) The word recognition method according to claim 1 or 2, wherein the first reduction means uses a composite similarity as the first similarity.
JP57164936A 1982-09-24 1982-09-24 Word recognizing system Pending JPS5955576A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP57164936A JPS5955576A (en) 1982-09-24 1982-09-24 Word recognizing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP57164936A JPS5955576A (en) 1982-09-24 1982-09-24 Word recognizing system

Publications (1)

Publication Number Publication Date
JPS5955576A true JPS5955576A (en) 1984-03-30

Family

ID=15802651

Family Applications (1)

Application Number Title Priority Date Filing Date
JP57164936A Pending JPS5955576A (en) 1982-09-24 1982-09-24 Word recognizing system

Country Status (1)

Country Link
JP (1) JPS5955576A (en)

Similar Documents

Publication Publication Date Title
CN111712836B (en) Multitasking learning as question and answer
JP2739945B2 (en) Voice recognition method
EP0314170A2 (en) Multi-layer neural network to which dynamic programming techniques are applicable
Milner Inclusion of temporal information into features for speech recognition
JP3349521B2 (en) Signal processing device
US5410635A (en) Connected word recognition system including neural networks arranged along a signal time axis
EP0218421B1 (en) Pattern recognition and learning apparatus
JPS5955576A (en) Word recognizing system
JPS58223193A (en) Multi-word voice recognition system
JPS61148497A (en) Standard pattern generator
JPH0628392A (en) Part of speech selection system
JPS5915993A (en) Voice recognition equipment
DE3686651T2 (en) ACOUSTIC COMPARISON METHOD IN A VOICE RECOGNITION SYSTEM.
JPS62134698A (en) Voice input system for multiple word
JP2743418B2 (en) Learning method
Lee Applying parallel learning models of artificial neural networks to letters recognition from phonemes
JP2743995B2 (en) Character reader
JPH0573027A (en) Individual penmanship dictionary generation device and character output processor using individual penmanship dictionary
JPS6146995A (en) Voice recognition system
CN113378660A (en) Low-data-cost face recognition method and device
Newman TEMPLATE MATCHING USING A FLUID FLOW MODEL (SPEECH RECOGNITION, OPTICAL CHARACTER RECOGNITION, STRETCH, DISTANCE, ADAPTIVE)
Borchardt et al. Hyphenation and" Bogus" Word Detection: An Experiment in the Economic Use of Neural Modeling in Text Processing
JPS6232499A (en) Word preselection system for voice recognition
JPS58105299A (en) Alphabet voice recognition equipment
JPS61190395A (en) Voice recognition equipment