JPH0531792B2 - - Google Patents

Info

Publication number
JPH0531792B2
JPH0531792B2 JP59038016A JP3801684A JPH0531792B2 JP H0531792 B2 JPH0531792 B2 JP H0531792B2 JP 59038016 A JP59038016 A JP 59038016A JP 3801684 A JP3801684 A JP 3801684A JP H0531792 B2 JPH0531792 B2 JP H0531792B2
Authority
JP
Japan
Prior art keywords
pattern
standard pattern
mapping function
correction
normalization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP59038016A
Other languages
Japanese (ja)
Other versions
JPS60181988A (en
Inventor
Atsushi Tsukumo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
Nippon Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Electric Co Ltd filed Critical Nippon Electric Co Ltd
Priority to JP59038016A priority Critical patent/JPS60181988A/en
Publication of JPS60181988A publication Critical patent/JPS60181988A/en
Publication of JPH0531792B2 publication Critical patent/JPH0531792B2/ja
Granted legal-status Critical Current

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E60/00Enabling technologies; Technologies with a potential or indirect contribution to GHG emissions mitigation
    • Y02E60/30Hydrogen technology
    • Y02E60/50Fuel cells

Landscapes

  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】 (技術分野) 本発明はパタン認識における標準パタン修正方
式に関し、特に文字認識、音声認識等のパタン認
識において、特徴ベクトルの系列として記述され
たパタンを用いて認識処理を行なうときの標準パ
タンを修正する方式に関する。
Detailed Description of the Invention (Technical Field) The present invention relates to a standard pattern correction method in pattern recognition, and particularly in pattern recognition such as character recognition and speech recognition, in which recognition processing is performed using a pattern described as a series of feature vectors. This invention relates to a method for modifying standard patterns when performing

(従来技術) 従来パタン認識において、最も重要な処理は特
徴抽出処理と種々のパタンマツチング法を含んだ
判定処理であつた。その重要性は現在も変らない
が、種々のパタン認識での認識率が向上し、実用
化が意識されるにつれて、標準パタンの良し悪し
の占める比重が大きくなりつつある。パタン認識
装置を実際に使うとき、環境によつては満足な認
識率が得られないことがあり、その場合には環境
に適応するように標準パタンを修正できることが
望まれる。適応的な修正法としては、例えばある
カテゴリーCの標準パタンが多次元ベクトルXC
で与えられ、標準パタン修正用のデータが多次元
ベクトルX^1、…、X^Nで与えられ、更に標準パタ
ンXCはM個の多次元ベクトルX1、…、XMの平均
ベクトルで与えられたとき、修正して得られる多
次元ベクトルX^Cを、 X^C=1/M+N(M・XCNi=1 X^i) として定めると、多次元ベクトルX^Cは(M+N)
個の多次元ベクトルX1、…、XM、X^1、…、X^N
平均ベクトルである。従つて標準パタンを示す多
次元ベクトルと標準パタンを作成及び修正するた
めに用いたデータの総数とが記憶されていれば、
修正して得られる標準パタンは常にそれまでに使
われたデータの平均ベクトルとして与えられる。
(Prior Art) In conventional pattern recognition, the most important processing has been feature extraction processing and determination processing including various pattern matching methods. Its importance remains unchanged even today, but as the recognition rate of various pattern recognition improves and people become more aware of its practical use, the relative importance of the quality of standard patterns is increasing. When a pattern recognition device is actually used, a satisfactory recognition rate may not be obtained depending on the environment, and in that case, it is desirable to be able to modify the standard pattern to adapt to the environment. As an adaptive correction method, for example, if a standard pattern of a certain category C is a multidimensional vector
The standard pattern correction data is given by multidimensional vectors X^ 1 , ..., X^ N , and the standard pattern X C is the average vector of M multidimensional vectors X 1 , ..., When given, the multidimensional vector X^ C obtained by modification is defined as X^ C = 1/M + N (M・X C + Ni=1 X^i), then the multidimensional vector X^ C is (M+N)
It is the average vector of the multidimensional vectors X 1 , ..., X M , X^ 1 , ..., X^ N. Therefore, if the multidimensional vector representing the standard pattern and the total number of data used to create and modify the standard pattern are stored,
The modified standard pattern is always given as the average vector of the data used so far.

一方特徴ベクトルの系列として与えられるパタ
ンを用いる場合は上記のように単純に平均をとる
ことができず、従つてある適正な評価基準を満た
すような標準パタンを修正することはできなかつ
た。
On the other hand, when using patterns given as a series of feature vectors, it is not possible to simply average them as described above, and therefore it is not possible to modify a standard pattern that satisfies a certain appropriate evaluation standard.

(発明の目的) 本発明の目的は上記のような特徴ベクトルの系
列として与えられるパタンを一方向に伸縮整合し
て、非線形マツチングを行なうパタン認識におい
て、初めに定めた評価基準に対し、常に適応して
標準パタンの修正を行なうことのできる標準パタ
ン修正方式を提供することにある。
(Objective of the Invention) The object of the present invention is to constantly adapt to the initially determined evaluation criteria in pattern recognition that performs non-linear matching by expanding and contracting patterns given as a series of feature vectors in one direction as described above. An object of the present invention is to provide a standard pattern modification method capable of modifying a standard pattern.

(発明の構成) 本発明によれば、特徴ベクトルの系列として表
わされるパタンを用いたパタン認識に必要な標準
パタンを、複数個または一個の修正用学習パタン
を用いて修正する標準パタン修正方式において、
古い標準パタンを格納する標準パタン記憶手段
と、前記標準パタンを作成するために使用した学
習パタンの数を記憶している累積学習パタン記憶
手段と、順次入力される前記修正用学習パタンの
各々と前記標準パタンとを入力し、両者の伸縮整
合を行ない、最適な整合となるときの対応を示す
各々の写像関数を出力する写像関数生成手段と、
前記各々の写像関数と前記修正用学習パタンの個
数と前記標準パタンを作成するために使用した学
習パタンの数とで決まる荷重平均写像関数を生成
する平均写像関数生成手段と、前記荷重平均写像
関数を伸縮正規化用写像関数として前記標準パタ
ンを伸縮正規化して、仮の標準パタンを生成する
伸縮正規化手段と、前記修正用学習パタンを順次
入力し、前記仮の標準パタンとの伸縮整合を行な
い、最適な整合となるときの対応を示す各々の第
2の写像関数を出力する第2の写像関数生成手段
と、前記各々の第2の写像関数を伸縮整合化用写
像関数として前記各々の修正用学習パタンを伸縮
正規化して、前記各々の修正用学習パタンに対応
する修正用伸縮正規化パタンを出力する第2の伸
縮正規化手段と、前記各々の修正用伸縮正規化パ
タンを順次入力し、前記仮の標準パタンと前記標
準パタンを作成するために使用した学習パタンの
数とで決まる荷重平均パタンを新しい標準パタン
として出力し、同時に前記標準パタンを作成する
ために使用した学習パタンの数と前記修正用学習
パタンの数の和を新しい標準パタンを作成するた
めに使用した学習パタンの数として出力する平均
パタン生成手段とを含むことを特徴とする、パタ
ン認識における標準パタン修正方式が得られる。
(Structure of the Invention) According to the present invention, in a standard pattern correction method that corrects a standard pattern necessary for pattern recognition using a pattern expressed as a series of feature vectors using a plurality of learning patterns or one learning pattern for correction. ,
standard pattern storage means for storing old standard patterns; cumulative learning pattern storage means for storing the number of learning patterns used to create the standard patterns; and each of the learning patterns for correction that are sequentially input. a mapping function generating means that inputs the standard pattern, performs expansion/contraction matching between the two, and outputs each mapping function indicating a correspondence when an optimal matching is achieved;
average mapping function generating means for generating a weighted average mapping function determined by each of the mapping functions, the number of learning patterns for correction, and the number of learning patterns used to create the standard pattern; and the weighted average mapping function. an elastic normalization means for elastically normalizing the standard pattern using the elasticity normalization mapping function to generate a temporary standard pattern; a second mapping function generating means for outputting each second mapping function indicating the correspondence when the optimum matching is obtained; a second elastic normalization means for elastically normalizing the correction learning pattern and outputting a correction elastic normalization pattern corresponding to each of the correction learning patterns; and sequentially inputting each of the correction elastic normalization patterns. Then, a weighted average pattern determined by the temporary standard pattern and the number of learning patterns used to create the standard pattern is output as a new standard pattern, and at the same time, the number of learning patterns used to create the standard pattern is output. and average pattern generation means for outputting the sum of the number and the number of learning patterns for correction as the number of learning patterns used to create a new standard pattern. can get.

(実施例) 次に本発明の実施例について図面を参照して詳
細に説明する。
(Example) Next, an example of the present invention will be described in detail with reference to the drawings.

第1図は本発明の一実施例を示す。第1図にお
いて、本発明の一実施例は、特徴ベクトルの系列
として表わされるパタンを用いたパタン認識に必
要な標準パタンを、複数個または一個の修正用学
習パタンを用いて修正する標準パタン修正方式に
おいて、標準パタン22を格納する標準パタン記
憶手段2と、使用した学習パタンの数21を記憶
している累積学習パタン記憶手段1と、順次入力
される前記修正用学習パタンの各々の信号20と
前記標準パタン信号22とを入力し、両者の伸縮
整合を行ない、最適な整合となるときの対応を示
す各々の写像関数を出力する写像関数生成手段3
と、前記各々の写像関数23と前記使用した学習
パタンの数21とで決まる荷重平均写像関数24
を生成する平均写像関数生成手段4と、前記荷重
平均写像関数24を伸縮正規化用写像関数として
前記標準パタン22を伸縮正規化して、仮の標準
パタン25を生成する伸縮正規化手段5と、前記
修正用学習パタン20を順次入力し、前記仮の標
準パタン25との伸縮整合を行ない、最適な整合
となるときの対応を示す各々の第2の写像関数2
6を出力する第2の写像関数生成手段6と、前記
各々の第2の写像関数26を伸縮整合化用写像関
数として前記各々の修正用学習パタン20を伸縮
正規化して、前記各々の修正用学習パタン20に
対応する修正用伸縮正規化パタン27を出力する
第2の伸縮正規化手段7と、前記各々の修正用伸
縮正規化パタン27を順次入力し、前記仮の標準
パタン25と前記使用した学習パタンの数21と
で決まる荷重平均パタンを新しい標準パタン28
として出力し、同時に前記使用した学習パタンの
数21と前記修正用学習パタンの数の和を新しい
標準パタンを作成するために使用した学習パタン
の数29として出力する平均パタン生成手段8と
を含む。
FIG. 1 shows an embodiment of the invention. In FIG. 1, one embodiment of the present invention is a standard pattern modification that modifies a standard pattern necessary for pattern recognition using a pattern expressed as a series of feature vectors using a plurality of learning patterns or one learning pattern for modification. In this method, standard pattern storage means 2 stores standard patterns 22, cumulative learning pattern storage means 1 stores the number 21 of used learning patterns, and signals 20 of each of the learning patterns for correction are sequentially input. and the standard pattern signal 22, performs expansion/contraction matching between the two, and outputs each mapping function indicating the correspondence when optimum matching is achieved.
and a weighted average mapping function 24 determined by each of the mapping functions 23 and the number 21 of learning patterns used.
an average mapping function generating means 4 that generates a stretching normalization means 4 that generates a temporary standard pattern 25 by stretching and normalizing the standard pattern 22 using the weighted average mapping function 24 as a stretching normalization mapping function; The correction learning patterns 20 are sequentially input, and expansion/contraction matching with the temporary standard pattern 25 is performed, and each second mapping function 2 indicates a correspondence when optimal matching is achieved.
A second mapping function generating means 6 outputting a second mapping function 6 outputs each of the second mapping functions 26 as a mapping function for expansion and contraction matching, and expands and contracts the respective correction learning patterns 20 to perform expansion and contraction normalization. A second expansion/contraction normalization means 7 outputs a correction expansion/contraction normalization pattern 27 corresponding to the learning pattern 20, and each of the correction expansion/contraction normalization patterns 27 is sequentially input, and the provisional standard pattern 25 and the use The weighted average pattern determined by the number of learned patterns 21 and the new standard pattern 28
and at the same time output the sum of the number of learning patterns used 21 and the number of correction learning patterns as the number 29 of learning patterns used to create a new standard pattern. .

累積数記憶手段1は標準パタンの作成及び修正
に使われたデータの累積数を格納しており、標準
パタン記憶手段2は特徴ベクトルの系列として表
わされているパタンを認識するのに必要な標準パ
タンを記憶している。これらの記憶手段1および
2は通常用いられている各種の記憶手段で構成す
ることができる。写像関数生成手段3は前記標準
パタン記憶手段2からの特徴ベクトルの系列で記
述された標準パタン22を入力し、かつ同様に特
徴ベクトルの系列で記述された修正用学習パタン
20を順次入力し、写像関数を求め、この写像関
数23を順次出力するようになつている。平均写
像関数生成手段4は前記順次入力される写像関数
23と、前記累積数記憶手段1から前記累積数2
1とを入力し、写像関数の荷重平均となる平均写
像関数24を出力するようになつている。伸縮正
規化手段5は、前記標準パタン22を入力し、前
記平均写像関数24を伸縮正規化用写像関数とし
て、前記標準パタン22の伸縮正規化処理を行な
い、仮の標準パタン25を生成し出力するように
構成されている。第2の写像関数生成手段6は前
記仮の標準パタン25と、前記修正用学習パタン
20とを順次入力し、その結果として第2の写像
関数26を順次出力するように構成されている。
第2の伸縮正規化手段7は前記第2の写像関数を
伸縮正規化用写像関数26として入力し、かつ前
記順次入力される前記修正用学習パタン20の伸
縮正規化パタン27を生成し、順次出力するよう
に構成されている。平均パタン生成手段8は順次
入力される前記修正用学習パタンの伸縮正規化パ
タン27と、前記仮の標準パタン25と、前記入
力される前記学習パタンの累積数とを処理し、荷
重平均パタンを生成し、修正された標準パタン2
8を出力し、同時に新たに更新された累積数29
を出力するように構成されている。
The cumulative number storage means 1 stores the cumulative number of data used to create and modify standard patterns, and the standard pattern storage means 2 stores the cumulative number of data used to create and modify standard patterns. Memorizes standard patterns. These storage means 1 and 2 can be constructed from various types of storage means commonly used. The mapping function generation means 3 inputs the standard pattern 22 described by the series of feature vectors from the standard pattern storage means 2, and sequentially inputs the learning pattern 20 for correction also described by the series of feature vectors, A mapping function is determined and the mapping function 23 is sequentially output. The average mapping function generating means 4 receives the mapping function 23 inputted sequentially and the cumulative number 2 from the cumulative number storage means 1.
1 is input, and an average mapping function 24, which is a weighted average of the mapping functions, is output. The expansion/contraction normalization means 5 inputs the standard pattern 22, performs expansion/contraction normalization processing on the standard pattern 22 using the average mapping function 24 as a mapping function for expansion/contraction normalization, and generates and outputs a temporary standard pattern 25. is configured to do so. The second mapping function generation means 6 is configured to sequentially input the provisional standard pattern 25 and the correction learning pattern 20, and sequentially output a second mapping function 26 as a result.
The second expansion/contraction normalization means 7 inputs the second mapping function as a mapping function 26 for expansion/contraction normalization, and generates expansion/contraction normalization patterns 27 of the learning patterns 20 for correction that are sequentially input. is configured to print. The average pattern generation means 8 processes the expansion/contraction normalization pattern 27 of the learning pattern for correction that is inputted sequentially, the temporary standard pattern 25, and the cumulative number of the inputted learning patterns, and generates a weighted average pattern. Generated and modified standard pattern 2
Outputs 8 and at the same time newly updated cumulative number 29
is configured to output.

始めに、本発明の一実施例におけるパタン認識
処理について説明すると、第2図に示すように特
徴ベクトルの系列として表わされる標準パタン1
0と入力パタン11、2個のパタンの伸縮整合を
行ない、最適な整合となるときの写像関数12を
求める。このパタン認識処理は標準パタンの違い
により入力パタンへの影響が大きく、たとえば第
3図aにおいて標準パタン13と、この標準パタ
ン13と同じカテゴリAのサンプルパタンとの間
の写像関数131,132,133,134、お
よび前記標準パタン13と異なるカテゴリBのサ
ンプルパタンとの間の写像関数136,137と
の関係を示す。なお、直線130は各写像関係の
始点と終点とを結ぶ線である。
First, to explain the pattern recognition process in one embodiment of the present invention, a standard pattern 1 expressed as a series of feature vectors is
0 and the input pattern 11, the two patterns are matched by expansion and contraction, and a mapping function 12 for optimal matching is determined. This pattern recognition process has a large influence on the input pattern due to the difference in standard patterns. For example, in FIG. 3a, mapping functions 131, 132, 133, 134, and mapping functions 136, 137 between the standard pattern 13 and a different category B sample pattern. Note that the straight line 130 is a line connecting the starting point and ending point of each mapping relationship.

従来のパタン認識方式では伸縮整合を行なつて
得られる類似度のみで判定処理を行なつていたの
で、前記131、…、137の写像関数を求めた
ときに得られる類似度がほぼ同じ値になるとき、
カテゴリAとカテゴリBとの識別を困難にしてい
た。
In the conventional pattern recognition method, judgment processing was performed only based on the similarity obtained by stretching/contracting matching, so the similarity obtained when calculating the mapping functions 131, ..., 137 described above is almost the same value. When it becomes
This made it difficult to distinguish between category A and category B.

次に第3図bにおいては前記標準パタン13を
伸縮正規化して得られるカテゴリAの標準パタン
14と、前記カテゴリAのサンプルパタンと、前
記標準パタン14との写像関数141,142,
143,144,145および前記カテゴリBの
サンプルパタンと前記標準パタン14との写像関
数146,147との関係を示す。このように標
準パタン14を用いたパタン認識処理において
は、前記写像関数141〜147を求めたときに
得られる類似度がほぼ同じ値になるとしても、各
写像関数の始点と終点を結ぶ直線140と各写像
関数の離れ具合等で前記カテゴリAと前記カテゴ
リBとを識別することができ、また類似度を求め
るときに写像関数が、前記直線140から離れる
程ペナルテイを加えるように類似度を定めると、
類似度の判定能力がさらに増すことになる。従つ
て本実施例においては第3図a,bの例に示すよ
うにパタン13よりもパタン14の方が標準パタ
ンとして好ましい。
Next, in FIG. 3b, a standard pattern 14 of category A obtained by stretching and normalizing the standard pattern 13, a mapping function 141, 142 between the sample pattern of category A, and the standard pattern 14,
143, 144, 145 and mapping functions 146, 147 between the category B sample pattern and the standard pattern 14 are shown. In this way, in pattern recognition processing using the standard pattern 14, even if the degrees of similarity obtained when calculating the mapping functions 141 to 147 are approximately the same, the straight line 140 connecting the starting point and the ending point of each mapping function The category A and the category B can be distinguished from each other by the degree of separation of each mapping function, and when determining the similarity, the similarity is determined so that a penalty is added as the mapping function moves away from the straight line 140. and,
This will further increase the ability to determine similarity. Therefore, in this embodiment, pattern 14 is preferable to pattern 13 as the standard pattern, as shown in the examples of FIGS. 3a and 3b.

次に本実施例について更に具体的に説明する。 Next, this embodiment will be explained in more detail.

第4図は本実施例における写像関数生成手段3
を示す。第4図において、写像関数生成手段3は
距離演算部31、漸化式演算部32、累積値記憶
部33、最小値選択部34および写像軌跡記憶部
35により構成され、DPマツチング法の説明の
中の、漸化式g(i、j)の計算と、漸化式計算
の結果得られる軌跡h(i、j)を求め、この軌
跡h(i、j)から写像関数を求める処理方法で
ある。
FIG. 4 shows mapping function generation means 3 in this embodiment.
shows. In FIG. 4, the mapping function generation means 3 is composed of a distance calculation section 31, a recurrence formula calculation section 32, an accumulated value storage section 33, a minimum value selection section 34, and a mapping locus storage section 35. A processing method that calculates the recurrence formula g(i, j) in be.

修正用学習パタン20は順次入力される信号j
=g1(i)、…j=gN(i)で、特徴ベクトルの系列A1
A2、A3、…、ANに対応し、記憶手段2の標準パ
タン22は信号j=gS(i)で、特徴ベクトルの系列
A1 0、A2 0、…、AN 0に対応した信号である。距離演
算部31は上記2信号を入力とし、相緯度d(i、
j)を計算し、信号311として出力する。漸化
式演算部32は前出の漸化式 g(i、j)=d(i、j)+min(g(i−1、
j))、g(i−1、j−1)、g(i−1、j−
2)) を計算するもので、d(i、j)を信号311、
min(g(i−1、j)、g(i−1、j−1)、g
(i−1、j−2))を信号341として入力し、
演算結果のg(i、j)を信号321として、累
積値記憶部33に出力する。最小値選択部34は
累積値記憶部33からg(i−1、j)、g(i−
1、j−1)およびg(i−1、j−2)を信号
331、信号332および信号333として読込
み、min(g(i−1、j)、g(i−1、j−1)、
g(i−1、j−2))を信号する341、および
h(i、j)を信号342として写像軌跡記憶部
35に出力する。漸化式演算が終了すると前記写
像軌跡記憶部35からは写像関数23として信号
i′=ψ1(i)、…i′=ψN(i)を出力する。
The correction learning pattern 20 is based on a signal j that is sequentially input.
= g 1 (i), ...j = g N (i), and the series of feature vectors A 1 ,
Corresponding to A 2 , A 3 , . . .
These are signals corresponding to A 1 0 , A 2 0 , ..., A N 0 . The distance calculation unit 31 inputs the above two signals and calculates the phase latitude d(i,
j) is calculated and output as a signal 311. The recurrence formula calculation unit 32 calculates the recurrence formula g(i, j)=d(i, j)+min(g(i-1,
j)), g(i-1, j-1), g(i-1, j-
2)), and d(i, j) is the signal 311,
min(g(i-1, j), g(i-1, j-1), g
(i-1, j-2)) as the signal 341,
The calculation result g(i, j) is output to the cumulative value storage section 33 as a signal 321. The minimum value selection unit 34 selects g(i-1, j) and g(i-
1, j-1) and g(i-1, j-2) as signal 331, signal 332 and signal 333, min(g(i-1, j), g(i-1, j-1) ,
g(i-1, j-2)) is output as a signal 341, and h(i, j) is output as a signal 342 to the mapping locus storage unit 35. When the recurrence formula calculation is completed, the mapping locus storage section 35 outputs a signal as the mapping function 23.
Output i′=ψ 1 (i), ...i′=ψ N (i).

なお、距離演算部31、漸化式演算部32、累
積値記憶部33、最小値選択部34、写像軌跡記
憶部35は、いずれも記憶手段、加算等の演算手
段、比較手段を用いて構成される。
The distance calculation section 31, the recurrence formula calculation section 32, the cumulative value storage section 33, the minimum value selection section 34, and the mapping locus storage section 35 are all configured using storage means, calculation means such as addition, and comparison means. be done.

次に平均写像関数生成手段4は作成のために使
つたデータ数をM、修正用学習パタンj=g1(i)、
…、j=gN(i)に対応する写像関数をi′=ψ1(i)、
…、i′=ψN(i)とすると、 ψS(i)=1/M+N{M+Nn=1 ψo(i)} ……(式1) として平均の写像関数が得られる。
Next, the average mapping function generation means 4 sets the number of data used for creation to M, the learning pattern for correction j=g 1 (i),
…, the mapping function corresponding to j=g N (i) is i′=ψ 1 (i),
..., i′=ψ N (i), then the average mapping function is obtained as ψ S (i)=1/M+N {M+ Nn=1 ψ o (i)} ...(Formula 1).

即ち、第3図aに示すカテゴリAのパタン13
に対する写像関数131、…、135をそれぞれ
i=ψ1(i)、i=ψ2(i)、…、i=ψ7(i)とする。カ
テゴリAの写像関数の平均として得られる関数を
i=ψ(i)とすると、ψ(i)はψ(i)=1/55k=1 ψk(i)とな る。
That is, the pattern 13 of category A shown in FIG.
Mapping functions 131 , . Assuming that the function obtained as the average of the mapping functions of category A is i=ψ(i), ψ(i) becomes ψ(i)=1/5 5k=1 ψ k (i).

したがつて、このψ(i)が平均写像関数24とし
て送出される。なお、この平均写像関数生成手段
4は記憶手段、加算、乗算、除算等の演算手段を
用いて構成されている。
Therefore, this ψ(i) is sent out as the average mapping function 24. Note that this average mapping function generating means 4 is constructed using a storage means and arithmetic means such as addition, multiplication, and division.

伸縮正規化手段5は前記標準パタン(j=gS
(i))を特徴ベクトルの系列A1 0、A2 0、…、AN 0とし
て入力し、かつ前記平均写像関数(i=ψS(i))2
4を入力し、この写像関数24を用いて、標準パ
タン22の伸縮正規化を行ない、 ψg^(i)=gS(ψS(i))を得る。
The expansion/contraction normalization means 5 uses the standard pattern (j=g S
(i)) as a series of feature vectors A 1 0 , A 2 0 , ..., A N 0 , and the average mapping function (i=ψ S (i)) 2
4 is input, and the standard pattern 22 is expanded/contracted and normalized using this mapping function 24 to obtain ψg^(i)=g SS (i)).

これにより得られるj=ψg^S(i)を仮の標準パタ
ン25として送出する。
The resulting j=ψg^ S (i) is sent out as a temporary standard pattern 25.

即ち、伸縮正規化手段5は前記関数i=ψ(i)を
用いて、第5図に示すように前記標準パタン13
から写像関数i=ψ(i)を示す直線15を経て、前
記標準パタン14を生成する。式で表現すると、
標準パタン13をj=j13(i)、前記標準パタン1
4をj=14(i)とすると j14(i)=j13(ψ(i)) で表わされる非線形正規化処理で前記標準パタン
13から前記標準パタン14が得られる。前記標
準パタン14が第2の仮の標準パタンψg^S(i)=gS
(ψS(i))となる。
That is, the expansion/contraction normalization means 5 uses the function i=ψ(i) to calculate the standard pattern 13 as shown in FIG.
The standard pattern 14 is generated from the straight line 15 indicating the mapping function i=ψ(i). Expressed in the formula,
Standard pattern 13 is j=j 13 (i), standard pattern 1
4 as j= 14 (i), the standard pattern 14 is obtained from the standard pattern 13 by the nonlinear normalization process expressed as j 14 (i)=j 13 (ψ(i)). The standard pattern 14 is a second temporary standard pattern ψg^ S (i)=g S
S (i)).

更に、本実施例における伸縮整合処理の一つで
あるDPマツチング法の一例について第6図を参
照して説明する。第6図において、標準パタン
A0がM次元ベクトルA1 0、A2 0、…、AN 0の系列から
成り、入力パタンAがM次元ベクトルA1、A2
…、ANの系列から成つているとする。また標準
パタンの任意のベクトルAj 0と、入力パタンの任
意のベクトルAiとの距離をd(i、j)とする。
単純な整合をとると、入力パタンAと標準パタン
A0との相違度D(A、A0)は、例えば下式で求め
ることになる。
Furthermore, an example of the DP matching method, which is one of the expansion/contraction matching processes in this embodiment, will be explained with reference to FIG. In Figure 6, the standard pattern
A 0 consists of a series of M-dimensional vectors A 1 0 , A 2 0 , ..., A N 0 , and the input pattern A consists of M-dimensional vectors A 1 , A 2 ,
..., A N series. Also, let d(i, j) be the distance between an arbitrary vector A j 0 of the standard pattern and an arbitrary vector A i of the input pattern.
By simple matching, input pattern A and standard pattern
The degree of difference D (A, A 0 ) from A 0 is determined, for example, by the following formula.

相違度D(A、A0)=Ni=1 d(i、j) この式は第6図aの写像関数j=i上でAi
Ai 0とを対応させて、両パタンの相違度を求めて
いるが、同図の写像関数j=ψ(i)上で、AiとAj 0
とを対応させることができれば、両パタンの相違
度を求めるのに、入力パタンAを部分的に伸縮し
て標準パタンA0と整合をとることができる。
Dissimilarity D (A, A 0 ) = Ni=1 d (i, j) This formula is expressed as A i on the mapping function j = i in Figure 6a.
A i 0 and A
If it is possible to make the input pattern A correspond to the standard pattern A0, the input pattern A can be partially expanded or contracted to match the standard pattern A0 in order to find the degree of difference between the two patterns.

DPマツチング法は、入力パタンを部分的に伸
縮して整合をとるための手法であり、例えば第6
図bでは下記の初期値及び漸化式から、g(N、
N)を求めることにより、写像関数j=ψ(i)上で
AiとAj 0とを対応させて整合をとることができる。
The DP matching method is a method for matching input patterns by partially expanding or contracting them.
In Figure b, g(N,
N), on the mapping function j=ψ(i)
Matching can be achieved by making A i and A j 0 correspond.

g(1、1)=d(1、1) g(i、j)=d(i、j)+min{g(i−1、
j)、 g(i−1、j−1)、g(i−1、j−2)} ただし、d(i、j)=∞(i≦0またはj≦
0)である。
g(1,1)=d(1,1) g(i,j)=d(i,j)+min{g(i-1,
j), g(i-1, j-1), g(i-1, j-2)} However, d(i, j)=∞(i≦0 or j≦
0).

第6図cは上記漸化式を求めるDPマツチング
法の一例を示すための図であり、入力パタンは5
個の一次元ベクトル、すなわちスカラー量の系列
{1、2、4、5、5}であり、標準パタンは同
じく5個の系列{1、2、3、4、5}であり、
(i、j)が(1、1)、(2、2)、(3、4)、
(4、5)、(5、5)となる写像関数上の伸縮整
合を行なつている。
Figure 6c is a diagram showing an example of the DP matching method for calculating the above recurrence formula, and the input pattern is 5.
one-dimensional vectors, that is, a sequence of scalar quantities {1, 2, 4, 5, 5}, and the standard pattern is also a sequence of 5 {1, 2, 3, 4, 5},
(i, j) is (1, 1), (2, 2), (3, 4),
Stretching and contraction matching is performed on mapping functions that are (4, 5) and (5, 5).

第6図dは上記漸化式計算の計算量を減少させ
るために i−Δ≦j≦i+Δ の範囲内で、漸化式計算を行なうことを示してお
り、一般にDPマツチング法では、この範囲を整
合窓と呼び、実際に計算量の効率化を図つてい
る。前記漸化式は単に相違度を求めるためだけの
ものであるが、 min(g(i−1、j)、g(i−1、j−1)、
g (i−1、j−2))=g(i−1、j(i-1)) (ただしj(i-1)はj、j−1、j−2のいずれかで
ある) のとき、 h(i、j)=j(i-1) として、関数h(i、j)を求めておくことによ
り、相違度が求められた後にh(i、j)の値を
h(N、N)から順次h(1、1)まで求めること
により写像関数を求めることができる。例えば第
6図cの例ではh(5、5) h(5、5)=5、h(4、5)=4、h(3、4)
=2、h=(2、2)=1 であるから、写像関数(i、j)が (1、1)、(2、2)、(3、4)、(4、5)、
(5、5) と求まる。
Figure 6d shows that the recurrence formula calculation is performed within the range of i-Δ≦j≦i+Δ in order to reduce the amount of calculation in the above recurrence formula calculation, and generally, in the DP matching method, within this range is called a matching window, and it actually aims to improve the efficiency of the calculation amount. The above recurrence formula is only for calculating the degree of dissimilarity, but min(g(i-1, j), g(i-1, j-1),
g (i-1, j-2)) = g(i-1, j (i-1) ) (where j (i-1) is either j, j-1, or j-2) By calculating the function h(i, j) with h(i, j)=j (i-1) , after calculating the degree of dissimilarity, the value of h(i, j) can be calculated as h(N , N) to h(1, 1), the mapping function can be obtained. For example, in the example in Figure 6c, h (5, 5) h (5, 5) = 5, h (4, 5) = 4, h (3, 4)
= 2, h = (2, 2) = 1, so the mapping functions (i, j) are (1, 1), (2, 2), (3, 4), (4, 5),
(5, 5) is found.

第7図は伸縮正規化処理の一例を示すための図
であり、X(i)(1≦i≦16)は入力パタン、Y(j)
(1≦j≦16)は伸縮正規化パタンで、j=ψ(i)
は伸縮正規化のための写像関数である。この例で
はY(j)は次の法則によつて定まる。
FIG. 7 is a diagram showing an example of expansion/contraction normalization processing, where X(i) (1≦i≦16) is the input pattern, Y(j)
(1≦j≦16) is a stretching normalization pattern, and j=ψ(i)
is a mapping function for stretch normalization. In this example, Y(j) is determined by the following law.

(1) j=ψ(i)>ψ(i−1)かつψ(i)<ψ(i+1
のとき Y(j)=X(i) (2) j=ψ(i)=ψ(i−1)+2のとき Y(j−
1)=X(i) (3) j=ψ(i)=ψ(i−1)<ψ(i+1)のとき
Y(j)=X(i) 再び第1図を参照すると、第2の写像関数生成
手段6は前記写像関数生成手段3と同一の構成で
よく、伸縮正規化手段5の仮の標準パタン25
(第3図の14(カテゴリA))と、修正用学習パ
タン20とが順次入力される。この第2の写像関
数生成手段6においては第3図bに示すように前
記各学習パタンと前記標準パタン14との第2の
写像関数をj=ψ^1(i)、j=ψ^2(i)…j=ψ^5(i)と

ると、これは第2図bの写像関数141,14
2,143,145となり、第2の写像関数26
として第2の伸縮正規化手段7に送出される。
(1) j=ψ(i)>ψ(i−1) and ψ(i)<ψ(i+1
When Y(j)=X(i) (2) When j=ψ(i)=ψ(i-1)+2, Y(j-
1)=X(i) (3) When j=ψ(i)=ψ(i-1)<ψ(i+1) Y(j)=X(i) Referring again to Figure 1, the second The mapping function generation means 6 may have the same configuration as the mapping function generation means 3, and the temporary standard pattern 25 of the expansion/contraction normalization means 5
(14 (Category A) in FIG. 3) and the correction learning pattern 20 are sequentially input. As shown in FIG. 3b, the second mapping function generating means 6 generates a second mapping function between each learning pattern and the standard pattern 14 as j=ψ^ 1 (i), j=ψ^ 2 (i)...j=ψ^ 5 (i), this is the mapping function 141, 14 in Figure 2b
2,143,145, and the second mapping function 26
It is sent to the second expansion/contraction normalization means 7 as a.

第2の伸縮正規化手段7は前記伸縮正規化手段
5と全く同一の構成のものでもよく、前記学習パ
タン20と第2の写像関数26とが入力され、前
記写像関数j=ψS(i)を用いて、修正用学習パタン
j=f1(i)…f5(i)を伸縮正規化を行ない、 j=fS(i)=fS(ψ^S(i))を得る。
The second elastic normalization means 7 may have exactly the same configuration as the elastic normalization means 5, and the learning pattern 20 and the second mapping function 26 are input, and the mapping function j=ψ S (i ), the correction learning pattern j=f 1 (i)...f 5 (i) is expanded/contracted and normalized to obtain j=f S (i)=f S (ψ^ S (i)).

更に、このようにして得られるj=f^S(i)を伸縮
正規化パタン27として平均パタン生成手段8に
送出される。
Further, j=f^ S (i) obtained in this way is sent to the average pattern generating means 8 as the expansion/contraction normalization pattern 27.

即ち、第2の伸縮正規化手段7は前記各学習パ
タンをj=f1(i)、j=f2(i)、…、j=f5(i)とし、
第2の非線形正規化処理で得られる各パタンをj
=f^1(i)、j=f^2(i)、…、j=f^5(i)とすると、 fk(i)=fk(ψk(i)) である。(k=1、2、3、4、5)従つて標準
パタンj=fS(i)は前記非線形正規化パタンj=f^k
(i)の平均で次式のようにして定められる。
That is, the second expansion/contraction normalization means 7 sets each of the learning patterns to j=f 1 (i), j=f 2 (i), ..., j=f 5 (i),
Each pattern obtained by the second nonlinear normalization process is j
= f^ 1 (i), j = f^ 2 (i), ..., j = f^ 5 (i), then f k (i) = f kk (i)). (k=1, 2, 3, 4, 5) Therefore, the standard pattern j=f S (i) is the nonlinear normalized pattern j=f^ k
It is determined by the average of (i) as shown in the following formula.

fS(i)=1/55k=1 f^k(i) 認識対象のパタンj=j(i)が、2値パタンとし
て扱つてよい場合には、前記非線形正規化パタン
の平均をとつたパタンと、前記仮の標準パタンを
前記写像関数j=ψ(i)で非線形正規化して得られ
るパタンとは、類似したパタンとなるが、前記認
識対象のパタンj=j(i)が多値パタンとして扱わ
れる場合には、前記パタンj=f^k(i)の平均で標準
パタンを求めることが必要不可欠となる。尚ここ
ではk=5として説明を行なつたが、kの値は特
に5と定めるものでなく任意である。平均パタン
生成手段8は記憶手段、加算、乗算、除算等の演
算手段を用いて構成され、前記仮の標準パターン
j=g^S(i)と修正用学習パタンj=go(i)(n=1)、
…、N)の間の写像関数をi′=ψo(i)(n=1、
…、N)とすると、新しい標準パタンj=〓gS(i)
を次のように定める。
f S (i)=1/5 5k=1 f^ k (i) If the pattern j=j(i) to be recognized can be treated as a binary pattern, the average of the nonlinear normalized patterns The pattern obtained by non-linear normalizing the provisional standard pattern using the mapping function j=ψ(i) are similar, but the pattern to be recognized j=j(i) When is treated as a multivalued pattern, it is essential to obtain a standard pattern by averaging the patterns j=f^ k (i). Although the explanation has been given here assuming that k=5, the value of k is not specifically set to 5 and is arbitrary. The average pattern generation means 8 is constructed using a storage means and arithmetic means such as addition, multiplication, division, etc., and calculates the temporary standard pattern j=g^ S (i) and the learning pattern for correction j=g o (i) ( n=1),
..., N) is defined as the mapping function between i'=ψ o (i) (n=1,
..., N), then the new standard pattern j=〓g S (i)
is defined as follows.

g〓S(i)=1/M+N{M・g^S(i)+Nn=1 go(ψ^o(i))} (式2) この手順により、標準パタンの修正が行なわれ
て得られる新しい標準パタンは、標準パタンの作
成、修正のために使われたパタンの平均となつて
いる。
g〓 S (i)=1/M+N {M・g^ S (i)+ Nn=1 g o (ψ^ o (i))} (Equation 2) This procedure corrects the standard pattern. The resulting new standard pattern is the average of the patterns used to create and modify the standard pattern.

以上の説明により、本発明によれば、データの
累積数と、修正用学習パタンと既存の標準パタン
とから得られる、複数個の写像関数から平均写像
関数を求め、前記既存の標準パタンと前記平均写
像関数とから、仮の標準パタンを求め、前記の仮
の標準パタンと各修正用学習パタンとから得られ
る各々の第2の写像関数を求め、次に各々の伸縮
正規化パタンと前記仮の標準パタンと前記累積と
から荷重平均パタンを求め、標準パタンと定める
ことにより、修正された標準パタンを自動的に得
ることができる。この修正された標準パタンを用
いることにより、認識率の向上がはかれ、また自
動的に処理できることから、標準パタン修正のた
めの工数を大幅に減らすという効果も得られる。
As described above, according to the present invention, an average mapping function is obtained from a plurality of mapping functions obtained from the cumulative number of data, the correction learning pattern, and the existing standard pattern, and the average mapping function is obtained from the existing standard pattern and the A provisional standard pattern is obtained from the average mapping function, each second mapping function obtained from the provisional standard pattern and each correction learning pattern is obtained, and then each expansion/contraction normalization pattern and the provisional By determining a weighted average pattern from the standard pattern and the accumulation and determining it as the standard pattern, a corrected standard pattern can be automatically obtained. By using this corrected standard pattern, the recognition rate can be improved, and since processing can be performed automatically, it is also possible to significantly reduce the number of man-hours required for correcting the standard pattern.

尚以上の説明では標準パタンと入力パタンの系
列が同じ長さとしてきたが、もし長さが異なる場
合には長さの正規化等の処理を行なえばよく、ま
た前処理によつてパタンの形状が大きく変わる場
合は、別のサブカテゴリーとして取り扱えばよ
い。また伸縮整合処理はDPマツチングに限るこ
とはなく、またDPマツチングを用いる場合でも、
使用する漸化式は実施例で用いた漸化式に限るも
のではない。
In the above explanation, it has been assumed that the standard pattern and input pattern series have the same length, but if the lengths are different, processing such as normalization of the length can be performed, and the shape of the pattern can be changed by preprocessing. If it changes significantly, it can be treated as a separate subcategory. In addition, stretch matching processing is not limited to DP matching, and even when using DP matching,
The recurrence formula used is not limited to the recurrence formula used in the example.

(発明の効果) 本発明は以上説明したように標準パタンの修正
を行うことにより、入力パタンに対して類似度の
判定能力をさらに増すと云う効果がある。
(Effects of the Invention) As explained above, the present invention has the effect of further increasing the ability to determine the similarity of input patterns by modifying the standard pattern.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例における標準パタン
修正方式を示すブロツク図、第2図は特徴ベクト
ルの系列として表わされる2つのパタンの伸縮整
合を行なつたときの写像関数を示す図、第3図
a,bは標準パタンの違いによる写像関数の違い
を示す図、第4図は本実施例に用いられる写像関
数生成手段を示す図、第5図は写像関数を用いて
非線形正規化処理を行なうことを示す図、第6図
はDPマツチング法の一例を示す図、第7図は伸
縮正規化処理の一例を示す図である。 1……累積数記憶手段、2……標準パタン記憶
手段、3……写像関数生成手段、4……平均写像
関数生成手段、5……伸縮正規化手段、6……第
2の写像関数生成手段、7……第2の伸縮正規化
手段、8……平均パタン生成手段、31……距離
演算部、32……漸化式演算部、33……累積値
記憶部、34……最小値選択部、35……写像軌
跡記憶部。
FIG. 1 is a block diagram showing a standard pattern correction method in an embodiment of the present invention, FIG. Figures 3a and b are diagrams showing differences in mapping functions due to differences in standard patterns, Figure 4 is a diagram showing mapping function generation means used in this example, and Figure 5 is a diagram showing nonlinear normalization processing using mapping functions. FIG. 6 is a diagram showing an example of the DP matching method, and FIG. 7 is a diagram showing an example of expansion/contraction normalization processing. DESCRIPTION OF SYMBOLS 1...Cumulative number storage means, 2...Standard pattern storage means, 3...Mapping function generation means, 4...Average mapping function generation means, 5...Stretching/contraction normalization means, 6...Second mapping function generation Means, 7...Second expansion/contraction normalization means, 8...Average pattern generation means, 31...Distance calculation section, 32...Recurrence formula calculation section, 33...Cumulative value storage section, 34...Minimum value Selection unit, 35... Mapping locus storage unit.

Claims (1)

【特許請求の範囲】[Claims] 1 特徴ベクトルの系列として表わされるパタン
を用いたパタン認識に必要な標準パタンを、複数
個または一個の修正用学習パタンを用いて修正す
る標準パタン修正方式において、標準パタンを格
納する標準パタン記憶手段と、前記標準パタンを
作成するために使用した学習パタンの数を記憶し
ている累積学習パタン記憶手段と、順次入力され
る前記修正用学習パタンの各々と前記標準パタン
とを入力し、両者の伸縮整合を行ない、最適な整
合となるときの対応を示す各々の写像関数を出力
する写像関数生成手段と、前記各々の写像関数と
前記修正用学習パタンの個数と前記標準パタンを
作成するために使用した学習パタンの数とで決ま
る荷重平均写像関数を生成する平均写像関数生成
手段と、前記荷重平均写像関数を伸縮正規化用写
像関数として前記標準パタンを伸縮正規化して、
仮の標準パタンを生成する伸縮正規化手段と、前
記修正用学習パタンを順次入力し、前記仮の標準
パタンとの伸縮整合を行ない、最適な整合となる
ときの対応を示す各々の第2の写像関数を出力す
る第2の写像関数生成手段と、前記各々の第2の
写像関数を伸縮整合化用写像関数として前記各々
の修正用学習パタンを伸縮正規化して、前記各々
の修正用学習パタンに対応する修正用伸縮正規化
パタンを出力する第2の伸縮正規化手段と、前記
各各の修正用伸縮正規化パタンを順次入力し、前
記仮の標準パタンと前記標準パタンを作成するた
めに使用した学習パタンの数とで決まる荷重平均
パタンを新しい標準パタンとして出力し、同時に
前記標準パタンを作成するために使用した学習パ
タンの数と前記修正用学習パタンの数の和を新し
い標準パタンを作成するために使用した学習パタ
ンの数として出力する平均パタン生成手段とを含
むことを特徴とする、パタン認識における標準パ
タン修正方式。
1. A standard pattern storage means for storing standard patterns in a standard pattern modification method in which a standard pattern required for pattern recognition using a pattern expressed as a series of feature vectors is modified using a plurality of learning patterns or one learning pattern for modification. , a cumulative learning pattern storage means that stores the number of learning patterns used to create the standard pattern, each of the learning patterns for correction that are inputted sequentially, and the standard pattern; mapping function generating means for performing expansion/contraction matching and outputting respective mapping functions indicating correspondence when optimum matching is achieved; and for generating each of the mapping functions, the number of the correction learning patterns, and the standard pattern. an average mapping function generating means for generating a weighted average mapping function determined by the number of learning patterns used; and stretching and contraction normalizing the standard pattern using the weighted average mapping function as a mapping function for expansion and contraction normalization;
an expansion/contraction normalization means that generates a temporary standard pattern; and a second normalization means that sequentially inputs the learning pattern for correction, performs expansion/contraction matching with the temporary standard pattern, and indicates correspondence when optimal matching is achieved. a second mapping function generating means for outputting a mapping function; and stretching and normalizing each of the correction learning patterns by using each of the second mapping functions as a mapping function for expansion/contraction matching, and generating each of the correction learning patterns. a second elastic normalization means for outputting a correction elastic normalization pattern corresponding to the correction elastic normalization pattern; and a second elastic normalization means for sequentially inputting each of the correction elastic normalization patterns to create the temporary standard pattern and the standard pattern. A weighted average pattern determined by the number of learning patterns used is output as a new standard pattern, and at the same time, the sum of the number of learning patterns used to create the standard pattern and the number of correction learning patterns is calculated as the new standard pattern. 1. A standard pattern correction method for pattern recognition, comprising: average pattern generation means for outputting the number of learning patterns used to create the pattern.
JP59038016A 1984-02-29 1984-02-29 Standard pattern correction system in pattern recognition Granted JPS60181988A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP59038016A JPS60181988A (en) 1984-02-29 1984-02-29 Standard pattern correction system in pattern recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP59038016A JPS60181988A (en) 1984-02-29 1984-02-29 Standard pattern correction system in pattern recognition

Publications (2)

Publication Number Publication Date
JPS60181988A JPS60181988A (en) 1985-09-17
JPH0531792B2 true JPH0531792B2 (en) 1993-05-13

Family

ID=12513775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59038016A Granted JPS60181988A (en) 1984-02-29 1984-02-29 Standard pattern correction system in pattern recognition

Country Status (1)

Country Link
JP (1) JPS60181988A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02263275A (en) * 1989-04-03 1990-10-26 Kiyadeitsukusu:Kk Preparing system for register pattern of handwritten character

Also Published As

Publication number Publication date
JPS60181988A (en) 1985-09-17

Similar Documents

Publication Publication Date Title
US5040222A (en) Pattern generation method for registering handwriting
KR101183391B1 (en) Image comparison by metric embeddings
JP2595495B2 (en) Pattern matching device
US7529651B2 (en) Accurate linear parameter estimation with noisy inputs
Badeau et al. Fast and stable YAST algorithm for principal and minor subspace tracking
US5029212A (en) Continuous speech recognition unit using forward probabilities
JPH0531792B2 (en)
US5220609A (en) Method of speech recognition
JP2570448B2 (en) Standard pattern learning method
JPH0565908B2 (en)
CN115049765A (en) Model generation method, 3D hair style generation method, device, electronic equipment and storage medium
JPH0565907B2 (en)
JPH0251519B2 (en)
CN113628103B (en) High-granularity cartoon face generation method based on multistage loss and related components thereof
JPH06119451A (en) Pattern recognizing device and system using the same
JP2008197463A (en) Speech recognition device and speech recognition method
JPH024919B2 (en)
JP3007357B2 (en) Dictionary update method for speech recognition device
JP2518871B2 (en) Pattern comparator
JP2937235B2 (en) Recognition dictionary learning method and apparatus
JP2778047B2 (en) A neural network that recognizes time-series patterns
JP4971830B2 (en) Perceptron learning device, parameter learning method in perceptron learning device, perceptron learning program, recording medium
JP2882327B2 (en) Line figure matching device
JPH0683938A (en) Method for continuous hand language recognition and device therefor
JPS592954B2 (en) pattern luigi dokeisan sochi

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term