JPH0632085B2 - How to create a pattern recognition dictionary - Google Patents

How to create a pattern recognition dictionary

Info

Publication number
JPH0632085B2
JPH0632085B2 JP60054573A JP5457385A JPH0632085B2 JP H0632085 B2 JPH0632085 B2 JP H0632085B2 JP 60054573 A JP60054573 A JP 60054573A JP 5457385 A JP5457385 A JP 5457385A JP H0632085 B2 JPH0632085 B2 JP H0632085B2
Authority
JP
Japan
Prior art keywords
pattern
dictionary
learning
input
pattern recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP60054573A
Other languages
Japanese (ja)
Other versions
JPS61214083A (en
Inventor
斎司 蔭山
修 国崎
俊従 尾崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP60054573A priority Critical patent/JPH0632085B2/en
Publication of JPS61214083A publication Critical patent/JPS61214083A/en
Publication of JPH0632085B2 publication Critical patent/JPH0632085B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)

Description

【発明の詳細な説明】 〔発明の利用分野〕 本発明はパターン認識用辞書の作成方法に関する。The present invention relates to a method for creating a pattern recognition dictionary.

〔発明の背景〕[Background of the Invention]

パターン認識では入力パターンと複数個の各カテゴリを
代表する標準パターンの間で比較を行うことにより、一
つの答カテゴリを決定したり、一個以上の候補カテゴリ
を選択する。
In pattern recognition, one answer category is determined or one or more candidate categories are selected by comparing an input pattern with a standard pattern representing a plurality of categories.

具体的には例えば次の様にして、候補カテゴリの選択と
答カテゴリの決定を行う。第1図を参照されたい。
Specifically, for example, a candidate category is selected and an answer category is determined as follows. See FIG.

入力パターンuと複数個のカテゴリC……C
(ここでk1)の代表である標準パターンf
(C),…,f(C)との間の距離d(u,f(C
)),…,d(u,f(C))を計算する。
Input pattern u and a plurality of categories C 1 ... C
A standard pattern f that is a representative of k (here k1)
(C 1 ), ..., f (C k ) and the distance d (u, f (C
1 )), ..., d (u, f (C k )).

各標準パターンf(C)毎に予め定めてある閾値
θ〔f(C)〕に対し、 d(u,f(C))θ〔f(C)〕を満足するカ
テゴリを集める。
A category satisfying d (u, f (C i )) θ [f (C i )] is collected with respect to a threshold value θ [f (C i )] predetermined for each standard pattern f (C i ). .

集めたカテゴリが一つならばそれを答カテゴリとし
て出力する。集めたカテゴリが二つ以上ならばそれらを
答の候補カテゴリとする。〜の手順では各カテゴリ
についてのパターン情報が標準パターンf(C
と閾値θ〔f(C)〕の組として記述されている。全
カテゴリについてこれらの組を集めたものを辞書と呼
ぶ。
If there is only one category, it will be output as the answer category. If the collected categories are two or more, they are used as the candidate categories for the answer. In the procedure from to, the pattern information for each category C i is the standard pattern f (C i )
And a threshold value θ [f (C i )]. A collection of these sets for all categories is called a dictionary.

ところで従来、学習サンプルが増すにつれて逐次的に辞
書を作成するには、各カテゴリC毎に次の(1)〜(2)の手
順の処理を行っていた。
By the way, conventionally, in order to sequentially create a dictionary as the number of learning samples increases, the processes of the following (1) to (2) are performed for each category C.

(1)第1ステップ(初期作成) 学習サンプルu,…,u(ここでm1)に対し、
標準パターンfと閾値θ〔f〕を次の二つの式に従
って計算する。
(1) First step (initial creation) For the learning samples u 1 , ..., U m (here m1),
The standard pattern f m and the threshold value θ [f m ] are calculated according to the following two equations.

(2)第2ステップ(追加作成) 学習サンプルum+1,…,u(n>m)が追加された
とき、標準パターンfと閾値θ〔f〕を追加前と追
加後の全学習サンプルu,…,uを参照して次式に
従って作成する。
(2) a second step (create additional) learning samples u m + 1, ..., when u n (n> m) is added, the standard pattern f n and the threshold θ additional before and after the addition [f n] all the learning samples u 1, ..., with reference to the u n to create according to the following formula.

本辞書作成方法には次の長所と欠点がある。 This dictionary creation method has the following advantages and disadvantages.

(a)長所 第2図に示すように、閾値として標準パターンfと全
学習サンプルu,…,uとの間の最大距離をセット
している。このため、学習サンプルを上記答カテゴリの
選択と答カテゴリの決定の手順に従って認識する場合、
すべての学習サンプルに対して正解カテゴリを侯補カテ
ゴリの一つとして選択することができる。
(a) Advantages As shown in FIG. 2, the maximum distance between the standard pattern f n and all the learning samples u 1 , ..., U n is set as the threshold value. Therefore, when recognizing the learning sample according to the procedure of selecting the answer category and determining the answer category,
The correct category can be selected as one of the candidate categories for all learning samples.

(b)欠点 第2ステップ閾値θ〔f〕を計算するためには、追加
学習サンプルum+1,…,uだけでなく、追加前の学
習サンプルu,…,uも保存しておくことが必要で
あり、メモリ容量が莫大になる。例えば文字認識では一
学習サンプルの記憶にパック形式で30〜300Byte必要で
あるから、学習サンプルが増大しn=2×10(=20
00カテゴリ×100サンプル/カテゴリ)になるとメ
モリ容量として6〜60MByte必要になり、実用的でな
い。
(b) Disadvantages In order to calculate the second step threshold θ [f n ], not only the additional learning samples u m + 1 , ..., U n, but also the learning samples u 1 , ..., U m before the addition are stored. It is necessary to do so, and the memory capacity becomes enormous. For example, in character recognition, 30 to 300 bytes in pack format are required to store one learning sample, so the number of learning samples increases and n = 2 × 10 5 (= 20
(00 categories x 100 samples / category) requires a memory capacity of 6 to 60 MBytes, which is not practical.

また閾値計算時間も(2−3)式における距離計算回数
nが2×10であるため、1回の距離計算時間が0.1〜
1sec/回(マイクロプロセッサ8086を使用)として
も、合計2×10〜2×10secかかり実用的でない。
In addition, since the number of times of distance calculation n in the equation (2-3) is 2 × 10 5 , the distance calculation time is 0.1 to
Even if it is 1 sec / time (using the microprocessor 8086), it takes 2 × 10 4 to 2 × 10 5 sec in total, which is not practical.

特にオンサイトで逐次的に辞書を更新する場合、以上の
メモリ容量と閾値計算時間についての欠点は許しがたい
ものである。
In particular, when the dictionary is updated sequentially on-site, the above-mentioned drawbacks in memory capacity and threshold calculation time are unacceptable.

なお従来の辞書作成方法については次の2つの文献で論
じられている。
The conventional dictionary creation method is discussed in the following two documents.

電子通信学会技術研究報告、PRL80−16、内藤誠
一郎、手書き漢字データの総計的分析 電子通信学会技術研究報告、PRL80−25、赤松
茂、構造集積特徴による手書き漢字の類別実験 〔発明の目的〕 本発明の目的は、上記従来発明の欠点を解消したパター
ン認識用辞書の作成方法を提供することである。
IEICE Technical Report, PRL80-16, Seiichiro Naito, Comprehensive Analysis of Handwritten Kanji Data Technical Report of IEICE, PRL80-25, Shigeru Akamatsu, Classification Experiment of Handwritten Kanji Characters by Structure Accumulation [Objective of the Invention] It is an object of the invention to provide a method for creating a pattern recognition dictionary which solves the above-mentioned drawbacks of the conventional invention.

〔発明の概要〕[Outline of Invention]

本発明では上記目的を達成するために、辞書の追加作成
において、追加前の辞書と追加学習サンプルのみを参照
するだけで、追加前と追加後の全学習サンプルを参照し
て作ったのと同等の性能の辞書を作成できるようにする
ものである。
In the present invention, in order to achieve the above object, in the additional creation of the dictionary, only the dictionary before the addition and the additional learning sample are referred to, and it is equivalent to the case where all the learning samples before and after the addition are referred to. It allows you to create a dictionary of the performance of.

以下、本発明の原理を説明する。各カテゴリC毎に次の
(1)〜(2)の手順を行うことにより、逐次的に辞書を作成
する。
The principle of the present invention will be described below. For each category C
The dictionary is sequentially created by performing steps (1) and (2).

なお本発明では辞書が漂準パターン、閾値、及び
学習サンプル数からなるものとする。
In the present invention, it is assumed that the dictionary is composed of a canonical pattern, a threshold value, and the number of learning samples.

(1)第1ステップ(初期作成) 学習サンプルu,…,u(ここでm1)に対し、
標準パターンfと閾値θ〔f〕を次の二式に従って
計算する。
(1) First step (initial creation) For the learning samples u 1 , ..., U m (here m1),
The standard pattern f m and the threshold value θ [f m ] are calculated according to the following two equations.

初期作成された辞書は標準パターンf,閾値θ
〔f〕,学習サンプル数mである。
The initially created dictionary has a standard pattern f m and a threshold θ.
[F m], a training sample number m.

(2)第2ステップ(追加作成) 学習サンプルum+1,…,u(n>m)が追加された
とき、標準パターンfと閾値θ〔f〕を、追加前の
辞書f,θ〔f〕および追加学習サンプルum+1
…,uを参照して次式に従って作成する。
(2) Second step (additional creation) When the learning samples u m + 1 , ..., U n (n> m) are added, the standard pattern f n and the threshold value θ [f n ] are added to the dictionary f before addition. m, θ [f m] and additional learning sample u m + 1,
, U n are created according to the following equation.

追加作成された辞書は標準パターンf,閾値θ
〔f〕,学習サンプル数nである。
The additionally created dictionary has a standard pattern f n and a threshold θ.
[F n ] is the number of learning samples n.

本発明では、第2ステップの追加作成において、追加前
の学習済みサンプルu,…,uのメモリへの保存
と閾値計算における参照を省くことができるので、従
来発明の欠点を解消することができる。
In the present invention, in the additional creation of the second step, it is possible to save the pre-added learned samples u 1 , ..., U m in the memory and to omit the reference in the threshold calculation, so that the drawbacks of the conventional invention are solved. You can

さらに本発明で作成した辞書を用いた場合も、従来発明
の場合と同様に、十分小さな閾値θ〔f〕を設定する
だけで、すべての学習サンプルに対して正解カテゴリを
候補カテゴリの一つとして選択することができる。その
証明を以下に示す。距離についての三角形不等式を利用
したところがポイントである(第3図参照)。
Further, even when the dictionary created by the present invention is used, just as in the case of the conventional invention, by setting a sufficiently small threshold value θ [f n ], the correct answer category is set as one of the candidate categories for all learning samples. Can be selected as The proof is shown below. The point is to use the triangle inequality for distance (see Fig. 3).

〔全学習サンプルに対して正解カテゴリを候補カテゴリ
に上げられることの証明〕 追加前学習サンプルu,i=1,…,mについて (5-1)式では距離について三角形不等式が適用されてい
る。
[Proof that correct answer category can be raised to candidate category for all learning samples] About pre-addition learning samples u i , i = 1, ..., M In equation (5-1), the triangle inequality is applied to the distance.

追加後学習サンプルu,i=m+1,…,nについ
全学習サンプルu,i=1,…,nについて(5-
2),(5-3)式より d(f,uつまり(5-4)式は、追加前と追加後の全学習サンプルu
(ここでi=1,…,n)が標準パターンfから距
離θ〔f〕以内にあることを示している。(証明終
り) また辞書に蓄える標準パターンとして、平均標準パター
ンf,fの代りに累積標準パターンu,u、こ
こでu=m・f=n・f を用いる場合についても、同様にして辞書を作成するこ
とができる。
For post-addition learning sample u i , i = m + 1, ..., N For all learning samples u i , i = 1, ..., N (5-
2), from equation (5-3), d (f n , u i ) In other words, equation (5-4) is used for all learning samples u before and after addition.
It is shown that i (where i = 1, ..., N) is within the distance θ [f n ] from the standard pattern f n . (End of proof) Further, as standard patterns to be stored in the dictionary, cumulative standard patterns u m and u n , where u m = m · f m u n = n · f n are used instead of the average standard patterns f m and f n. Also in the case, a dictionary can be similarly created.

〔発明の実施例〕Example of Invention

次に本発明の一番目の実施例を第4図の構成例を用いて
上記原理の説明と対応させながら説明する。構成例はパ
ターン観測部11、特徴抽出部12、学習サンプルメモリ
部13、辞書計算部14、辞書メモリ部15及び制御部16から
なる。パターン観測部11は文字パターンや音声パターン
などの入力パターン10aを電気信号11aに変換する部分で
あり、スキャナ,マイクロホンなどからなる。特徴抽出
部12は入力された電気信号11aに対し前処理、正規化、
特徴抽出などを行い特徴パターン12aを出力する。学習
サンプルメモリ部13は12が出力した特徴パターンを学習
サンプルとして格納する。初期作成の場合は学習サンプ
ルu,…,uを格納し、追加作成の場合はサンプル
m+1,…,uを格納する。辞書計算部14は辞書を計
算する部分である。初期作成では式(3-1),(3-2)を用い
て計算する。この場合14へは13aの学習サンプルu
…,uが入力され14aの辞書f,θ〔f〕,mが
出力される。追加作成では式(4-1),(4-2)を用いて計算
する。この場合14へは13aの追加学習サンプルum+1
…,u及び15aに対応班する追加学習前の辞書f
θ〔f〕,mが入力される。14aに対応する辞書
,θ〔f〕,nが出力される。辞書メモリ部15は
14で作成した辞書14aを記憶する部分である。制御部16
は10a,11a,…などの信号の制御を行う。第4図におい
ては、図のはん雑化をさけるため制御信号線を省略し
た。
Next, a first embodiment of the present invention will be described with reference to the above principle using the configuration example of FIG. The configuration example includes a pattern observation unit 11, a feature extraction unit 12, a learning sample memory unit 13, a dictionary calculation unit 14, a dictionary memory unit 15, and a control unit 16. The pattern observing unit 11 is a unit that converts an input pattern 10a such as a character pattern or a voice pattern into an electric signal 11a, and includes a scanner, a microphone, and the like. The feature extraction unit 12 performs preprocessing, normalization, on the input electric signal 11a,
A feature pattern 12a is output by performing feature extraction. The learning sample memory unit 13 stores the characteristic pattern output by 12 as a learning sample. Learning samples u 1 , ..., U m are stored in the case of initial generation, and samples u m + 1 , ..., U n are stored in the case of additional generation. The dictionary calculation unit 14 is a unit that calculates a dictionary. In the initial creation, calculations are performed using equations (3-1) and (3-2). In this case, the learning sample u 1 of 13a
, U m are input, and the dictionaries f m , θ [f m ], m of 14a are output. For additional creation, calculations are performed using equations (4-1) and (4-2). In this case, the additional learning sample u m + 1 of 13a to 14
..., dictionary before additional learning corresponding group to u n and 15a f m,
θ [f m], m is input. The dictionaries f n , θ [f n ], n corresponding to 14a are output. The dictionary memory unit 15
This is a part for storing the dictionary 14a created in 14. Control unit 16
Controls signals such as 10a, 11a, .... In FIG. 4, control signal lines are omitted to avoid complication of the drawing.

なお文字認識で用いる特徴パターン12aの例としては
周辺分布特徴、ストローク密度関数特徴、ペリフェ
ラル特徴、方向性パターン特徴、その他がある。
の例を第5図の(a)に、の例を第5図の(b)に示す。
の例を第5図の(c)と(d)に示し、の例を第6図の
(b),(c),(d),(e)に示す。
Examples of the feature pattern 12a used in character recognition include marginal distribution feature, stroke density function feature, peripheral feature, directional pattern feature, and others.
An example of is shown in FIG. 5 (a), and an example of is shown in FIG. 5 (b).
An example of is shown in (c) and (d) of FIG. 5, and an example of is shown in FIG.
Shown in (b), (c), (d), and (e).

次に本発明の二番目の実施例を第7図の構成例を用いて
説明する。第7図の構成は第4図の構成に整合部17、判
定部18、修正部19を付加したものである。これらを付加
したため、入力パターンのカテゴリが予め分っていない
場合にも辞書が作成できるようになった。(一番目の実
施例では予め入力パターンのカテゴリが分っていること
が必要だった。)というのは17部,18部,19部によるパ
ターン認識処理と修正処理で、各入力パターンの正しい
カテゴリを得ることができるからである。
Next, a second embodiment of the present invention will be described using the configuration example of FIG. The configuration of FIG. 7 is obtained by adding a matching unit 17, a determination unit 18, and a correction unit 19 to the configuration of FIG. Since these are added, the dictionary can be created even when the category of the input pattern is not known in advance. (In the first embodiment, it was necessary to know the category of the input pattern in advance.) Means that the pattern recognition process and the correction process by 17, 18, and 19 parts are correct categories of each input pattern. Because you can get

以下詳しく説明する。文字パターンや音声パターンなど
の入力パターン10aの例をパターン観測部11に入力する
と電気信号11aが出力される。特徴抽出部12は入力され
た電気信号11aに対し、前処理、正規化、特徴抽出など
を行い特徴パターン12aの列um+1,…,uを出力す
る。各特徴パターンu(ここでi=m+1,…,n)は
整合部17において、上記入力パターン列を入力する前の
辞書15aに属するすべての標準パターンとの間で距離が
評価される。続いて上記距離データに基づいて判定部18
が答カテゴリや候補カテゴリを計算し、ディスプレイに
表示する。修正部19では本装置のユーザが、入力パター
ンと答カテゴリ、候補カテゴリなどを参照しながら、答
カテゴリを修正する。以上の処理により、修正した答カ
テゴリを付加した学習サンプルum+1,…,uが得ら
れた。これらを学習サンプルメモリ部13へ格納する。以
下辞書計算部14では入力である13aの追加学習サンプル
m+1,…,u及び追加学習前の辞書15aを用いて、辞
書の追加作成を行う。出力として追加作成後の辞書14a
が得られる。
This will be described in detail below. When an example of the input pattern 10a such as a character pattern or a voice pattern is input to the pattern observation unit 11, an electric signal 11a is output. The feature extraction unit 12 performs preprocessing, normalization, feature extraction, and the like on the input electric signal 11a, and outputs a sequence u m + 1 , ..., U n of the feature pattern 12a. The matching section 17 evaluates the distance between each feature pattern u i (where i = m + 1 , ..., N) with all standard patterns belonging to the dictionary 15a before the input pattern sequence is input. . Then, the determination unit 18 based on the distance data
Calculates answer categories and candidate categories and displays them on the display. In the correction unit 19, the user of this device corrects the answer category while referring to the input pattern, the answer category, the candidate category, and the like. By the above processing, the learning sample u m + 1 obtained by adding the answer categories modified, ..., u n are obtained. These are stored in the learning sample memory unit 13. Thereafter, the dictionary calculation unit 14 uses the additional learning samples u m + 1 , ..., U n of the input 13a and the dictionary 15a before the additional learning to create an additional dictionary. Dictionary 14a after additional creation as output
Is obtained.

本実施例では、以上のように入力パターンのカテゴリが
分っていない場合にも、ユーザが本装置でパターン認識
(文字認識や音声認識)を行いながら辞書を逐次的に作
成することができる。
In the present embodiment, even when the category of the input pattern is not known as described above, the user can successively create the dictionary while performing pattern recognition (character recognition or voice recognition) with this apparatus.

なお本実施例では入力パターン列から得られたすべての
特徴パターンを学習サンプルとした。学習サンプルとし
ての次の〜を用いても同様にして辞書を作ることが
できる。
In this embodiment, all the characteristic patterns obtained from the input pattern sequence are used as learning samples. A dictionary can be created in the same manner by using the following ~ as learning samples.

上記すべての特徴パターンからユーザが学習すべき
でないと判断した特跳徴パターンを除いたものを学習サ
ンプルとする。
A learning sample is obtained by excluding the special jump pattern determined by the user not to be learned from all the above characteristic patterns.

入力パターンをパターン認識してエラー又はリジェ
クトになった特徴パターンを学習サンプルとする。
A feature pattern that is an error or rejected by recognizing the input pattern is used as a learning sample.

エラー又はリジェクトになった特徴パターンからユ
ーザが学習すべきでないと判断した特徴パターンを除い
たものを学習サンプルとする。
A learning sample is obtained by excluding the characteristic pattern determined by the user not to be learned from the characteristic pattern that has become an error or rejected.

なお、以上の学習サンプル選択、判断処理は第7図の修
正部19で行うことができる。
The learning sample selection and determination processing described above can be performed by the correction unit 19 in FIG.

以上の実施例は、マイクロプロセッサ、メモリ、スキャ
ナ、マイクロホン、ディスプレイなどを用いて実現する
ことができる。
The above embodiments can be realized by using a microprocessor, a memory, a scanner, a microphone, a display and the like.

以上の実施例は辞書がカテゴリ当り一組の標準パターン
と閾値から成る場合についてのものであった。カテゴリ
当り複数組の標準パターンと閾値を用いると認識性能を
さらに向上することができる。この場合についても、本
発明は適用することができる。
The above embodiment is for the case where the dictionary consists of a set of standard patterns and thresholds per category. The recognition performance can be further improved by using a plurality of sets of standard patterns and thresholds for each category. The present invention can be applied to this case as well.

〔発明の効果〕〔The invention's effect〕

本発明により得られた効果をまとめると以下のようにな
る 辞書の追加作成において、追加学習前に使用した学
習済みサンプルを参照する必要がなくなる。そのため、
i学習済みサンプル保存用メモリが不要になり、メモリ
容量を削減することができる。またii閾値計算で学習済
みサンプルと追加学習後の新標準パターンとの間の距離
計算も不要になるため、計算時間も大幅に短縮すること
ができる。
The effects obtained by the present invention can be summarized as follows: In the additional creation of the dictionary, it is not necessary to refer to the learned sample used before the additional learning. for that reason,
Since the memory for storing the i-learned samples is not required, the memory capacity can be reduced. In addition, since it is not necessary to calculate the distance between the learned sample and the new standard pattern after the additional learning in the ii threshold calculation, the calculation time can be significantly reduced.

学習サンプルを認識する場合、すべての学習サンプ
ルに対して正解カテゴリを侯補カテゴリの一つに上げる
ことができる。しかも侯補カテゴリ数は認識対象全カテ
ゴリ数に比べ十分小さくすることができる。
When recognizing learning samples, the correct category can be raised to one of the candidate categories for all learning samples. Moreover, the number of complementary categories can be made sufficiently smaller than the number of all categories to be recognized.

【図面の簡単な説明】[Brief description of drawings]

第1図は侯補カテゴリの選択と答カテゴリの決定手順を
説明するための図、第2図は辞書の作成手順を説明する
ための図、第3図は本発明の原理を説明するための図、
第4図は本発明の一番目の実施例の構成を示す図、第5
図と第6図は文字認識で用いる特徴パターンの例を示す
図、第7図は本発明の二番目の実施例の構成を示す図で
ある。 11……パターン観測部 12……特徴抽出部 13……学習サンプルメモリ部 14……辞書計算部 15……辞書メモリ部 16……制御部 17……整合部 18……判定部 19……修正部 10a……入力パターン 11a……電気信号 12a……特徴パターン 13a……学習サンプル 14a……辞書計算部からの出力である更新後の辞書 15a……辞書計算部への入力である更新前の辞書
FIG. 1 is a diagram for explaining a procedure for selecting a candidate category and determining an answer category, FIG. 2 is a diagram for explaining a procedure for creating a dictionary, and FIG. 3 is a diagram for explaining the principle of the present invention. Figure,
FIG. 4 is a diagram showing the configuration of the first embodiment of the present invention, and FIG.
6 and 6 are diagrams showing examples of characteristic patterns used in character recognition, and FIG. 7 is a diagram showing the configuration of the second embodiment of the present invention. 11 ... Pattern observation section 12 ... Feature extraction section 13 ... Learning sample memory section 14 ... Dictionary calculation section 15 ... Dictionary memory section 16 ... Control section 17 ... Matching section 18 ... Judgment section 19 ... Correction Part 10a …… Input pattern 11a …… Electrical signal 12a …… Feature pattern 13a …… Learning sample 14a …… Updated dictionary output from the dictionary calculator 15a …… Input to the dictionary calculator before update dictionary

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】学習サンプルと呼ぶ特徴パターンの同じカ
テゴリについての平均値である標準パターン、上記平均
値を構成するすべての学習サンプルと上記平均値の間の
最大距離をもって定義した閾値、及び各平均値を求める
際に用いるサンプル数である学習サンプル数とからなる
パターン認識用辞書を作成するパターン認識用辞書の作
成方法において、学習サンプルが逐次的に追加された場
合、追加後の辞書となる標準パターン(f)と閾値
(θ〔f〕)と学習サンプル数nを、追加学習サンプ
ル(um+1…u)と、追加前の辞書である標準パター
ンf、閾値θ〔f〕及び学習サンプル数mとを用い
て、 により算出して求めることを特徴とするパターン認識用
辞書の作成方法。
1. A standard pattern, which is an average value for the same category of feature patterns called a learning sample, a threshold value defined by a maximum distance between all the learning samples forming the average value and the average value, and each average. In the pattern recognition dictionary creation method that creates a pattern recognition dictionary consisting of the number of learning samples that is the number of samples used to obtain a value, when learning samples are added sequentially, the standard that becomes the dictionary after addition The pattern (f n ), the threshold value (θ [f n ]), the learning sample number n, the additional learning sample (u m + 1 ... u n ), the standard pattern f m that is the dictionary before the addition, and the threshold value θ [f m ] and the number of learning samples m, A method for creating a pattern recognition dictionary, which is characterized by being calculated and obtained by.
【請求項2】入力パターンに対し、入力パターン入力前
の辞書による上記入力パターンのパターン認識及びパタ
ーン認識後の答カテゴリの修正を施して得られる特徴パ
ターンを、追加学習サンプルとしたことを特徴とする特
許請求の範囲第1項記載のパターン認識用辞書の作成方
法。
2. A feature pattern obtained by subjecting an input pattern to pattern recognition of the input pattern by a dictionary before input of the input pattern and correction of an answer category after the pattern recognition is used as an additional learning sample. A method for creating a pattern recognition dictionary according to claim 1.
【請求項3】入力パターンに対し、入力パターン入力前
の辞書による上記入力パターンのパターン認識及びパタ
ーン認識後の答カテゴリの修正を施して得られる特徴パ
ターンを、追加学習サンプル敏たことを特徴とする特許
請求の範囲第1項記載のパターン認識用辞書の作成方
法。
3. A feature pattern obtained by subjecting an input pattern to pattern recognition of the input pattern by a dictionary before input of the input pattern and correction of an answer category after the pattern recognition is characterized by an additional learning sample. A method for creating a pattern recognition dictionary according to claim 1.
JP60054573A 1985-03-20 1985-03-20 How to create a pattern recognition dictionary Expired - Lifetime JPH0632085B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP60054573A JPH0632085B2 (en) 1985-03-20 1985-03-20 How to create a pattern recognition dictionary

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP60054573A JPH0632085B2 (en) 1985-03-20 1985-03-20 How to create a pattern recognition dictionary

Publications (2)

Publication Number Publication Date
JPS61214083A JPS61214083A (en) 1986-09-22
JPH0632085B2 true JPH0632085B2 (en) 1994-04-27

Family

ID=12974432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP60054573A Expired - Lifetime JPH0632085B2 (en) 1985-03-20 1985-03-20 How to create a pattern recognition dictionary

Country Status (1)

Country Link
JP (1) JPH0632085B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2859619B2 (en) * 1988-11-18 1999-02-17 富士通株式会社 Color identification circuit
US5121441A (en) * 1990-09-21 1992-06-09 International Business Machines Corporation Robust prototype establishment in an on-line handwriting recognition system

Also Published As

Publication number Publication date
JPS61214083A (en) 1986-09-22

Similar Documents

Publication Publication Date Title
CN111046133B (en) Question and answer method, equipment, storage medium and device based on mapping knowledge base
EP0319140B1 (en) Speech recognition
CN109255289B (en) Cross-aging face recognition method based on unified generation model
CN111461201A (en) Sensor data classification method based on phase space reconstruction
CN116363712B (en) Palmprint palm vein recognition method based on modal informativity evaluation strategy
CN112270344A (en) Image description generation model method based on CBAM
CN109800309A (en) Classroom Discourse genre classification methods and device
CN114384999B (en) User-independent myoelectric gesture recognition system based on self-adaptive learning
CN114220179A (en) On-line handwritten signature handwriting retrieval method and system based on faiss
CN112084944B (en) Dynamic evolution expression recognition method and system
CN116645683A (en) Signature handwriting identification method, system and storage medium based on prompt learning
JPH0632085B2 (en) How to create a pattern recognition dictionary
CN112465054B (en) FCN-based multivariate time series data classification method
CN114842696A (en) English teaching method based on intelligent terminal
CN111310546B (en) Method for extracting and authenticating writing rhythm characteristics in online handwriting authentication
CN114357166A (en) Text classification method based on deep learning
CN107492384B (en) Voice emotion recognition method based on fuzzy nearest neighbor algorithm
CN111813975A (en) Image retrieval method and device and electronic equipment
JPH0458073B2 (en)
CN117235137B (en) Professional information query method and device based on vector database
CN115909317B (en) Learning method and system for three-dimensional model-text joint expression
JP2701311B2 (en) Character recognition device with recognition dictionary creation function
JP3925011B2 (en) Pattern recognition apparatus and recognition method
Xia et al. An efficient off-line handwritten Japanese address recognition system
CN116434027A (en) Artificial intelligent interaction system based on image recognition