JPS62280986A - Pattern identifying device - Google Patents

Pattern identifying device

Info

Publication number
JPS62280986A
JPS62280986A JP61124231A JP12423186A JPS62280986A JP S62280986 A JPS62280986 A JP S62280986A JP 61124231 A JP61124231 A JP 61124231A JP 12423186 A JP12423186 A JP 12423186A JP S62280986 A JPS62280986 A JP S62280986A
Authority
JP
Japan
Prior art keywords
pattern
input
input pattern
group
patterns
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP61124231A
Other languages
Japanese (ja)
Inventor
Kenzou Noguchi
野口 慊三
Kazumasa Miyamoto
宮本 一正
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP61124231A priority Critical patent/JPS62280986A/en
Publication of JPS62280986A publication Critical patent/JPS62280986A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To improve the accuracy of identification even if an input pattern deviates from its normal position by obtaining projection curves in a direction splited uniformly with 360 deg. to the input pattern and obtaining input information on Perceptron through the extraction of the peaks of the curves. CONSTITUTION:Two types of data stored through general processing by a general processing part 12 and a peak number detection part 14 and through local processing by a local processing part 13, a correlation calculation part 16 and a partial feature extraction filter group 17 are inputted to the Perceptron. As a result an input pattern group is identified and learned, and a newly inputted pattern can be identified to which pattern groups stored it belongs. The titled identifier can efficiently be applicable to the storage and identification of various product patterns.

Description

【発明の詳細な説明】 3、発明の詳細な説明 [産業上の利用分野] 本発明は、各種の製品のパターン記憶・識別に適用され
るパターン識別装置に係わり、特に識別すべき種々の形
状パターンを記憶し、新たな入力パターンを記憶したパ
ターンに識別することが要求されるパターン識別装置に
関する。
Detailed Description of the Invention 3. Detailed Description of the Invention [Field of Industrial Application] The present invention relates to a pattern identification device applied to pattern storage and identification of various products, and particularly relates to a pattern identification device that is applied to pattern storage and identification of various products. The present invention relates to a pattern identification device that is required to store patterns and identify new input patterns to the stored patterns.

[従来の技術] 従来、この種のパターン識別装置に関する代表的文献と
しては、大森−中野の「自己組織化細胞を含む視覚系モ
デル」 (計測自動制御学会論文集。
[Prior Art] Conventionally, a representative document regarding this type of pattern recognition device is Omori-Nakano's “Visual System Model Containing Self-Organizing Cells” (Proceedings of the Society of Instrument and Control Engineers).

VOI 20. No、1.p5B 〜69)が挙げら
れる。このモデルでは、入力パターンを微分してそのピ
ークを検出することにより、入力パターンの形状変化が
激しいところをその特徴点として見付け、それらの特徴
点に対してその近傍の特徴を抽出するフィルタを所定の
学習方式により強化していき、複数の入力パターンを繰
返し見せることにより、入力パターン群に含まれている
種々の代表的特徴パターンを抽出するフィルタを形成し
ていく。
VOI 20. No, 1. p5B-69). In this model, by differentiating the input pattern and detecting its peak, points where the shape of the input pattern changes drastically are found as feature points, and a predetermined filter is applied to those feature points to extract features in the vicinity. By repeatedly showing a plurality of input patterns, a filter is formed that extracts various representative feature patterns included in the input pattern group.

そこで、上記入力パターン群に対して、1つのパターン
をモデルに呈示したときに、各特徴点に対してその近傍
と上記に示したように形成されたフィルタと既存のフィ
ルタとの相関を計算し、各フィルタに対応した記憶装置
に加算していき、全ての特徴点に対して同様の処理を行
う。この結果得られた記憶装置のデータをパーセプトロ
ンへの入力とすることにより、入力パターン群を識別学
習できるようにする。
Therefore, when one pattern is presented to the model for the above input pattern group, the correlation between the neighborhood of each feature point, the filter formed as shown above, and the existing filter is calculated. , are added to the storage device corresponding to each filter, and the same processing is performed on all feature points. By inputting the data in the storage device obtained as a result to the perceptron, a group of input patterns can be identified and learned.

以上によりパターン識別装置が完成し、新しい入力パタ
ーンに対して既に記憶した入力パターン群のどれに属す
るかを識別できる。以上をまとめると、第1に入力パタ
ーン群に含まれる特徴を抽出するフィルタを学習形成し
、第2に繰返し呈示される入力パターン群の各パターン
に対して上記フィルタによりその特徴を抽出し、その結
果をパーセプトロンの入力とすることにより、入力パタ
ーン群の識別学習が可能となる。
With the above steps, the pattern identification device is completed, and it is possible to identify which of the already stored input pattern groups a new input pattern belongs to. To summarize the above, first, a filter is learned to extract features included in a group of input patterns, and second, the features are extracted using the filter for each pattern of the input pattern group that is repeatedly presented, and By using the results as input to the perceptron, it becomes possible to perform discriminative learning on a group of input patterns.

[発明が解決しようとする問題点コ しかしながら、この種の装置にあっては次の■■ような
問題があった。即ち、 ■ 局所特徴フィルタと特徴点との相関量の統計のみが
パーセプトロンの主要な入力データであり、局所的特徴
の相対的位置関係を拘束する情報が入力されていないた
め、パターン識別能力が劣る。
[Problems to be Solved by the Invention However, this type of device has the following problems. That is, ■ The main input data of the perceptron is only the statistics of the amount of correlation between the local feature filter and the feature points, and the pattern identification ability is poor because information that constrains the relative positional relationship of the local features is not input. .

■ 特徴抽出フィルタを学習により形成するため、既存
のフィルタとの間に冗長性が生じ、結果としてからなず
しも最適なフィルタが形成されない。
■ Since feature extraction filters are formed through learning, redundancy occurs between them and existing filters, and as a result, an optimal filter cannot be formed.

本発明は上記事情を考慮してなされたもので、その目的
とするところは、識別すべき種々の形状のパターンを記
憶し、新たな人カバターンを記憶したパターンに識別す
ることができ、且つ入力パターンの位置ずれに拘らず高
い識別能力を得ることのできるパターン識別装置を提供
することにある。
The present invention has been made in consideration of the above circumstances, and its purpose is to store patterns of various shapes to be identified, to be able to identify new human cover patterns to the stored patterns, and to be able to input It is an object of the present invention to provide a pattern identification device that can obtain high identification ability regardless of positional deviation of a pattern.

[問題点を解決するための手段] 本発明の骨子は、次の2つにある。[Means for solving problems] The main points of the present invention are as follows.

(1)局所的特徴の相対的位置関係を拘束する情報とし
て、入力パターンに対して360’を均等分割した方向
からの投影曲線をそれぞれ求め、それらの曲線のピーク
抽出により、その方向への線分が入力パターン中にいく
つあるかを見付け、それらの情報をバーセブトロンの人
力とする。
(1) As information that constrains the relative positional relationship of local features, the projection curves from the directions equally divided into 360′ of the input pattern are obtained, and by extracting the peaks of these curves, the lines in that direction are calculated. Find out how many minutes there are in the input pattern, and use that information as the human power of Bersebtron.

(2)  局所特徴抽出フィルタの冗長性を減少させる
ために、全て予め用意したフィルタを用いる。既に、(
1)において大局的線分要素を抽出している故に、用意
したフィルタはエツジや端点を検出する性質のものであ
る。
(2) In order to reduce the redundancy of local feature extraction filters, all filters prepared in advance are used. already,(
Since global line segment elements are extracted in step 1), the prepared filter has the property of detecting edges and endpoints.

即ち本発明は、パターン識別装置において、入力パター
ンに対して360°を均等分割した方向からの投影曲線
をそれぞれ求め、それらの曲線のピーク検出により、そ
の方向への線分が入力パターン中にいくつあるかを記憶
すると共に、人カバターンを微分してそのピークを検出
することにより、入力パターンの形状変化が激しいとこ
ろをその特徴点として見付け、それらの特徴点に対して
その近傍と既に用意しているフィルタ群との相関を求め
ることにより、相関の高いフィルタを複数個選択し、全
ての特徴点に対して合計としてどのフィルタが何個選ば
れたかと云うことを記憶し、以上の記憶した2種類のデ
ータをパーセプトロンに入力することにより入力パター
ン群を識別学習し、さらに新しい入力パターンに対して
既に記憶した入力パターン群のどれに属するかを識別す
るようにしたものである。
That is, in the present invention, in a pattern identification device, projection curves from directions equally divided into 360° are obtained for the input pattern, and by detecting the peaks of these curves, the number of line segments in that direction is determined in the input pattern. By memorizing whether there is a pattern or not, and by differentiating human cover turns and detecting their peaks, we can find places where the shape of the input pattern changes rapidly as feature points, and use the information about those feature points that have already been prepared in the vicinity. By calculating the correlation with the filter group that exists, multiple filters with high correlation are selected, and the total number of filters selected for all feature points is memorized. By inputting type data into a perceptron, the perceptron learns to identify input pattern groups, and further identifies which of the previously stored input pattern groups a new input pattern belongs to.

[作用] 上記の構成であれば、人カバターンに対して3130°
を均等分割した方向からの投影曲線をそれぞれ求め、そ
れらの曲線のピーク抽出によりパーセプトロンの入力情
報を得ているので、入力パターンの位置ずれに対しても
識別能力を高くすることが可能である。また、人カバタ
ーンの識別に必要な全ての局所特徴抽出フィルタを予め
用意しているので、該フィルタの冗長性を減少させるこ
とが可能となる。
[Function] With the above configuration, the rotation angle is 3130° with respect to the human cover turn.
Since the projection curves from the directions in which the image is equally divided are obtained, and the input information of the perceptron is obtained by extracting the peaks of these curves, it is possible to improve the discrimination ability even with respect to positional deviation of the input pattern. In addition, since all the local feature extraction filters necessary for identifying human cover patterns are prepared in advance, it is possible to reduce the redundancy of the filters.

[実施例コ 以下、本発明の詳細を図示の実施例によって説明する。[Example code] Hereinafter, details of the present invention will be explained with reference to illustrated embodiments.

第1図は本発明の一実施例に係わるパターン認識装置を
示す概略構成図である。図中11は入力バターンを記憶
する画像メモリであり、この画像メモリ11に記憶され
たパターンデータは大局的処理部12及び局所的処理部
13にそれぞれ供給される。
FIG. 1 is a schematic configuration diagram showing a pattern recognition device according to an embodiment of the present invention. Reference numeral 11 in the figure is an image memory for storing input patterns, and the pattern data stored in this image memory 11 is supplied to a global processing section 12 and a local processing section 13, respectively.

大局的処理部12では、入力パターンに対して38(1
”を均等分割した方向からの投影曲線がそれぞれ求めら
れ、それらの曲線のピーク値が求められる。そして、全
てのピーク値に対するピーク値近傍の寄与率のうち特に
大きいものが検出され、これに対応する投影曲線に対し
て、それぞれ平均高さ以上のピークが求められる。そし
て、この求められたピーク数が大局的特徴カウンタ15
に供給される。
In the global processing unit 12, 38 (1
The projection curves from the directions in which `` is equally divided are calculated, and the peak values of these curves are calculated.Then, among all the peak values, a particularly large contribution rate near the peak value is detected, and the corresponding For each projection curve, peaks with a height greater than or equal to the average height are determined.Then, the number of peaks determined is calculated by the global feature counter 15.
supplied to

一方、局所的処理部13では、入力パターンの微分によ
り該パターンの特徴点が検出され、この特徴点は相関演
算部16に供給される。相関演算部16では、特徴点近
傍の入力パターン情報と局所特徴抽出フィルタ群17に
予め用意したフィルタ群との相関が計算され、各特徴点
に対して相関の高い局所特徴抽出フィルタが一定個数選
出される。そして、その選出情報が局所的特徴カウンタ
18に供給される。
On the other hand, the local processing section 13 detects feature points of the input pattern by differentiating the input pattern, and supplies these feature points to the correlation calculation section 16 . The correlation calculation unit 16 calculates the correlation between the input pattern information near the feature point and the filter group prepared in advance in the local feature extraction filter group 17, and selects a certain number of local feature extraction filters with high correlation for each feature point. be done. The selection information is then supplied to the local feature counter 18.

大局的特徴カウンタ15及び局所的特徴カウンタ18は
第1のカウンタ(A層)を構成し、この第1のカウンタ
の記憶情報は第2のカウンタ(R層)19に供給される
。そして、第2のカウンタ19の記憶情報がバーセブト
ロンの入力として用いられるものとなっている。
The global feature counter 15 and the local feature counter 18 constitute a first counter (layer A), and the stored information of this first counter is supplied to a second counter (layer R) 19 . The information stored in the second counter 19 is used as an input to the bersebutron.

なお、局所特徴抽出フィルタ群17は第3図に示す如く
、例えば5X5の行列に形成されている。
Note that the local feature extraction filter group 17 is formed, for example, in a 5×5 matrix, as shown in FIG.

但し、図中・印は(+1)、スペースは(−1)を表わ
している。また、大局的特徴カウンタ15及び局所的特
徴カウンタ1Bは、それぞれ第4図(a)(b)に示す
如く構成されている。即ち、大局的カウンタ15は、第
4図(a)に示すN個のフィルタに対応する個数のカウ
ンタで形成されている。そして、P1フィルタに関して
は、入力パターン中でP1フィルタが0回選出されたら
Oビットのフラグを1にセットする。入力パターン中で
P1フィルタが1回選出されたら1ビツトのフラグを1
にセットする。さらに、入力パターン中でP1フィルタ
がKP回以上選出されたらKPビットのフラグを1にセ
ットするものとなっている。P2〜PMフィルタについ
ても同様である。また、局所的特徴カウンタ18は、第
4図(b)に示すM個のフィルタに対応する個数のカウ
ンタで形成されている。そして、F1フィルタに関して
は、入力パターン中でF1フィルタが0回選出されたら
0ビツトのフラグを1にセットする。入力パターン中で
F1フィルタが1回選出されたら1ビツトのフラグを1
にセットする。さらに、入力パターン中でF1フィルタ
がKF回選出されたらKFビットのフラグを1にセット
するものとなっている。F2〜FMフィルタについても
同様である。
However, in the figure, the mark represents (+1) and the space represents (-1). Further, the global feature counter 15 and the local feature counter 1B are configured as shown in FIGS. 4(a) and 4(b), respectively. That is, the global counter 15 is formed of a number of counters corresponding to the N filters shown in FIG. 4(a). Regarding the P1 filter, if the P1 filter is selected 0 times in the input pattern, the O bit flag is set to 1. When the P1 filter is selected once in the input pattern, the 1-bit flag is set to 1.
Set to . Further, if the P1 filter is selected KP times or more in the input pattern, the KP bit flag is set to 1. The same applies to the P2 to PM filters. Further, the local feature counter 18 is formed of a number of counters corresponding to M filters shown in FIG. 4(b). Regarding the F1 filter, if the F1 filter is selected 0 times in the input pattern, the 0 bit flag is set to 1. When the F1 filter is selected once in the input pattern, the 1-bit flag is set to 1.
Set to . Further, if the F1 filter is selected KF times in the input pattern, the KF bit flag is set to 1. The same applies to the F2 to FM filters.

上記構成された本装置の作用を、第2図を参照して説明
する。いま、デジタル画像入力として、あるパターンが
設定されたとして以下に述べる処理を行う。
The operation of the apparatus configured as described above will be explained with reference to FIG. Now, assuming that a certain pattern is set as a digital image input, the following processing is performed.

局所的処理は次の(Ll)〜(L5)の手順により行う
Local processing is performed by the following steps (Ll) to (L5).

但し、孤立点等のノイズ除去にはMedian fil
ter等の直接なものを適用する。
However, median fil is used to remove noise such as isolated points.
Apply direct ones such as ter.

(Ll)画像メモリー1に記憶された入力パターンS、
を2同機分して、その絶対値を求め、これをSlとする
(Ll) input pattern S stored in image memory 1;
Divide it into two aircraft, find the absolute value, and let this be Sl.

(L2)  S工でピークを全部検出する。これを入力
パターンS。の特徴点と呼ぶ。
(L2) Detect all peaks using S. Input this as pattern S. are called feature points.

(L3)入力パターンSoの特徴点近傍の入力パターン
図形と予め用意した局所特徴抽出フィルタ群17との相
関計算を行う。
(L3) A correlation calculation is performed between the input pattern figure near the feature point of the input pattern So and the local feature extraction filter group 17 prepared in advance.

(L4)各特徴点に対して、局所特徴抽出フィルタ群1
7から相関の高いフィルタを一定個数選出する。
(L4) For each feature point, local feature extraction filter group 1
A certain number of highly correlated filters are selected from 7.

(L5)全部の特徴点に対して、各局所特徴抽出フィル
タが合計何回選出されたかを計算し、それらを局所的特
徴カウンター8にセットする。
(L5) Calculate the total number of times each local feature extraction filter has been selected for all feature points, and set them in the local feature counter 8.

大局的処理は、次のくG1)〜(G4)の手順で行う。The global processing is performed in the following steps G1) to (G4).

(G1)入力パターンSoに対して、360°を均等分
割した方向からの投影曲線をそれぞれ求める。
(G1) For the input pattern So, obtain projection curves from directions equally divided into 360 degrees.

(G2)各投影曲線に対してピーク値を求め、投影曲線
で囲まれる面積に対するピーク値近傍の寄与率P + 
 (t−1〜N)を求める。
(G2) Find the peak value for each projection curve, and calculate the contribution rate P + of the vicinity of the peak value to the area surrounded by the projection curve.
Find (t-1 to N).

(G3)寄与率P、(i−1〜N)の分布の統計デ−タ
(平均μ1分散σ2等)を用いて特異に太きいP、を発
見する。例えば、P、〉μ十に1σ。
(G3) Using statistical data of the distribution of contribution rate P (i-1 to N) (mean μ1 variance σ2, etc.), a uniquely large P is found. For example, P, 〉μ〉1σ.

J                        
  J但し、σ〉k2μとする(k、、に2は正定数)
J
J However, σ>k2μ (k, , 2 is a positive constant)
.

(G4)  (G3)で選ばれたP、を(P  ・・・
、P、)j    jL’     、un とすると、jL、・・・、j劉  に対応する投影曲線
に対して、それぞれの平均高さ以上のピークを全て求め
、そのピーク数を対応する大局的特徴カウンタ15にセ
ットする。
(G4) P selected in (G3) is (P...
,P,)j jL' ,un, for the projection curve corresponding to jL,...,jLiu, find all the peaks above the average height of each, and calculate the number of peaks as the corresponding global feature. Set it on counter 15.

以上により、局所的処理及び大局的処理による特徴抽出
結果を全て特徴カウンタにセットしたことになる。
As described above, all the feature extraction results obtained by local processing and global processing are set in the feature counter.

特徴カウンタの構造は局所的特徴カウンター8と大局的
特徴カウンター5とを並列に設置したものであり、これ
をA層と名付ける。従って、A層は1つのベクトルα−
(al、・・・、aX)で表示され、a、=Oorlで
ある。A層に対してR層があり、これも1つのベクトル
7、−(zl、・・・、zy)で表示され、Z、=Oo
rlの値を取る。aとZとの間の関係は Zi−1,(Σω、、・ a、−h、)   ・・・・
■j、11j    J    1 で与えられる。但し、 ■式のω、、、h、の決定には、所謂バーセットIJ 
    J ロンの学習法を採用する。即ち、与えられたパターン群
に対して、ある特定のパターンに対してZl−1となり
、残りのパターンに対してZl−〇としたいならば、こ
れらのパターンを本パターン認識装置に入力し γ−Y−Z工           ・・・・■を計算
する。但し、YはZl−1にしたい入力パターンに対し
てはY−1、Z 1−0にしたいパターンに対してはY
−0である。そして、γ寓0ならば変更なし γ−1ならばa、>Qなるjについて 但し、Cは正の定数である。
The structure of the feature counter is such that a local feature counter 8 and a global feature counter 5 are installed in parallel, and this is named the A layer. Therefore, layer A has one vector α−
It is expressed as (al, . . . , aX), and a,=Oorl. There is an R layer for the A layer, which is also represented by one vector 7, -(zl,...,zy), and Z,=Oo
Takes the value of rl. The relationship between a and Z is Zi-1, (Σω,,・a,-h,)...
■j, given by 11j J 1. However, to determine ω, , h in the formula, the so-called bar set IJ is used.
Adopt J Ron's learning method. That is, for a given pattern group, if you want to set Zl-1 for a certain pattern and Zl-0 for the remaining patterns, input these patterns to this pattern recognition device and set γ- Y-Z engineering ・・・Calculate ■. However, Y is Y-1 for the input pattern that you want to set to Zl-1, and Y for the pattern that you want to set to Z1-0.
-0. Then, if γ is 0, there is no change; if γ-1, then a, and for j >Q, where C is a positive constant.

■式により、ω 、h を変更していく手続きj   
l を全てのパターンに対して繰返し行うならば、特定のパ
ターンを他のパターンから識別できるようになる。複数
個のパターンを全て分離識別したいならば、Zl、Z2
.・・・・とR層の成分を分離したい入力パターンの数
だけ用意すればよい。
■Procedure j to change ω and h according to the formula
If l is repeated for all patterns, it becomes possible to distinguish a particular pattern from other patterns. If you want to separate and identify multiple patterns, use Zl, Z2
.. . . . It is sufficient to prepare as many input patterns as the number of R layer components from which you want to separate.

かくして本実施例によれば、大局的処理部12及びピー
ク数検出g514による大局的処理と、局所的処理部1
3.相関演算部16及び局所特徴抽出フィルタ群17に
よる局所的処理とにより記憶した2種類のデータをバー
セブトロンに入力することにより、人カバターン群を識
別学習し、さらに新しい入力パターンに対して既に記憶
したパターン群のどれに属するかを識別することができ
る。このため、各種の製品のパターン記憶・識別に効果
的に適用することができる。
Thus, according to this embodiment, the global processing by the global processing unit 12 and the peak number detection g514, and the local processing by the local processing unit 1
3. By inputting the two types of data stored through local processing by the correlation calculation unit 16 and the local feature extraction filter group 17 into the Bersebutron, it learns to identify the human cover pattern group, and furthermore, the already stored patterns are used for new input patterns. You can identify which group it belongs to. Therefore, it can be effectively applied to pattern storage and identification of various products.

なお、本発明は上述した実施例に限定されるものではな
く、その要旨を逸脱しない範囲で、種々変形して実施す
ることができる。例えば、前記局所特徴抽出フィルタ群
の構造は前記第3図に同等限定されるものではなく、識
別すべきパターンに応じて適宜変更可能である。
Note that the present invention is not limited to the embodiments described above, and can be implemented with various modifications without departing from the gist thereof. For example, the structure of the local feature extraction filter group is not limited to that shown in FIG. 3, but can be changed as appropriate depending on the pattern to be identified.

[発明の効果] 以上詳述したように本発明によれば、識別すべき種々の
形状のパターンを記憶し、新たな入力パターンを記憶し
たパターンに識別することができる。しかも、入力パタ
ーンに対して360°を均等分割した方向からの投影曲
線をそれぞれ求めて大局的処理を行うと共に、予め用意
した局所特徴抽出フィルタに基づいて局所的処理を行う
ことにより次のような効果が得られる。
[Effects of the Invention] As described in detail above, according to the present invention, patterns of various shapes to be identified can be stored, and new input patterns can be identified as the stored patterns. In addition, global processing is performed by calculating projection curves from directions equally divided into 360 degrees for the input pattern, and local processing is performed based on local feature extraction filters prepared in advance. Effects can be obtained.

(1)平行移動に対して不変な特徴量を把握するため、
平行移動の位置ずれに対して強い。
(1) In order to understand the feature values that are invariant to parallel movement,
Strong against displacement due to parallel movement.

(2)拡大・縮小したパターンに対しても、全体のパタ
ーンのラフな正規化により認識可能である。
(2) Even enlarged/reduced patterns can be recognized by rough normalization of the entire pattern.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例に係わるパターン識別装置を
示す概略構成図、第2図は上記実施例装置の作用を説明
するための模式図、第3図は上記装置にセットされる局
所特徴抽出フィルタの一例を示す模式図、第4図は大局
的及び局所的特徴カウンタの一例を示す模式図である。 11・・・画像メモリ、12・・・大局的処理部、13
・・・局所的処理部、14・・・ピーク数検出部、15
・・・大局的特徴カウンタ、16・・・相関演算部、1
7・・・局所特徴抽出フィルタ、18・・・局所的特徴
カウンタ、19・・・カウンタ。 出願人復代理人 弁理士 鈴江武彦 第1図
FIG. 1 is a schematic configuration diagram showing a pattern identification device according to an embodiment of the present invention, FIG. 2 is a schematic diagram for explaining the operation of the device according to the embodiment, and FIG. FIG. 4 is a schematic diagram showing an example of a feature extraction filter, and FIG. 4 is a schematic diagram showing an example of global and local feature counters. 11... Image memory, 12... Global processing unit, 13
...Local processing unit, 14...Peak number detection unit, 15
...Global feature counter, 16...Correlation calculation unit, 1
7... Local feature extraction filter, 18... Local feature counter, 19... Counter. Applicant Sub-Agent Patent Attorney Takehiko Suzue Figure 1

Claims (1)

【特許請求の範囲】[Claims] 入力パターンに対して 360°を均等分割した方向か
らの投影曲線をそれぞれ求め、それらの曲線のピーク検
出により、その方向への線分が入力パターン中にいくつ
あるかを記憶すると共に、入力パターンを微分してその
ピークを検出することにより、入力パターンの形状変化
が激しいところをその特徴点として見付け、それらの特
徴点に対してその近傍と既に用意しているフィルタ群と
の相関を求めることにより、相関の高いフィルタを複数
個選択し、全ての特徴点に対して合計としてどのフィル
タが何個選ばれたかと云うことを記憶し、以上の記憶し
た2種類のデータをパーセプトロンに入力することによ
り入力パターン群を識別学習し、さらに新しい入力パタ
ーンに対して既に記憶した入力パターン群のどれに属す
るかを識別することを特徴とするパターン識別装置。
Projection curves from directions equally divided into 360° are calculated for the input pattern, and by detecting the peaks of these curves, the number of line segments in that direction is stored in the input pattern, and the input pattern is By differentiating and detecting the peaks, we can find locations where the shape of the input pattern changes drastically as feature points, and then calculate the correlation between those feature points and the filter group that has already been prepared. , by selecting multiple highly correlated filters, memorizing the total number of filters selected for all feature points, and inputting the two types of data stored above into the perceptron. A pattern identification device characterized by learning to identify a group of input patterns and further identifying to which group of input patterns already stored a new input pattern belongs.
JP61124231A 1986-05-29 1986-05-29 Pattern identifying device Pending JPS62280986A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61124231A JPS62280986A (en) 1986-05-29 1986-05-29 Pattern identifying device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61124231A JPS62280986A (en) 1986-05-29 1986-05-29 Pattern identifying device

Publications (1)

Publication Number Publication Date
JPS62280986A true JPS62280986A (en) 1987-12-05

Family

ID=14880222

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61124231A Pending JPS62280986A (en) 1986-05-29 1986-05-29 Pattern identifying device

Country Status (1)

Country Link
JP (1) JPS62280986A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0268786A (en) * 1988-09-02 1990-03-08 Tdk Corp Manufacture of tape guide
JP2005078375A (en) * 2003-08-29 2005-03-24 Sony Corp Direction recognition device, direction recognition method, direction recognition system, and robot device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0268786A (en) * 1988-09-02 1990-03-08 Tdk Corp Manufacture of tape guide
JP2005078375A (en) * 2003-08-29 2005-03-24 Sony Corp Direction recognition device, direction recognition method, direction recognition system, and robot device
US7672503B2 (en) 2003-08-29 2010-03-02 Sony Corporation Direction-recognizing apparatus, direction-recognizing method, direction-recognizing system, and robot apparatus

Similar Documents

Publication Publication Date Title
Wan et al. An algorithm for multidimensional data clustering
US7200270B2 (en) Pattern recognition apparatus and method using distributed model representation of partial images
Ray et al. Detection of significant points and polygonal approximation of digitized curves
CN110650316A (en) Intelligent patrol and early warning processing method and device, electronic equipment and storage medium
CA2717612A1 (en) Fingerprint representation using gradient histograms
CN106570465A (en) Visitor flow rate statistical method and device based on image recognition
JP7253573B2 (en) Matching method, device, electronic device and computer readable storage medium
CN110991321A (en) Video pedestrian re-identification method based on label correction and weighted feature fusion
JP3914864B2 (en) Pattern recognition apparatus and method
JPH0668309A (en) Pattern discrimination fuzzy inferring device and discrimination rule preparing device
CN109146913B (en) Face tracking method and device
CN109671098A (en) The target tracking method and system of applicable multiple tracking
CN110705554B (en) Image processing method and device
CN116704197B (en) Processing method and system for river and lake remote sensing image
JPS62280986A (en) Pattern identifying device
JP2864735B2 (en) Object identification method and apparatus, and image processing method and apparatus for object identification
CN114842043B (en) Fabric style identification method and system based on image processing
Jiashun A new trajectory clustering algorithm based on TRACLUS
JP2003346147A (en) Object discriminating method, object discriminating device, object discriminating program, and recording medium having the object discriminating program recorded therein
CN115050069A (en) Face and attribute recognition method and system based on deep learning and computer equipment
Wang et al. Fingerprint classification based on continuous orientation field and singular points
CN114898287A (en) Method and device for dinner plate detection early warning, electronic equipment and storage medium
Ho et al. Constructing the optimal rectilinear Steiner tree derivable from a minimum spanning tree
JP2702307B2 (en) Fingerprint correction system
US10796197B2 (en) Automatic method and system for similar images and image fragments detection basing on image content