JPS60140482A - Picture collation system - Google Patents

Picture collation system

Info

Publication number
JPS60140482A
JPS60140482A JP24628383A JP24628383A JPS60140482A JP S60140482 A JPS60140482 A JP S60140482A JP 24628383 A JP24628383 A JP 24628383A JP 24628383 A JP24628383 A JP 24628383A JP S60140482 A JPS60140482 A JP S60140482A
Authority
JP
Japan
Prior art keywords
picture
image
collation
input
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP24628383A
Other languages
Japanese (ja)
Inventor
Kuniaki Tabata
邦晃 田畑
Haruo Takeda
晴夫 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP24628383A priority Critical patent/JPS60140482A/en
Publication of JPS60140482A publication Critical patent/JPS60140482A/en
Pending legal-status Critical Current

Links

Landscapes

  • Collating Specific Patterns (AREA)

Abstract

PURPOSE:To execute picture overlapping with high accuracy by correcting (eliminating or restoring) the deficiency part of an input picture and by forming the parameter for pattern matching. CONSTITUTION:Picture data and the density pattern of the designated registration picture are read from a file 60. The designated picture data are stored in a picture memory device 30 and the density pattern is stored in a main memory device 20 respectively. The collation picture on an input original is read from a picture input device 50, and it is stored on the picture memory device 30. Coordinates of the rotational center of the collation picture are calculated, and then, the density pattern of the collation picture is calculated. The parameter is calculated concerning the collation picture, the required area is obtained based on the parameter, and the rotational angle of the collation picture which is necessary for overlapping of the registration picture and the collation picture is obtained. Finally, the collation picture is shifted in parallel so that rotational centers of the registration picture and the collation picture will coincide, and both pictures are overlapped by rotating by only the required angle.

Description

【発明の詳細な説明】 〔発明の利用分野〕 本発明は、主として印鑑画像等のように、回転対称の輪
郭を持つ画像のパターン・マツチング処理に適する画像
照合方式に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Application of the Invention] The present invention mainly relates to an image matching method suitable for pattern matching processing of images having rotationally symmetrical contours, such as seal images.

〔発明の背景〕[Background of the invention]

印鑑照合等の画像照合を自動化する要求が高1っている
。代表別として印鑑照合について述べると、この画像照
合は、事前にファイリングした印鑑の登録画像と、入力
装置から読込捷れた第二の印鑑画像(照合画像)を重ね
合わせて、両者の一致度評価を行々う、いわゆる、パタ
ーン・マツチング処理が中心である。
There is a high demand for automating image verification such as seal verification. Speaking of seal verification as a typical example, this image verification involves superimposing a registered image of a seal that has been filed in advance and a second seal image (verification image) read in from an input device and evaluating the degree of match between the two. The main focus is so-called pattern matching processing.

第1図は、本発明が適用される画像照合システムの概念
図である。ファイル5に格納された登録画像の中から、
画像名指定により該当する画像データを抽出し、一方、
両袖入力装置2から照合画像1を読み込み、両画像デー
タのパターン・マツチング処理をする。この時、処理装
置6で画像を平行移動1回転1重ね合わせることにより
両画像データの一致度を評価する。
FIG. 1 is a conceptual diagram of an image matching system to which the present invention is applied. From the registered images stored in file 5,
Extracts the corresponding image data by specifying the image name, and
A matching image 1 is read from the double-sided input device 2, and pattern matching processing is performed on both image data. At this time, the processing device 6 evaluates the degree of coincidence between the two image data by translating the images one rotation and overlapping the images one time.

とくに、対象とする画像が回転対称の輪郭を持つ2次元
画像である場合は、回転中心の位置を計算する必gがあ
り、その精厩がパターン・マツチング処理の成否を左右
する。
In particular, when the target image is a two-dimensional image with a rotationally symmetrical contour, it is necessary to calculate the position of the center of rotation, and the accuracy of this calculation determines the success or failure of the pattern matching process.

従来方式(金子、釜江:図心に関する周辺密度の相関を
利用した印影パターンの位置合わせ法。
Conventional method (Kaneko, Kamae: A method for positioning seal imprint patterns using the correlation of peripheral density with respect to the centroid.

電子通信学会研究会資料、IE81−16)では、第2
図に示すように、座標軸に平行な2組の直線と画像の輪
郭(第2図の斜線部)との外接点の座標xm+n 、x
 mix 、 Ymln 、 Y m&Xにもとづいて
、回転中心の座標(XO,YO) を次式で計算する方
法が用いられている。
IE81-16), IE81-16), the second
As shown in the figure, the coordinates xm+n, x
A method is used in which the coordinates (XO, YO) of the center of rotation are calculated using the following formula based on mix, Ymln, Ym&X.

しかし、印鑑等でも明らかなように、一般に、コンピュ
ータへの入力画像は、つぶれやかすれ等の変動が生じる
ので、式(1)におけるX +nln 、 XrraX
 。
However, as is clear from seal stamps, etc., images input to a computer generally undergo fluctuations such as blurring or blurring, so X +nln, XrraX in equation (1)
.

ymtn 、Ymaxの値は入力画像の状況に左右され
て誤差が生じやすい。したがって、上記の単純な方法で
は、回転中心位置の計算精度が低下するという問題があ
った。
The values of ymtn and Ymax are influenced by the conditions of the input image and are likely to have errors. Therefore, the simple method described above has a problem in that the calculation accuracy of the rotation center position decreases.

この問題を解決するために、第3図に示すように、座標
軸に平行な直?fM −e3++ 、 13+t 、&
 + 、A22 ノホカ座標軸と斜めに交叉する直線を
も利用して、回転中心の位置を計算する方式を出願人等
は既に提案している(特願昭58−55071)。
In order to solve this problem, as shown in Fig. fM −e3++ , 13+t , &
+, A22 The applicant has already proposed a method for calculating the position of the center of rotation by also utilizing a straight line that diagonally intersects the Nohoka coordinate axis (Japanese Patent Application No. 58-55071).

例えば座標軸と45°をなす2組の直?fMぷ31 +
42 +4、+42 と画像との外接点(第6図に示す
Plj。
For example, two sets of perpendicular lines that form 45 degrees with the coordinate axes? fMpu31 +
42 +4, +42 and the external contact point with the image (Plj shown in FIG. 6).

I−1〜4. j=1〜2)の座標にもとづいて、回転
中心の座標(Xo、Yo)を定めるものである。
I-1 to 4. The coordinates (Xo, Yo) of the center of rotation are determined based on the coordinates of j=1 to 2).

その基本概念を以下、説明する。いま、点Pljの座標
を(”j+y’j)とし、2点pH,p12の中点Ql
の座標を(ul、vl)とする(+−1〜4゜j=1〜
2)。すなわち u +−(x N十x + 2 )/2 式(2)v 
I−(y H+y I 2 ) /2 式(3)式(2
)〜(3)に示す4点(q+)の座標にもとづき、当該
画像の回転中心(Xo、Yo)を次のように定める。
The basic concept will be explained below. Now, let the coordinates of point Plj be ("j+y'j), and the midpoint Ql of the two points pH, p12
Let the coordinates of (ul, vl) be (+-1~4°j=1~
2). That is, u + - (x N + x + 2)/2 Equation (2) v
I−(y H+y I 2 ) /2 Formula (3) Formula (2
Based on the coordinates of the four points (q+) shown in ) to (3), the rotation center (Xo, Yo) of the image is determined as follows.

Xo=f (ul、u2.u3.u4) 式(4)Yo
−g(v11v2.v3.v4) 式(5)ここに、r
+gけ、それぞれ、(,1)lv量)の代表値を定める
関数を表わす。f、gとして種種の関数を用いることが
できる。例えば、算術平均f=ΣU量/41g−Σv 
l / 4として定義することができる。まだ、(ut
)、(vl)の集合から最大値と最小値を除く、残りの
2つのデータの平均として定義することも可能である。
Xo=f (ul, u2.u3.u4) Formula (4) Yo
-g(v11v2.v3.v4) Formula (5) where, r
+g, respectively, represent a function that determines the representative value of (, 1) lv amount). Various functions can be used as f and g. For example, arithmetic mean f=ΣU amount/41g−Σv
It can be defined as l/4. Still (ut
), (vl) by removing the maximum value and minimum value and defining it as the average of the remaining two data.

いずれにせよ(ul)、(vl)の代表値として、回転
中心の座標(Xo 、 Yo )を定めるので、当該画
像のつぶれやかすれ等の変動による回転中心の計算誤差
を従来方式に比較して低減することができる。
In any case, since the coordinates (Xo, Yo) of the rotation center are determined as the representative values of (ul) and (vl), the calculation error of the rotation center due to fluctuations such as blurring or blurring of the image can be compared with the conventional method. can be reduced.

一方、画像データのパターン・マツチ7fを行なうため
には、以上のような回転中心の位置を計算するほかに、
画像の[回転角を計算する処理が必袈である。この回転
角計算については、出願人等が既に発明(特願昭58−
176262)シだ方式があり、これを説明すると次の
通りである。すなわち、第4図に示すように、回転中心
(xo 、 Yo)を起点として、X軸と角度θ(0≦
θ≦2π)を形成する半直線L(θ)上に存在する黒画
素(濃度カビ1″の画素)の数を記号f(θ)で表わす
(第4図参照)。f(0)はO≦θ≦2πの各θについ
て定義され、これを1a度パターン」と呼ぶ。照合画像
と登録画像の各々の濃度パターンをr+(θ)。
On the other hand, in order to perform pattern matching 7f of image data, in addition to calculating the position of the rotation center as described above,
It is necessary to calculate the rotation angle of the image. Regarding this rotation angle calculation, the applicant and others have already invented it (patent application 1982-
176262) There is a different method, which is explained as follows. That is, as shown in Fig. 4, the rotation center (xo, Yo) is the starting point, and the angle θ (0≦
The number of black pixels (pixels with a density of 1") existing on the half-line L(θ) forming θ≦2π) is represented by the symbol f(θ) (see Figure 4). f(0) is O It is defined for each θ of ≦θ≦2π, and this is called a 1a degree pattern. The density pattern of each of the verification image and registered image is r+(θ).

f、(のとする時、 両画像の重ね合わせに要する回転
角ψを次式により計算する。
When f, (, the rotation angle ψ required to superimpose both images is calculated using the following formula.

ψ=M ax C(ψ) ・・・(6)ψ ここに、 2π C(ψ)−。 (f、+の一μm)×(f2(θ」−ψ
)−μ2)aθ・・・(7) μr= o r+(のdθ/2π ・・・(8)μ2−
o″f2(θ)dθ/2ff ・、(9)である。
ψ=M ax C(ψ) ... (6) ψ Here, 2π C(ψ)-. (f, +1 μm)×(f2(θ”−ψ
)-μ2) aθ...(7) μr= o r+(dθ/2π...(8) μ2-
o″f2(θ)dθ/2ff·, (9).

つ捷す、式(6)〜(9)は、登録画像と照合画像の濃
度パターンの相互相関が最大になるように、回転角ψを
定めることを意味する。なお、式(6)〜(9)の代り
に、計算がより単純な次式を用いて、回転角ψを定める
こともできる。
Equations (6) to (9) mean that the rotation angle ψ is determined so that the cross-correlation between the density patterns of the registered image and the verification image is maximized. Note that instead of equations (6) to (9), the rotation angle ψ can also be determined using the following equation, which is simpler to calculate.

ψ= M ln D tF) −(](1ψ ここに、 2π D(ψ)−。 If、(#)−f2(θ十ψ)lcl 
−C11)である。
ψ= M ln D tF) −(](1ψ Here, 2π D(ψ) −. If, (#) − f2 (θ ten ψ) lcl
-C11).

以上に概説したパターン・マツチングのための回転角計
算方式は、印鑑等に見られるように、入力画像の一部が
かすれて欠落した場合には、回転角の計算に誤差が生じ
やすい。その理由は、回転角計算の基本パラメータであ
る「濃度ノ;ターン」には、入力画像の部分的な欠落に
よる補正が考慮されていないためである。
In the rotation angle calculation method for pattern matching outlined above, errors tend to occur in the calculation of the rotation angle when a part of the input image is blurred or missing, as can be seen in a seal stamp or the like. The reason for this is that "density turn", which is a basic parameter for calculating the rotation angle, does not take into account correction due to partial omission of the input image.

〔発明の目的〕[Purpose of the invention]

本発明の目的は、入力画像の一部がかすれて欠落した場
合にも画像重ね合わせを精度良く行なうだめの、画像位
置合わせ方式を提供することにある。
SUMMARY OF THE INVENTION An object of the present invention is to provide an image positioning method that can accurately superimpose images even when a part of an input image is blurred or missing.

〔発明の概要〕[Summary of the invention]

本発明は、入力画像の欠落部を補正(削除捷たは?n元
)して、パターンマツチングのためのノζラメータを生
成することにより、上記の目的を達成するものである。
The present invention achieves the above object by correcting (deleting or reducing) missing parts of an input image and generating a parameter ζ parameter for pattern matching.

その基本原理を以下説明する。The basic principle will be explained below.

第5図は、一部分(破線部)が欠落した入力画像(照合
画像)の例を表わし、その回転中心6に関する濃度パタ
ーンf(θ)を第6図に示す。ここで、f(θ)はO≦
θ≦2πの各θについて定義される。
FIG. 5 shows an example of an input image (verification image) in which a portion (broken line) is missing, and FIG. 6 shows the density pattern f(θ) regarding the rotation center 6. In FIG. Here, f(θ) is O≦
It is defined for each θ of θ≦2π.

また、第5図〜第6図において、α≦θ≦βの領域が欠
落した部分を表わす。第6図の破線は、入力画像に欠落
がないと仮定した時の濃度パターンを表わす。
Further, in FIGS. 5 and 6, the region α≦θ≦β represents the missing portion. The broken line in FIG. 6 represents the density pattern assuming that there is no missing part in the input image.

欠落部の領域の境界を示すαとβは次のようにして計算
する。いま、回転中心6を起点として、X軸と角度θを
形成する半直線5(0)を考える。
α and β, which indicate the boundaries of the region of the missing part, are calculated as follows. Now, consider a half-line 5(0) that forms an angle θ with the X-axis starting from the rotation center 6.

手直1jl S (の上に存在する黒画素のうち、回転
中心からの距離が最大の黒画素に注目し、回転中心から
の距離をd(のとする。第7図は各θに対するd(θ)
の−例を示す。図中、点線は、入力画像に欠落がないと
仮定した時のd (tl)の値を表わす。印鑑の場合な
どでも明らかなように、入力画像の欠落は、通常、輪郭
画像が含まれる。したがって、d(θ)は、入力画像の
欠落部に対応した角度α≦θ≦βにおいて、小さな値を
とる。すなわち、輪郭画像の点対称性を利用すれば、入
力画像に欠落がない場合は、d(の−d(θ十π)が成
立するが、逆に、d(の#d(θ+π)の関係が成立し
ないような角度θが存在すれは、そのθにおいて、入力
画像の欠落が生じていることになる。このようにして、
欠落部の領域を示す角度αとβを容易にめることができ
る。
Among the black pixels existing above S (, pay attention to the black pixel with the largest distance from the center of rotation, and let the distance from the center of rotation be d(). Figure 7 shows d( for each θ). θ)
- Give an example. In the figure, the dotted line represents the value of d(tl) assuming that there is no missing part in the input image. As is clear from the case of seal stamps, missing input images usually include outline images. Therefore, d(θ) takes a small value at the angle α≦θ≦β corresponding to the missing portion of the input image. In other words, if the point symmetry of the contour image is used, if there is no missing part in the input image, -d(θ1π) of d( holds true, but conversely, the relationship #d(θ+π) of d( If there exists an angle θ such that θ does not hold, then the input image is missing at that θ.
The angles α and β indicating the region of the missing part can be easily set.

この欠落部を除いた領域Qを次のように定義する。The area Q excluding this missing part is defined as follows.

Ω−(θ10≦θ≦2πL−(θ1α≦θ≦β) ・・
・0埠とのQを用いて、照合画像と登録画像の重ね合わ
せに要する回転角ψを計算するわけである。い捷、照合
画像と登録画像の濃度パターンをf、(θ)、f2(θ
)とする時、両画像の重ね合わせに要する回転角ψを次
式により計算する。
Ω-(θ10≦θ≦2πL-(θ1α≦θ≦β) ・・
・The rotation angle ψ required to superimpose the matching image and the registered image is calculated using Q with 0. Then, the density patterns of the matching image and the registered image are expressed as f, (θ), f2(θ
), the rotation angle ψ required to superimpose both images is calculated using the following formula.

ψ−Max−路ψ) ・・・a1 ψ ここに ・・・Q4 である。ψ-Max-path ψ)...a1 ψ Here ...Q4 It is.

つまり、式01〜α0は、照合画像と登録画像の濃度パ
ターンのうち、画像の欠落部に対応した範囲を除外して
、両者の相互相関が最大になるように、回転角ψを定め
ることを童味する。
In other words, Equations 01 to α0 determine the rotation angle ψ so that the range corresponding to the missing part of the image is excluded from the density patterns of the matching image and the registered image, and the cross-correlation between the two is maximized. It feels childish.

なお、式01〜(100代りに、計算がより単純な次式
を用いて、回転角ψを定めることもできる。
In addition, the rotation angle ψ can also be determined using the following equation, which is simpler to calculate, instead of equations 01 to 100.

ψ=MinD(ψ) ・・・αカ ψ ここに、 である。ψ=MinD(ψ)...α ψ Here, It is.

なお、弐〇邊において、説明の便宜上、入力画像の欠落
部が1つの領域だけに存在する場合を取扱ったが、複数
の領域に画像の欠落がある場合も同様である。
Note that in Part 2, for convenience of explanation, we have dealt with the case where the missing part of the input image exists in only one area, but the same applies to the case where the missing part of the input image exists in multiple areas.

〔発明の実施例〕[Embodiments of the invention]

以下、本発明を実施例により詳細に説明する。 Hereinafter, the present invention will be explained in detail with reference to Examples.

第8図は、本発明による画像照合システムのブロック図
である。図中、10はマイクロ・プロセッサ等の処理装
置、20は主メモリ、30は画像メモリ、40はキーボ
ード、50は画像入力装置、60はファイル、70はデ
ィスプレイである。登録画像の画像テーク(2値画像)
は、あらかじめ画像入力装置50を用いて入力され、抽
出した濃度パターンと共にファイル60に格納されてい
るものとする。登録画像の管理情報を記憶するために、
第9図に示す登録画像管理テーブル80を主メモリ20
上に持つ。この登録画像管理テーブル80は、全登録画
像に対する画像名81、画像データのファイル60にお
ける格納番地82、濃度パターンのファイル60におけ
る格納番地8ろ、回転中心の(x、y)座標84等を記
憶するテーブルである。
FIG. 8 is a block diagram of an image matching system according to the present invention. In the figure, 10 is a processing device such as a microprocessor, 20 is a main memory, 30 is an image memory, 40 is a keyboard, 50 is an image input device, 60 is a file, and 70 is a display. Image take of registered image (binary image)
is input in advance using the image input device 50 and stored in the file 60 together with the extracted density pattern. To store management information of registered images,
The registered image management table 80 shown in FIG.
hold it above. This registered image management table 80 stores image names 81 for all registered images, storage address 82 in the image data file 60, storage address 8 in the density pattern file 60, (x, y) coordinates 84 of the rotation center, etc. This is a table where

処理装置10の処理フローを第10図に示す。The processing flow of the processing device 10 is shown in FIG.

第10図の各ステップの処理内容は次の通りである。The processing contents of each step in FIG. 10 are as follows.

(a) 処理110: 実行すべきコマンドと処理対象と々る登録画像の名称を
キーボード40から取込む。
(a) Process 110: The command to be executed and the name of the registered image to be processed are read from the keyboard 40.

(b) 処理12D: 入力コマンドを解読し、終了コマンドであれば処理を終
了して、装置の動作を停止する。終了コマンドでなけれ
ば、処理130に進む。
(b) Process 12D: The input command is decoded, and if it is an end command, the process is ended and the operation of the device is stopped. If it is not an end command, the process advances to step 130.

(c)処理160: 指定された登録画像に対する画像データの格納番地、濃
度パターン、回転中心の(x、y)座標を登録画像管理
テーブル80からめる。
(c) Process 160: Find the image data storage address, density pattern, and (x, y) coordinates of the center of rotation for the designated registered image from the registered image management table 80.

(d)処理140: 指定された登録画像の画像データと濃度パターンをファ
イル60から読出す。読出された画像データを画像メモ
リ30に、濃度パターンを主メモリ20に、それぞれ格
納する。
(d) Process 140: Read the image data and density pattern of the designated registered image from the file 60. The read image data is stored in the image memory 30, and the density pattern is stored in the main memory 20, respectively.

(e) 処理150: 入力原稿上の照合画像を画像入力装置5oから読込み、
画像メモリ60上に格納する。ただし、登81[fii
像の格納領域とは別の領域に格納する。
(e) Process 150: Read the verification image on the input document from the image input device 5o,
It is stored on the image memory 60. However, Noboru 81 [fii
Store in a separate area from the image storage area.

(f) 処理160: 照合画像の回転中心の座標(Xo、Yo)を式(2)〜
(5)により計算する。
(f) Process 160: The coordinates (Xo, Yo) of the rotation center of the matching image are calculated using equations (2) ~
Calculate according to (5).

(g) 処理170: 照合画像の砲胚パターンf(θ)を計算する。f(θ)
の計算方法をm11図により説明する。第11図におい
て、照合画像は一定間隔aの格子点(○印)の集合とし
て表現されている。点210は照合画像の回転中心を示
す。回転中心210を通り、X軸と角度θをなす直線2
20が示されている。点210を起点とし、直線220
上に一定間隔aで照合画像をサンプリングし、これらの
サンプリング点(第11図の0印)でのaI琥の総オロ
が′a度パターンf(のである。たソし、直線220上
のサンプリング点は、一般に、照合画像の格子点(○印
)と一致し々いので、サンプリング点と格子点との対応
づけが必要になる。ここでは、同転中心210を起点と
する第m番目(m=1.2・・・、M)のサンプリング
点を次式に定める第i行j列の格子点に対応づけるもの
とする。
(g) Process 170: Calculate the gunshot pattern f(θ) of the matching image. f(θ)
The calculation method will be explained using diagram m11. In FIG. 11, the matching image is expressed as a set of lattice points (marked with circles) at regular intervals a. Point 210 indicates the center of rotation of the matching image. A straight line 2 passing through the center of rotation 210 and forming an angle θ with the X axis
20 is shown. Starting from point 210, draw straight line 220
The matching image is sampled at regular intervals a on the top, and the total error of aI at these sampling points (marked 0 in Fig. 11) is 'a degree pattern f'. Generally, the points closely match the grid points (○ marks) of the matching image, so it is necessary to associate the sampling points with the grid points.Here, the m-th ( It is assumed that the sampling points m=1.2...,M) are associated with the lattice points in the i-th row and j column defined by the following equation.

i = (((m−1)xΔX十X。l/a ) ・(
IIj=(((m−1)XΔy+yol/a) −Hた
ソし、 ΔX : a X cosθ ・−a)ΔY = a 
X sinθ 98.(イ)であり、記号〔〕は切捨て
を意味する。
i = (((m-1)xΔX×.l/a) ・(
IIj=(((m-1)XΔy+yol/a) −H Taso, ΔX : a
X sin θ 98. (a), and the symbol [] means truncation.

いま、照合画像の第1行j列の格子点の濃度を記号gl
jで表わすと、本実施例では二値画像を対象にするので
、gljは0または1の値をとる。この時、濃度パター
ンf(のを次式により計算する。
Now, the density of the grid point in the first row and column j of the matching image is expressed by the symbol gl
When expressed as glj, glj takes a value of 0 or 1 since this embodiment deals with binary images. At this time, the density pattern f is calculated using the following equation.

ここに、Mは直線220上のサンプリング点の個数を表
わす。
Here, M represents the number of sampling points on the straight line 220.

(h) 処理180: 第7図に示したパラメータd(のを照合画像に関して計
算し、これをもとに、式(6)の領域12をめる。
(h) Process 180: The parameter d shown in FIG. 7 is calculated for the matching image, and based on this, the region 12 of equation (6) is determined.

(i) 処理190: 登録画像と照合画像を重ね合わせるために必要な照合画
像の回°転角ψをめる。ψの計算式としては、式03〜
CO,tたけ、式(1η〜四を用いる。
(i) Process 190: Determine the rotation angle ψ of the matching image necessary to superimpose the registered image and the matching image. The calculation formula for ψ is Equation 03~
CO, t, formula (1η~4 is used.

(j) 処理200: 登録画像と照合画像の回転中心が一致するように、照合
画像を平行移動し、角度ψだけ回転して両画像を重ね合
わせる。重ね合わせの結果、明らかになる両画像の一部
分と不一致部分を区別して、ディスプレイ70に表示す
る。以上1実施例について説明したが、本発明思想はソ
フトウェア、ノ・−ドウエアいずれの方式でも実現する
ことが出来る。
(j) Process 200: Translate the matching image in parallel so that the rotation centers of the registered image and the matching image coincide, rotate by an angle ψ, and superimpose both images. As a result of the superposition, a portion of both images that becomes clear and a mismatched portion are distinguished and displayed on the display 70. Although one embodiment has been described above, the idea of the present invention can be realized by either software or nodeware.

々お、前記実施例では、説明の便宜上、二値画像を対象
としてHII明したが、本発明の原理は、多値画像ある
いは色彩画像にも適用できる。
In the above embodiments, for convenience of explanation, binary images have been described, but the principles of the present invention can also be applied to multivalued images or color images.

また第10図の処理110に示すように、処理対象とが
る登録画像の名称をキーボード40上で指定する方法を
前記実施例では説明した。これとは異なり、ファイル6
0から登録画像および、その濃度パターン、回転中心の
(x、y)座標を順次読出して、照合画像との重ね合わ
せを繰返す方法を用いることもできる。つまり、照合画
像と最もマツチングの厩舎が高い登録画像をファイル6
0の中から探索することができる。
Furthermore, as shown in process 110 in FIG. 10, the method of specifying the name of the sharp registered image to be processed on the keyboard 40 has been described in the above embodiment. Unlike this, file 6
It is also possible to use a method in which the registered image, its density pattern, and the (x, y) coordinates of the center of rotation are sequentially read out from 0, and the superimposition with the verification image is repeated. In other words, file 6 the registered image with the highest matching stable with the matching image.
You can search from 0.

前記実施例では、入力画像の欠落部を除外してパターン
・マツチングのためのパラメータを生成する方法を示し
たが、これ以外に種々の変形した方法が容易に考えられ
る。例えば、輪郭画像の点対称性を利用すれば、欠落し
た輪郭画像を復元することもできるが、この場合は、復
元された輪郭画像を含めた濃度パターンを用いて回転角
を計算すればよい。
In the embodiment described above, a method of generating parameters for pattern matching by excluding missing portions of an input image was shown, but it is easy to think of various modified methods other than this. For example, a missing contour image can be restored by utilizing the point symmetry of the contour image, but in this case, the rotation angle may be calculated using a density pattern that includes the restored contour image.

また、本発明は文書上の所定位置に、所定の画像が存在
するか否かを判定する書式チェックや、文書上の所定位
置に存在する画像バター7にもとづいて書式を識別する
書式識別の自動化にも適用できる。
The present invention also provides automatic format checking to determine whether a predetermined image exists at a predetermined position on a document, and format identification to identify a format based on the image butter 7 existing at a predetermined position on a document. It can also be applied to

〔発明の効果〕〔Effect of the invention〕

以上説明したように、本発明は入力画像の欠落部を除外
丑たは復元してパターン・マツチングのだめのパラメー
タを生成するので、入力画像の一部がかすれて欠落した
場合にも画像重ね合わせを精度良く行なうことができる
As explained above, the present invention eliminates or restores missing parts of input images to generate parameters for pattern matching, so even if a part of an input image is blurred or missing, image overlay can be performed. It can be done with high precision.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明が適用される画像照合システムの概念図
、第2図および第6図は本発明における画像の回転中心
の座標の計算法を示す説明図、第4図は[o!転中心を
通る放射状の半直線上の濃度);ターンを示す説明図、
多15図〜第7図は本発明にかいて封材となる一部が欠
落した照合画像の一例と、その濃度パターン先・よびパ
ラメータd(θ)を示す説明図、第8図は本発明一実施
例としての画像照合システムのブロック図、第9図は本
発明における登録画像管理テーブルの構成図、第10図
は本発明における処理フロー図、第11図は本発明の濃
度パターンの計算法を示す説明図である。 10・・・処理装部、20・・・主メモリ、30・・・
画像メモリ、40・・・キーボード、50・・・画イ゛
り入力装置i’z、60・・・ファイル、70・・・デ
ィスフ−レイ。 第 “ 図1 第 2 図 第4層 第 乙 ?fl 第 7 図 第 8 図 第 9 図 第1θ図
FIG. 1 is a conceptual diagram of an image matching system to which the present invention is applied, FIGS. 2 and 6 are explanatory diagrams showing a method for calculating the coordinates of the center of rotation of an image in the present invention, and FIG. 4 is an illustration of [o! Concentration on a radial half line passing through the center of rotation); explanatory diagram showing a turn,
Figures 15 to 7 are explanatory diagrams showing an example of a verification image in which a part of the sealing material is missing according to the present invention, its density pattern destination, and parameter d (θ), and Figure 8 is an explanatory diagram showing an example of a collation image in which a part of the sealing material is missing according to the present invention, and its density pattern destination and parameter d (θ). A block diagram of an image matching system as an embodiment, FIG. 9 is a configuration diagram of a registered image management table according to the present invention, FIG. 10 is a processing flow diagram according to the present invention, and FIG. 11 is a density pattern calculation method according to the present invention. FIG. 10... Processing unit, 20... Main memory, 30...
Image memory, 40...Keyboard, 50...Picture input device i'z, 60...File, 70...Display. Figure 1 Figure 2 Figure 4 Layer B ?fl Figure 7 Figure 8 Figure 9 Figure 1θ Figure

Claims (1)

【特許請求の範囲】 1、回転対称の輪郭を持つ2次元画像データに対して、
回転中心とした位置を通る放射状の半直線に沿った画素
の濃度分布によって当該画像の欠落部分を検出するとス
テップと前記濃度分布から当該欠落部分を除いたデータ
にもとづいて、複数の画像の重ね合わせに要する画像の
回転角を定めるステップを有することを特徴とする画像
照合方式。 2、回転対称の輪郭を持つ2次元画像データに対して、
欠落した輪郭画像を俊元するステップを有することを特
徴とする第1項記載の画像照合方式。
[Claims] 1. For two-dimensional image data having a rotationally symmetrical contour,
When a missing part of the image is detected based on the density distribution of pixels along a radial half-line passing through the rotation center position, multiple images are superimposed based on the data obtained by removing the missing part from the density distribution. An image matching method comprising the step of determining a rotation angle of an image required for image matching. 2. For two-dimensional image data with a rotationally symmetrical contour,
2. The image matching method according to claim 1, further comprising the step of deleting missing contour images.
JP24628383A 1983-12-28 1983-12-28 Picture collation system Pending JPS60140482A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24628383A JPS60140482A (en) 1983-12-28 1983-12-28 Picture collation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24628383A JPS60140482A (en) 1983-12-28 1983-12-28 Picture collation system

Publications (1)

Publication Number Publication Date
JPS60140482A true JPS60140482A (en) 1985-07-25

Family

ID=17146236

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24628383A Pending JPS60140482A (en) 1983-12-28 1983-12-28 Picture collation system

Country Status (1)

Country Link
JP (1) JPS60140482A (en)

Similar Documents

Publication Publication Date Title
US6774889B1 (en) System and method for transforming an ordinary computer monitor screen into a touch screen
JP2917155B2 (en) Image combining device and method
US6704041B2 (en) Image processing method, apparatus and memory medium therefor
JP2908204B2 (en) Ten finger fingerprint card input device
JP4269059B2 (en) Form processing program, method and apparatus
US8005262B2 (en) System and method for video object identification
CN115937003A (en) Image processing method, image processing device, terminal equipment and readable storage medium
JPS60140482A (en) Picture collation system
CN117115823A (en) Tamper identification method and device, computer equipment and storage medium
CN101206716A (en) Registration apparatus, registration method and program
JP2735043B2 (en) Imprint positioning method and imprint positioning device
CN112883777B (en) Face key point template generation and face correction method, device, equipment and medium
JPS6069783A (en) Picture collation system
JP2734392B2 (en) Imprint alignment method
JPS60258683A (en) Image matching system
Höhn et al. Georeferencing of place markers in digitized early maps by using similar maps as data source
JPS6198483A (en) Picture collating device
JPH0512430A (en) Map synthesizing method
JP2756128B2 (en) Display system
JPH0944664A (en) Method and device for collating seal impression
JPS6022281A (en) Rotation angle difference detecting device between pictures
JPS6077273A (en) Device for detecting positional shear of pattern
JPS6228884A (en) Method for detecting image to be detected
JPS58161080A (en) Controlling system of data transfer
CN111159327A (en) Conversion method of vector space data model from national standard model to military standard model