JPS63313283A - Image normalizing method - Google Patents

Image normalizing method

Info

Publication number
JPS63313283A
JPS63313283A JP62148923A JP14892387A JPS63313283A JP S63313283 A JPS63313283 A JP S63313283A JP 62148923 A JP62148923 A JP 62148923A JP 14892387 A JP14892387 A JP 14892387A JP S63313283 A JPS63313283 A JP S63313283A
Authority
JP
Japan
Prior art keywords
image
feature
linear density
equations
found out
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP62148923A
Other languages
Japanese (ja)
Inventor
Hirozo Yamada
山田 博三
Taiichi Saito
泰一 斉藤
Kazuhiko Yamamoto
和彦 山本
Yasuo Hongo
本郷 保夫
Tetsuo Kiuchi
木内 哲夫
Toshiko Kawaguchi
川口 とし子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
Agency of Industrial Science and Technology
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agency of Industrial Science and Technology, Fuji Electric Co Ltd filed Critical Agency of Industrial Science and Technology
Priority to JP62148923A priority Critical patent/JPS63313283A/en
Publication of JPS63313283A publication Critical patent/JPS63313283A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To obtain a normalized image of feature quantity reduced in noise and to improve a recognition rate by directly extracting the feature from an original pattern and matching a difference between linear density and the coordinates of feature quantity calculation. CONSTITUTION:The linear density hx', hy' of an inputted binary image f(i, j) are found out from equations 1, 2. A constant alpha is added to the inside linear density of a circumscribed rectangle in a graphic to loosen nonlinearity. Then, feature extraction is executed by 3X3 mask operation to obtain a feature image. Then, the discrete deviation of the coordinates between the measured linear density and the feature image is matched. Then, accumulated density functions Hx(i), Hy(j) are found out from equations 3, 4, the sums are found out from equations 5, 6, an added map is found out from equations 7, 8, and then a normalized feature image buffer is found out by equations 9, 10.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、文字認識9図面読取等において文字。[Detailed description of the invention] [Industrial application field] The present invention is useful for character recognition 9, character recognition in drawing reading, etc.

シンボル等の線図形パターンを認識する際の前処理とし
ての画像正規化方法に関する。
The present invention relates to an image normalization method as a preprocessing when recognizing linear patterns such as symbols.

〔従来の技術〕[Conventional technology]

文字9図形の認識手法としては、−mに相関法(重ね合
せ法)が良く知られている。これは、未知パターンの2
次元画像P(i、j)と、辞書(標準)パターンの画像
Qk(i、j)との間の相関Rkを次式のように定義し
、このRkを最大とするkにパターンが属するとする方
法である。
The correlation method (superposition method) for -m is well known as a method for recognizing character 9 figures. This is unknown pattern 2
The correlation Rk between the dimensional image P(i, j) and the dictionary (standard) pattern image Qk(i, j) is defined as the following formula, and if the pattern belongs to k that maximizes this Rk, then This is the way to do it.

Rk=(Qk*P)/1Qkl−IPI  1ところで
、かかる相関法はパターンの位置ずれや大きざの変化に
鋭敏であるので、これを補うために相関計算に先立って
未知パターンの画像の拡がりと、位置ずれを揃えること
が常套的に行われる。この作業を正規化と呼ぶ。なお、
先の(1)式より相関を求めるための積和演算量は画像
の大きさくN X N)の−辺の長さの2乗、すなわち
N2に比例して増大し、認識すべきシンボルの種類が多
い場合(例えば、文字などは2000種を越える)には
、その演算量は実用的な装置の実現のための障害となる
ので、正規化は通常は画像の縮小を伴って行われる。
Rk=(Qk*P)/1Qkl-IPI 1By the way, since this correlation method is sensitive to changes in pattern position and size, in order to compensate for this, prior to correlation calculation, the spread of the image of the unknown pattern and , alignment of misalignment is routinely performed. This work is called normalization. In addition,
From equation (1) above, the amount of product-sum calculations to find the correlation increases in proportion to the image size (N x N) - the square of the side length, that is, N2, and the amount of product-sum calculations to find the correlation increases in proportion to the size of the image (N x N) - the square of the side length, that is, N2, and When there are many types of images (for example, over 2000 types of characters), the amount of calculation becomes an obstacle to realizing a practical device, so normalization is usually performed along with image reduction.

このような正規化を行う場合、従来は次式の如きアフィ
ン変換式を用いて線形の正規化を行うのが一般的である
When performing such normalization, it has conventionally been common to perform linear normalization using an affine transformation formula such as the following formula.

こ\に、(x、  y)は旧座標、(x’、y’)は新
座標、a、b、c、d、Xo !  yoは定数である
Here, (x, y) are old coordinates, (x', y') are new coordinates, a, b, c, d, Xo! yo is a constant.

しかし、このような線形の正規化方式では、手書文字の
ように不規則な(部分的な)変形を受ける画像について
は不充分である。このため、例えば「電子学会論文誌J
’  84/11.VOL、J67−D、 No、11
の第1379〜1383頁に“綿密度イコライゼーショ
ン”と称される非線形正規化方式が提案されている。こ
れは、標本化間隔δで標本化されたパターンの標本値に
対して線密度なる特性値を定義し、標本化間隔と特性値
との積が一定となるように変換するものである。この変
換により線の密なところの間隔は引き伸ばされ、粗なと
ころは縮められると云う非線形変換が行われるため、空
間内の線間隔が均質化され、空間の有効利用が図られる
However, such a linear normalization method is insufficient for images that undergo irregular (partial) deformation, such as handwritten characters. For this reason, for example, "Journal of Electronics Engineers of Japan
'84/11. VOL, J67-D, No. 11
, pp. 1379-1383, a nonlinear normalization method called "fine density equalization" is proposed. In this method, a characteristic value called linear density is defined for sample values of a pattern sampled at a sampling interval δ, and the characteristic value is converted so that the product of the sampling interval and the characteristic value becomes constant. As a result of this conversion, a non-linear transformation is performed in which the spacing between dense lines is lengthened and spacing between sparse lines is shortened, thereby homogenizing the line spacing in the space and making effective use of the space.

一方、重ね合せ法の改良に伴い、画像の各点(画素)の
もつ特徴により別々の特徴面に分けて重ね合わせること
が行われるようになっている。そこで、第9図のフロー
チャートに示すよ6うに、これ、ら2つの方法を組み合
わせた方法が考えられる。
On the other hand, with improvements in superimposition methods, it has become possible to separate images into separate feature planes based on the characteristics of each point (pixel) and superimpose them. Therefore, as shown in the flowchart of FIG. 9, a method combining these two methods can be considered.

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

しかしながら、このような方法では次の如き問題が生じ
る。つまり、線密度イコライゼーションを施した画像は
、第10図(イ)の如き元の画像で線の密なところは何
回も複写され、粗なところは省略されるため、ミクロに
見た場合、第10図(ロ)の如く粗い画像となってしま
い、特徴抽出の際にこれがノイズの如(作用することが
ある。
However, such a method causes the following problems. In other words, the image that has been subjected to line density equalization is the original image shown in Figure 10 (a), where dense lines are copied many times and coarse lines are omitted, so when viewed microscopically, This results in a rough image as shown in FIG. 10 (b), which may act like noise during feature extraction.

とりわけ、画像処理では演算コストとの兼ね合いから3
×3のマスクによる局所演算が多用されるので、局所的
な特徴が粗くなることは、大きな問題である。
In particular, in image processing, 3
Since local operations using ×3 masks are often used, it is a big problem that local features become coarse.

したがって、本発明はノイズを少なくし、認識率を向上
させることが可能な正規化方法を提供することを目的と
する。
Therefore, an object of the present invention is to provide a normalization method that can reduce noise and improve recognition rate.

〔問題点を解決するための手段〕[Means for solving problems]

原画像から線密度計測と特徴抽出とを行い、線密度計測
手法と特徴抽出手法の相違にもとづく離散的座標系のず
れを整合した後、特徴画像を原画像から得た線密度によ
って非線形正規化する。
Line density measurement and feature extraction are performed from the original image, and after matching the discrepancy in the discrete coordinate system due to the difference between the linear density measurement method and feature extraction method, the feature image is nonlinearly normalized using the linear density obtained from the original image. do.

〔作用〕[Effect]

線密度イコライゼーションによる非線形正規化手法と、
特徴面重ね合せ法とを、より効果的に組み合わせること
で、量子化誤差を小さくし、認識性能の向上を図る。
Nonlinear normalization method using linear density equalization,
By combining this method more effectively with the feature plane superimposition method, we aim to reduce quantization errors and improve recognition performance.

〔発明の実施例〕[Embodiments of the invention]

第1図は、本発明の実施例を示す概要フローチャートで
ある。同図からも明らかなように、本発明による正規化
は、 ■綿密度計測 ■原画像からの特徴抽出 ■座標台せ ■画素の足し合せく特徴画像の縮小正規化計算)の4段
階に分けて行われる。以下、詳細に説明する。
FIG. 1 is a schematic flowchart illustrating an embodiment of the invention. As is clear from the figure, the normalization according to the present invention is divided into four stages: ■ Cotton density measurement ■ Feature extraction from the original image ■ Coordinate stand ■ Reduction normalization calculation of the feature image by adding pixels will be carried out. This will be explained in detail below.

■ 線密度計測 入力2値画像f(i、j) (t=1.2.・・・M、
j=1、2. ・N)に対し、x、y軸各方向のXi、
yiにおけるX軸、y軸への線の本数の射影(またはX
=Xi 、3’=3’Jなる垂直線と図形fとの交点数
)として表わされる線密度hx’(i)s hy’(j
)を、次の様に求める。
■ Linear density measurement input binary image f(i, j) (t=1.2...M,
j=1, 2.・N), Xi in each direction of the x and y axes,
Projection of the number of lines to the X and y axes in yi (or
=Xi, 3'=3'J, the number of intersections between the vertical line and the figure f) is the line density hx'(i)s hy'(j
) is calculated as follows.

hy’ (J)=  Σf(i、j)・f(i−1,j
)・・・・・・(3) ただし、Tはfの1,0を反転したものとし、特別に f(i、0)=Of(0,j)”0 とする。
hy' (J) = Σf(i,j)・f(i-1,j
)...(3) However, T is the inverse of 1, 0 of f, and is specially set as f(i, 0)=Of(0, j)"0.

第2図は綿密度の概念を説明するための説明図である。FIG. 2 is an explanatory diagram for explaining the concept of cotton density.

同図において、丸印rOJが線の本数をカウントする場
所を示しており、例えばx=(=i)におけるX軸への
線の本数の射影hx′(i)は“3”となり、同じ<y
J(=j)におけるy軸への線の本数の射影hy’(j
)は1”となる。か\る操作を、 Xi =l、2.・・・・・・M 7j=1.2.・・・・・・N について行ない、線密度を求める。こ\で、文字パター
ン「い」、「二」など、画像の中央に線密度が“0”と
なる部分をもつ図形の場合、このままの線密度だと中央
が潰れてしまう(白地の部分が完全につまってしまう)
ので、h x’、h、’に図形の外接長方形の内部では
、第3図のように定数αを加え、非線形性を緩和する。
In the figure, the circle rOJ indicates the place where the number of lines is counted. For example, the projection hx'(i) of the number of lines onto the X axis at x=(=i) is "3", and the same < y
Projection of the number of lines to the y-axis at J (=j) hy'(j
) becomes 1". Perform the above operation for Xi = l, 2...M 7j = 1.2...N, and find the linear density. Here, , character patterns "i", "ni", etc., which have a part where the line density is "0" in the center of the image, if the line density is left as is, the center will be crushed (the white part will be completely clogged). )
Therefore, as shown in FIG. 3, a constant α is added to h x', h,' inside the circumscribed rectangle of the figure to alleviate nonlinearity.

なお、第3図(イ)は緩和前の線密度hx′を、(ロ)
は緩和後の線密度hXをそれぞれ示す。つまり、緩和後
の線密度hx、h、は次のように表わされる。
In addition, Figure 3 (a) shows the linear density hx' before relaxation, and (b)
respectively indicate the linear density hX after relaxation. That is, the linear density hx, h after relaxation is expressed as follows.

ただし、 i、 = min (i I hx’ (i
)≠0)i、=  max  (i  l  hx’ 
(i)≠0)ただし、 js = lll1n (j 
l h、’ (j)≠OL  =  wax (j  
l  hy’ (j)≠0・・・・・・(4) このようにして、綿密度hx(i)、hy(J )は計
測される。
However, i, = min (i I hx' (i
)≠0)i,=max(i l hx'
(i)≠0) However, js = lll1n (j
l h,' (j)≠OL = wax (j
l hy' (j)≠0 (4) In this way, the cotton densities hx(i) and hy(J) are measured.

■ 特徴抽出 特徴抽出は、3×3のマスク演算により、原画像を処理
して特徴抽出画像(または特徴画像)を得る。マスク演
算は、具体的には例えばラプラシアンなどで、マスクの
中の9つの画素が“O”であれば、その中央の画素値と
して出力される画素値も一般に“0”である。
(2) Feature Extraction In feature extraction, the original image is processed using a 3×3 mask operation to obtain a feature extraction image (or feature image). Specifically, the mask calculation is, for example, a Laplacian, and if nine pixels in the mask are "O", the pixel value output as the central pixel value is also generally "0".

■ 座標合わせ こ\では、計測された線密度と、特徴画像との離散的な
座標のずれの整合を図る。すなわち、特徴抽出は3×3
のマスクによって行われ、線密度の計測は1×2のマス
クで行われるため、第4図のような座標ずれを生ずる。
■ Coordinate matching attempts to match the measured linear density and the discrete coordinate deviation with the feature image. In other words, feature extraction is 3×3
Since the linear density measurement is performed using a 1×2 mask, a coordinate shift as shown in FIG. 4 occurs.

なお、同図(イ)は特徴抽出範囲を示し、11は原画像
、12は特徴画像、13は特徴抽出マスク、14はマス
クの移動範囲であり、同図(ロ)は綿密度計測範囲を示
し、16は原画像、17は線密度計測範囲、18は線密
度定義範囲である。
In addition, the same figure (a) shows the feature extraction range, 11 is the original image, 12 is the feature image, 13 is the feature extraction mask, 14 is the movement range of the mask, and the same figure (b) shows the cotton density measurement range. 16 is an original image, 17 is a linear density measurement range, and 18 is a linear density definition range.

つまり、線密度の定義から明らかなように、特徴抽出さ
れた結果が“0”でない範囲は、線密度の“0”でない
範囲よりも両側に1画素ずつ必ず大きい。そして、それ
ら両側最外側の“O”でない特徴画像の画素は、その1
画素内側の原画像の画素によって発生しているものと考
えられるので、両側最外側に関してはその線密度を1つ
内側の線密度に等しいと定義することにより、座標のず
れを整合(補正)する。第5図はこのことを説明するた
めのもので、同図(イ)は拡張する前の綿密度を、同図
(ロ)は拡張後の線密度をそれぞれ示している。すなわ
ち、19A、19Bが拡張された部分であり、1画素内
側の線密度の値を複写(コピー)して形成される。
That is, as is clear from the definition of linear density, the range where the result of feature extraction is not "0" is always larger by one pixel on each side than the range where the linear density is not "0". Then, the pixels of the feature images that are not “O” on the outermost sides of both sides are those 1
It is thought that this is caused by a pixel in the original image inside the pixel, so for the outermost pixels on both sides, the line density is defined to be equal to the line density one step inside, thereby matching (correcting) the coordinate shift. . FIG. 5 is for explaining this, and FIG. 5(a) shows the cotton density before expansion, and FIG. 5(b) shows the linear density after expansion. That is, 19A and 19B are expanded portions, which are formed by copying the value of the line density one pixel inside.

■ 画素足し合わせ こ\では、累積線密度関数を定義し、それによって特徴
画像を分割する足し合わせマツプを求め、そのマツプに
従って、正規化された特徴画像を得る。このため、累積
線密度関数を整数上で定義する。
■ Pixel addition In this step, a cumulative linear density function is defined, a summation map is obtained that divides the feature image, and a normalized feature image is obtained according to the map. Therefore, the cumulative linear density function is defined over integers.

・・・・・・(5) なお、h、(0)、h、(0)、h、(M+1)、h、
(N+1)は座標合わせの結果体じたものである。
......(5) In addition, h, (0), h, (0), h, (M+1), h,
(N+1) is the result of coordinate alignment.

次いで、線密度の総和GX、Gyを、 GX = HX(M +1 ) 、Gy =Hy(N 
” 1 )のように定義する。これを図で説明するのが
第6図であり、同図(イ)のhXを順次累積して同図(
ロ)の如く総和GXを求めるものである。こ\で、HX
、Hyを連続の座標上にとり直すため、区間(i、i+
l)内のXにおいて、HX(x)はHX(x) = (
x −1)Hx(i + 1)+ (i + l −X
)HX(1) とする。同様にして、区間(j、j +1)内のyにつ
いては、 H,(y)=  (y−j)Hy(j+1)+ (j+
1−y)Hy(j) である。
Next, the sum of linear densities GX and Gy is expressed as GX = HX (M +1), Gy = Hy (N
``1). This is explained in Figure 6, where hX in Figure (A) is sequentially accumulated to obtain Figure (A).
(b) The total sum GX is determined as shown in (b). Here, HX
, Hy on continuous coordinates, the interval (i, i+
l), HX(x) is HX(x) = (
x −1)Hx(i + 1)+ (i + l −X
)HX(1). Similarly, for y in the interval (j, j +1), H, (y) = (y-j) Hy (j + 1) + (j +
1-y)Hy(j).

次に、第7図のように、累積線密度Hx、Hyから足し
合わせマツプの座標列Xm、)’nを作成し、原画像f
(i、j)(i−1・・・M、j=1・・・N)より求
めた同図(ハ)の如き特徴画像P(i、j)(i=0・
・・M+1.3=0・・・N+1)から、同図(ニ)の
如(正規化された特徴画像Q(k、f)(k=1・・・
K、f=1・・・し)を得るものとする。
Next, as shown in FIG. 7, a coordinate sequence Xm,)'n of the addition map is created from the cumulative linear densities Hx, Hy, and the original image f
(i, j) (i-1...M, j=1...N) The characteristic image P(i, j) (i=0・
...M+1.3=0...N+1), the normalized feature image Q(k, f) (k=1...
K, f=1...).

このため、足し合わせマツプ座標列xk、yn(k=1
・・・K、!!=1・・・L)を、・・・・・・(6) の如くもとめ、このXh、7nに従って正規化された特
徴画像Qを求める。このとき、特徴画像P(i、D整数
の格子点上から、連続座標上へ拡張する。すなわち、 P(x、y)=P((x)+1.  (y)+1)(た
だし、〔〕はガウス記号を示し、したがって(x)はX
を超えない最大の整数を示す。)とする。
Therefore, the addition map coordinate string xk, yn (k=1
...K! ! =1...L) as shown in (6), and a normalized feature image Q is obtained according to Xh and 7n. At this time, the characteristic image P(i, D is extended from the grid point of the integer to the continuous coordinates. That is, P(x, y)=P((x)+1.(y)+1)(However, [] indicates the Gaussian symbol, so (x) is
Indicates the largest integer not exceeding . ).

この条件のもとで、 ・・・・・・(7) として、足し合わせる。(7)式の積分範囲が第7図(
ハ)に示すRであり、結果であるQ(k、J)がSであ
る。
Under these conditions, add together as ・・・・・・(7). The integral range of equation (7) is shown in Figure 7 (
It is R shown in c), and the result Q(k, J) is S.

第8図は以上述べてきた処理をハードウェアで実現する
ための構成例を示すブロック図である。
FIG. 8 is a block diagram showing an example of a configuration for implementing the above-described processing using hardware.

同図において、1は原画像バッファ、2A、2Bはx、
y方向線密度計測部、3は特徴抽出回路、4A、4Bは
座標合わせ部、5は特徴画像バッファ、6A、6Bはマ
ツプ座標列形成部、7は積分回路、8は正規化特徴画像
バッファである。
In the figure, 1 is the original image buffer, 2A, 2B are x,
y-direction linear density measurement section, 3 is a feature extraction circuit, 4A and 4B are coordinate matching sections, 5 is a feature image buffer, 6A and 6B are map coordinate string forming sections, 7 is an integration circuit, and 8 is a normalized feature image buffer. be.

すなわち、上記0項で説明した線密度の計測は計測部2
A、2Bで行われる。一方■項で説明したバッファ1内
の原画像からの特徴抽出は回路3により行われてバッフ
ァ5に格納され、0項で説明した座標合わせは座標合わ
せ部4A、4Bにて行われる。マツプ座標列形成部6A
、6Bでは第7図(イ)、(ロ)の如きマツプ座標列X
h+3’jを求め、これによって特徴画像における積分
範囲(R)が決定されるので、積分回路7にて上記(7
)式の如き積分を行うことにより、正規化された特徴画
像が得られ、バッファ8に格納される。つまり、こ\で
は、綿密度の計測と特徴抽出とが並列的に行われ、座標
合わせとマツプ座標列の形成とが行われた後、特徴画像
の非線形正規化が行われることになる。
In other words, the measurement of the linear density explained in item 0 above is performed by the measurement unit 2.
This is done in A and 2B. On the other hand, the feature extraction from the original image in the buffer 1 explained in section 3 is performed by the circuit 3 and stored in the buffer 5, and the coordinate matching explained in section 0 is performed in the coordinate matching sections 4A and 4B. Map coordinate string forming section 6A
, 6B, the map coordinate string X as shown in Fig. 7 (a) and (b)
h+3'j is determined, and the integration range (R) in the characteristic image is determined by this, so the integration circuit 7 calculates the above (7).
) A normalized feature image is obtained and stored in the buffer 8. That is, in this case, the measurement of the cotton density and the extraction of features are performed in parallel, and after coordinate alignment and formation of a map coordinate string are performed, nonlinear normalization of the feature images is performed.

〔発明の効果〕〔Effect of the invention〕

本発明によれば、原パターンから直接特徴を抽出する構
成とし、かつ線密度と特徴量計算の座標の相違を整合す
るようにしたため、非線形変換の際の量子化誤差の影響
が小さくなり、しかってノイズの少ない正規化された特
徴量画像を得ることができ、その結果、認識率を向上せ
しめることができる利点がもたらされる。
According to the present invention, features are extracted directly from the original pattern, and differences in linear density and coordinates for feature amount calculation are matched, so the influence of quantization errors during nonlinear transformation is reduced, and It is possible to obtain a normalized feature image with less noise, and as a result, there is an advantage that the recognition rate can be improved.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図はこの発明の実施例を示す概要フローチャート、
第2図は綿密度の概念を説明するための説明図、第3図
は非線形歪の緩和方法を説明するための説明図、第4図
は特徴抽出範囲と線密度計測範囲との相違を説明するた
めの説明図、第5図ば座標の整合方法を説明するための
説明図、第6図は累積線密度を説明するための説明図、
第7図は正規化のための足し合せ座標列から正規化特徴
画像を求める方法を説明するための説明図、第8図はこ
の発明の実施例をハードウェア構成にて示すブロック図
、第9図は線密度イコライゼーションによる正規化方法
と重ね合せ法との組み合わせ方法を示すフローチャート
、第10図は原画像と線密度イコライゼーションを施し
た画像とを説明するための説明図である。 符号説明 1・・・・・・原画像バッファ、2A、2B・・・・・
・綿密度計測部、3・・・・・・特徴抽出回路、4A、
4B・・・・・・座標合わせ部、5・・・・・・特徴画
像バッファ、6A、6B・・・・・・マツプ座標列形成
部、7・・・・・・積分回路、8・・・・・・正規化特
徴画像バッファ、11.16・・・・・・原画像、12
・・・・・・特徴画像、13・・・・・・特徴抽出マス
ク、14・・・・・・マスクの移動範囲、15・・・・
・・特徴画像の幅、17・・・・・・線密度計測範囲、
18・・・・・・線密度定義範囲、19A、19B・・
・・・・拡張された部分。 代理人 弁理士 並 木 昭 夫 代理人 弁理士 松 崎   清 第 1 図 112  図 71、i      (M、N) II3!Il (イ)                      
  (口214図 g5  図 男6 図 1f7 図 適す図
FIG. 1 is a schematic flowchart showing an embodiment of the present invention;
Fig. 2 is an explanatory diagram to explain the concept of cotton density, Fig. 3 is an explanatory diagram to explain the method of alleviating nonlinear distortion, and Fig. 4 is an explanatory diagram to explain the difference between the feature extraction range and the linear density measurement range. Figure 5 is an explanatory diagram to explain the coordinate matching method, Figure 6 is an explanatory diagram to explain the cumulative linear density,
FIG. 7 is an explanatory diagram for explaining a method for obtaining a normalized feature image from a summed coordinate string for normalization, FIG. 8 is a block diagram showing the hardware configuration of an embodiment of the present invention, and FIG. The figure is a flowchart showing a method of combining a normalization method using linear density equalization and a superposition method, and FIG. 10 is an explanatory diagram for explaining an original image and an image subjected to linear density equalization. Code explanation 1...Original image buffer, 2A, 2B...
・Cotton density measurement section, 3...Feature extraction circuit, 4A,
4B... Coordinate matching unit, 5... Characteristic image buffer, 6A, 6B... Map coordinate string forming unit, 7... Integrating circuit, 8... ...Normalized feature image buffer, 11.16 ...Original image, 12
... Feature image, 13 ... Feature extraction mask, 14 ... Mask movement range, 15 ...
...Width of characteristic image, 17... Line density measurement range,
18...Line density definition range, 19A, 19B...
・・・Extended part. Agent Patent Attorney Akio Namiki Agent Patent Attorney Kiyota Matsuzaki 1 Figure 112 Figure 71, i (M, N) II3! Il (I)
(mouth 214 figure g5 figure man 6 figure 1 f7 figure suitable figure

Claims (1)

【特許請求の範囲】 所定の標本化間隔をもって標本化された画像パターンの
標本値の集合から特徴パラメータの集合と特性値の集合
とをそれぞれ計算し、 該計算された特徴パラメータの集合と特性値の集合との
離散的な座標のずれを整合した後、前記特徴パラメータ
の集合を標本化間隔と特性値との積が一定となるように
正規化することを特徴とする画像正規化方法。
[Claims] A set of feature parameters and a set of characteristic values are calculated from a set of sample values of an image pattern sampled at a predetermined sampling interval, and the calculated set of feature parameters and characteristic values are calculated. An image normalization method characterized in that after adjusting discrete coordinate deviations with a set of , the set of feature parameters is normalized so that the product of the sampling interval and the characteristic value is constant.
JP62148923A 1987-06-17 1987-06-17 Image normalizing method Pending JPS63313283A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62148923A JPS63313283A (en) 1987-06-17 1987-06-17 Image normalizing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62148923A JPS63313283A (en) 1987-06-17 1987-06-17 Image normalizing method

Publications (1)

Publication Number Publication Date
JPS63313283A true JPS63313283A (en) 1988-12-21

Family

ID=15463683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62148923A Pending JPS63313283A (en) 1987-06-17 1987-06-17 Image normalizing method

Country Status (1)

Country Link
JP (1) JPS63313283A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03260888A (en) * 1990-03-12 1991-11-20 Fuji Facom Corp Standard pattern preparing method
US5757979A (en) * 1991-10-30 1998-05-26 Fuji Electric Co., Ltd. Apparatus and method for nonlinear normalization of image

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59226980A (en) * 1983-06-08 1984-12-20 Oki Electric Ind Co Ltd Recognizing system of handwritten character

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59226980A (en) * 1983-06-08 1984-12-20 Oki Electric Ind Co Ltd Recognizing system of handwritten character

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03260888A (en) * 1990-03-12 1991-11-20 Fuji Facom Corp Standard pattern preparing method
US5757979A (en) * 1991-10-30 1998-05-26 Fuji Electric Co., Ltd. Apparatus and method for nonlinear normalization of image

Similar Documents

Publication Publication Date Title
KR0133949B1 (en) Apparatus and method for nonlinear normalization of image
WO2020244217A1 (en) Improved mode decomposition method applicable to flow field analysis and reconstruction of internal solitary wave test
CN102682428B (en) Fingerprint image computer automatic mending method based on direction fields
Dibos et al. Global total variation minimization
CN106022355A (en) 3DCNN (three-dimensional convolutional neural network)-based high-spectral image space spectrum combined classification method
CN109859125B (en) Image highlight restoration method based on morphological detection and wavelet transformation
CN113298716B (en) Image super-resolution reconstruction method based on convolutional neural network
CN111626246A (en) Face alignment method under mask shielding
CN112464901B (en) Face feature extraction method based on gradient face local high-order main direction mode
JPS63313283A (en) Image normalizing method
CN110991501B (en) Improved ORB feature point matching method based on Hessian matrix
Evans Morphological gradient operators for colour images
CN114708439A (en) Improved EDLines linear extraction method based on PROSAC and screening combination
Raghuvanshi et al. Comparative Study of Non-Local Means and Fast Non-Local Means Algorithm for Image Denoising
CN112734635A (en) Image super-resolution method with constraint conditions
JP2822792B2 (en) Image noise removal device
Chen et al. SAR Image Change Detection Via UR-ISTA
JP2612335B2 (en) Pattern recognition method
CN114897747A (en) 1-2 order fractional order differential filter of digital image
JP3969593B2 (en) Image processing apparatus and image processing method
JPH01159781A (en) Character recognizing method
JP2853510B2 (en) Image noise removal device
JPH01116892A (en) Non-linear normalizing system
JPH02244390A (en) Stroke extracting device
JPH05225389A (en) Device for normalizing image non-linearity