JPH03224074A - Method and device for image processing - Google Patents

Method and device for image processing

Info

Publication number
JPH03224074A
JPH03224074A JP2019997A JP1999790A JPH03224074A JP H03224074 A JPH03224074 A JP H03224074A JP 2019997 A JP2019997 A JP 2019997A JP 1999790 A JP1999790 A JP 1999790A JP H03224074 A JPH03224074 A JP H03224074A
Authority
JP
Japan
Prior art keywords
image
digital image
model
digital
processed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019997A
Other languages
Japanese (ja)
Inventor
Morihiko Shibata
守彦 柴田
Takao Tomita
隆夫 富田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SHOKUHIN SANGYO ONRAIN SENSOR GIJUTSU KENKYU KUMIAI
Original Assignee
SHOKUHIN SANGYO ONRAIN SENSOR GIJUTSU KENKYU KUMIAI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SHOKUHIN SANGYO ONRAIN SENSOR GIJUTSU KENKYU KUMIAI filed Critical SHOKUHIN SANGYO ONRAIN SENSOR GIJUTSU KENKYU KUMIAI
Priority to JP2019997A priority Critical patent/JPH03224074A/en
Publication of JPH03224074A publication Critical patent/JPH03224074A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To shorten the time required for the binary image processing and to improve the processing accuracy by dividing the image of a model and a digital image to be processed into plural areas and using the feature values included in these areas for comparison carried out between the model and the digital image. CONSTITUTION:A signal converting part 6 converts the analog picture signal given from an image pickup part 1 into a digital picture signal. A feature value extracting part 9 extracts the feature value of the digital image data received from the part 6. Then a digital image is divided into plural small areas for extraction of the feature value of the digital image. A digital image of a model is compared with a subject digital image in the small areas of both digital images. Thus the primary position matching is performed. At the same time, those small areas are integrated into a medium area and the feature values of both digital images are compared with each other in the medium area for execution of the secondary position matching. Thus it is possible to attain the accurate position matching and also to perform the checking/identifying processes of a subject at a high speed.

Description

【発明の詳細な説明】 〔発明の対象技術分野] この発明は画像処理方法およびその装置に係り、画像の
位置合せや識別あるいは検査に適用可能なものである。
DETAILED DESCRIPTION OF THE INVENTION [Technical Field of the Invention] The present invention relates to an image processing method and apparatus, and is applicable to image alignment, identification, and inspection.

より具体的には濃淡を有する処理対象の画像とモデルの
画像との位置合せないし検査あるいは識別処理に関する
ものである。
More specifically, it relates to alignment, inspection, or identification processing between an image to be processed having shading and a model image.

(従来技術] 従来の画像処理において、まず画像の位置合せの機能、
すなわちモデルとなる画像とこのモデル画像に対して比
較する対象画像との位置合せの機能は画像処理装置自体
に位置合せ機能をもたずに外部のマテリアルハンドリン
グ技術に頼るものが少なくない。その1例として画像内
のひじょうに特徴的な部分に対応させて位置合せ用のウ
ィンドウを設け、そのウィンドウを対象画像内でサーチ
させ、特徴的な部分を見つけ、そのウィンドウからのオ
フセットで画像内でサーチさせて、特徴的な部分を見つ
け、そのウィンドウからのオフセットで画像内での検査
対象箇所を捜す方法がある。
(Prior art) In conventional image processing, first, the function of image alignment,
In other words, in many cases, the image processing apparatus itself does not have an alignment function and relies on external material handling technology for the function of aligning a model image and a target image to be compared with the model image. One example is setting up a window for positioning that corresponds to a very characteristic part in the image, searching that window in the target image, finding the characteristic part, and adjusting the position in the image by offset from that window. There is a method of searching, finding a characteristic part, and using an offset from that window to find the inspection target part in the image.

しかしこの方法はサーチさせる特徴的な部分が存在する
必要があり、位置合せの精度としても高くない。またこ
れは多くのばあい2値画像処理にて使われている。
However, this method requires the existence of a characteristic part to be searched, and the alignment accuracy is not high. It is also often used in binary image processing.

さらに位置合せの手法として相関法や5SDA法などが
有名であるが、これらはいずれも膨大な画素間演算であ
るため計算に多くの時間を要し、汎用の処理装置にはあ
まり応用されない。
Further, although the correlation method and the 5SDA method are well-known as alignment methods, these methods require a large amount of calculation time between pixels, and therefore are not often applied to general-purpose processing devices.

一方対象画像の検査や識別に関し、従来の画像処理の中
でもっとも多いのはウィンドウ内画素カウント方式いわ
ゆるマルチウィンドウ方式、SRIアルコリズム方式、
テンプレートマツチング方式の3つでいずれも2値画像
処理のため良好な2値画像が得られるということが大前
提となっており、とくにコントラストの良い対象物には
有効であっても表面状態の検査などには不向きである。
On the other hand, regarding inspection and identification of target images, the most common conventional image processing methods are the in-window pixel counting method, the so-called multi-window method, the SRI algorithm method,
All three template matching methods are binary image processing, so the main premise is that a good binary image can be obtained. It is not suitable for inspection.

また他の濃淡画像処理装置やカラー画像処理装置では扱
う情報量が多いので機能的には高いものの、多くのデー
タを高速処理するため専用のプロセンサーやハードウェ
アを必要とし、いきおい高価となる欠点がある。
In addition, other grayscale image processing devices and color image processing devices handle a large amount of information and are highly functional, but they require specialized professional sensors and hardware to process a large amount of data at high speed, making them extremely expensive. There is.

〔発明の目的] この発明はこのような従来の問題点にかんがみ、2値画
像処理における所要時間および精度を改善することを目
的とする。
[Object of the Invention] In view of such conventional problems, it is an object of the present invention to improve the time required and accuracy in binary image processing.

〔発明の概要〕[Summary of the invention]

この発明はその目的を達成するために従来の2値画像処
理に代え濃淡画像処理を採用するとともに、モデルとな
る画像および処理対象となる画像の映像信号をディジタ
ル化し、このディジタル化した画像を所定の領域に分割
し、この領域毎の特徴量を基準としてモデルおよび処理
対象のディジタル画像の位置合せをし、その上で処理対
象の検査や識別をするもので、高速処理を可能とするも
のである。
In order to achieve the object, this invention adopts grayscale image processing in place of conventional binary image processing, digitizes the video signals of the model image and the image to be processed, and converts this digitized image into a predetermined image. The digital image to be processed is divided into two regions, the model and the digital image to be processed are aligned based on the feature values of each region, and the object to be processed is then inspected and identified.This enables high-speed processing. be.

〔実施例〕〔Example〕

以下図を参照してこの発明の1実施例について説明する
An embodiment of the present invention will be described below with reference to the drawings.

すなわち第1図において撮像部またとえばカメラは処理
対象2を盪影するものである。なお処理対象2としては
たとえば第3図に示すように乳製品の紙容器の胴部に捺
印された製造工場の住所等の捺印部4の印字である。そ
して撮像機1は画像処理装置5に接続される。この処理
装置において信号変換部6は撮像部1からのアナログ画
像信号をディジタル画像信号に変換するとともに、その
入力信号に微分等の前処理を施す機能を有し、さらにそ
のディジタル信号をふたたびアナログ信号に変えてモニ
ター7に出力する機能を有している。
That is, in FIG. 1, the imaging unit, for example, a camera, images the object 2 to be processed. The processing target 2 is, for example, the printing of a stamp 4 such as the address of a manufacturing factory stamped on the body of a paper container for dairy products, as shown in FIG. The imaging device 1 is then connected to an image processing device 5. In this processing device, the signal conversion unit 6 has the function of converting the analog image signal from the imaging unit 1 into a digital image signal, and also performs preprocessing such as differentiation on the input signal, and converts the digital signal back into an analog signal. It has a function to output to the monitor 7 instead of

また特徴量抽出部9は信号変換部6からのディジタル画
像データの特徴量を抽出する機能を有する。
Further, the feature amount extracting section 9 has a function of extracting the feature amount of the digital image data from the signal converting section 6.

フレームメモリ10は特徴量抽出部9によって抽出され
たデータを記憶する。これらの各部は演算制御部13に
接続され、この演算制御部によって制御される。入出力
部14は外部からのトリガー信号を受けたり、演算制御
部13による判定結果を外部に出力する機能を有する。
The frame memory 10 stores the data extracted by the feature extracting section 9. Each of these parts is connected to the calculation control section 13 and controlled by this calculation control section. The input/output section 14 has a function of receiving a trigger signal from the outside and outputting a determination result by the calculation control section 13 to the outside.

また演算制御部13にはこの処理作業に必要なメモリー
15が接続される。
Further, a memory 15 necessary for this processing work is connected to the arithmetic control section 13.

次に第2図を参照して処理対象の画像処理方法について
説明する。
Next, a method for processing an image to be processed will be described with reference to FIG.

まず撮像部1によってモデルすなわち良品サンプルの画
像を盪影し、この画像データすなわちアナログ信号を信
号変換部6に送る(ステップ1)。
First, an image of a model, that is, a non-defective sample is captured by the imaging section 1, and this image data, that is, an analog signal, is sent to the signal converting section 6 (step 1).

このとき入力されるモデルの画像すなわちモデルとする
捺印部4の領域の大きさは第4図に示すように全画像サ
イズをNXMとしたとき、nXmの画素のサイズであり
、それぞれの寸法的関係はN>n、M>mである。そし
て信号変換部6においてモデルの画像データはディジタ
ル信号に変換さらる。これによってモデルの画像入力が
なされる。
The image of the model input at this time, that is, the size of the area of the stamping part 4 used as the model, is the pixel size of nXm when the total image size is NXM, as shown in FIG. are N>n and M>m. Then, the image data of the model is converted into a digital signal in the signal conversion section 6. In this way, the image of the model is input.

次にこの入力されたモデルのディジタル画像すなわちn
Xmの大きさの画像を所定の大きさの小領域すなわち第
5図に示すように、aXb画素の矩形の小頭域21に分
割し、各小領域毎の特徴量を算出する(ステップ2)。
Next, the digital image of this input model, i.e. n
The image with a size of .

なおこの発明において特徴量とは所定の大きさのディジ
タル画像を所定の大きさをもって複数個の領域に分割し
、この各領域内における複数画素の濃度を累積して得ら
れるその領域ごとの特徴的な値であって、このばあい各
小領域内における微分濃度の累積値を用いる。この微分
には第6図に示す各画素20.20のオペレーターおよ
び次の式を用いる。
Note that in this invention, the feature amount is the characteristic value of each region obtained by dividing a digital image of a predetermined size into multiple regions with a predetermined size and accumulating the density of multiple pixels within each region. In this case, the cumulative value of the differential concentration within each small region is used. This differentiation uses the operators for each pixel 20 and 20 shown in FIG. 6 and the following equation.

f’(x、y)=  If(x、y)−f(x、y−1
)+ l f(x、y)−f(x−Ly)そしてその累
積値は第7図に示す微分値計算回路においてディジタル
微分で算出される。この図においてディジタル画像デー
タは1水平ライン遅延回路25と1画素遅延回路26に
入力されるとともに差分絶対値回路27.28に入力さ
れ、かつ1水平ライン遅延回路25の出力は差分絶対値
回路27に、また1画素遅延回路26の出力は差分絶対
値回路28にそれぞれ入力される。さらに差分絶対値回
路27.28の出力は加算器29により加算されてディ
ジタル微分画像として出力される。
f' (x, y) = If (x, y) - f (x, y - 1
)+l f(x, y)-f(x-Ly) and its cumulative value is calculated by digital differentiation in the differential value calculation circuit shown in FIG. In this figure, digital image data is input to a 1-horizontal line delay circuit 25 and a 1-pixel delay circuit 26, and is also input to difference absolute value circuits 27 and 28, and the output of the 1-horizontal line delay circuit 25 is input to a difference absolute value circuit 27. Furthermore, the outputs of the one-pixel delay circuit 26 are input to the absolute difference circuit 28, respectively. Further, the outputs of the absolute difference circuits 27 and 28 are added by an adder 29 and output as a digital differential image.

なおこの微分値計算回路の詳細についてはその説明を省
略する。
Note that a detailed explanation of this differential value calculation circuit will be omitted.

ディジタル微分画像データは第8図に示す特徴量抽出回
路によってその累積値が計算される。この特徴量抽出回
路は複数のラインメモリLml〜Lm5を有し、このラ
インメモリには書込みクロック発生器31、書込みイネ
ーブル制御回路32、読出しクロック発生器33、読出
しイネーブル制御回路34、画素積和回路35が接続さ
れる。
The cumulative value of the digital differential image data is calculated by the feature extracting circuit shown in FIG. This feature quantity extraction circuit has a plurality of line memories Lml to Lm5, which include a write clock generator 31, a write enable control circuit 32, a read clock generator 33, a read enable control circuit 34, and a pixel product-sum circuit. 35 are connected.

ディジタル微分画像データは所定の画像素サイズたとえ
ば256X240画素の画面を有している。そしてこの
画面は所定の数の画素たとえば5×5画素の小領域に分
割される。そのディジタル画像はそのサイズから240
本の走査線から構成されるが、この走査線がラインメモ
リLml〜Lm5にその走査順に各ラインメモリの頭か
ら書込まれる。続いて第6木目から第10木目の走査線
は順にLml〜Lm5の各ラインメモリの後半部に書込
まれる。次に第11本口から第15木目の走査線はふた
たびLml〜Lm5の各ラインメモリの前半部に書込ま
れる。このように書込みは走査線単位に5本のラインメ
モリの前半および後半にサイクリックに書込まれてい(
(第9図イ)。
The digital differential image data has a screen having a predetermined pixel size, for example, 256×240 pixels. This screen is then divided into small areas of a predetermined number of pixels, for example, 5×5 pixels. The digital image has a size of 240
The scanning line is composed of the scanning lines of a book, and these scanning lines are written into the line memories Lml to Lm5 in the scanning order from the beginning of each line memory. Subsequently, the scanning lines from the 6th grain to the 10th grain are sequentially written into the latter half of each line memory Lml to Lm5. Next, the scanning line from the 11th grain to the 15th grain is again written to the first half of each line memory Lml to Lm5. In this way, writing is performed cyclically in the first half and second half of the five line memories in units of scanning lines (
(Figure 9a).

次に続出しは書込みより5走査線分遅れて始まり、読出
しクロックはラインメモリLml、Lm2Lm3.Lm
4.Lm5.Lml、Lm2.Lm3、・・・と画素単
位に5本のラインメモリをサインクリックに走査する。
Next, the successive reading starts five scanning lines later than the writing, and the read clock is set to the line memories Lml, Lm2Lm3 . Lm
4. Lm5. Lml, Lm2. Lm3, . . . , the five line memories are scanned pixel by sine click.

このようにして入力時とは順番の変った画素データ(第
9図口)が25画素積和回路35に入力され、小領域毎
の特徴量が抽出される。そして最終的に入力画素データ
に対し5走査線分遅れて小領域内特徴量がリアルタイム
に算出される。
In this way, the pixel data whose order has changed from that at the time of input (Fig. 9) is input to the 25-pixel product-sum circuit 35, and the feature amount for each small area is extracted. Finally, the small area feature amount is calculated in real time with a delay of 5 scanning lines relative to the input pixel data.

次に第10図のX印で示すようにモデルのディジタル画
像の9近傍または25近傍のローカルセル間における特
徴量を算出する(ステップ3)。
Next, as indicated by the X marks in FIG. 10, feature quantities between local cells in the 9th or 25th neighborhood of the digital image of the model are calculated (step 3).

すなわち第10図に示すように小頭域21.21を複数
個すなわち横A個、@IB個統合した小頭域22を形成
する。この図においては横3個、@13個の小頭域21
.21により1つの中領域を形成している。そしてこの
中領域内の特徴量を算出する。さらにこのとき第2の位
置合せ、すなわち正確な位置合せのために近傍中領域に
おけるデータ算出も行う。その近傍中領域データは第1
1図に示すようにその中領域の元になる小頭域21内の
画素単位でずらせた新たな小領域を統合して形成した小
頭域22によるデータである。なおこれらの計算は第1
図に示す演算制御部13により行われる。
That is, as shown in FIG. 10, a small head area 22 is formed by integrating a plurality of small head areas 21 and 21, that is, A side and @IB pieces. In this figure, there are 3 horizontal and 13 small head areas 21.
.. 21 forms one middle region. Then, the feature amount within this middle region is calculated. Furthermore, at this time, data calculation in the nearby medium area is also performed for second positioning, that is, accurate positioning. The neighboring medium area data is the first
As shown in FIG. 1, this data is based on a small head area 22 formed by integrating new small areas shifted pixel by pixel within the small head area 21 that is the source of the middle area. Note that these calculations are based on the first
This is performed by the calculation control section 13 shown in the figure.

次に検査ないし識別の対象すなわち処理対象となるディ
ジタル画像の入力を行う。すなわち処理対象となるディ
ジタル画像を第4図に示すNXMの全画像サイズで入力
する。
Next, a digital image to be inspected or identified, ie, to be processed, is input. That is, a digital image to be processed is input at the full image size of NXM shown in FIG.

続いて処理対象となるディジタル画像の小頭域21内の
特徴量を抽出する。すなわちモデルのディジタル画像に
おける小領域内の特徴量と同様に対象となるディジタル
画像においてもその小領域内の特徴量を同一小領域サイ
ズで算出する。この計算は第1図、第7図及び第8図に
示すハードウェアにより行なわれる。
Next, the feature amount within the small head area 21 of the digital image to be processed is extracted. That is, in the same way as the feature amount within the small area in the digital image of the model, the feature amount within the small area in the target digital image is calculated using the same small area size. This calculation is performed by the hardware shown in FIGS. 1, 7, and 8.

次にモデルと処理対象となるディジタル画像の第1の位
置合せを行う。すなわちこの位置合せは両画像の小領域
を利用した粗い位置合せである(ステップ6)。
Next, a first alignment is performed between the model and the digital image to be processed. That is, this alignment is a rough alignment using small areas of both images (step 6).

一般に画像処理おいてはトリガ入力により同一タイミン
グ、同一位置で動いているものの画像を取込むことは難
しく、全体画像の中、注目する部分すなわち検査や識別
する箇所がどこにあるかをソフトウェアによる位置合せ
で行う必要がしばしば生じる。そこでこの実施例におい
ては第12図に示すようにモデルと処理対象のディジタ
ル画像における小頭域21内の特徴量を用いた5SDA
法によって行っている。この5SDA法は通常画素の濃
度値を用いて画素単位で行われるため計算に膨大な時間
を要する。その計算時間を短縮する方法としては画素飛
ばしのコース−ファイン(coarse−f 1ne)
法などがあるが精度の点に問題がある。この発明におい
ては小頭域21内の特徴量すなわち微分値の和を用いて
いる。
In general, in image processing, it is difficult to capture images of moving objects at the same timing and position using a trigger input, so software is used to align the parts of the entire image that are of interest, i.e., where to inspect or identify them. It is often necessary to do so. Therefore, in this embodiment, as shown in FIG.
It is done by law. Since this 5SDA method is normally performed pixel by pixel using the density value of the pixel, it takes an enormous amount of time to calculate. One way to shorten the calculation time is to skip pixels using coarse-fine (coarse-f 1ne).
There are some methods, but they have problems with accuracy. In this invention, the sum of feature amounts, ie, differential values, within the capitula 21 is used.

次に対象のディジタル画像の小頭域22を算出する。す
なわち第1の位置合せの後、モデルと処理対象のディジ
タル画像とを同一の中領域サイズにて小頭域22の算出
すなわち小頭域21の統合を行う。なおここではモデル
のばあいのように近傍中領域の算出は行わない(ステッ
プ7)。
Next, the microcephalic region 22 of the target digital image is calculated. That is, after the first alignment, calculation of the small head area 22, that is, integration of the small head area 21, is performed using the model and the digital image to be processed with the same medium area size. Note that, unlike in the case of the model, calculation of the neighborhood medium area is not performed here (step 7).

次にモデルと処理対象のディジタル画像の中領域22を
利用して第2の位置合せを行う。すなわち先に計算した
モデルのディジタル画像の9近傍または25近傍のロー
カルセル内における特徴量を用いてさらに正確な位置合
せを行う。この第2の位置合せは第10図の×印で示す
9近傍なら9組の、また25近傍なら25組の中領域デ
ータをモデルと対象とでその中領域対応で比べ、もっと
も対象と似かよった近傍モデルの位置を正確な位置とす
る。具体的にはたとえば対応する中領域で処理対象のデ
ータとモデルのデータとの差の絶対値のモデルの値に対
する比を計算し、全中領域での累積計算を行う。9組あ
るいは25組の近傍のうちもっとも累積値の小さい位置
を正確な位置合せとする方法が考えられる(ステップ8
)。
Next, a second alignment is performed using the model and the middle area 22 of the digital image to be processed. That is, more accurate positioning is performed using feature amounts in the 9 or 25 local cells of the previously calculated digital image of the model. This second alignment is performed by comparing the mid-region correspondence between the model and the target using 9 sets of mid-region data for 9 neighborhoods indicated by the x marks in Figure 10, and 25 sets of mid-region data for 25 neighbors, and finds the one that is most similar to the target. The position of the neighboring model is set as the accurate position. Specifically, for example, the ratio of the absolute value of the difference between the data to be processed and the model data in the corresponding middle region to the model value is calculated, and the cumulative calculation is performed for all the middle regions. A method can be considered in which the position with the smallest cumulative value among the 9 pairs or 25 pairs is determined as accurate alignment (step 8).
).

次にモデルと対象の中領域比較による検査を行う。すな
わち第2の位置合せの後、対応中領域でモデルと処理対
象とで特徴量の比較を行う。当然モデルは第2の位置合
せて最も近似した近傍のデータを用いる。比較の際の上
下限しきい値を設定することにより判定レベルを調節で
きる。また判定しきい値は中領域毎に異なる値も設定で
きる(ステップ9)。
Next, an inspection is performed by comparing the middle region of the model and the target. That is, after the second alignment, feature amounts are compared between the model and the processing target in the corresponding region. Naturally, the model uses the data of the closest neighbors in the second alignment. The determination level can be adjusted by setting upper and lower thresholds for comparison. Further, the determination threshold value can be set to a different value for each medium region (step 9).

なお小頭域21、中領域22内の特徴量として微分濃度
値の累積値を用いたものについて説明したが、これ以外
にモデルおよび対象の原画の濃度値の累積値や方向別微
分値の累積値、ある範囲内の原画濃度あるいは微分濃度
をもつ画素の数、または原画濃度ヒストグラムのもつ特
徴量すなわち山の数や最大傾斜などを採用することがで
きる。
Although we have explained the case where the cumulative value of the differential density value is used as the feature quantity in the small head area 21 and the middle region 22, in addition to this, the cumulative value of the density value of the model and the target original image and the cumulative value of the differential value by direction are also used. value, the number of pixels having an original image density or differential density within a certain range, or a feature quantity of an original image density histogram, such as the number of peaks or maximum slope.

(発明の効果〕 この発明は上述のようにモデルと処理対象のディジタル
画像を比較するのにそれらの画像を複数の領域に分割し
、その両域内の特徴量を用いているので両者の位置合せ
が正確で、かつ対象の検査や識別の行程を高速で行うこ
とができる。また特徴量を用いた画像処理はコントラス
I・のさほど強くない表面検査等に適し、とくにその特
徴量として微分累積値を用いるものにあっては周囲の明
るさの変動を受は難く、たとえば捺印検査では潰れた捺
印もまた捺印の欠落部も微分値としては同じように小さ
い値をとるので不良要素の検出が容易である。
(Effects of the Invention) As described above, this invention divides the model into a plurality of regions to compare the digital image to be processed, and uses the feature amounts in both regions, so that it is possible to align the two. is accurate, and the process of inspecting and identifying objects can be performed at high speed.Furthermore, image processing using feature quantities is suitable for surface inspection, etc. where the contrast is not so strong, and in particular, the differential cumulative value is used as the feature quantity. For example, in a stamp inspection, the differential value of crushed stamps and missing parts of stamps is similarly small, making it easy to detect defective elements. It is.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明における画像処理装置の1実施例を示
すブロック図、第2図は画像処理の流れ図、第3図は検
査あるいは識別をするための対象の外観斜視図、第4図
は処理対象の捺印領域を示す正面図、第5図は第4図の
捺印領域を小領域に分割した状態の平面図、第6図は1
画素の微分処理に関わる画素20.20の座標を示すパ
ラメータ図、第7図は微分値計算回路のブロック図、第
8図は小領域内の特徴量抽出回路のブロック図、第9図
はラインメモリの入力時と出力時の順番を示す説明図、
第10図は9近傍中領域算出時の任意注目画素と小領域
との位置関係を示す関係図、第11図は中領域と小領域
との関係を示す説明図、第12図は小領域を用いた5S
DA法の説明図である。 1・・・ 2・・・ 4・・・ 5・・・ 6・・・ 7・・・ 9・・・ 10・・・ 13・・・ 14・・・ 15・・・ 20・・・ 2 l・・・ 25・・・ 撮像部 処理対象 捺印部 画像処理装置 信号変換部 モニター 特徴量抽出部 フレームメモリー 演算制御部 入出力部 メモリー 画素 小領域 1水平ライン遅延回路 26・・・ 1画素遅延回路 27・・・差分絶対値回路 2日・・・差分絶対値回路 29・・・加算器 Lml〜Lm・・・ ラインメモリ 31・・・クロック発生器 32・9.書込みイネーブル制御回路 33・・・読出しクロック発生器 34・・・読出しイネーブル制御回路 35・・・画素積和回路
Fig. 1 is a block diagram showing one embodiment of the image processing device according to the present invention, Fig. 2 is a flowchart of image processing, Fig. 3 is an external perspective view of an object to be inspected or identified, and Fig. 4 is a processing 5 is a front view showing the target stamp area, FIG. 5 is a plan view of the stamp area in FIG. 4 divided into small areas, and FIG. 6 is a 1
A parameter diagram showing the coordinates of pixels 20 and 20 involved in pixel differential processing, Figure 7 is a block diagram of the differential value calculation circuit, Figure 8 is a block diagram of the feature extraction circuit in a small area, and Figure 9 is a line diagram. An explanatory diagram showing the order of memory input and output,
Figure 10 is a relationship diagram showing the positional relationship between an arbitrary pixel of interest and a small area when calculating a 9-neighborhood medium area, Figure 11 is an explanatory diagram showing the relationship between a medium area and a small area, and Figure 12 is a diagram showing the relationship between a small area and a small area. 5S used
It is an explanatory diagram of the DA method. 1... 2... 4... 5... 6... 7... 9... 10... 13... 14... 15... 20... 2 l 25... Imaging section Processing target stamping section Image processing device Signal converting section Monitor feature extraction section Frame memory calculation control section Input/output section Memory pixel small area 1 horizontal line delay circuit 26... 1 pixel delay circuit 27 ...Difference absolute value circuit 2 days...Difference absolute value circuit 29...Adders Lml to Lm...Line memory 31...Clock generator 32, 9. Write enable control circuit 33...Read clock generator 34...Read enable control circuit 35...Pixel product-sum circuit

Claims (18)

【特許請求の範囲】[Claims] (1)モデルとなる画像を撮像部に入力し、この撮像部
からの出力をアナログ−ディジタル変換してそのモデル
のディジタル画像を得るとともに、このディジタル画像
を所定の数の画素をもって統合する複数の小領域に分割
し、この各小領域内の特徴量を抽出し、一方処理対象と
なる画像を上記撮像装置に入力し、この出力をアナログ
−ディジタル変換してその処理対象のディジタル画像を
得、このディジタル画像を所定の数の画素をもって統合
する複数の小領域に分割し、この各小領域内の特徴量を
抽出し、上記モデルのディジタル画像と上記対象となる
ディジタル画像とを両ディジタル画像の小領域において
比較することにより第1次の位置合せをし、また上記モ
デルのディジタル画像および上記対象となるディジタル
画像の上記小領域をそれぞれさらに統合して中領域を形
成し、この中領域内の特徴量をそれぞれ抽出し、両ディ
ジタル画像の中領域における特徴量を比較して第2次の
位置合せをすることを特徴とする画像処理における位置
合せ方法。
(1) Input a model image to an imaging unit, convert the output from this imaging unit from analog to digital to obtain a digital image of the model, and integrate this digital image with a predetermined number of pixels. Divide the image into small regions, extract the feature amount within each small region, input the image to be processed into the imaging device, convert the output from analog to digital, and obtain the digital image to be processed. This digital image is divided into a plurality of small regions that are integrated with a predetermined number of pixels, the feature amount within each small region is extracted, and the digital image of the above model and the above target digital image are combined into two digital images. The first alignment is performed by comparing the small areas, and the small areas of the digital image of the model and the target digital image are further integrated to form a middle area, and the An alignment method in image processing characterized by extracting respective feature quantities and comparing the feature quantities in middle regions of both digital images to perform secondary alignment.
(2)上記モデルのディジタル画像と、上記処理対象の
ディジタル画像における特徴量は各小領域内の画素の濃
度を基準とする特許請求の範囲第1項記載の画像処理に
おける位置合せ方法。
(2) The alignment method in image processing according to claim 1, wherein the feature amounts in the digital image of the model and the digital image to be processed are based on the density of pixels in each small area.
(3)上記モデルのディジタル画像と、上記処理対象の
ディジタル画像における特徴量は各小領域内の画素の濃
度和を基準とする特許請求の範囲第1項記載の画像処理
における位置合せ方法。
(3) The alignment method in image processing according to claim 1, wherein the feature amounts in the digital image of the model and the digital image to be processed are based on the sum of density of pixels in each small area.
(4)上記モデルのディジタル画像と、上記処理対象の
ディジタル画像における特徴量は各小領域内の画素の濃
度の微分値を基準とする特許請求の範囲第1項記載の画
像処理における位置合せ方法。
(4) An alignment method in image processing according to claim 1, wherein the feature amounts in the digital image of the model and the digital image to be processed are based on the differential value of the density of pixels in each small area. .
(5)上記モデルのディジタル画像と、上記処理対象の
ディジタル画像における特徴量は各小領域内の画素の濃
度の微分値の和を基準とする特許請求の範囲第1項記載
の画像処理方法。
(5) The image processing method according to claim 1, wherein the feature amounts in the digital image of the model and the digital image to be processed are based on the sum of differential values of the density of pixels in each small area.
(6)上記モデルのディジタル画像と、上記処理対象の
ディジタル画像における特徴量は各小領域内の画素の方
向別微分値の累積値であることを特徴とする特許請求の
範囲第1項記載の画像処理方法。
(6) The feature amount in the digital image of the model and the digital image to be processed is the cumulative value of the differential value of each direction of pixels in each small area. Image processing method.
(7)上記モデルのディジタル画像と、上記処理対象の
ディジタル画像における特徴量は上記モデルおよび上記
処理対象の原画の濃度値の累積値を基準とすることを特
徴とする特許請求の範囲第1項記載の画像処理方法。
(7) The feature amount in the digital image of the model and the digital image to be processed is based on the cumulative density value of the model and the original image to be processed. Image processing method described.
(8)上記モデルのディジタル画像と、上記処理対象の
ディジタル画像における特徴量は上記モデルおよび上記
処理対象の原画における所定の領域内の所定の濃度を有
する画素の数を基準とすることを特徴とする特許請求の
範囲第1項記載の画像処理方法。
(8) The feature amounts in the digital image of the model and the digital image to be processed are based on the number of pixels having a predetermined density within a predetermined area in the original image of the model and the original image to be processed. An image processing method according to claim 1.
(9)上記モデルのディジタル画像と、上記処理対象の
ディジタル画像における特徴量は上記モデルおよび上記
処理対象の原画における所定の領域内の所定の微分濃度
を有する画素の数を基準とすることを特徴とする特許請
求の範囲第1項記載の画像処理方法。
(9) The feature amounts in the digital image of the model and the digital image to be processed are based on the number of pixels having a predetermined differential density within a predetermined area in the original image of the model and the original image to be processed. An image processing method according to claim 1.
(10)上記モデルのディジタル画像と、上記処理対象
のディジタル画像における特徴量は上記モデルおよび上
記処理対象の原画における濃度ヒストグラムを基準とす
ることを特徴とする特許請求の範囲第1項記載の画像処
理方法。
(10) The image according to claim 1, wherein the feature amounts in the digital image of the model and the digital image to be processed are based on density histograms of the model and the original image to be processed. Processing method.
(11)上記モデルおよび処理対象のディジタル画像の
中領域はそのディジタル画像の特徴量を読み取る方向に
おいてその特徴量が所定の累積値に達した点を境として
画成することを特徴とする特許請求の範囲第1項記載の
画像処理方法。
(11) A patent claim characterized in that the middle region of the digital image to be processed by the model is defined at a point where the feature amount reaches a predetermined cumulative value in the direction in which the feature amount of the digital image is read. The image processing method according to item 1.
(12)上記モデルのディジタル画像と上記処理対象の
ディジタル画像との位置合せは上記モデルのディジタル
画像を上記処理対象のディジタル画像内で比較すること
を特徴とする特許請求の範囲第1項記載の画像処理方法
(12) The alignment of the digital image of the model and the digital image to be processed is performed by comparing the digital image of the model within the digital image to be processed. Image processing method.
(13)上記モデルのディジタル画像の面積は上記処理
対象のディジタル画像の面積に比し小さいことを特徴と
する特許請求の範囲第1項記載の画像処理方法。
(13) The image processing method according to claim 1, wherein the area of the digital image of the model is smaller than the area of the digital image to be processed.
(14)上記第1の位置合せは上記モデルのディジタル
画像の小領域と上記処置対象のディジタル画像の小領域
との間の残差累積値を計算し、その値がもっとも小さい
点を最適位置とし、また上記第2の位置合せは上記モデ
ルのディジタル画像の中領域と上記処理対象のディジタ
ル画像の中領域との間の残差累積値を計算し、その値が
もっとも小さい点を最適位置とすることを特徴とする特
許請求の範囲第1項記載の画像処理方法。
(14) The first alignment involves calculating the residual cumulative value between the small area of the digital image of the model and the small area of the digital image to be treated, and determining the point with the smallest value as the optimal position. , and in the second alignment, the residual cumulative value between the middle region of the digital image of the model and the middle region of the digital image to be processed is calculated, and the point with the smallest value is set as the optimal position. An image processing method according to claim 1, characterized in that:
(15)モデルとなる画像を撮像部に入力し、この撮像
部からの出力をアナログ−ディジタル変換してそのモデ
ルのディジタル画像を得るとともに、このディジタル画
像を所定の数の画素をもって統合する複数の小領域に分
割し、この各小領域内の特徴量を抽出し、一方処理対象
となる画像を上記撮像装置に入力し、この出力をアナロ
グ−ディジタル変換してその処理対象のディジタル画像
を得、このディジタル画像を上記モデルのディジタル画
像と等しい大きさで、かつ同数の小領域に分割し、この
各小領域内の特徴量を抽出し、上記モデルのディジタル
画像と上記対象となるディジタル画像とを両ディジタル
画像の小領域において比較することにより第1次の位置
合せをし、また上記モデルのディジタル画像および上記
対象となるディジタル画像の上記小領域をそれぞれさら
に統合して中領域を形成し、この中領域内の特徴量をそ
れぞれ抽出し、両ディジタル画像の中領域における特徴
量を比較して第2次の位置合せをし、さらに上記処理対
象のディジタル画像を上記モデルのディジタル画像と比
較することにより上記処理対象の画像を検査ないし識別
することを特徴とする画像処理方法。
(15) Input the model image to the imaging unit, convert the output from the imaging unit from analog to digital to obtain a digital image of the model, and combine the digital images with a predetermined number of pixels. Divide the image into small regions, extract the feature amount within each small region, input the image to be processed into the imaging device, convert the output from analog to digital, and obtain the digital image to be processed. This digital image is divided into small regions of the same size and number as the digital image of the above model, and the feature amount within each small region is extracted, and the digital image of the above model and the above target digital image are combined. The first alignment is performed by comparing the small regions of both digital images, and the small regions of the digital image of the model and the target digital image are further integrated to form a middle region, and this Extracting the feature amounts in the middle region, performing secondary alignment by comparing the feature amounts in the middle region of both digital images, and further comparing the digital image to be processed with the digital image of the model. An image processing method characterized by inspecting or identifying the image to be processed.
(16)モデルとなる画像ないし処理対象となる画像を
撮像する撮像部と、この撮像部からのアナログ画像信号
をディジタル画像信号に変換する信号変換部と、上記モ
デルないし処理対象のディジタル画像において、この画
像を所定の数の画素をもって統合するよう複数に分割さ
れた領域内の特徴量を抽出する特徴量抽出部と、上記領
域を画成するとともに、上記モデルと上記処理対象のデ
イジタル画像とを両領域において比較することにより両
ディジタル画像の位置合せをする演算制御部を備えた画
像処理装置。
(16) An imaging unit that captures a model image or an image to be processed, a signal conversion unit that converts an analog image signal from the imaging unit into a digital image signal, and the digital image of the model or processing target, a feature amount extraction unit that extracts feature amounts within a region divided into a plurality of regions so as to integrate this image with a predetermined number of pixels; An image processing device that includes an arithmetic control unit that aligns both digital images by comparing both areas.
(17)モデルとなる画像ないし処理対象となる画像を
撮像する撮像部と、この撮像部からのアナログ画像信号
をディジタル画像信号に変換する信号変換部と、上記モ
デルないし処理対象のディジタル画像において、この画
像を所定の数の画素をもって統合するよう複数に分割さ
れた領域内の特徴量を抽出する特徴量抽出部と、上記領
域を画成するとともに、上記モデルと上記処理対象のデ
ィジタル画像とを両領域において比較することにより両
ディジタル画像の位置合せをし、さらに上記処理対象を
検査ないし識別する演算制御部を備えた画像処理装置。
(17) An imaging unit that captures a model image or an image to be processed, a signal conversion unit that converts an analog image signal from the imaging unit into a digital image signal, and the model or digital image to be processed, a feature amount extraction unit that extracts feature amounts within a region divided into a plurality of regions so as to integrate this image with a predetermined number of pixels; An image processing device comprising an arithmetic control unit that aligns both digital images by comparing both areas, and further inspects or identifies the processing target.
(18)上記演算制御部は上記モデル、および上記処理
対象のディジタル画像を所定の画素をもって統合する複
数の小領域に分割するともに両ディジタル画像の小領域
の特徴量を比較することにより第1次の位置合せをし、
さらに上記両ディジタル画像の上記小領域をそれぞれさ
らに統合して中領域を形成し、両ディジタル画像の中領
域における特徴量を比較して第2次の位置合せをする機
能を有する特許請求の範囲第16項または第17項記載
の画像処理装置。
(18) The arithmetic control unit divides the model and the digital image to be processed into a plurality of small regions that are integrated with predetermined pixels, and compares the feature amounts of the small regions of both digital images to obtain the first image. Align the
Further, the small areas of both digital images are further integrated to form a middle area, and the feature amounts in the middle areas of both digital images are compared to perform secondary alignment. The image processing device according to item 16 or 17.
JP2019997A 1990-01-30 1990-01-30 Method and device for image processing Pending JPH03224074A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019997A JPH03224074A (en) 1990-01-30 1990-01-30 Method and device for image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019997A JPH03224074A (en) 1990-01-30 1990-01-30 Method and device for image processing

Publications (1)

Publication Number Publication Date
JPH03224074A true JPH03224074A (en) 1991-10-03

Family

ID=12014803

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019997A Pending JPH03224074A (en) 1990-01-30 1990-01-30 Method and device for image processing

Country Status (1)

Country Link
JP (1) JPH03224074A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009255409A (en) * 2008-04-17 2009-11-05 Horizon International Inc Imperfect collating detection device
JP2011524267A (en) * 2008-05-28 2011-09-01 ペッパール ウント フュフス ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and mechanism for inspecting printed matter, computer program and computer program product

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009255409A (en) * 2008-04-17 2009-11-05 Horizon International Inc Imperfect collating detection device
JP2011524267A (en) * 2008-05-28 2011-09-01 ペッパール ウント フュフス ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and mechanism for inspecting printed matter, computer program and computer program product
US8611613B2 (en) 2008-05-28 2013-12-17 Pepperl + Fuchs Gmbh Method and apparatus for checking print products, a computer program and a computer program product

Similar Documents

Publication Publication Date Title
US4905296A (en) System for shape recognition
CN114937055A (en) Image self-adaptive segmentation method and system based on artificial intelligence
JPS59157505A (en) Pattern inspecting device
CN112348787A (en) Training method of object defect detection model, object defect detection method and device
CN111539957B (en) Image sample generation method, system and detection method for target detection
CN110335233B (en) Highway guardrail plate defect detection system and method based on image processing technology
JP3741672B2 (en) Image feature learning type defect detection method, defect detection apparatus, and defect detection program
CN112419261B (en) Visual acquisition method and device with abnormal point removing function
Wah et al. Analysis on feature extraction and classification of rice kernels for Myanmar rice using image processing techniques
CN113807378A (en) Training data increment method, electronic device and computer readable recording medium
CN110781913A (en) Zipper cloth belt defect detection method
JPH03224074A (en) Method and device for image processing
CN111583341B (en) Cloud deck camera shift detection method
CN113344905A (en) Strip deviation amount detection method and system
CN107123105A (en) Images match defect inspection method based on FAST algorithms
JPH03224075A (en) Aligning method in image processing
CN116416251B (en) Method and related device for detecting quality of whole-core flame-retardant conveying belt based on image processing
JPH03170930A (en) Pattern inspecting device
Anitha et al. Solder Joint Defect Detection in PCBA Chip Components Based on the Histogram Analysis
JPS61147377A (en) Image analyzer
Lai et al. Intelligent processing of computer image recognition application analysis
Sahri et al. A Comprehensive Comparative Experiment of Edge Detection Algorithms for OMR
JP2959017B2 (en) Circular image discrimination method
Zhou et al. Development and Evaluation of a Vision Inspection System for Plastic Bottle Measurement
JPH0760462B2 (en) Image area dividing device