JP2000182114A - Watermark inspecting device - Google Patents

Watermark inspecting device

Info

Publication number
JP2000182114A
JP2000182114A JP10362210A JP36221098A JP2000182114A JP 2000182114 A JP2000182114 A JP 2000182114A JP 10362210 A JP10362210 A JP 10362210A JP 36221098 A JP36221098 A JP 36221098A JP 2000182114 A JP2000182114 A JP 2000182114A
Authority
JP
Japan
Prior art keywords
image
inspection
pattern
processing
divided
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10362210A
Other languages
Japanese (ja)
Other versions
JP3501967B2 (en
Inventor
Mitsuru Aikawa
満 相川
Minoru Fujita
稔 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Engineering Corp
National Printing Bureau
Original Assignee
Toshiba Engineering Corp
Printing Bureau Ministry of Finance
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Engineering Corp, Printing Bureau Ministry of Finance filed Critical Toshiba Engineering Corp
Priority to JP36221098A priority Critical patent/JP3501967B2/en
Publication of JP2000182114A publication Critical patent/JP2000182114A/en
Application granted granted Critical
Publication of JP3501967B2 publication Critical patent/JP3501967B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To detect the faults of a watermark image with high precision. SOLUTION: The faults are inspected at the high contrast parts of an image pattern by the normalized correlation method of a normalized correlation processing part 24. Meanwhile, the faults are inspected at a part having no image pattern or the low contrast parts of the image pattern by a micro filter of a micro filter processing part 25. Then the faults are inspected at the parts having the slow contrast changes of the image pattern by the variable density homology of a variable density homology processing part 26.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、透かし画像の欠陥
を検出するためのすき入れ検査装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a penetration inspection apparatus for detecting a defect in a watermark image.

【0002】[0002]

【従来の技術】例えば、紙幣は、抄造工程を経た原反ロ
ールの表面の欠陥を検査する紙幣用紙検査工程と、大判
単位に裁断する大判裁断工程と、紙幣の種類に応じた印
刷を行う印刷工程と、紙幣用紙を小切れ単位に裁断する
小切れ裁断工程とを経て完成される。
2. Description of the Related Art For example, banknotes are subjected to a banknote paper inspection process for inspecting defects on the surface of a material roll after a papermaking process, a large-size cutting process for cutting into large-size units, and printing for printing according to the type of banknote. It is completed through a process and a small-piece cutting step of cutting the bill paper into small pieces.

【0003】紙幣の種類に応じた人物等の透かし画像
は、抄造工程の段階で原反ロールに形成される。すなわ
ち、図24に示すように、原反ロール1は、抄造工程に
よって形成された印刷用紙2がロール状に巻回されたも
のである。印刷用紙2には、4行5列の小切れ紙幣領域
3aにブロック化された大判3A,3B,3Cが印刷用
紙2の幅方向に3列に設けられている。但し、これら小
切れ紙幣領域3aは、可視状態にあるものではないが、
印刷用紙2に付されたプリントマーク4によって各大判
3A,3B,3Cの位置が把握されるようになってい
る。また、人物等の透かし画像は、各小切れ紙幣領域3
aの所定の位置に形成されている。
[0003] A watermark image of a person or the like according to the type of bill is formed on a raw roll at the stage of the papermaking process. That is, as shown in FIG. 24, the raw material roll 1 is obtained by winding the printing paper 2 formed in the papermaking process into a roll shape. The printing paper 2 is provided with large-format 3A, 3B, and 3C divided into small pieces of bills 3a of 4 rows and 5 columns in three columns in the width direction of the printing paper 2. However, although these small cut bill areas 3a are not in a visible state,
The position of each large format 3A, 3B, 3C can be grasped by the print mark 4 attached to the printing paper 2. In addition, a watermark image of a person or the like is displayed in each of the small bill areas 3.
a at a predetermined position.

【0004】そして、紙幣用紙検査工程において、原反
ロール1の印刷用紙2の欠陥の有無が検査される。検査
項目は、汚れやピンホール等である。検査に際しては、
原反ロール1から引出された印刷用紙2に対し、印刷用
紙2の幅方向にCCDラインセンサカメラによって水平
走査が行われ、得られた画像データから欠陥の有無が検
査されるようになっている。
[0004] In a bill paper inspection process, the printing paper 2 of the raw roll 1 is inspected for defects. Inspection items include dirt and pinholes. Upon inspection,
Horizontal scanning is performed by the CCD line sensor camera in the width direction of the printing paper 2 drawn out from the material roll 1 and the presence or absence of a defect is inspected from the obtained image data. .

【0005】[0005]

【発明が解決しようとする課題】ところで、上述した印
刷用紙2の検査工程においては、その用紙自体の欠陥が
検査されるものの、各小切れ紙幣領域3aに形成されて
いる人物等の透かし画像の検査は、熟練工により目視に
よって行われている。
In the above-described inspection process of the printing paper 2, although a defect of the paper itself is inspected, a watermark image of a person or the like formed in each of the small bill regions 3 a is inspected. The inspection is performed visually by a skilled worker.

【0006】ここで、人物等の透かしの検査項目には、
線の欠け、不鮮明、歪み、異物、ピンホール等がある
が、これらの項目毎の欠陥を瞬時にして判定すること
は、熟練をもってしても物理的に不可能である。
Here, the inspection items for the watermark of a person or the like include:
There are missing lines, blurs, distortions, foreign matter, pinholes, etc., but it is physically impossible even with skill to judge instantaneously the defects of these items.

【0007】本発明は、このような事情に対処してなさ
れたもので、透かし画像の欠陥検出を精度良く行うこと
ができるすき入れ検査装置を提供することを目的とす
る。
SUMMARY OF THE INVENTION The present invention has been made in view of such circumstances, and has as its object to provide a penetration inspection device capable of accurately detecting a defect in a watermark image.

【0008】[0008]

【課題を解決するための手段】上記目的を達成するた
め、請求項1に記載のすき入れ検査装置は、検査対象と
なる検査対象透かし画像を撮像する撮像手段と、基準と
なる基準透かし画像の全体パターンを格納する基準パタ
ーン格納部と、前記全体パターンに基づき、前記検査対
象透かし画像の検査領域を設定するとともに、前記検査
対象透かし画像の画像パターンのコントラストの高い部
分の欠陥検査を行う第1のアルゴリズムと、この第1の
アルゴリズムによって設定された前記検査領域内の画像
パターンの無い部分及びコントラストの低い部分の欠陥
検査を行う第2のアルゴリズムと、前記第1のアルゴリ
ズムによって設定された前記検査領域内の画像パターン
のコントラストの変化が緩やかな部分の欠陥検査を行う
第3のアルゴリズムとを有する画像処理検査部とを備
え、前記第1〜3のアルゴリズムによる前記基準透かし
画像と検査対象透かし画像とのマッチングによって、前
記検査対象透かし画像の欠陥が相互補完的に検査される
ことを特徴としている。
In order to achieve the above object, a penetration inspection apparatus according to claim 1 includes an imaging unit that captures an inspection target watermark image to be inspected, and a reference watermark image that is a reference. A reference pattern storage unit for storing an entire pattern; and a first area for setting an inspection area of the inspection target watermark image based on the entire pattern and performing a defect inspection of a high contrast portion of the image pattern of the inspection target watermark image. Algorithm, a second algorithm for performing a defect inspection of a portion having no image pattern and a low contrast portion in the inspection area set by the first algorithm, and the inspection set by the first algorithm A third algorithm for performing a defect inspection of a portion where the contrast of the image pattern in the region has a gradual change A defect of the inspection target watermark image is complementarily inspected by matching the reference watermark image and the inspection target watermark image by the first to third algorithms. And

【0009】ここで、第1〜3のアルゴリズムは、それ
ぞれの得意点と不得意点とを相互に補完し合うことによ
って、検査対象透かし画像の欠陥検査を確実に行うもの
である。欠陥検査の着目点は、検査対象透かし画像の濃
淡変動であり、これを3つのグループに分け、それぞれ
に3つの画像処理アルゴリズムを適用させたものであ
る。ここで、欠陥とは、線の欠け、不鮮明、歪み、異
物、ピンホール等である。
Here, the first to third algorithms are to surely carry out the defect inspection of the watermark image to be inspected by mutually complementing the respective good points and the weak points. The focus of the defect inspection is the variation in the density of the inspection target watermark image, which is divided into three groups, each of which is applied with three image processing algorithms. Here, the defect is a lack of a line, a blur, a distortion, a foreign matter, a pinhole, or the like.

【0010】すなわち、パターンのコントラストに着目
し、例えば紙幣の透かし画像の各部分を見てみると、次
のように大きく3つに分類することができる。 目、まゆ毛、頬の輪郭、襟元ネクタイ等のようにパタ
ーンコントラストが高い箇所。 額、頬や服の部分でのパターンがない箇所、もしくは
パターンのコントラストが非常に低い箇所。 まゆ毛の中や服の折目の線等で濃淡の変化はあるが急
激ではない箇所。 よって、本発明では、分類した〜にそれぞれ第1〜
3のアルゴリズムを適用させている。第1のアルゴリズ
ムとしては、正規化相関法を適用することができる。第
2のアルゴリズムとしては、微分系のフィルターを適用
することができる。第3のアルゴリズムとしては、濃淡
モホロジーを適用することができる。
That is, paying attention to the contrast of the pattern and looking at, for example, each part of the watermark image of the bill, it can be roughly classified into three as follows. Areas with high pattern contrast, such as eyes, eyebrows, cheek contours, and neck ties. Areas where there is no pattern on the forehead, cheeks or clothes, or where the pattern contrast is very low. Shading in the eyebrows or the fold line of the clothes, etc. Therefore, in the present invention, the first to the first
Algorithm 3 is applied. As the first algorithm, a normalized correlation method can be applied. As a second algorithm, a differential filter can be used. As a third algorithm, shading morphology can be applied.

【0011】このような構成によれば、検査対象透かし
画像に対して、第1のアルゴリズムにより、画像パター
ンのコントラストの高い部分の欠陥検査が行われ、第2
のアルゴリズムにより、画像パターンの無い部分及びコ
ントラストの低い部分の欠陥検査が行われ、第3のアル
ゴリズムにより、画像パターンのコントラストの変化が
緩やかな部分の欠陥検査が行われる。これにより、第1
〜3のアルゴリズムによって、それぞれの不得意部分が
補われつつ欠陥検査が行われるので、透かし画像がもつ
全てのパターンに対しての欠陥検査を確実に行うことが
できる。
According to such a configuration, a defect inspection of a high contrast part of the image pattern is performed on the watermark image to be inspected by the first algorithm, and the second algorithm is used.
The algorithm of (1) performs a defect inspection on a portion without an image pattern and the portion with a low contrast, and the third algorithm performs a defect inspection on a portion of the image pattern with a gradual change in contrast. Thereby, the first
Since the defect inspection is performed by the algorithms of (1) to (3) while each weak part is compensated, the defect inspection can be reliably performed on all the patterns of the watermark image.

【0012】請求項2に記載のすき入れ検査装置は、前
記基準パターン格納部には、前記全体パターンを分割し
た複数の分割パターンが格納されており、前記第1のア
ルゴリズムが前記分割パターンに基づき、前記検査対象
透かし画像の検査領域を分割設定するとともに、これら
分割設定された領域毎に、前記第1〜3のアルゴリズム
によるマッチングが行われることを特徴としている。
According to a second aspect of the present invention, in the penetration inspection apparatus, the reference pattern storage section stores a plurality of divided patterns obtained by dividing the entire pattern, and the first algorithm is based on the divided patterns. The inspection area of the inspection target watermark image is divided and set, and matching is performed for each of the divided areas by the first to third algorithms.

【0013】このような構成では、検査領域を複数に分
割することで、検査対象透かし画像の微細な濃淡変動の
欠陥検査が可能となるため、透かし画像がもつ全てのパ
ターンに対しての欠陥検査をより確実に行うことができ
る。
In such a configuration, since the inspection area is divided into a plurality of parts, it is possible to perform a defect inspection of a minute shading variation of the watermark image to be inspected. Can be performed more reliably.

【0014】請求項3に記載のすき入れ検査装置は、前
記全体パターンには、前記第1〜3のアルゴリズムに対
応させて、これらアルゴリズムの相互に補完すべき優位
部分のみを取入れるマスク画像パターンが含まれている
ことを特徴としている。
4. A mask inspection pattern according to claim 3, wherein said overall pattern is adapted to correspond to said first to third algorithms and takes in only the mutually superior parts of these algorithms to be complemented. Is included.

【0015】このような構成では、第1〜3のアルゴリ
ズムのそれぞれに対応させた優位部分のみを取入れるマ
スク画像パターンを用いることで、各アルゴリズムの検
査領域が必要最小限とされるため、検査精度を高めるこ
とができる。
In such a configuration, the inspection area of each algorithm is minimized by using a mask image pattern that takes in only the superior part corresponding to each of the first to third algorithms. Accuracy can be increased.

【0016】請求項4に記載のすき入れ検査装置は、前
記分割パターンのそれぞれには、前記第1〜3のアルゴ
リズムに対応させて、これらアルゴリズムの相互に補完
すべき優位部分のみを取入れるマスク画像パターンが含
まれていることを特徴としている。
5. The mask inspection apparatus according to claim 4, wherein each of the divided patterns is adapted to correspond to the first to third algorithms and to take in only the mutually superior parts of these algorithms to be complemented. It is characterized in that an image pattern is included.

【0017】このような構成では、複数の分割した検査
領域毎に、第1〜3のアルゴリズムのそれぞれに対応さ
せた優位部分のみを取入れるマスク画像パターンを用い
ることで、微細な濃淡変動の欠陥検査がより精度よく行
われる。
In such a configuration, by using a mask image pattern that takes in only the dominant portions corresponding to each of the first to third algorithms for each of the plurality of divided inspection regions, a defect of minute shading fluctuation can be obtained. The inspection is performed with higher accuracy.

【0018】[0018]

【発明の実施の形態】以下、本発明の詳細を図面に基づ
いて説明する。なお、以下に説明する図において、図2
4と共通する部分には同一符号を付すものとする。図1
は、本発明のすき入れ検査装置の一実施の形態に用いら
れるシステム構成図、図2は、図1のラインセンサカメ
ラによる画像取込み状態を示す図、図3は、本発明のす
き入れ検査装置の一実施の形態を示すブロック図であ
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The details of the present invention will be described below with reference to the drawings. In the drawings described below, FIG.
4 are denoted by the same reference numerals. FIG.
FIG. 1 is a system configuration diagram used in an embodiment of a penetration inspection device of the present invention, FIG. 2 is a diagram showing an image capturing state by the line sensor camera of FIG. 1, and FIG. 3 is a penetration inspection device of the present invention. FIG. 2 is a block diagram showing an embodiment of the present invention.

【0019】図1において、巻取りリール5側に巻取ら
れる原反ロール1の印刷用紙2の下方の光源10からの
光を、印刷用紙2の上方のラインセンサカメラ11によ
って取込み、その画像データは画像処理検査部20に送
られるようになっている。
In FIG. 1, light from a light source 10 below the printing paper 2 of the material roll 1 wound on the take-up reel 5 is taken in by a line sensor camera 11 above the printing paper 2 and its image data is obtained. Are sent to the image processing inspection unit 20.

【0020】マーク検知センサ12は、図2のプリント
マーク4を検出してタイミング制御部13に送出する。
また、タイミング制御部13には、ロータリエンコーダ
14からのタイミングパルスが取込まれる。そして、画
像処理検査部20は、マーク検知センサ12からの検出
信号と、タイミング制御部13からのタイミング信号に
基づき、すき入れ検査を実行するが、その詳細は後述す
る。また、画像処理検査部20による検査結果は、ディ
スプレイ15に表示される。なお、画像処理検査部20
による検査結果は、プリンタ等によっても出力可能であ
る。
The mark detection sensor 12 detects the print mark 4 shown in FIG.
The timing controller 13 receives a timing pulse from the rotary encoder 14. The image processing inspection unit 20 performs a penetration inspection based on the detection signal from the mark detection sensor 12 and the timing signal from the timing control unit 13, the details of which will be described later. The inspection result by the image processing inspection unit 20 is displayed on the display 15. The image processing inspection unit 20
Can be output by a printer or the like.

【0021】ラインセンサカメラ11による画像の取込
みは、図2のようにして行われる。すなわち、印刷用紙
2には、上述したように、4行5列の小切れ紙幣領域3
aにブロック化された大判3A,3B,3Cが印刷用紙
2の幅方向に3列に設けられている。また、これら小切
れ紙幣領域3aは、可視状態にあるものではないが、印
刷用紙2に付されたプリントマーク4によって各大判3
A,3B,3Cの位置が把握されるようになっている。
さらに、各小切れ紙幣領域3aには、人物等のすき入れ
部位(透かし)6が形成されている。検査に際しては、
原反ロール1から引出された印刷用紙2に対し、印刷用
紙2の幅方向にラインセンサカメラ11によって水平走
査が行われるようになっている。
The capture of an image by the line sensor camera 11 is performed as shown in FIG. That is, as described above, the printing paper 2 includes the small-sized bill area 3 of 4 rows and 5 columns.
The large format 3A, 3B, 3C divided into a is provided in three rows in the width direction of the printing paper 2. Although these small cut bill areas 3a are not in a visible state, each large-sized bill 3 is printed by a print mark 4 attached to the printing paper 2.
The positions of A, 3B, and 3C are ascertained.
Further, a cut-in portion (watermark) 6 for a person or the like is formed in each small piece banknote area 3a. Upon inspection,
Horizontal scanning is performed by the line sensor camera 11 in the width direction of the printing paper 2 with respect to the printing paper 2 pulled out from the material roll 1.

【0022】画像処理検査部20は、図3に示すよう
に、ラインセンサカメラ11からの画像データに対し、
基準パターン格納部21に格納されている基準パターン
と、マスク画像格納部22に格納されているマスク画像
とに基づき、画像処理(パターンマッチング)を施して
検査結果を出力する画像処理検査部23とが設けられて
いる。なお、基準パターン格納部21及びマスク画像格
納部22に格納されている基準パターン及びマスク画像
の詳細については後述する。画像処理部23は、正規化
相関法処理部24、ミクロフィルター処理部25、濃淡
モホロジー処理部26から構成されている。
As shown in FIG. 3, the image processing / inspection unit 20 applies image data from the line sensor camera 11 to the image data.
An image processing / inspection unit 23 that performs image processing (pattern matching) based on the reference pattern stored in the reference pattern storage unit 21 and the mask image stored in the mask image storage unit 22 and outputs an inspection result; Is provided. The details of the reference pattern and the mask image stored in the reference pattern storage unit 21 and the mask image storage unit 22 will be described later. The image processing unit 23 includes a normalized correlation method processing unit 24, a micro filter processing unit 25, and a shading morphology processing unit 26.

【0023】ここで、正規化相関法処理部24は、正規
化相関法の画像処理アルゴリズムを備えたものであり、
ミクロフィルター処理部25は、ミクロフィルターの画
像処理アルゴリズムを備えたものであり、濃淡モホロジ
ー処理部26は、濃淡モホロジーの画像処理アルゴリズ
ムを備えたものである。
Here, the normalized correlation method processing section 24 is provided with an image processing algorithm of the normalized correlation method.
The micro-filter processing unit 25 includes a micro-filter image processing algorithm, and the shading morphology processing unit 26 includes a shading morphology image processing algorithm.

【0024】すなわち、本実施の形態における3つの画
像処理アルゴリズムは、それぞれの得意点と不得意点と
を相互に補完し合うことによって、すき入れ部位(透か
し)6の欠陥検査を確実に行うものである。また、欠陥
検査の着目点は、すき入れ部位(透かし)6の濃淡変動
であり、これを3つのグループに分け、それぞれに3つ
の画像処理アルゴリズムを適用させたものである。ここ
で、欠陥とは、線の欠け、不鮮明、歪み、異物、ピンホ
ール等である。
That is, the three image processing algorithms according to the present embodiment complement each other with their respective strengths and weaknesses, thereby reliably performing the defect inspection of the cut-in portion (watermark) 6. It is. Also, the point of interest in the defect inspection is the shading variation of the penetrated portion (watermark) 6, which is divided into three groups, each of which is applied with three image processing algorithms. Here, the defect is a lack of a line, a blur, a distortion, a foreign matter, a pinhole, or the like.

【0025】すなわち、パターンのコントラストに着目
し、すき入れ部位(透かし)6の各部分を見てみると、
次のように大きく3つに分類することができる。 目、まゆ毛、頬の輪郭、襟元ネクタイ等のようにパタ
ーンコントラストが高い箇所。 額、頬や服の部分でのパターンがない箇所、もしくは
パターンのコントラストが非常に低い箇所。 まゆ毛の中や服の折目の線等で濃淡の変化はあるが急
激ではない箇所。 このように、〜に分類した中で、には正規化相関
法、には微分系のフィルター、には濃淡モホロジー
がそれぞれ適している。
That is, paying attention to the contrast of the pattern, and looking at each part of the penetration part (watermark) 6,
It can be roughly classified into three as follows. Areas with high pattern contrast, such as eyes, eyebrows, cheek contours, and neck ties. Areas where there is no pattern on the forehead, cheeks or clothes, or where the pattern contrast is very low. Shading in the eyebrows or the fold line of the clothes, etc. As described above, among the classifications, the normalized correlation method, the differential filter, and the shading morphology are suitable for, respectively.

【0026】以上のような3つの画像処理アルゴリズム
の得意及び不得意を、表1に示す。
Table 1 shows the advantages and disadvantages of the above three image processing algorithms.

【表1】 [Table 1]

【0027】また、すき入れ部位(透かし)6の各部分
に対する欠陥検出の相補性を、表2に示す。
Table 2 shows the complementarity of the defect detection for each part of the penetrating part (watermark) 6.

【表2】 [Table 2]

【0028】次に、上述した画像処理検査部20による
すき入れ部位(透かし)6の検査方法について説明す
る。まず、画像処理検査部20による検査を行うに先立
ち、準備段階として、手入力(例えばマウス操作によ
る)により、基準パターンの作成と、マスク画像の作成
とがある。基準パターンには、全体パターンと分割パタ
ーンとがあるが、これの詳細は順を追って説明する。ま
た、マスク画像には、正規化相関法、濃淡モホロジー、
ミクロフィルターのそれぞれに対応したマスクがあり、
特に、濃淡モホロジーにおいては、オープニング処理用
とクロージング処理用とがあるが、これらの詳細につい
ても順を追って説明する。なお、これらマスク画像は、
表1に示した各画像処理アルゴリズムにおける不得意箇
所を除くためであり、これらのマスク画像を用いること
で、検出精度が高められるようになっている。
Next, a method of inspecting the penetration part (watermark) 6 by the image processing inspection unit 20 will be described. First, prior to performing the inspection by the image processing inspection unit 20, as a preparatory stage, a reference pattern is created by manual input (for example, by a mouse operation) and a mask image is created. The reference pattern includes an entire pattern and a divided pattern, and details thereof will be described in order. In addition, the mask image includes a normalized correlation method, shading morphology,
There are masks corresponding to each of the micro filters,
In particular, in shading morphology, there are an opening process and a closing process, and details of these processes will be described in order. These mask images are
This is to remove the weak points in each image processing algorithm shown in Table 1, and by using these mask images, the detection accuracy can be improved.

【0029】(正規化相関法)手入力(例えばマウス操
作による)による基準パターンの作成について説明す
る。ここでは、まず正規化相関法による計算方法の定義
について説明する。正規化相関法は、表1に示した検出
能力に加えて、検査対象画像の中から基準画像と最も良
く一致する箇所を検索する作業と一致度を算出する作業
を同時に行うことができるアルゴリズムである。なお、
ここで得られるパターンの位置座標データは、後述する
ミクロフィルター処理、モホロジー処理においても使用
されるものである。
(Normalized Correlation Method) The creation of a reference pattern by manual input (for example, by mouse operation) will be described. Here, the definition of the calculation method by the normalized correlation method will be described first. The normalized correlation method is an algorithm that, in addition to the detection capabilities shown in Table 1, can simultaneously perform a task of searching for a location that best matches a reference image from an inspection target image and a task of calculating a degree of coincidence. is there. In addition,
The position coordinate data of the pattern obtained here is also used in micro filter processing and morphology processing described later.

【0030】正規化相関法において用いられる基準画像
は、良品の処理対象画像f(x、y)から任意の矩形領
域を取り出したものであり、その矩形領域は人物像全体
を囲む外接長方形として定義する。この取り出した任意
の矩形領域の画像を図4に示す。
The reference image used in the normalized correlation method is obtained by extracting an arbitrary rectangular area from a non-defective processing target image f (x, y), and the rectangular area is defined as a circumscribed rectangle surrounding the entire human image. I do. FIG. 4 shows an image of the extracted arbitrary rectangular area.

【0031】また、この定義は、数式で表現すると、次
の通りである。
This definition is expressed by the following equation.

【数1】処理対象画像:f(x、y) {(x、y)|0≦x≦511、0≦y≦511} 基準画像 :g(x、y) {(x、y)|0≦x<Wx 、0≦y<Wy } g(x、y )= f(x+x0 、y+y0 ) {(x、y)|0≦x<Wx 、0≦y<Wy }## EQU1 ## Processing target image: f (x, y) {(x, y) | 0≤x≤511, 0≤y≤511} Reference image: g (x, y) {(x, y) | 0 ≦ x <Wx, 0 ≦ y <Wy} g (x, y) = f (x + x 0, y + y 0) {(x, y) | 0 ≦ x <Wx, 0 ≦ y <Wy}

【0032】ここで、Wx、Wy、x0 、y0 はそれぞ
れ次の意味を持つ。 Wx: 基準画像幅 Wy : 高さ x0 : 基準画像左上x座標 y0 : y座標 これらの値は、手入力(例えばマウス操作による)によ
り矩形領域が所望の位置に収るよう調整されることで、
決定されるものである。
Here, Wx, Wy, x 0 and y 0 have the following meanings, respectively. Wx: Reference image width Wy: Height x 0 : Upper left x coordinate of reference image y 0 : y coordinate These values are adjusted by manual input (for example, by mouse operation) so that the rectangular area is positioned at a desired position. so,
Is to be determined.

【0033】また、検査画像f(x、y)と基準画像g
(x、y)の相互関係係数C(mx、my )は、次の式
で表される。
The inspection image f (x, y) and the reference image g
The correlation coefficient C (mx, my) of ( x , y ) is represented by the following equation.

【数2】 (Equation 2)

【0034】ここで、mx 、my は、検査対象画像にお
いて基準画像と比較する矩形領域の、左上すみの座標を
指定するものである。また、相関係数C(mx 、my
は、基準画像と検査対象画像が完全に一致した場合、
(1.0)を示し、一致度が下がるにつれ、係数が小さ
くなる。ランダム画像と基準画像の相関では0付近にま
で低下し、基準画像の反転画像との相関係数は(−1.
0)にまで低下する。これが、相関係数の最低値であ
る。
[0034] Here, m x, m y is the rectangular region to be compared with the reference image in the target image is used to specify the upper left corner coordinates. Moreover, the correlation coefficient C (m x, m y)
If the reference image and the image to be inspected exactly match,
(1.0), and the coefficient decreases as the degree of coincidence decreases. The correlation between the random image and the reference image decreases to around 0, and the correlation coefficient between the reference image and the inverted image is (−1.
0). This is the lowest value of the correlation coefficient.

【0035】そして、mx 、my を、任意の矩形領域で
振らせたときに相関係数C(mx 、my )の最大を与え
るmx 、my を求めることにより、検査対象画像の中か
ら基準画像と最も一致する箇所(基準画像の位置)を検
索することができる。このときの相関係数を、検査対象
画像と基準画像との一致度と定義する。ここで、一致度
としてC2 (mx 、my )を百分率表示した値を使用す
ることで、計算時間を短縮することができる。すなわ
ち、まず、mx 、my を振らせる際に、一画素ずつ振ら
せるのではなく、数画素おきに飛ばして計算する。例え
ば、x方向、y方向に4画素毎に計算すれば、計算量
を、4×4= 16分の1に低減することができる。
[0035] Then, m x, a m y, the correlation coefficient when swung in any rectangular area C (m x, m y) m x giving the maximum, by determining the m y, the target image Can be searched for the position (the position of the reference image) that best matches the reference image. The correlation coefficient at this time is defined as the degree of coincidence between the inspection target image and the reference image. Here, C 2 (m x, m y) as a match degree by using the percentage display value, it is possible to shorten the calculation time. That is, first, m x, when causing shake the m y, instead of making shaken pixel by pixel, to calculate skipping every several pixels. For example, if the calculation is performed every four pixels in the x direction and the y direction, the calculation amount can be reduced to 4 × 4 = 1/16.

【0036】そして、画素飛ばしで計算して相関係数が
最大になる所を検索し、次にその付近では画素飛ばしせ
ずに計算することにより、精度の高い検索を行うことが
できる。上記の画素飛ばしの他に、周知のピラミッド法
を用いることでも計算量を減らすことができる。このピ
ラミッド法は、検査対象画像をもとに、分解能の荒い画
像を生成しこの荒い画像に対し、相関演算するものであ
る。すなわち、ビラミッド画像は、階層的な構造をもつ
ものであり、各階層は番号が付けられたレベルでよば
れ、最下層のレベル0は、検査対象画像そのものにな
る。計算の便宜上、最下層の画像サイズを512×51
2画素にとって説明する。ピラミッド画像は、レベル0
から始まるため、下位のレベルから上位のレベルに向け
計算する。これを式で示すと次の通りである。
Then, a search is performed by skipping pixels to search for a place where the correlation coefficient is maximum, and then a calculation is performed without skipping pixels in the vicinity thereof, thereby enabling a highly accurate search. In addition to the pixel skipping described above, the amount of calculation can be reduced by using a well-known pyramid method. In the pyramid method, an image having a coarse resolution is generated based on an image to be inspected, and a correlation operation is performed on the rough image. That is, the viramid image has a hierarchical structure, and each layer is called a numbered level, and the lowest level 0 is the inspection target image itself. For convenience of calculation, the image size of the lowermost layer is set to 512 × 51.
A description will be given for two pixels. Pyramid image is level 0
, So calculation is performed from the lower level to the higher level. This is represented by the following equation.

【0037】レベルkとレベルk−1の画像をそれぞ
れ、f(k)(x、y)、f(k1-1)(x、y)とすると
き、f(k)(x、y)の計算方法を以下に示す。
When the images at the level k and the level k-1 are f (k) (x, y) and f (k1-1) (x, y), respectively, the f (k) (x, y) The calculation method is shown below.

【数3】 (Equation 3)

【0038】上記の式から、レベルが高くなるにつれ画
像サイズが小さくなることが分る。但し、ピラミッド画
像中で、パターンの検索を行うためには、基準画像も同
様にピラミッド画像化しておく必要がある。そして、上
述した画素飛ばしとピラミッド法の両者を組み合わせる
ことで、計算の高速化と精度を両立させた正規化相開法
を実現することができる。また、この正規化相関は検査
画像の明るさの線形的な変動には全く影響されない特徴
がある。システム化した場合でも、安定した結果が得ら
れることが期待される。
From the above equation, it can be seen that the image size decreases as the level increases. However, in order to search for a pattern in the pyramid image, it is necessary to similarly convert the reference image into a pyramid image. Then, by combining both the pixel skipping and the pyramid method described above, it is possible to realize a normalized phase opening method that achieves both high-speed calculation and high accuracy. Further, this normalized correlation is characterized in that it is not affected at all by a linear variation in the brightness of the inspection image. It is expected that stable results can be obtained even when the system is implemented.

【0039】次に、基準パターンの作成方法について説
明する。ここでの基準パターンは、図2に示した人物等
のすき入れ部位(透かし)6を形成するすき入れの型ご
とに用意されるものである。すなわち、図2に示したよ
うに、各大判3A,3B,3Cの1面当り、4×5=2
0個のすき入れがある。さらに、図2のように、1ライ
ンにつき、3面の大判3A,3B,3Cが作られている
場合、すき入れの型の総数は60個となる。よって、6
0個分の基準パターンが必要となる。
Next, a method for creating a reference pattern will be described. The reference pattern here is prepared for each type of digging forming the digging part (watermark) 6 of a person or the like shown in FIG. That is, as shown in FIG. 2, 4 × 5 = 2 per surface of each of the large format 3A, 3B, 3C.
There are 0 holes. Further, as shown in FIG. 2, when three large-format sheets 3A, 3B, and 3C are formed per line, the total number of the dies for squeezing is 60. Therefore, 6
Zero reference patterns are required.

【0040】この場合、60個分の基準パターンの登録
を全て手入力(例えばマウス操作による)により作成す
ることは運用上不可能であり、システムの実現性を損う
ものである。また、手入力(例えばマウス操作による)
(例えばマウス操作による)によっていたのでは、異な
るすき入れの型の基準パターンに差がでることは避けが
たく、検査水準が確立した検査を実現することができな
い。
In this case, it is practically impossible to manually register all 60 reference patterns (for example, by mouse operation), which impairs the feasibility of the system. Also, manual input (for example, by mouse operation)
(For example, by a mouse operation), it is inevitable that there is a difference between the reference patterns of different types of penetrations, and it is not possible to realize an inspection with an established inspection level.

【0041】このため、本実施の形態では、手入力(例
えばマウス操作による)による作業を最小限に抑えた、
効率的で、ばらつきの少ない基準パターンの作成アルゴ
リズムを用いており、その作成手順は次の通りである。
このような基準パターンの作成手順を、図5及び図6を
用いて説明する。なお、以下の説明において、登録(保
存)されるデータの保存先は、図3の基準パターン格納
部21である。
For this reason, in the present embodiment, work by manual input (for example, by mouse operation) is minimized.
An efficient and low-variation reference pattern creation algorithm is used, and the creation procedure is as follows.
The procedure for creating such a reference pattern will be described with reference to FIGS. In the following description, the storage destination of the registered (saved) data is the reference pattern storage unit 21 in FIG.

【0042】基準パターンの作成手順のうち、データの
登録(保存)の流れについて説明する。まず、図4に示
したすき入れ部位(透かし)6の画像を取込む(ステッ
プ501)。次いで、手入力(例えばマウス操作によ
る)により、入力画像の中から、人物像の主要な部分を
囲む矩形領域を指定して、登録(保存)する(ステップ
502,503)。すなわち、図6において、零○で示
す部分が全体パターンである。このとき、パターンの位
置も合わせて、全体パターン位置として保存する(ステ
ップ504)。
The flow of data registration (storage) in the procedure for creating a reference pattern will be described. First, an image of the piercing portion (watermark) 6 shown in FIG. 4 is captured (step 501). Next, by inputting manually (for example, by operating a mouse), a rectangular area surrounding a main part of the human image is designated from the input image and registered (saved) (steps 502 and 503). That is, in FIG. 6, the portion indicated by zero circles is the entire pattern. At this time, the position of the pattern is also stored as the entire pattern position (step 504).

【0043】これを式で示すと次のようになる。This is expressed by the following equation.

【数4】全体パターン :FW (x、y) {(x、y)|0≦x<Ww x 、0≦y<Ww y } XW : 全体パターン左上X座標 W : 全体パターン左上Y座標[Equation 4] Overall pattern: FW(X, y) {(x, y) | 0 ≦ x <Wwx, 0 ≦ y <Wwy} XW: X coordinate of the upper left of the whole pattern  YW: Y coordinate of upper left of entire pattern

【0044】次に、分割パターンを指定して登録(保
存)する(ステップ505,506)。すなわち、手入
力(例えばマウス操作による)により、図6に示す入力
画像において分割パターン〜(16)で示す各分割ウィン
ドウ(矩形)を指定する。このとき、各分割パターン
〜(16)の位置も合わせて、分割パターン位置として保存
する(ステップ507)。
Next, a division pattern is designated and registered (saved) (steps 505 and 506). In other words, each of the divided windows (rectangles) indicated by the divided patterns to (16) in the input image shown in FIG. 6 is designated by manual input (for example, by operating the mouse). At this time, the positions of the division patterns to (16) are also stored together as division pattern positions (step 507).

【0045】これを式で示すと次のようになる。This is expressed by the following equation.

【数5】分割パターン :FW (i) (x、y) {(x、y)|0≦x<Wwx (i) 、0≦y<Wwy (i) } { i=1〜16 :分割パターン番号} XW (i) : 分割パターン左上X座標 W (i) : 分割パターン左上Y座標[Equation 5] Division pattern: FW (i)(X, y) {(x, y) | 0 ≦ x <Wwx (i), 0 ≦ y <Wwy (i)} {I = 1 to 16: division pattern number} XW (i): X coordinate of upper left of division pattern  YW (i): Y coordinate of upper left of division pattern

【0046】次いで、相対位置を計算し、その位置を保
存する(ステップ508,509)。すなわち、零○で
示す全体パターンの位置に対する各分割パターン〜(1
6)の相対位置を、全体パターン位置データ及び分割パタ
ーン位置データを用いて計算し、相対位置データとして
保存する。これを式で示すと次のようになる。
Next, the relative position is calculated and the position is stored (steps 508 and 509). That is, each divided pattern to the position of the entire pattern indicated by zero ○ to (1
The relative position of 6) is calculated using the entire pattern position data and the divided pattern position data, and is stored as relative position data. This is expressed by the following equation.

【0047】[0047]

【数6】 分割パターン相対X座標 : Xr (i) =XW (i) −XW 分割パターン相対Y座標 : Yr (i) =YW (i) −YW {i=1〜16 :分割パターン番号}[Formula 6] Relative X coordinate of division pattern: Xr (i)= XW (i)-XW  Division pattern relative Y coordinate: Yr (i)= YW (i)-YW {I = 1 to 16: division pattern number}

【0048】次に、基準パターンの作成手順を、図7を
用いて説明する。なお、以下の説明において、登録(保
存)されるデータの保存先は、図3の基準パターン格納
部21である。まず、基準パターンを作成するための良
品の画像である、例えば図4に示したすき入れ部位(透
かし)6の画像を取込む(ステップ701)。ここで、
この取込んだ画像のデータを下式のように定義する。
Next, a procedure for creating a reference pattern will be described with reference to FIG. In the following description, the storage destination of the registered (saved) data is the reference pattern storage unit 21 in FIG. First, an image of a non-defective product for creating a reference pattern, for example, an image of a penetration part (watermark) 6 shown in FIG. 4 is captured (step 701). here,
The data of the captured image is defined as shown below.

【0049】[0049]

【数7】良品画像:f(x、y) {(x、y)|0≦x≦511、0≦y≦479}[Equation 7] Non-defective image: f (x, y) {(x, y) | 0 ≦ x ≦ 511, 0 ≦ y ≦ 479}

【0050】次いで、良品画像f(x、y)の中から、
正規化相関法を用いて全体パターンFW(x、y)の位
置を算出する(ステップ702,703)。この位置を
(Dx、Dy)とし、新全体パターンを求めて登録する
(ステップ704,705)。このとき、上記の(ステ
ップ509)で求められた相対位置のデータも併せて登
録する(ステップ706)。ここで、新全体パターン
は、次の通りである。
Next, from the non-defective image f (x, y),
The position of the entire pattern F W (x, y) is calculated using the normalized correlation method (steps 702 and 703). This position is defined as (Dx, Dy), and a new overall pattern is obtained and registered (steps 704 and 705). At this time, the data of the relative position obtained in the above (Step 509) is also registered (Step 706). Here, the new overall pattern is as follows.

【0051】[0051]

【数8】新全体パターン: F’w(x、y)=f(x
+Dx、y+Dy) {(x、y)|0≦x<Ww、0≦y<Ww y
## EQU8 ## New whole pattern: F'w (x, y) = f (x
+ Dx, y + Dy) {(x, y) | 0 ≦ x <Ww, 0 ≦ y <Ww y }

【0052】次いで、良品画像f(x、y)の中から、
新分割パターンFW (i) (x、y)を切り出す(ステッ
プ707)。
Next, from the non-defective image f (x, y),
A new division pattern F W (i) (x, y) is cut out (step 707).

【数9】新分割パターン:F’W (i)(x、y)=f(x
+Dx+Xr (i) 、y+Dy(i) +Yr (i)
## EQU9 ## New division pattern: F ′ W (i) (x, y) = f (x
+ Dx + X r (i) , y + Dy (i) + Y r (i))

【0053】以上が、正規化相関法におけるすき入れ検
査前の基準パターンの作成手順である。次に、正規化相
関法において用いられるマスク画像の形成方法について
説明する。なお、ここでの説明も、正規化相関法による
すき入れ検査前の手入力(例えばマウス操作による)に
よる準備作業である。
The above is the procedure for creating the reference pattern before the penetration inspection in the normalized correlation method. Next, a method of forming a mask image used in the normalized correlation method will be described. Note that the description here is also a preparation operation by manual input (for example, by mouse operation) before the penetration inspection by the normalized correlation method.

【0054】まず、検査対象画像及び基準画像を以下の
ように表す。
First, the image to be inspected and the reference image are represented as follows.

【数10】検査対象画像:f(x、y) {(x、y)|0≦x≦511、0≦y≦511} 基準画像 :g(x、y) {(x、y)|0≦x<Wx、0≦y<Wy }(10) Inspection target image: f (x, y) {(x, y) | 0 ≦ x ≦ 511, 0 ≦ y ≦ 511} Reference image: g (x, y) y (x, y) | 0 ≦ x <Wx, 0 ≦ y <Wy}

【0055】ここで、Wx、Wy、はそれぞれ次の意味
をもつ。 Wx: 基準画像幅 Wy: 高さ 次に、基準画像と同一の大きさを持つマスク画像を定義
する。
Here, Wx and Wy have the following meanings, respectively. Wx: Reference image width Wy: Height Next, a mask image having the same size as the reference image is defined.

【数11】マスク画像:M(x、y) {(x、y)|0≦x<Wx、0≦y<Wy}(11) Mask image: M (x, y) {(x, y) | 0 ≦ x <Wx, 0 ≦ y <Wy}

【0056】マスク画像M(x、y)は、予め(1,
0)に初期化しておく。その後、手入力(例えばマウス
操作による)によりマスクする画素の値を0に設定し、
マスクしない画素の値を1に設定する。この処理は、実
際のソフトウェアにおいて、マスク画像を塗りつぶす操
作で行う。このようなマスク画像の作成により、検査画
像f(x、y)と基準画像g(x、y)の相互相関係数
C(mx 、my )は以下の様に変更される。
The mask image M (x, y) is set to (1,
0). Then, the value of the pixel to be masked by manual input (for example, by mouse operation) is set to 0,
The value of the pixel not to be masked is set to 1. This processing is performed by an operation of painting a mask image in actual software. The creation of such a mask image, the inspection image f (x, y) and the reference image g (x, y) cross-correlation coefficient C (m x, m y) of is changed as follows.

【0057】[0057]

【数12】 以上が正規化相関法におけるマスク画像の形成方法であ
る。
(Equation 12) The above is the method of forming a mask image in the normalized correlation method.

【0058】(ミクロフィルター処理)次に、ミクロフ
ィルターについて説明する。このミクロフィルターは、
表2で説明したように、濃度変化がない、または非常に
緩やかでありパターンがない領域において、微小な欠点
を検出するために有効となるものである。なお、微分系
のフィルターとしては、ソーベルフィルター、プレウィ
ットフィルター、ロバーツフィルター等を用いることが
できる。
(Micro filter treatment) Next, the micro filter will be described. This microfilter is
As described in Table 2, this is effective for detecting a minute defect in a region where the density does not change or is very gentle and has no pattern. As a differential filter, a Sobel filter, a Prewitt filter, a Roberts filter, or the like can be used.

【0059】ここで、ミクロフィルターの計算法と、そ
のマスク画像の作成方法について説明する。まず、ミク
ロフィルターの定義について説明する。いま、処理対象
画像をF(x、y)とする。ミクロフィルタは3段階の
処理で構成される。まず、第1段階では、処理対象画像
の垂直微分画像、水平微分画像を算出する。
Here, the calculation method of the microfilter and the method of creating the mask image will be described. First, the definition of the microfilter will be described. Now, let the processing target image be F (x, y). The micro filter is composed of three stages of processing. First, in the first stage, a vertical differential image and a horizontal differential image of the processing target image are calculated.

【0060】[0060]

【数13】処理対象画像:F(x、y) {(x、y)|0≦x≦511、0≦y≦511} 垂直微分画像:Fv (x、y)=|(F(x−1、y+
1)−F(x−1、y−1))+2×(F(x、y+
1)−F(x、y−1))+(F(x+1、y+1)−
F(x+1、y−1)) | 水平微分画像:FH (x、y)=|(F(x+1、y−
1)−F(x−1、y−1))+2×(F(x+1、
y)−F(x−1、y))+(F(x+1、y+1)−
F(x−1、y+1))| {(x、y)|0≦x≦511、0≦y≦511}
Expression 13: Processing target image: F (x, y) {(x, y) | 0 ≦ x ≦ 511, 0 ≦ y ≦ 511} Vertical differential image: F v (x, y) = | (F (x -1, y +
1) −F (x−1, y−1)) + 2 × (F (x, y +
1) -F (x, y-1)) + (F (x + 1, y + 1)-
F (x + 1, y- 1)) | horizontal differential image: F H (x, y) = | (F (x + 1, y-
1) −F (x−1, y−1)) + 2 × (F (x + 1,
y) -F (x-1, y)) + (F (x + 1, y + 1)-
F (x-1, y + 1)) | {(x, y) | 0≤x≤511, 0≤y≤511}

【0061】第2段階では、いま求めた垂直微分画像F
v (x、y)と水平微分画像:FH(x、y)の和の平
均である加算画像FA (x、y)を算出する。
In the second stage, the vertical differential image F
Calculate an added image F A (x, y) which is an average of the sum of v (x, y) and the horizontal differential image: F H (x, y).

【数14】FA(x、y)=(Fv(x、y)+F
H(x、y))/2 {(x、y)|0≦x≦511、0≦y≦511}
F A (x, y) = (F v (x, y) + F
H (x, y)) / 2 {(x, y) | 0 ≦ x ≦ 511, 0 ≦ y ≦ 511}

【0062】第3段階では、加算画像FA (x、y)に
平滑化フィルターをかけてミクロフィルター画像F
M (x、y)を得る。
In the third stage, the addition image F A (x, y) is subjected to a smoothing filter to apply
M (x, y) is obtained.

【数15】 ミクロフィルター画像:FM (x、y)= (FM (x−1、y−1)+FM (x、y−)+ FM (x+1、y−1)+FM (x−1、y) FM (x、y)+FM (x−1、y) FM (x−1、y+1)+FM (x、y+1) FM (x+1、y+1))/9 {(x、y)|0≦x≦511、0≦y≦511}Equation 15] microfilter image: F M (x, y) = (F M (x-1, y-1) + F M (x, y -) + F M (x + 1, y-1) + F M (x -1, y) F M (x , y) + F M (x-1, y) F M (x-1, y + 1) + F M (x, y + 1) F M (x + 1, y + 1)) / 9 {(x , Y) | 0 ≦ x ≦ 511, 0 ≦ y ≦ 511}

【0063】図8は、以上の手順の概略をフロー化した
ものであり、第1段階では処理対象画像を取込み、その
処理対象画像の垂直微分画像Fv (x、y)、水平微分
画像FH (x、y)を算出する(ステップ801〜80
3)。第2段階では、垂直微分画像Fv (x、y)と水
平微分画像:FH (x、y)の和の平均である加算画像
A (x、y)を算出する(ステップ804)。第3段
階では、加算画像FA(x、y)に平滑化フィルターを
かけてミクロフィルター画像FM (x、y)を得る(ス
テップ805)。
FIG. 8 is a flow chart showing the outline of the above procedure. In the first stage, an image to be processed is fetched, and a vertical differential image F v (x, y) and a horizontal differential image F H (x, y) is calculated (steps 801 to 80)
3). In the second stage, an addition image F A (x, y), which is the average of the sum of the vertical differential image F v (x, y) and the horizontal differential image: F H (x, y), is calculated (step 804). In the third stage, adding image F A (x, y) the micro over a smoothing filter to the filter image F M (x, y) to obtain a (step 805).

【0064】図9は、以上の手順によって得られる画像
の一例を示すものである。すなわち、同図(a)は、処
理対象画像を示すものであり、同図(b)は水平微分画
像を示すものであり、同図(c)は垂直微分画像を示す
ものであり、同図(d)は水平微分画像と垂直微分画像
との加算画像を示すものであり、同図(e)はミクロフ
ィルター画像を示すものである。同図(e)から、表1
及び表2で説明したように、まゆ毛の中や服の折目の線
等で濃淡の変化はあるが、変化の急激ではない箇所が検
出されていることが分る。
FIG. 9 shows an example of an image obtained by the above procedure. That is, FIG. 3A shows a processing target image, FIG. 4B shows a horizontal differential image, and FIG. 4C shows a vertical differential image. (D) shows an added image of the horizontal differential image and the vertical differential image, and (e) shows a microfilter image. As shown in FIG.
As described in Table 2, it can be seen that there is a change in shading in the eyebrows and in the line of the fold of the clothes, but a portion where the change is not sharp is detected.

【0065】次に、ミクロフィルターのマスク画像の作
成方法を、図10を用いて説明する。なお、ここでの説
明は、すき入れ検査前の手入力(例えばマウス操作によ
る)による準備作業である。ここで、ミクロフィルター
のマスク画像は、正規化相関法で定義された、16分割
の分割基準パターン毎に作成されるものである。まず、
16分割された分割画像にミクロフィルターを作用させ
た後、2値化処理を行う(ステップ1001,100
2)ことで、良品画像に含まれるエッジ等を抽出した画
像が得られる。エッジの位置は画像毎にばらつくため、
確実にこれをマスクするためには、エッジ等を抽出した
画像に膨張処理を指定回数施す(ステップ1003)。
このように膨張処理を施すことで、エッジ部分を強調す
ることができる。この状態を図11に示す。同図に示す
ものは、図6で説明した分割パターン〜(16)に対応し
ているものである。
Next, a method of creating a mask image of a microfilter will be described with reference to FIG. Note that the description here is a preparation operation by manual input (for example, by a mouse operation) before the penetration inspection. Here, the mask image of the microfilter is created for each of the 16 divided reference patterns defined by the normalized correlation method. First,
After applying a micro filter to the 16 divided images, binarization processing is performed (steps 1001 and 100).
2) As a result, an image in which edges and the like included in the non-defective image are extracted is obtained. Since the position of the edge varies for each image,
In order to reliably mask this, an expansion process is performed a specified number of times on an image from which edges and the like have been extracted (step 1003).
By performing the expansion process in this manner, the edge portion can be emphasized. This state is shown in FIG. The one shown in the figure corresponds to the division patterns to (16) described in FIG.

【0066】次に、以上のような(ステップ1001)
〜(ステップ1004)の詳細について説明する。ま
ず、(ステップ1001)において、正規化相関法で定
義した分割画像を取り出す。
Next, as described above (step 1001)
(Step 1004) will be described in detail. First, in (Step 1001), a divided image defined by the normalized correlation method is extracted.

【0067】[0067]

【数16】分割パターン:FW (i)(x、y) {(x、y)|0≦x<Ww x (1) 、0≦y<Ww
y (i) } { i=1〜16 :分割パターン番号}
## EQU16 ## Division pattern: F W (i) (x, y) {(x, y) | 0 ≦ x <Ww x (1) , 0 ≦ y <Ww
y (i) } {i = 1 to 16: division pattern number}

【0068】この分割画像に対しミクロフィルタ処理を
施し、分割ミクロフィルタ画像FW M (i)(x、y)を得
る。計算は前節の定義にしたがう。
The divided image is subjected to a microfilter process to obtain a divided microfilter image F W M (i) (x, y). The calculation follows the definition in the previous section.

【数17】 分割ミクロフイルタ画像:FWM (i)(x、y) {(x、y)|0≦x<Ww x (i) 、0≦y<Ww
y (i) } { i=1〜16 :分割パターン番号}
## EQU17 ## Segmented microfilter image: F WM (i) (x, y)) (x, y) | 0 ≦ x <Ww x (i) , 0 ≦ y <Ww
y (i) } {i = 1 to 16: division pattern number}

【0069】次に、(ステップ1002)において、分
割ミクロフィルタ画像の2値化処理を行う。分割ミクロ
フィルタ画像FWM (i)(x、y)をしきい値TM1で2値
化して、分割ミクロフィルタ2値化画像BWM (i)(x、
y)をもとめる。
Next, in (Step 1002), binarization processing of the divided microfilter image is performed. The divided microfilter image F WM (i) (x, y) is binarized by a threshold value T M1 to obtain a divided microfilter binarized image B WM (i) (x, y ) .
y).

【数18】 分割ミクロフィルタ2値化画像:BWM (i)(x、y)= 0 {FWM (i)(x、y)<TM1} 255 {FWM (i)(x、y)≧TM1} {(x、y)|0≦x<Ww x (i) 、0≦y<Ww y (i) } { i=1〜16 :分割パターン番号}[Expression 18] Binary image of divided microfilter: B WM (i) (x, y) = 0 {F WM (i) (x, y) <T M1 } 255 {F WM (i) (x, y ) ≧ T M1 } {(x, y) | 0 ≦ x <Ww x (i) , 0 ≦ y <Ww y (i) } i = 1 to 16: division pattern number

【0070】2値化しきい値TM1は、検査の節で定義す
る2値化しきい値TM2より小さくとることにより、検査
においてマスクを確実に行うことができる。次に、(ス
テップ1003)において、分割ミクロフィルタの2値
化画像の膨張処理を行う。ミクロフィルタでは画像中の
エッジが強調されるため、マスク画像でこの部分をマス
クするのであるが、入力画像のサンプリングによるエッ
ジ位置のずれとエッジそのもののずれ、さらに位置検出
のずれ等により、基準画像のエッジからずれることが考
えられる。そこで分割ミクロフィルターの2値化画像に
膨張処理を指定回数NM かけることにより、確実にマス
クできる分割ミクロフィルターマスク画像を得る。
[0070] binary threshold value T M1, by taking smaller than binary threshold value T M2 as defined in section inspection, it is possible to reliably perform the mask in the inspection. Next, in (Step 1003), dilation processing of the binarized image of the divided microfilter is performed. Since the edge in the image is emphasized by the micro filter, this part is masked by the mask image. However, the displacement of the edge position due to sampling of the input image, the displacement of the edge itself, and the displacement of the position detection, etc. May deviate from the edge. Therefore by applying a specified number of times N M expansion process on the binarized image of the divided microfilter to obtain a divided microfilter mask image can be reliably masked.

【0071】[0071]

【数19】 分割ミクロフィルターマスク画像:MWM (i)(x、y)= NOT Dilate (BWM (i)(x、y):NM ) {(x、y)|0≦x<Ww x (i) 、0≦y<Ww y (i) } { i=1〜16 :分割パターン番号}## EQU19 ## Divided microfilter mask image: M WM (i) (x, y) = NOT Dilate (B WM (i) (x, y): N M ) {(x, y) | 0 ≦ x <Ww x (i) , 0 ≦ y <Ww y (i) } i i = 1 to 16: division pattern number}

【0072】ここで、Dilate(F(x、y);
N)は、画像F(x、y)をN回膨張処理を行うことを
意味する。膨張処理は以下のように計算される。
Here, Dilate (F (x, y);
N) means that the image F (x, y) is expanded N times. The expansion process is calculated as follows.

【数20】Dilate(F(x、y);1)= F(x−1、y−1) OR F(x、y−1) OR F(x+1、y−1) OR F(x−1、y) OR F(x、y)OR F(x+1、y) OR F(x−1、y+1) OR F(x、y+1) OR F(x+1、y+1)Dilate (F (x, y); 1) = F (x-1, y-1) OR F (x, y-1) OR F (x + 1, y-1) OR F (x-1) , Y) OR F (x, y) OR F (x + 1, y) OR F (x-1, y + 1) OR F (x, y + 1) OR F (x + 1, y + 1)

【0073】また、ORはビット論理和をとることを、
NOTはビット論理否定をとることを示す。さらに、
(ステップ1004)において、マスク画像の修正と登
録を行う場合、MWM (i)(X、y)を、手入力(例えば
マウス操作による)によりマスクする画素の値を0に設
定する。この処理は、実際のソフトウェアにおいては、
マスク画像を塗りつぶす操作で行う。基準パターン自動
作成した場合、正規化相関法のマスク同様、いま作成し
たマスク画像をそのままコピーして用いる。
Further, OR means to take a bit OR,
NOT indicates that a bit logical negation is performed. further,
When correcting and registering the mask image in (step 1004), the value of the pixel to be masked by manual input (for example, by mouse operation) is set to 0 in M WM (i) (X, y). This process is, in actual software,
The operation is performed by painting the mask image. When the reference pattern is automatically created, the mask image just created is used as it is, similarly to the mask of the normalized correlation method.

【0074】(モホロジー処理)次に、モホロジー処理
について説明する。モホロジー処理においては、オープ
ニング処理とクロージング処理とが用いられる。オープ
ニング処理は、暗い欠点を検出するために用いる処理で
あり、クロージング処理は、明るい欠陥を検出するため
の処理である。
(Morphological Processing) Next, the morphological processing will be described. In the morphology process, an opening process and a closing process are used. The opening process is a process used for detecting a dark defect, and the closing process is a process for detecting a bright defect.

【0075】まず、オープニング処理について説明す
る。この処理の目的は、微小な明るい変動を画像から除
去することである。すなわち、図12に示すリング状の
画像を例にすると、同図(a)は本来のあるべき画像を
示し、同図(b)は欠陥が発生している画像を示してい
る。この場合、同図(b)の画像から、リングの切れを
繋いでいる細かい部分を除去すると、同図(a)の画像
を、つまり良品の画像を得ることができる。言い換えれ
ぱ、この処理は繋がったリングを切り開く、オープンす
る処理である。オープニング処理は3段階の処理で構成
される。
First, the opening process will be described. The purpose of this process is to remove small bright variations from the image. In other words, taking the ring-shaped image shown in FIG. 12 as an example, FIG. 12A shows an image which should be originally present, and FIG. 12B shows an image having a defect. In this case, if the fine portion connecting the cuts of the ring is removed from the image of FIG. 2B, the image of FIG. 2A, that is, a good image can be obtained. In other words, this process is a process of cutting and opening a connected ring. The opening process is composed of three stages.

【0076】まず、第1段階では、処理対象を画像F
(x、y)とし、処理対象画像にNomin回MINフ
ィルターをかけたMIN画像、FMIN (Nomin) を算出す
る。 処理対象画像:F(x、y){(x、y)|0≦x≦5
11、0≦y≦511}
First, in the first stage, the processing target is the image F
( MIN, Nomin) is obtained by applying the MIN filter to the image to be processed by Nomin times (x, y). Processing target image: F (x, y) {(x, y) | 0 ≦ x ≦ 5
11, 0 ≦ y ≦ 511}

【数21】 MIN画像:FMIN (i)(x、y)= MIN(F(x−1、y−1)、F(x、y−1)、 F(x+1、y−1)、F(x−1、y)、 F(x、y)、 F(x−1、y)、 F(x−1、y+1)、F(x、y+1)、 F(x+1、y+1) ) :FMIN (i)(x、y)= MIN(FMIN (i-1)(x−1、y−1)、FMIN (i-1)(x、y−1)、 FMIN (i-1)(x+1、y−1)、FMIN (i-1)(x−1、y)、 FMIN (i-1)(x、y)、 FMIN (i-1)(x−1、y)、 FMIN (i-1)(x−1、y+1)、FMIN (i-1)(x、y+1)、 FMIN (i-1)(x+1、y+1) ) (i>2)MIN image: F MIN (i) (x, y) = MIN (F (x−1, y−1), F (x, y−1), F (x + 1, y−1), F (X-1, y), F (x, y), F (x-1, y), F (x-1, y + 1), F (x, y + 1), F (x + 1, y + 1)): FMIN (i) (x, y) = MIN (F MIN (i-1) (x-1, y-1), F MIN (i-1) (x, y-1), F MIN (i-1) (X + 1, y-1), F MIN (i-1) (x-1, y), F MIN (i-1) (x, y), F MIN (i-1) (x-1, y) , F MIN (i-1) (x-1, y + 1), F MIN (i-1) (x, y + 1), F MIN (i-1) (x + 1, y + 1)) (i> 2)

【0077】第2段階では、いま得られたMlN画像F
MIN (Nomin)(x、y)にMAXフィルターをNoma
x回施したオープニング画像Fop(x、y)を得る。
In the second stage, the MlN image F just obtained
MAX filter for MIN (Nomin) (x, y)
An opening image F op (x, y) applied x times is obtained.

【数22】 MAX画像:FMAX (i)(x、y)= MAX(FMIN (Nomin)(x−1、y−1)、FMIN (Nomin)(x、y−1)、 FMIN (Nomin)(x+1、y−1)、FMIN (Nomin)(x−1、y)、 FMIN (Nomin)(x、y)、 FMIN (Nomin)(x−1、y)、 FMIN (Nomin)(x−1、y+1)、FMIN (Nomin)(x、y+1)、 FMIN (Nomin)(x+1、y+1) ) :FMAX (i)(x、y)= MAX(FMAX (i-1)(x−1、y−1)、FMAX (i-1)(x、y−1)、 FMAX (i-1)(x+1、y−1)、FMAX (i-1)(x−1、y)、 FMAX (i-1)(x、y)、 FMAX (i-1)(x−1、y)、 FMAX (i-1)(x−1、y+1)、FMAX (i-1)(x、y+1)、 FMAX (i-1)(x+1、y+1) ) (i>2) オープニング画像: Fop(x、y)=FMAX (Nomax)(x、y)MAX image: F MAX (i) (x, y) = MAX (F MIN (Nomin) (x-1, y-1), F MIN (Nomin) (x, y-1), F MIN (Nomin) (x + 1, y-1), F MIN (Nomin) (x-1, y), F MIN (Nomin) (x, y), F MIN (Nomin) (x-1, y), F MIN (Nomin) (x-1, y + 1), F MIN (Nomin) (x, y + 1), F MIN (Nomin) (x + 1, y + 1)): F MAX (i) (x, y) = MAX (F MAX ( i-1) (x-1, y-1), F MAX (i-1) (x, y-1), F MAX (i-1) (x + 1, y-1), F MAX (i-1) ) (X-1, y), F MAX (i-1) (x, y), F MAX (i-1) (x-1, y), F MAX (i-1) (x-1, y + 1) ), F MAX (i-1) (x, y + 1), F MAX (i-1) (x + 1, y + 1)) (i> 2) Opening image: F op (x, y) = F MAX (Nomax) ( x, y)

【0078】第3段階では、もとの画像F(x、y)か
らオープニング画像Fop(x、y)を引いて明欠陥画像
BRIGHT(x、y)を得る。
In the third stage, a bright defect image F BRIGHT (x, y) is obtained by subtracting the opening image F op (x, y) from the original image F (x, y).

【数23】明欠陥画像:FBRIGHT(x、y)=F(x、
y)−Fop(x、y) {(x、y)|0≦x≦511、0≦y≦511}
## EQU23 ## Bright defect image: F BRIGHT (x, y) = F (x,
y) −F op (x, y) {(x, y) | 0 ≦ x ≦ 511, 0 ≦ y ≦ 511}

【0079】次に、クロージング処理について説明す
る。この処理の目的は、微小な暗い変動を画像から除去
することであり、前述のオープニング処理の正反対の処
理である。すなわち、図13に示すリング状の画像を例
にすると、同図(a)は本来のあるべき画像を示し、同
図(b)は欠陥が発生している画像を示している。この
場合、同図(b)の画像から、リングの切れを埋める
と、同図(a)の画像を、つまり良品の画像を得ること
ができる。言い換えれぱ、この処理は切れたリングを埋
めて閉じる、クローズする処理である。
Next, the closing process will be described. The purpose of this processing is to remove minute dark fluctuations from the image, which is the opposite of the above-mentioned opening processing. That is, taking the ring-shaped image shown in FIG. 13 as an example, FIG. 13A shows an original image, and FIG. 13B shows an image having a defect. In this case, by filling the breaks in the ring from the image in FIG. 2B, the image in FIG. 2A, that is, a good image can be obtained. In other words, this process is a process for filling and closing a broken ring.

【0080】クロージング処理もオープニング処理と同
様に、3段階の処理で構成される。まず、第1段階で
は、画像F(x、y)とした処理対象画像にNcmax
回MAXフィルターをかけたMAX画像、FMAX
(Ncmax) (x、y)を算出する。
The closing process, like the opening process, consists of three stages. First, in the first stage, Ncmax is added to the image to be processed as the image F (x, y).
MAX image with MAX filter applied, F MAX
(Ncmax) (x, y) is calculated.

【数24】 処理対象画像:F(x、y) {(x、y)|0≦x≦511、0≦y≦511} MAX画像:FMAX (i)(x、y)= MAN(F(x−1、y−1)、F(x、y−1)、 F(x+1、y−1)、F(x−1、y)、 F(x、y)、 F(x−1、y)、 F(x−1、y+1)、F(x、y+1)、 F(x+1、y+1) ) :FMAX (i)(x、y)= MAX(FMAX (i-1)(x−1、y−1)、FMAX (i-1)(x、y−1)、 FMAX (i-1)(x+1、y−1)、FMAX (i-1)(x−1、y)、 FMAX (i-1)(x、y)、 FMAX (i-1)(x−1、y)、 FMAX (i-1)(x−1、y+1)、FMAX (i-1)(x、y+1)、 FMAX (i-1)(x+1、y+1) ) (i>2)[Expression 24] Processing target image: F (x, y) {(x, y) | 0 ≦ x ≦ 511, 0 ≦ y ≦ 511} MAX image: F MAX (i) (x, y) = MAN (F (X-1, y-1), F (x, y-1), F (x + 1, y-1), F (x-1, y), F (x, y), F (x-1, y), F (x-1, y + 1), F (x, y + 1), F (x + 1, y + 1)): FMAX (i) (x, y) = MAX ( FMAX (i-1) (x- 1, y-1), F MAX (i-1) (x, y-1), F MAX (i-1) (x + 1, y-1), F MAX (i-1) (x-1, y ), F MAX (i-1) (x, y), F MAX (i-1) (x-1, y), F MAX (i-1) (x-1, y + 1), F MAX (i- 1) (x, y + 1), F MAX (i-1) (x + 1, y + 1)) (i> 2)

【0081】第2段階では、いま得られたMAX画像F
MAX (Ncmax) (x、y)にMlNフィルターをNcmi
n回施したクロージング画像Fc1(x、y)を得る。
In the second stage, the MAX image F just obtained
MAX (Ncmax) (x, y) with Mln filter Ncmi
A closing image F c1 (x, y) obtained n times is obtained.

【数25】 MlN画像:FMIN (i)(x、y)= MIN(FMAX (Ncmax)(x−1、y−1)、FMAX (Ncmax)(x、y−1)、 FMAX (Ncmax)(x+1、y−1)、FMAX (Ncmax)(x−1、y)、 FMAX (Ncmax)(x、y)、 FMAX (Ncmax)(x−1、y)、 FMAX (Ncmax)(x−1、y+1)、FMAX (Ncmax)(x、y+1)、 FMAX (Ncmax)(x+1、y+1) ) :FMIN (i)(x、y)= MIN(FMIN (i-1)(x−1、y−1)、FMIN (i-1)(x、y−1)、 FMIN (i-1)(x+1、y−1)、FMIN (i-1)(x−1、y)、 FMIN (i-1)(x、y)、 FMIN (i-1)(x−1、y)、 FMIN (i-1)(x−1、y+1)、FMIN (i-1)(x、y+1)、 FMIN (i-1)(x+1、y+1) ) (i>2) クロージング画像: Fc1(x、y)=FMIN (Ncmin)(x、y)## EQU25 ## MIN image: F MIN (i) (x, y) = MIN (F MAX (Ncmax) (x-1, y-1), F MAX (Ncmax) (x, y-1), F MAX (Ncmax) (x + 1, y-1), F MAX (Ncmax) (x-1, y), F MAX (Ncmax) (x, y), F MAX (Ncmax) (x-1, y), F MAX (Ncmax) (x-1, y + 1), F MAX (Ncmax) (x, y + 1), F MAX (Ncmax) (x + 1, y + 1)): F MIN (i) (x, y) = MIN (F MIN ( i-1) (x-1, y-1), F MIN (i-1) (x, y-1), F MIN (i-1) (x + 1, y-1), F MIN (i-1 ) (X-1, y), F MIN (i-1) (x, y), F MIN (i-1) (x-1, y), F MIN (i-1) (x-1, y + 1 ), F MIN (i-1) (x, y + 1), F MIN (i-1) (x + 1, y + 1)) (i> 2) Closing image: F c1 (x, y) = F MIN (Ncmin) ( x, y)

【0082】第3段階では、クロージング画像F
c1(x、y)から、もとの画像F(x、y)をひいて暗
欠陥画像FDARK(x、y)を得る。
In the third stage, the closing image F
From c1 (x, y), the original image F (x, y) is subtracted to obtain a dark defect image F DARK (x, y).

【数26】暗欠陥画像: FDARK(x、y)=F
c1(x、y)−F(x、y) {(x、y)|0≦x≦511、0≦y≦511}
[Formula 26] Dark defect image: F DARK (x, y) = F
c1 (x, y) -F (x, y) {(x, y) | 0 ≦ x ≦ 511, 0 ≦ y ≦ 511}

【0083】次に、モホロジー処理に用いられるマスク
画像の作成につき、図14〜図17を用いて説明する。
モホロジー処理のマスク画像は、上述したミクロフィル
ターのマスク画像と同様に、正規化相関法で定義され
た、16分割の分割基準パターン毎に作成されるもので
ある。さらに、オープニング処理、クロージング処理毎
に、マスク画像が用意される。
Next, creation of a mask image used for morphological processing will be described with reference to FIGS.
The mask image for the morphology processing is created for each of the 16 divided reference patterns defined by the normalized correlation method, similarly to the mask image of the microfilter described above. Further, a mask image is prepared for each of the opening process and the closing process.

【0084】以上の処理過程の一例を図17に示す。図
17において、(a)は元画像、(b)はミニマム画
像、(c)はオープニング画像、(d)は明欠陥画像を
示している。
FIG. 17 shows an example of the above process. 17A shows an original image, FIG. 17B shows a minimum image, FIG. 17C shows an opening image, and FIG. 17D shows a bright defect image.

【0085】すなわちまず、16分割の分割画像に対し
てオープニング処理及びクロージング処理を作用させた
後、2値化処理を施す(ステップ1401〜140
4)。このように、オープニング処理及びクロージング
処理の後、2値化処理を施したものには、明るく急激な
変動部分及び暗く急激な変動部分が抽出される。
That is, first, an opening process and a closing process are applied to the 16 divided images, and then a binarization process is performed (steps 1401 to 140).
4). As described above, after the opening process and the closing process, the binarized process extracts a bright and rapidly changing portion and a dark and rapidly changing portion.

【0086】次いで、抽出された変動部分の位置は画像
毎にばらつくため、確実にこれをマスクするためには、
2値化処理を施した画像に対して膨張処理を指定回数施
す(ステップ1405,1406)。このような処理に
より、オープニング処理及びクロージング処理毎のマス
ク画像が得られるが、実際にすき入れ検査を行った場
合、マスクもれが発生する場合がある。これは、単一の
基準画像からでは、予測することが困難な良品のばらつ
きに起因するものであり、この場合、手入力(例えばマ
ウス操作による)によってマスク画像の修正を行う(ス
テップ1407,1408)。
Next, since the position of the extracted variable portion varies for each image, in order to surely mask this,
The expansion process is performed a specified number of times on the image that has been subjected to the binarization process (steps 1405 and 1406). By such processing, a mask image can be obtained for each of the opening processing and the closing processing. However, when a penetration inspection is actually performed, mask leakage may occur. This is due to the variation of non-defective products that is difficult to predict from a single reference image. In this case, the mask image is corrected by manual input (for example, by mouse operation) (steps 1407 and 1408). ).

【0087】オープニング処理及びクロージング処理そ
れぞれのマスク画像を、図15及び図16に示す。ここ
で、図15は、オープニング処理のマスク画像であり、
図16は、クロージング処理のマスク画像である。これ
らの図に示すものは、図6で説明した分割パターン〜
(16)に対応しているものである。
FIGS. 15 and 16 show mask images for the opening process and the closing process, respectively. Here, FIG. 15 is a mask image of the opening process,
FIG. 16 is a mask image of the closing process. What is shown in these figures is the division pattern described in FIG.
This corresponds to (16).

【0088】次に、(ステップ1401)〜(ステップ
1408)の詳細について説明する。まず、(ステップ
1401,1402)において、正規化相関法で定義し
た16分割の分割画像を取り出す。
Next, the details of (Step 1401) to (Step 1408) will be described. First, in (Steps 1401 and 1402), 16 divided images defined by the normalized correlation method are extracted.

【0089】[0089]

【数27】分割パターン:FW (i)(x、y) {(x、y)|0≦x<Ww x (i) 、0≦y<Ww
y (i) } { i=1〜16 :分割パターン番号}
(27) Dividing pattern: F W (i) (x, y) {(x, y) | 0 ≦ x <Ww x (i) , 0 ≦ y <Ww
y (i) } {i = 1 to 16: division pattern number}

【0090】ここでは、分割オープニング処理画像F
WOP (i)(x、y)及び分割クロージング処理画像FWc1
(i)(x、y)を得る。
Here, the divided opening processing image F
WOP (i) (x, y) and divided closing processed image F Wc1
(i) Obtain (x, y).

【数28】 FWOP (1)(x、y): 分割オープニング処理画像 FWc1 (1)(x、y): 分割クロージング処理画像 {(x、y)|0≦x<Ww x (1) 、0≦y<Ww
y (1) } { i=1〜16 :分割パターン番号}
F WOP (1) (x, y): Divided opening processed image F Wc1 (1) (x, y): Divided closing processed image {(x, y) | 0 ≦ x <Ww x (1) , 0 ≦ y <Ww
y (1) } i i = 1 to 16: division pattern number}

【0091】次いで、(ステップ1403,1404)
において、分割オープニング処理画像FWOP (i)(x、
y)をしきい値TOP1 で2値化して、分割オープニング
処理2値化画像BWOP (1)(x、y)を求める。同様に、
分割クロージング処理画像FwC 1 (i)(x、y)をしきい
値Tcl1 で2値化して、分割クロージング処理2値化画
像BwC1 (i)(x、y)を求める。
Next, (steps 1403 and 1404)
In the divided opening processing image F WOP (i) (x,
y) is binarized by a threshold value T OP1 to obtain a divided opening binarized image B WOP (1) (x, y). Similarly,
Dividing closing processing image F wC 1 (i) (x , y) is binarized by the threshold value T cl1 to determine the division closing processing binary image B wC1 (i) (x, y).

【数29】 分割オープニング処理2値化画像:BWop (1)(x、y)= 0 {FWop (1)(x、y)<Top1 } 255 {FWop (1)(x、y)≧Top1 } 分割クロージング処理2値化画像:Bwc1 (1)(x、y)= 0 {Fwc1 (1)(x、y)<Tcl1 } 255 {Fwc1 (1)(x、y)≧Tcl1 } {(x、y)|0≦x<Ww x (1) 、0≦y<Ww y (1) } { i=1〜16 :分割パターン番号}(29) Binary image of divided opening processing: B Wop (1) (x, y) = 0 {F Wop (1) (x, y) < Top1 } 255 {F Wop (1) (x, y ) ≧ T op1 } Divided closing binarized image: B wc1 (1) (x, y) = 0 {F wc1 (1) (x, y) <T cl1 25 255 {F wc1 (1) (x, y y) ≧ T cl1 } {(x, y) | 0 ≦ x <Ww x (1) , 0 ≦ y <Ww y (1) } i = 1 to 16: division pattern number

【0092】2値化しきい値Top1 、Tcl1 は、検査の
節で定義する2値化しきい値Top2、Tcl2 より小さく
とることにより、検査においてマスクを確実に行うこと
ができる。次いで、(ステップ1405,1406)に
おいて、膨張処理を施す。ここでは、分割オープニング
処理2値化画像と分割クロージング処理2値化画像に膨
張処理を指定回数Nopかけることにより、確実にマスク
できるオープニング処理マスク画像と分割クロージング
処理マスク画像が得られる。
[0092] binary threshold value T op1, T cl1, by taking smaller than binary threshold value T op2, T cl2 defined in section inspection, it is possible to reliably perform the mask in the inspection. Next, in (Steps 1405 and 1406), expansion processing is performed. Here, the opening mask image and the divided closing mask image that can be reliably masked can be obtained by multiplying the divided opening binarized image and the divided closing processed binarized image by the dilation processing a specified number of times N op .

【0093】[0093]

【数30】 分割オープニング処理マスク画像:Mwop (i)(x、y)= NOT Dilate (Bwop (i)(x、y):Nop ) 分割クロージング処理マスク画像:Mwcl (i)(x、y)= NOT Dilate (Bwcl (i)(x、y):Ncl ) {(x、y)|0≦x<Ww x (i) 、0≦y<Ww y (i) } { i=1〜16 :分割パターン番号}Equation 30] dividing the opening processing mask image: M wop (i) (x , y) = NOT Dilate (B wop (i) (x, y): N op) divided closing processing mask image: M wcl (i) ( x, y) = NOT Dilate (B wcl (i) (x, y): N cl ) {(x, y) | 0 ≦ x <Ww x (i) , 0 ≦ y <Ww y (i) } i = 1 to 16: division pattern number}

【0094】次いで、(ステップ1407,1408)
において、マスク画像の修正を行う。Mwop (i)(x、
y)及びMwcl (i)(x、y)を、手入力によりマスクす
る画素の値を0に設定する。この処理は、実際のソフト
ウェアにおいては、マスク画像を塗りつぶす操作で行
う。基準パターンを自動作成した場合、ミクロフィルタ
ー処理のマスク同様、ここで作成したマスク画像をコピ
ーする。
Next, (steps 1407 and 1408)
In, the mask image is corrected. M wop (i) (x,
For y) and M wcl (i) (x, y), the value of the pixel to be masked by manual input is set to 0. This processing is performed by an operation of painting a mask image in actual software. When the reference pattern is automatically created, the mask image created here is copied in the same manner as the mask for the microfilter processing.

【0095】以上が正規化相関処理、ミクロフィルター
処理、濃淡モホロジー処理における準備作業である。次
に、上述した画像処理検査部20によるすき入れ部位
(透かし)6のすき入れ検査方法について説明する。説
明に先立ち、正規化相関処理、ミクロフィルター処理、
濃淡モホロジー処理における全体の処理手順の概略を、
図18を用いて説明する。
The above is the preparation work in the normalized correlation processing, microfilter processing, and shading morphology processing. Next, a description will be given of a method of inspecting the penetration part (watermark) 6 by the image processing inspection unit 20 described above. Prior to the explanation, normalized correlation processing, micro-filter processing,
The outline of the entire processing procedure in the shading morphology processing is as follows:
This will be described with reference to FIG.

【0096】まず、入力した画像に対して全体パターン
及び分割パターン毎に正規化相関処理が行われ、それぞ
れのパータン毎の良否判定が行われる(ステップ180
1〜1804)。次いで、ミクロフィルター処理に移行
し、2値化処理、マスク処理、ラベリング処理、特徴量
算出処理、良否判定処理が順次行われる(ステップ18
05〜1810)。これらの処理は、後述する16分割
された分割パターンのそれぞれに対して行われる(ステ
ップ1811)。
First, a normalized correlation process is performed on the input image for each of the entire pattern and the divided pattern, and a pass / fail judgment is made for each pattern (step 180).
1-1804). Next, the process proceeds to a micro filter process, and a binarization process, a mask process, a labeling process, a feature amount calculation process, and a pass / fail determination process are sequentially performed (step 18).
05-1810). These processes are performed for each of the 16 divided patterns described later (step 1811).

【0097】次いで、濃淡モホロジー処理に移行する。
濃淡モホロジー処理には、オープニング処理とクロージ
ング処理とがあり、まず、オープニング処理では、2値
化処理、マスク処理、ラベリング処理、特徴量算出処
理、良否判定処理が順次行われる(ステップ1812〜
1817)。これらの処理も、上記同様に、後述する1
6分割れた分割パターンのそれぞれに対して行われる
(ステップ1818)。
Next, the processing shifts to the shading morphology processing.
The shading morphology processing includes an opening processing and a closing processing. First, in the opening processing, binarization processing, mask processing, labeling processing, feature amount calculation processing, and pass / fail determination processing are sequentially performed (steps 1812 to 1812).
1817). These processes are also performed in the same manner as described above.
This is performed for each of the six divided patterns (step 1818).

【0098】クロージング処理でも、オープニング処理
と同様に、2値化処理、マスク処理、ラベリング処理、
特徴量算出処理、良否判定処理が順次行われる(ステッ
プ1819〜1824)。これらの処理も、上記同様
に、後述する16分割された分割パターンのそれぞれに
対して行われる(ステップ1825)。
In the closing process, similarly to the opening process, a binarization process, a mask process, a labeling process,
A feature amount calculation process and a pass / fail determination process are sequentially performed (steps 1819 to 1824). These processes are also performed for each of the 16 divided patterns described later (step 1825).

【0099】次に、正規化相関処理、ミクロフィルター
処理、濃淡モホロジー処理のそれぞれによるすき入れ検
査方法の詳細を順を追って説明する。(正規化相関によ
る検査フロー)まず、正規化相関法による検査アルゴリ
ズムを、図19を用いて説明する。なお、以下の説明
は、図18の(ステップ1801)〜(ステップ180
4)に相当するものである。
Next, details of the penetration inspection method by each of the normalized correlation processing, the microfilter processing, and the shading morphology processing will be described in order. (Inspection Flow by Normalized Correlation) First, an inspection algorithm by the normalized correlation method will be described with reference to FIG. The following description is based on (step 1801) to (step 1801) in FIG.
This corresponds to 4).

【0100】まず、検査対象の画像を取込む(ステップ
1901)。この検査対象の画像は、例えば図4に示し
た画像に相当する。この取込んだ画像のデータを下式の
ように定義する。
First, an image to be inspected is captured (step 1901). The image to be inspected corresponds to, for example, the image shown in FIG. The data of the captured image is defined as shown below.

【数31】検査対象画像:f(x、y) {(x、y)|0≦x≦511、0≦y≦479}[Image Omitted] image to be inspected: f (x, y) {(x, y) | 0 ≦ x ≦ 511, 0 ≦ y ≦ 479}

【0101】次いで、検査対象画像f(x、y)の中
で、まず全体パターンFW (x、y)を検索し、その位
置(X0 、Y0 )を求める(ステップ902〜90
4)。次いで、いま求めた全体パターンの位置と、各分
割パターンの全体パターンとの相対位置(Xr (i) 、Y
r (i) )から位置(X0 +Xr (i) 、Y0 +Yr (i)
の近傍領域において、各分割パターンFW (i) (x、
y)を検索し、一致度C(i) と分割パターンの位置(X
0 ( i)、Y0 (i) )を求める(ステップ903,90
5,906)。
Next, in the inspection object image f (x, y), first, the entire pattern F W (x, y) is searched, and its position (X 0 , Y 0 ) is obtained (steps 902 to 90).
4). Next, the relative position (X r (i) , Y ) between the position of the whole pattern just obtained and the whole pattern of each divided pattern is obtained.
r (i)) from the position (X 0 + X r (i ), Y 0 + Y r (i))
, Each divided pattern F W (i) (x,
y), the matching degree C (i) and the position of the division pattern (X
0 (i) and Y 0 (i) ) (steps 903 and 90).
5,906).

【数32】{(x、y)|0≦x<Ww x (i) 、0≦y
<Ww y (i) } { i=1〜16 :分割パターン番号}
32 (x, y) | 0 ≦ x <Ww x (i) , 0 ≦ y
<Ww y (i) } {i = 1 to 16: division pattern number}

【0102】次いで、各分割パターン毎に求めた相関係
数データ及び位置データと、それぞれの判定しきい値と
を比較し良否の判定を行う(ステップ1907〜191
1)。ここで、良否の判定結果は、後述する図22,2
3の(c)のc−1に示すように、x,y方向の位置ず
れとマッチ度として表示される。また、ここで相関の判
定を式で表すと、次のようになる。
Next, the correlation coefficient data and the position data obtained for each divided pattern are compared with the respective judgment thresholds to judge the quality (steps 1907 to 191).
1). Here, the pass / fail judgment result is shown in FIGS.
As shown in c-1 of FIG. 3 (c), the positional deviation in the x and y directions and the degree of matching are displayed. Here, the determination of the correlation is expressed by the following equation.

【0103】[0103]

【数33】相関係数の判定: C(i) <T1 (i)1 (i) ≦C(i) <T2 (i) ならば、その分割パターン
は不良個所を含む。T1 (i) ≦C(i) <T2 (i) なら
ば、その分割パターンは半良個所を含む。その他の場
合、良品とする。 位置の判定 :|X0 (i)(X0 +Xr (i) )|>T3
らば、その分割パターンは不良個所を含む。|Y
0 (i)(Y0 +Yr (i) )|>T4 ならば、その分割パタ
ーンは不良個所を含む。その他の場合、良品とする。
{i=1〜16 :分割パターン番号}
Judgment of correlation coefficient: If C (i) <T 1 (i) T 1 (i) ≦ C (i) <T 2 (i) , the divided pattern includes a defective portion. If T 1 (i) ≦ C (i) <T 2 (i) , the divided pattern includes a semi-good part. In other cases, it is considered to be good. Judgment of position: If | X 0 (i) (X 0 + X r (i) ) |> T 3 , the divided pattern includes a defective portion. | Y
0 (i) (Y 0 + Y r (i)) |> T 4 if, the division pattern includes a defective portion. In other cases, it is considered to be good.
{I = 1 to 16: division pattern number}

【0104】判定しきい値、T1 (i) 、T2 (i) 、T
3 は、あらかじめ設定されるものであり、その設定値も
任意とすることができる。
Determination thresholds, T 1 (i) , T 2 (i) , T
3 is set in advance, and the set value can be set arbitrarily.

【0105】(ミクロフィルターによる検査フロー)次
に、ミクロフィルタ処理によるすき入れ検査を、図20
を用いて説明する。また、同図に示すフローは、図18
の(ステップ1805)〜(ステップ1810)の詳細
を示すものである。すなわち、正規化相関法で得られる
分割パターンの位置データから、被検査画像の16分割
分の分割画像を切出す(ステップ2001〜200
4)。この切出した分割画像のそれぞれに対してミクロ
フィルター処理を施した後、2値化処理を行う(ステッ
プ2005,2006)。2値化処理を行うに際して
は、予め定められている2値化しきい値を用いる。
(Inspection Flow by Micro Filter) Next, a penetration inspection by micro filter processing is performed as shown in FIG.
This will be described with reference to FIG. The flow shown in FIG.
(Steps 1805) to (Step 1810). That is, 16 divided images of the inspection image are cut out from the position data of the divided pattern obtained by the normalized correlation method (steps 2001 to 200).
4). After performing micro filter processing on each of the cut out divided images, binarization processing is performed (steps 2005 and 2006). When performing the binarization process, a predetermined binarization threshold is used.

【0106】この状態では、すき入れの輸郭等がでてい
るので、分割ミクロフィルタのマスク画像と論理積をと
ることにより、エッジ等をマスクする(ステップ200
7)。すなわち、図10で説明した作成手順によって得
られるミクロフィルター処理用のマスク画像が用いられ
る。
In this state, since the trajectory has been cut out, the edges and the like are masked by taking the logical product with the mask image of the divided microfilter (step 200).
7). That is, a mask image for microfilter processing obtained by the creation procedure described with reference to FIG. 10 is used.

【0107】次いで、マスク処理された画像に対して、
ラベリング処理及び特徴量の算出処理を行う(ステップ
2008)。ここで、ラベリング処理は、2値化された
画像データの連結性の解析を行うものである。また、特
徴量の算出処理は、前述ラベリング処理で得られる、連
結した塊ごとの面積と平均濃度を計算することによって
行われるものである。これらの処理によって面積及び平
均濃度が求められ、結果として特徴量が算出される。最
後に、ラベリング処理及び特徴量の算出処理が行われた
画像に対して、その画素数及び平均濃度としきい値とを
比較して、判定結果を得る(ステップ2009〜201
2)。
Next, with respect to the masked image,
A labeling process and a feature amount calculation process are performed (step 2008). Here, the labeling process is to analyze the connectivity of the binarized image data. The feature amount calculation process is performed by calculating the area and average density of each connected mass obtained by the above-described labeling process. By these processes, the area and the average density are obtained, and as a result, the feature amount is calculated. Finally, for the image on which the labeling process and the feature amount calculation process have been performed, the number of pixels, the average density, and the threshold value are compared to obtain a determination result (steps 2009 to 201).
2).

【0108】ここで、良否の判定結果は、後述する図2
2,23の(c)のc−2に示すように、面積と濃度と
して表示され、例えば図23の(c)のc−2に示すよ
うに、(面積−15)とした部分が欠陥として表示され
る。
Here, the result of the pass / fail judgment is shown in FIG.
23, (c) in (c) is displayed as an area and a density. For example, as shown in (c-2) in FIG. Is displayed.

【0109】(濃淡モホロジーによる検査フロー)次
に、モホロジー処理によるすき入れ検査方法を、図21
を用いて説明する。なお、以下の説明は、図18の(ス
テップ1812)〜(ステップ1825)に相当するも
のである。すなわち、正規化相関法で得られる分割パタ
ーンの位置データから、被検査画像の16分割分の分割
画像を切出す(ステップ2101〜2104)。この切
出した分割画像のそれぞれに対してモホロジー処理を施
した後、2値化処理を行う(ステップ2105,210
6)。ここで、モホロジー処理は、上述したように、オ
ープニング処理及びクロージング処理である。
(Inspection Flow Based on Shading Morphology) Next, a method of pitting inspection by morphology processing will be described with reference to FIG.
This will be described with reference to FIG. The following description corresponds to (Step 1812) to (Step 1825) in FIG. That is, from the position data of the divided pattern obtained by the normalized correlation method, 16 divided images of the inspection image are cut out (steps 2101 to 2104). After performing morphology processing on each of the cut out divided images, binarization processing is performed (steps 2105 and 210).
6). Here, the morphology processing is an opening processing and a closing processing as described above.

【0110】また、この状態では、すき入れの輸郭等が
でているので、分割オープニング処理マスク画像及び分
割クロージング処理マスク画像との論理積をとることに
より、エッジ等をマスクする(ステップ2107)。す
なわち、図14で説明した作成手順によって得られるオ
ープニング処理及びクロージング処理用のマスク画像が
用いられる。
Also, in this state, since there is a transit of the clearance, the edges and the like are masked by taking the logical product of the divided opening processing mask image and the divided closing processing mask image (step 2107). . That is, a mask image for the opening process and the closing process obtained by the creation procedure described with reference to FIG. 14 is used.

【0111】さらに、ラベリング処理した後、画像上の
各かたまりごとの画素数と平均濃度をもとめる(ステッ
プ2108)。この面素数と平均濃度と判定しきい値と
を比較して、判定結果を得る。ここで、ラベリング処理
は、2値化された画像データの連結性の解析を行うもの
である。また、特徴量の算出処理は、前述ラベリング処
理で得られる、連結した塊ごとの面積と平均濃度を計算
することによって行われるものである。これらの処理に
よって面積及び平均濃度が求められ、結果として特徴量
が算出される。
Further, after the labeling process, the number of pixels and the average density of each block on the image are obtained (step 2108). The determination result is obtained by comparing the surface element number, the average density, and the determination threshold value. Here, the labeling process is to analyze the connectivity of the binarized image data. The feature amount calculation process is performed by calculating the area and average density of each connected mass obtained by the above-described labeling process. By these processes, the area and the average density are obtained, and as a result, the feature amount is calculated.

【0112】最後に、ラベリング処理及び特徴量の算出
処理が行われた画像に対して、その画素数及び平均濃度
としきい値とを比較して、判定結果を得る(ステップ2
109〜2112)。良否の判定結果は、図22,23
の(c)のc−3,c−4に示すように、面積と濃度と
して表示される。ここで、c−3は、オープニング処理
結果を示し、c−4はクロージング処理結果を示してい
る。
Finally, the number of pixels, the average density, and the threshold value are compared with respect to the image on which the labeling process and the feature amount calculation process have been performed, and a determination result is obtained (step 2).
109-2112). The pass / fail judgment results are shown in FIGS.
As shown in c-3 and c-4 of (c), the area and the density are displayed. Here, c-3 indicates the result of the opening process, and c-4 indicates the result of the closing process.

【0113】そして、例えば図22の(c)のc−3に
示すように、(濃度−52)とした部分が欠陥として表
示される。また、例えば図23の(c)のc−4に示す
ように、(濃度−47)とした部分が欠陥として表示さ
れる。なお、図22,23の(a),(b)は、それぞ
れ入力した画像を示している。
Then, for example, as shown at c-3 in FIG. 22 (c), the portion having (density-52) is displayed as a defect. Further, for example, as indicated by c-4 in FIG. 23 (c), a portion having (density-47) is displayed as a defect. Note that (a) and (b) of FIGS. 22 and 23 each show an input image.

【0114】[0114]

【発明の効果】以上説明したように、本発明の請求項1
に記載のすき入れ検査装置によれば、検査対象透かし画
像に対して、第1のアルゴリズムにより、画像パターン
のコントラストの高い部分の欠陥検査が行われ、第2の
アルゴリズムにより、画像パターンの無い部分及びコン
トラストの低い部分の欠陥検査が行われ、第3のアルゴ
リズムにより、画像パターンのコントラストの変化が緩
やかな部分の欠陥検査が行われる。これにより、第1〜
3のアルゴリズムによって、それぞれの不得意部分が補
われつつ欠陥検査が行われるので、透かし画像がもつ全
てのパターンに対しての欠陥検査を確実に行うことがで
きる。
As described above, according to the first aspect of the present invention,
According to the penetration inspection device described in 1 above, a defect inspection of a high contrast portion of the image pattern is performed by the first algorithm on the inspection target watermark image, and a portion without the image pattern is performed by the second algorithm. In addition, a defect inspection is performed on a portion having a low contrast, and a third algorithm is used to perform a defect inspection on a portion where the contrast of the image pattern changes gradually. Thereby, the first to first
Since the defect inspection is performed by the algorithm 3 while supplementing the respective weak points, the defect inspection can be reliably performed on all the patterns of the watermark image.

【0115】請求項2に記載のすき入れ検査装置によれ
ば、検査領域を複数に分割することで、検査対象透かし
画像の微細な濃淡変動の欠陥検査が可能となるため、透
かし画像がもつ全てのパターンに対しての欠陥検査をよ
り確実に行うことができる。
According to the second aspect of the present invention, since the inspection area is divided into a plurality of parts, it is possible to perform a defect inspection of a minute shading variation of the watermark image to be inspected. The defect inspection for the pattern can be performed more reliably.

【0116】請求項3に記載のすき入れ検査装置によれ
ば、第1〜3のアルゴリズムのそれぞれに対応させた優
位部分のみを取入れるマスク画像パターンを用いること
で、各アルゴリズムの検査領域が必要最小限とされるた
め、検査精度を高めることができる。
According to the third aspect of the present invention, the inspection area of each algorithm is required by using the mask image pattern which takes in only the superior part corresponding to each of the first to third algorithms. Since it is minimized, the inspection accuracy can be improved.

【0117】請求項4に記載のすき入れ検査装置によれ
ば、複数の分割した検査領域毎に、第1〜3のアルゴリ
ズムのそれぞれに対応させた優位部分のみを取入れるマ
スク画像パターンを用いることで、微細な濃淡変動の欠
陥検査をより精度よく行うことができる。
According to the fourth aspect of the present invention, a mask image pattern is used for each of a plurality of divided inspection areas, in which only the superior portions corresponding to the first to third algorithms are taken. Thus, it is possible to more accurately perform a defect inspection of minute density fluctuation.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明のすき入れ検査装置の一実施の形態を示
すシステム構成図である。
FIG. 1 is a system configuration diagram showing an embodiment of a penetration inspection device of the present invention.

【図2】図1のラインセンサカメラによる画像取込み状
態を示す図である。
FIG. 2 is a diagram showing an image capturing state by the line sensor camera of FIG. 1;

【図3】本発明のすき入れ検査装置の一実施の形態を示
すブロック図である。
FIG. 3 is a block diagram showing one embodiment of a penetration inspection device of the present invention.

【図4】図1のラインセンサカメラによって取込まれる
入力画像の一例を示す図である。
FIG. 4 is a diagram illustrating an example of an input image captured by the line sensor camera of FIG. 1;

【図5】基準パターンの作成手順を示すフローチャート
である。
FIG. 5 is a flowchart showing a procedure for creating a reference pattern.

【図6】基準パターンの作成手順を示す図である。FIG. 6 is a diagram showing a procedure for creating a reference pattern.

【図7】基準パターンの作成における登録手順を示すフ
ローチャートである。
FIG. 7 is a flowchart showing a registration procedure in creating a reference pattern.

【図8】ミクロフィルターの定義を示すフローチャート
である。
FIG. 8 is a flowchart showing the definition of a micro filter.

【図9】ミクロフィルターによる処理画像の一例を示す
図である。
FIG. 9 is a diagram illustrating an example of an image processed by a micro filter.

【図10】ミクロフィルター処理に用いられるマスク画
像の作成手順を示すフローチャートである。
FIG. 10 is a flowchart illustrating a procedure for creating a mask image used for microfilter processing.

【図11】ミクロフィルター処理に用いられるマスク画
像による処理画像の一例を示す図である。
FIG. 11 is a diagram illustrating an example of a processed image based on a mask image used for microfilter processing.

【図12】モホロジー処理のうちのオープニング処理を
説明するための図である。
FIG. 12 is a diagram for explaining an opening process of the morphology process.

【図13】モホロジー処理のうちのクロージング処理を
説明するための図である。
FIG. 13 is a diagram illustrating a closing process in the morphology process.

【図14】モホロジー処理のオープニング処理及びクロ
ージング処理に用いられるマスク画像の作成手順を示す
フローチャートである。
FIG. 14 is a flowchart illustrating a procedure for creating a mask image used in opening and closing processes of the morphology process.

【図15】オープニング処理に用いられるマスク画像の
一例を示す図である。
FIG. 15 is a diagram illustrating an example of a mask image used for an opening process.

【図16】クロージング処理に用いられるマスク画像の
一例を示す図である。
FIG. 16 is a diagram illustrating an example of a mask image used for a closing process.

【図17】オープニング処理及びクロージング処理によ
る処理画像の一例を示す図である。
FIG. 17 is a diagram illustrating an example of a processed image obtained by an opening process and a closing process.

【図18】本発明のすき入れ検査装置の検査全体を説明
するためのフローチャートである。
FIG. 18 is a flowchart for explaining the whole inspection of the penetration inspection device of the present invention.

【図19】正規化相関法による検査手順を説明するため
のフローチャートである。
FIG. 19 is a flowchart for explaining an inspection procedure using a normalized correlation method.

【図20】ミクロフィルターによる検査手順を説明する
ためのフローチャートである。
FIG. 20 is a flowchart illustrating an inspection procedure using a microfilter.

【図21】濃淡モホロジーによる検査手順を説明するた
めのフローチャートである。
FIG. 21 is a flowchart illustrating an inspection procedure based on shading morphology.

【図22】本発明のすき入れ検査装置による検査結果を
示す図である。
FIG. 22 is a diagram showing an inspection result by a penetration inspection device of the present invention.

【図23】本発明のすき入れ検査装置による検査結果を
示す図である。
FIG. 23 is a diagram showing an inspection result by the penetration inspection device of the present invention.

【図24】従来の紙幣の製造工程を説明するための斜視
図である。
FIG. 24 is a perspective view for explaining a conventional banknote manufacturing process.

【符号の説明】[Explanation of symbols]

1 原反ロール 2 印刷用紙 4 プリントマーク 6 すき入れ部位(透かし) 10 光源 11 ラインセンサカメラ 12 マーク検知センサ 13 タイミング制御部 15 ディスプレイ 20 すき入れ検査装置 21 基準パターン格納部 22 マスク画像格納部 23 画像処理検査部 24 正規化相関法処理部 25 ミクロフィルター処理部 26 濃淡モホロジー処理部 REFERENCE SIGNS LIST 1 raw roll 2 printing paper 4 print mark 6 penetrating part (watermark) 10 light source 11 line sensor camera 12 mark detection sensor 13 timing control unit 15 display 20 penetration inspection device 21 reference pattern storage unit 22 mask image storage unit 23 image Processing inspection unit 24 Normalized correlation method processing unit 25 Microfilter processing unit 26 Shading morphology processing unit

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2G051 AA34 AA90 AB20 BA00 CA03 CA04 EA08 EA11 EA14 EA20 EB01 EB02 EC03 EC07 ED01 ED03 ED07 ED14 ED22 FA10 3E041 AA02 BA13 BB02 BC06 CA01 CB02 EA03 5B057 AA11 BA13 CA19 CB19 CC04 CE06 CH09 DA03 DA08 DA16 DC17 DC34  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 2G051 AA34 AA90 AB20 BA00 CA03 CA04 EA08 EA11 EA14 EA20 EB01 EB02 EC03 EC07 ED01 ED03 ED07 ED14 ED22 FA10 3E041 AA02 BA13 BB02 BC06 CA01 CB02 EA11 5B019 CE03 BA09A DA08 DA16 DC17 DC34

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 検査対象となる検査対象透かし画像を撮
像する撮像手段と、 基準となる基準透かし画像の全体パターンを格納する基
準パターン格納部と、 前記全体パターンに基づき、前記検査対象透かし画像の
検査領域を設定するとともに、前記検査対象透かし画像
の画像パターンのコントラストの高い部分の欠陥検査を
行う第1のアルゴリズムと、この第1のアルゴリズムに
よって設定された前記検査領域内の画像パターンの無い
部分及びコントラストの低い部分の欠陥検査を行う第2
のアルゴリズムと、前記第1のアルゴリズムによって設
定された前記検査領域内の画像パターンのコントラスト
の変化が緩やかな部分の欠陥検査を行う第3のアルゴリ
ズムとを有する画像処理検査部とを備え、 前記第1〜3のアルゴリズムによる前記基準透かし画像
と検査対象透かし画像とのマッチングによって、前記検
査対象透かし画像の欠陥が相互補完的に検査されること
を特徴とするすき入れ検査装置。
An imaging unit that captures an inspection target watermark image to be inspected; a reference pattern storage unit that stores an entire pattern of a reference watermark image to be a reference; and a reference pattern storage unit that stores the inspection target watermark image based on the entire pattern. A first algorithm for setting an inspection area and performing a defect inspection of a high-contrast part of the image pattern of the inspection target watermark image, and a part having no image pattern in the inspection area set by the first algorithm And performing a second defect inspection of a low contrast portion
And an image processing inspection unit having a third algorithm for performing a defect inspection on a portion where the contrast of the image pattern in the inspection region set by the first algorithm has a gradual change is changed. A penetration inspection apparatus characterized in that defects of the inspection target watermark image are complementarily inspected by matching the reference watermark image and the inspection target watermark image by the algorithms of 1 to 3.
【請求項2】 前記基準パターン格納部には、前記全体
パターンを分割した複数の分割パターンが格納されてお
り、前記第1のアルゴリズムが前記分割パターンに基づ
き、前記検査対象透かし画像の検査領域を分割設定する
とともに、これら分割設定された領域毎に、前記第1〜
3のアルゴリズムによるマッチングが行われることを特
徴とする請求項1に記載のすき入れ検査装置。
2. The reference pattern storage section stores a plurality of divided patterns obtained by dividing the entire pattern, and the first algorithm determines an inspection area of the inspection target watermark image based on the divided pattern. In addition to the division setting, the first to
2. The penetration inspection device according to claim 1, wherein matching is performed by the algorithm of (3).
【請求項3】 前記全体パターンには、前記第1〜3の
アルゴリズムに対応させて、これらアルゴリズムの相互
に補完すべき優位部分のみを取入れるマスク画像パター
ンが含まれていることを特徴とする請求項1に記載のす
き入れ検査装置。
3. The whole pattern includes a mask image pattern corresponding to the first to third algorithms and incorporating only the mutually superior parts of the algorithms to be complemented. The penetration inspection device according to claim 1.
【請求項4】 前記分割パターンのそれぞれには、前記
第1〜3のアルゴリズムに対応させて、これらアルゴリ
ズムの相互に補完すべき優位部分のみを取入れるマスク
画像パターンが含まれていることを特徴とする請求項2
に記載のすき入れ検査装置。
4. The method according to claim 1, wherein each of the divided patterns includes a mask image pattern corresponding to the first to third algorithms and incorporating only a superior part of the algorithms to be mutually complemented. Claim 2
2. The penetration inspection device according to 1.
JP36221098A 1998-12-21 1998-12-21 Penetration inspection device Expired - Fee Related JP3501967B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP36221098A JP3501967B2 (en) 1998-12-21 1998-12-21 Penetration inspection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP36221098A JP3501967B2 (en) 1998-12-21 1998-12-21 Penetration inspection device

Publications (2)

Publication Number Publication Date
JP2000182114A true JP2000182114A (en) 2000-06-30
JP3501967B2 JP3501967B2 (en) 2004-03-02

Family

ID=18476275

Family Applications (1)

Application Number Title Priority Date Filing Date
JP36221098A Expired - Fee Related JP3501967B2 (en) 1998-12-21 1998-12-21 Penetration inspection device

Country Status (1)

Country Link
JP (1) JP3501967B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002296144A (en) * 2001-03-30 2002-10-09 Seiko Epson Corp Method and apparatus for detecting mark
JP2009278176A (en) * 2008-05-12 2009-11-26 Sumitomo Electric Ind Ltd Method and system for managing paper document electronization data
US7627161B2 (en) 2005-11-28 2009-12-01 Fuji Xerox Co., Ltd. Authenticity determination method, apparatus and program
JP2011500393A (en) * 2007-10-31 2011-01-06 バイエル・マテリアルサイエンス・アクチェンゲゼルシャフト Document security protection using digital watermark information
US8085989B2 (en) * 2008-10-23 2011-12-27 Glory Ltd. Method and apparatus for determining authenticity
JP2020085711A (en) * 2018-11-28 2020-06-04 日立グローバルライフソリューションズ株式会社 Water leakage inspection system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002296144A (en) * 2001-03-30 2002-10-09 Seiko Epson Corp Method and apparatus for detecting mark
US7627161B2 (en) 2005-11-28 2009-12-01 Fuji Xerox Co., Ltd. Authenticity determination method, apparatus and program
JP2011500393A (en) * 2007-10-31 2011-01-06 バイエル・マテリアルサイエンス・アクチェンゲゼルシャフト Document security protection using digital watermark information
US8478080B2 (en) 2007-10-31 2013-07-02 Bayer Material Science Ag Securing of documents by means of digital watermark information
JP2009278176A (en) * 2008-05-12 2009-11-26 Sumitomo Electric Ind Ltd Method and system for managing paper document electronization data
US8085989B2 (en) * 2008-10-23 2011-12-27 Glory Ltd. Method and apparatus for determining authenticity
CN101727696B (en) * 2008-10-23 2012-04-11 光荣株式会社 Method and apparatus for determining authenticity
JP2020085711A (en) * 2018-11-28 2020-06-04 日立グローバルライフソリューションズ株式会社 Water leakage inspection system
JP7075331B2 (en) 2018-11-28 2022-05-25 日立グローバルライフソリューションズ株式会社 Water leak inspection system

Also Published As

Publication number Publication date
JP3501967B2 (en) 2004-03-02

Similar Documents

Publication Publication Date Title
JP4601134B2 (en) Method and apparatus for defect detection based on shape features
WO1998015919A1 (en) Method and apparatus for detecting stripe defects of printed matter
JP2011020455A (en) Method for automatically determining print quality of image printed on deformable carrier
JP2007285754A (en) Flaw detection method and flaw detector
CN107545557A (en) Egg detecting method and device in excrement image
JP2000182114A (en) Watermark inspecting device
JP2020087473A (en) High-speed image distortion correction for image inspection
JP2005165387A (en) Method and device for detecting stripe defective of picture and display device
JP4249966B2 (en) Printed wiring board inspection method and inspection apparatus
JP2005069887A (en) Defect inspection method and apparatus
JP3960127B2 (en) Appearance inspection device
JP3816994B2 (en) Edge region extraction method and apparatus
JP2005283197A (en) Detecting method and system for streak defect of screen
JPWO2002045021A1 (en) Entropy filter and region extraction method using the filter
JP3768216B2 (en) Printed product inspection apparatus and method
JP4975472B2 (en) Color filter defect correcting apparatus and color filter defect correcting method
JP2008118445A (en) Printed matter inspection device and printed matter inspection method
JP4403036B2 (en) Soot detection method and apparatus
JP2004219291A (en) Line defect detection method and device for screen
JP6665903B2 (en) Feature image generation device, inspection device, feature image generation method, and feature image generation program
JPH0735699A (en) Method and apparatus for detecting surface defect
JP2007132858A (en) Flaw detection method, device and computer program
KR100351129B1 (en) System for Examination printing inferior using Circumference Mask
JP2004276476A (en) Printed matter inspecting device, printed matter inspecting method, printed matter inspecting processing program and recording medium having program thereon
JP2002109513A (en) Coating defect detector and mask image preparing method

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20031125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20031203

R150 Certificate of patent or registration of utility model

Ref document number: 3501967

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071212

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081212

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081212

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091212

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091212

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101212

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101212

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111212

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121212

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131212

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131212

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131212

Year of fee payment: 10

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees