JP2006155579A - Image processing method and image processing apparatus - Google Patents

Image processing method and image processing apparatus Download PDF

Info

Publication number
JP2006155579A
JP2006155579A JP2005271249A JP2005271249A JP2006155579A JP 2006155579 A JP2006155579 A JP 2006155579A JP 2005271249 A JP2005271249 A JP 2005271249A JP 2005271249 A JP2005271249 A JP 2005271249A JP 2006155579 A JP2006155579 A JP 2006155579A
Authority
JP
Japan
Prior art keywords
image
pixel
low
original image
pass filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005271249A
Other languages
Japanese (ja)
Other versions
JP4244046B2 (en
Inventor
Shinichi Takarada
真一 宝田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2005271249A priority Critical patent/JP4244046B2/en
Publication of JP2006155579A publication Critical patent/JP2006155579A/en
Application granted granted Critical
Publication of JP4244046B2 publication Critical patent/JP4244046B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an excellent low-pass filter which has the same characteristics in a peripheral region of an image as a center of the image and ensures an average brightness. <P>SOLUTION: Low-pass filtering is applied only to the outermost periphery of an original image to reduce the noise in the outermost periphery of image, thereby preventing errors in extrapolation. Then, an extended region is provided around the image by extrapolation, thereby eliminating the need for border processing in the periphery of the image when performing the final low-pass filtering. Finally, low-pass filtering is applied to the regions where the original image exists. Thus, a filtering effect can be obtained in which the regions nearer to the center of the image and the preripheral regions of the image have the same characteristics. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、撮影した取得画像にローパスフィルタを施す画像処理方法に関するものである。   The present invention relates to an image processing method for applying a low-pass filter to a captured image.

画像にローパスフィルタを施す画像処理方法は、一般的に、注目画素の周辺画素の平均値を求め、これを注目画素の新たな輝度値とするものである。このとき、平均をとる領域を広く取ることにより、強力なローパスフィルタ処理することが可能となり、画像の局所的な特徴が除去されて、マクロな輝度分布を求めることができる。   An image processing method for applying a low-pass filter to an image generally obtains an average value of peripheral pixels of a target pixel and uses this as a new luminance value of the target pixel. At this time, it is possible to perform a powerful low-pass filter process by widening the area for averaging, and it is possible to obtain a macro luminance distribution by removing local features of the image.

従来の画像処理方法は、主にノイズの除去を目的として用いられる。このため、処理対象の画素エッジ成分をできるだけ保持するような、工夫がなされており、周辺画素の平均値を取る際に、相関の高い方向の画素のみを選択するなどの方法がとられている(例えば、特許文献1参照)。
特開2001−61157公報
Conventional image processing methods are mainly used for the purpose of noise removal. For this reason, a device has been devised so as to retain the pixel edge component to be processed as much as possible, and when taking the average value of the surrounding pixels, a method such as selecting only pixels in a direction with high correlation is employed. (For example, refer to Patent Document 1).
JP 2001-61157 A

しかしながら、従来技術では画像周辺部分の処理についての配慮がなされていない。たとえば、注目画素の上下左右3画素の平均値を求めることでローパスフィルタ処理する際には、注目画素を中心とした7×7画素の平均値を求める必要がある。しかし、注目画素が画像の右端に位置している場合、その左側には画素は存在しない。このため、一般的な手法では、画像の周囲3画素の領域については、元の輝度値をそのまま用いる場合や、又は、画素画存在する部分のみについての平均値により新たな輝度値を求める、などの手法を用いる。   However, the conventional technology does not give consideration to the processing of the peripheral portion of the image. For example, when low pass filter processing is performed by obtaining an average value of three pixels above, below, left, and right of the target pixel, it is necessary to determine an average value of 7 × 7 pixels centered on the target pixel. However, when the target pixel is located at the right end of the image, there is no pixel on the left side. For this reason, in a general method, for the area of three pixels around the image, the original luminance value is used as it is, or a new luminance value is obtained by an average value only for the portion where the pixel image exists, etc. This method is used.

元の輝度値をそのまま用いる場合は、当然のことながら、その画素部分ではローパスフィルタ処理されていないという問題がある。また、画素が存在する部分のみについての平均値により新たな輝度値を求める場合には、場所によりローパスフィルタの強度が異なるという問題のほか、輝度レベルがずれるといった問題が生じる。輝度レベルがずれる理由は、例えば画像の輝度が左から右にかけて高くなっているような場合、注目画素を画像の右端とした時には、注目画素とその左に位置する画素の平均(注目画素以下の輝度値をもつ画素のみによる平均値)により新たな輝度を求めることとなり、その結果、本来のこの位置の輝度値よりも低い値を持つからである。   When the original luminance value is used as it is, there is a problem that the pixel portion is not subjected to low-pass filter processing. In addition, when a new luminance value is obtained based on an average value for only a portion where pixels are present, there is a problem that the luminance level is shifted in addition to the problem that the strength of the low-pass filter varies depending on the location. The reason why the brightness level is shifted is that, for example, when the brightness of the image increases from left to right, when the target pixel is the right end of the image, the average of the target pixel and the pixel located on the left (the pixel below the target pixel) This is because a new luminance is obtained from an average value of only pixels having luminance values), and as a result, has a value lower than the original luminance value at this position.

本発明は、前記従来の課題を解決するもので、周辺画素についても平均輝度を保証した好適なローパスフィルタ処理を施すことのできる画像処理方法および画像処理装置を提供することを目的とする。   SUMMARY OF THE INVENTION The present invention solves the above-described conventional problems, and an object thereof is to provide an image processing method and an image processing apparatus capable of performing a suitable low-pass filter process in which the average luminance is guaranteed for peripheral pixels.

本発明の請求項1記載の画像処理方法は、画像を多階調の輝度を持つ画素の2次元データとして扱うに際し、元画像の最外周画素または最外周付近の画素に少なくともローパスフィルタ処理するステップと、前記元画像の領域を拡張するとともに、前記ローパスフィルタをかけた範囲内に含まれる画素を折り返し点として外挿することにより拡張した領域の輝度を求めるステップと、前記拡張した領域を含めて元画像の領域にローパスフィルタ処理するステップとを有することを特徴とする。   In the image processing method according to claim 1 of the present invention, when the image is handled as two-dimensional data of pixels having multi-tone luminance, at least low-pass filter processing is performed on the outermost peripheral pixel of the original image or the pixels near the outermost periphery. And expanding the area of the original image and obtaining the luminance of the expanded area by extrapolating pixels included in the low-pass filtered range as a turning point, and including the expanded area And a step of performing low-pass filter processing on the area of the original image.

本発明の請求項2記載の画像処理方法は、請求項1において、元画像の最外周画素または最外周付近の画素に少なくともローパスフィルタ処理する前記ステップでは、前記元画像の最外郭画素に対して一次元的なローパスフィルタ処理することを特徴とする。   The image processing method according to claim 2 of the present invention is the image processing method according to claim 1, wherein at least the low-pass filter processing is performed on the outermost peripheral pixel of the original image or a pixel near the outermost periphery, the outermost pixel of the original image It is characterized by one-dimensional low-pass filter processing.

本発明の請求項3記載の画像処理方法は、請求項1において、元画像の最外周画素または最外周付近の画素に少なくともローパスフィルタ処理する前記ステップでは、外挿する方向に対して垂直方向に位置する画素を用いてローパスフィルタ処理することを特徴とする。   According to a third aspect of the present invention, in the image processing method according to the first aspect, in the step of performing at least a low-pass filter process on the outermost peripheral pixel of the original image or a pixel in the vicinity of the outermost periphery, the direction is perpendicular to the extrapolating direction. A low-pass filter process is performed using the pixel located.

本発明の請求項4記載の画像処理方法は、請求項1において、前記画像の領域を拡張する拡張範囲は、前記拡張した領域を含めて元画像の領域にローパスフィルタ処理する程度に応じて決定することを特徴とする。   The image processing method according to a fourth aspect of the present invention is the image processing method according to the first aspect, wherein the expansion range for expanding the region of the image is determined according to the degree of low pass filter processing to the region of the original image including the expanded region. It is characterized by doing.

本発明の請求項5記載の画像処理方法は、請求項4において、前記拡張した領域を含めて元画像の領域にローパスフィルタ処理する演算に必要な周囲画素領域の大きさが縦A×横Bの大きさを持つとき、前記元画像に対して、縦をA画素、横をB画素だけ拡張することを特徴とする。   The image processing method according to claim 5 of the present invention is the image processing method according to claim 4, wherein the size of the surrounding pixel area required for the low-pass filter processing for the area of the original image including the expanded area is vertical A × horizontal B. When the size of the original image is extended, the original image is expanded by A pixels in the vertical direction and B pixels in the horizontal direction.

本発明の請求項6記載の画像処理方法は、請求項1において、請求項1記載の画像処理方法によって得られた第1の処理画像と、元画像との差分を求めて第2の処理画像を得るステップをさらに備えたことを特徴とする。   An image processing method according to a sixth aspect of the present invention is the second processed image according to the first aspect, wherein a difference between the first processed image obtained by the image processing method according to the first aspect and the original image is obtained. Further comprising the step of obtaining

本発明の請求項7記載の画像処理方法は、請求項6において、前記第2の処理画像を2値化処理して前記元画像に含まれる欠陥部分を検出することを特徴とする。
本発明の請求項8記載の画像処理装置は、検査対象カメラによって検査に用いる平面板を撮影した元画像を平均化処理して前記元画像の輝度分布に極めて近い第1の処理画像を検出する画像処理部と、前記第1の処理画像と元画像との差分の第2の処理画像を検出する減算器と、前記第2の処理画像を2値化した結果画像を検出する2値化回路と、前記結果画像と品質許容基準と照らし合わせて検査対象カメラの品質の合否を判定する判定回路とを設けたことを特徴とする。
The image processing method according to claim 7 of the present invention is characterized in that, in claim 6, the second processed image is binarized to detect a defective portion included in the original image.
The image processing apparatus according to claim 8 of the present invention detects the first processed image that is very close to the luminance distribution of the original image by averaging the original image obtained by photographing the flat plate used for the inspection by the inspection target camera. An image processing unit; a subtractor that detects a second processed image that is a difference between the first processed image and the original image; and a binarization circuit that detects a result image obtained by binarizing the second processed image. And a determination circuit for determining whether or not the quality of the inspection target camera is acceptable in comparison with the result image and a quality acceptance standard.

本発明の請求項9記載の画像処理方法は、検査対象カメラによって検査に用いる平面板を撮影した元画像の最外周画素または最外周付近の画素に少なくともローパスフィルタ処理して前記元画像の輝度分布に極めて近い第1の処理画像P1を検出するステップと、第1の処理画像と元画像との画素毎の差分の第2の処理画像を検出するステップと、前記第2の処理画像に対してメディアンフィルタ処理して更に2値化した結果画像を検出するステップと、前記結果画像に含まれる欠陥画素の総数のカウント値と品質基準の欠陥画素数とを比較し不良/良品を判定するステップとを備えたことを特徴とする。   In the image processing method according to claim 9 of the present invention, the luminance distribution of the original image is obtained by performing at least a low-pass filter process on the outermost peripheral pixel or the pixels in the vicinity of the outermost periphery of the original image obtained by photographing the flat plate used for inspection by the inspection target camera. Detecting a first processed image P1 that is very close to the first processed image, detecting a second processed image having a pixel-by-pixel difference between the first processed image and the original image, and for the second processed image A step of detecting a result image further binarized by median filtering; a step of comparing the count value of the total number of defective pixels included in the result image with the number of defective pixels of quality standards to determine a defective / non-defective product; It is provided with.

本発明の請求項10記載の画像処理方法は、画像を多階調の輝度を持つ画素の2次元データとして扱う画像処理に際し、前記元画像の最外周画素または最外周付近の画素に少なくともローパスフィルタ処理するステップと、前記元画像の領域を拡張するとともに、前記ローパスフィルタ処理した範囲内に含まれる画素を折り返し点として外挿することにより拡張した領域の輝度を求めた第1の処理画像を求めるステップと、前記第1の処理画像にローパスフィルタ処理した第2の処理画像を求めるステップと、前記第2の処理画像と前記元画像を対応する画素毎に比較して前記画素毎に求めた差が予め与えた閾値よりも小さな値となる位置における第1の処理画像の画素のみを用いてローパスフィルタ処理した画像を生成するステップとを備えたことを特徴とする。   In the image processing method according to claim 10 of the present invention, at the time of image processing in which an image is handled as two-dimensional data of pixels having multi-tone luminance, at least a low-pass filter is applied to the outermost peripheral pixel or the outermost peripheral pixel of the original image. A first processing image obtained by calculating the luminance of the expanded region by extending the region of the original image and extrapolating a pixel included in the low-pass filtered region as a turning point A step of obtaining a second processed image obtained by subjecting the first processed image to low pass filter processing, and a difference obtained for each pixel by comparing the second processed image and the original image for each corresponding pixel. Generating a low-pass filtered image using only the pixels of the first processed image at a position where is a value smaller than a predetermined threshold value. Characterized in that was.

本発明の請求項11記載の画像処理方法は、請求項1において、前記元画像の前記画素毎に求めた差が予め与えた閾値よりも小さな値となる位置における第1の処理画像の画素のみを用いてローパスフィルタ処理した画像を生成するステップが出力する画像をキャリブレーション画像とし、該キャリブレーション画像を用いて前記元画像とは別の補正対象画像を補正するステップをさらに備えたことを特徴とする。   The image processing method according to an eleventh aspect of the present invention is the image processing method according to the first aspect, wherein only the pixel of the first processed image at a position where the difference obtained for each pixel of the original image is smaller than a predetermined threshold value. And a step of generating a low-pass filtered image using an image as a calibration image, and further using the calibration image to correct a correction target image different from the original image. And

本発明の請求項12記載の画像処理方法は、請求項11において、前記元画像以外の画像とキャリブレーション画像を画素毎に除算して前記元画像とは別の画像を補正することを特徴とする。   The image processing method according to claim 12 of the present invention is characterized in that in claim 11, an image other than the original image and a calibration image are divided for each pixel to correct an image different from the original image. To do.

本発明の請求項13記載の画像処理方法は、元画像の最外周画素または最外周付近の画素に少なくともローパスフィルタ処理するステップと、前記元画像の領域を拡張するとともに、前記ローパスフィルタをかけた範囲内に含まれる画素を折り返し点として外挿することにより拡張した領域の輝度を求めた第1の処理画像を求めるステップと、前記第1の処理画像にローパスフィルタ処理して第2の処理画像を求めるステップと、前記第2の処理画像と元画像を画素毎に比較して予め与えた閾値以上に違いのある画素を用いないようにして前記第1の処理画像に対して再度ローパスフィルタ処理するステップとを備えたことを特徴とする。   The image processing method according to claim 13 of the present invention includes a step of performing at least a low-pass filter process on the outermost peripheral pixel of the original image or a pixel in the vicinity of the outermost periphery, expanding the area of the original image, and applying the low-pass filter. A step of obtaining a first processed image obtained by obtaining the luminance of the expanded area by extrapolating a pixel included in the range as a turning point; and a second processed image obtained by low-pass filtering the first processed image And the second processed image and the original image are compared for each pixel, and the low-pass filter processing is performed again on the first processed image without using a pixel that is different from a predetermined threshold value or more. And a step of performing.

本発明の請求項14記載の画像処理方法は、請求項13において、前記第2の処理画像と元画像を画素毎に比較して予め与えた閾値以上に違いのある画素を用いないようにして前記第1の処理画像に対して再度ローパスフィルタ処理するステップを、前記第2の処理画像と元の画素の輝度を画素毎に比較して輝度値が規定値以上違う場合にはその対応画素にマーキングするステップと、前記マーキングした画素を注目画素とし、その注目画素の近傍に位置するローパスフィルタに用いる画素の値を調べて平均演算に利用する処理を行い注目画素の新たな輝度値にするステップとで構成したことを特徴とする。   An image processing method according to a fourteenth aspect of the present invention is the image processing method according to the thirteenth aspect, wherein the second processed image and the original image are compared for each pixel so as not to use a pixel that is different from a predetermined threshold value or more. When the low-pass filter processing is performed again on the first processed image, the luminance of the original pixel is compared with the second processed image for each pixel. A step of marking and a step of setting the marked pixel as a target pixel, examining a value of a pixel used for a low-pass filter located in the vicinity of the target pixel, and performing a process used for an average calculation to obtain a new luminance value of the target pixel It is characterized by comprising.

本発明の画像処理方法によれば、画像の周辺近傍画素についても平均輝度を保証した好適なローパスフィルタ結果をもたらすことができる。
また、本発明の画像処理方法を用いた画像処理装置によれば、画像周辺部分においても誤動作なく欠陥を検出できるカメラの検査装置を実現することができ、また、正確に画像の輝度むらを除去した蛍光顕微鏡を実現することができる。
According to the image processing method of the present invention, it is possible to bring about a preferable low-pass filter result that guarantees the average luminance for pixels near the image.
In addition, according to the image processing apparatus using the image processing method of the present invention, it is possible to realize a camera inspection apparatus that can detect a defect without malfunction even in a peripheral portion of the image, and to accurately remove unevenness in luminance of the image. The fluorescence microscope can be realized.

以下、本発明の画像処理方法を具体的な実施の形態に基づいて説明する。
(実施例1)
図1〜図4は本発明の(実施例1)を示す。
The image processing method of the present invention will be described below based on specific embodiments.
Example 1
1 to 4 show (Embodiment 1) of the present invention.

図1は、本発明の実施例1における画像処理方法の処理フローを示す。
ステップ101では、対象となっている元画像P0の最外周に位置する画素にのみローパスフィルタ処理する。
FIG. 1 shows a processing flow of an image processing method in Embodiment 1 of the present invention.
In step 101, only a pixel located on the outermost periphery of the target original image P0 is subjected to low-pass filter processing.

ステップ102では、外挿を行い、元の画像より一回り大きな画像を作成する。
ステップ103では、元画像全体にローパスフィルタ処理して目的とするローパス画像を作成する。
In step 102, extrapolation is performed to create an image that is slightly larger than the original image.
In step 103, a low-pass filter process is performed on the entire original image to create a target low-pass image.

次に、上記の手順をより具体的な例を用いて説明する。
図2は元画像およびステップ101の処理後の各画素を示したイメージ図である。図2において、201は元画像で、各画素が0〜255の256階調の輝度値を持つ白黒画像である。説明を簡単にするために、横9画素×縦7画素の大きさを持つものとする。そして、各画素における輝度値を、A(x,y)で表すものとする。
Next, the above procedure will be described using a more specific example.
FIG. 2 is an image diagram showing the original image and each pixel after the processing in step 101. In FIG. 2, reference numeral 201 denotes an original image, which is a black and white image in which each pixel has 256 gradation luminance values of 0 to 255. In order to simplify the description, it is assumed that it has a size of 9 horizontal pixels × 7 vertical pixels. The luminance value at each pixel is represented by A (x, y).

まず、この元画像201に対して、ステップ101においてその最外周に位置する画素にのみローパスフィルタ処理の手順について示す。
ここでは、網掛けして示した画素のみにローパスフィルタ処理する。まず、A(1,0)〜A(7,0)については横方向にローパスフィルタ処理する。横方向のローパスフィルタとしては、基本的には注目画素A(x,y)を中心とした5画素の元画像のままの輝度値の平均を求め、これを注目画素の新たな輝度値B(x,y)とするものである。例えば、A(4,0)を注目画素としたとき、
( A(2,0)+A(3,0)+A(4,0)+A(5,0)+A(6,0) ) / 5
を求め、これを新たな輝度値B(4,0)とする。注目画素をA(1,0)とした場合、A(1,0)については、2つ左側の画素が存在しないため、存在しない部分の画素はローパスフィルタ演算の対象外とし、
( A(0,0)+A(1,0)+A(2,0)+A(3,0) ) / 4
を新たな輝度値B(1,0)とする。同様に、注目画素をA(7,0)とした場合には、 ( A(5,0)+A(6,0)+A(7,0)+A(8,0) ) / 4
を新たな輝度値B(7,0)とする。A(1,6)〜A(7,6)についても全く同様の方法で、横方向にローパスフィルタ処理する。
First, with respect to this original image 201, the procedure of the low-pass filter processing is shown only for the pixels located at the outermost periphery in step 101.
Here, only the pixels shown by shading are subjected to low-pass filter processing. First, A (1,0) to A (7,0) are low-pass filtered in the horizontal direction. As the low-pass filter in the horizontal direction, basically, an average of the luminance values of the original image of five pixels centered on the target pixel A (x, y) is obtained, and this is used as a new luminance value B ( x, y). For example, when A (4, 0) is the target pixel,
(A (2,0) + A (3,0) + A (4,0) + A (5,0) + A (6,0)) / 5
Is determined as a new luminance value B (4, 0). When the pixel of interest is A (1, 0), there is no pixel on the left side for A (1, 0), and therefore the pixel that does not exist is excluded from the low-pass filter calculation.
(A (0,0) + A (1,0) + A (2,0) + A (3,0)) / 4
Is a new luminance value B (1, 0). Similarly, if the pixel of interest is A (7,0), (A (5,0) + A (6,0) + A (7,0) + A (8,0)) / 4
Is a new luminance value B (7, 0). A (1, 6) to A (7, 6) are also subjected to a low-pass filter process in the horizontal direction in the same manner.

A(0,1)〜A(0,5)については縦方向にローパスフィルタ処理する。縦方向のローパスフィルタとしては、基本的には注目画素A(x,y)を中心とした5画素の元画像のままの輝度値の平均を求め、これを注目画素の新たな輝度値B(x,y)とするものである。例えば、A(0,2)を注目画素としたときには、
( A(0,0)+A(0,1)+A(0,2)+A(0,3)+A(0,4) ) / 5
を求め、これを新たな輝度値B(0,2)とする。注目画素をA(0,1)とした場合、A(0,1)については、2つ上側の画素が存在しないため、存在しない部分の画素はローパスフィルタ演算の対象外とし、
( A(0,0)+A(0,1)+A(0,2)+A(0,3) ) / 4
を新たな輝度値B(0,1)とする。A(8,1)〜A(8,5)についても全く同様の方法で、縦方向にローパスフィルタ処理する。
A (0,1) to A (0,5) are low-pass filtered in the vertical direction. As the low-pass filter in the vertical direction, basically, an average of the luminance values of the original image of five pixels centered on the target pixel A (x, y) is obtained, and this is used as a new luminance value B ( x, y). For example, when A (0,2) is the target pixel,
(A (0,0) + A (0,1) + A (0,2) + A (0,3) + A (0,4)) / 5
Is determined as a new luminance value B (0, 2). When the pixel of interest is A (0,1), since there is no upper pixel for A (0,1), the pixel that does not exist is excluded from the low-pass filter calculation.
(A (0,0) + A (0,1) + A (0,2) + A (0,3)) / 4
Is a new luminance value B (0, 1). A (8, 1) to A (8, 5) are also subjected to a low-pass filter process in the vertical direction in the same manner.

A(0,0)、A(8,0)、A(0,6)およびA(8,6)を注目画素とした場合については、これらは角に位置するものであることから、縦と横方向のローパスフィルタ処理する。したがって、A(0,0)を注目画素としたとき、
( A(0,0)+A(1,0)+A(2,0)+A(0,1)+A(0,2) ) / 5
を求め、これを新たな輝度値B(0,0)とし、A(8,0)を注目画素としたとき、
( A(6,0)+A(7,0)+A(8,0)+A(8,1)+A(8,2) ) / 5
を求め、これを新たな輝度値B(8,0)とする。A(0,6)、A(8,6)についても同様の方法を用いる。
In the case where A (0,0), A (8,0), A (0,6) and A (8,6) are the target pixels, these are located at the corners. Performs low-pass filtering in the horizontal direction. Therefore, when A (0,0) is the target pixel,
(A (0,0) + A (1,0) + A (2,0) + A (0,1) + A (0,2)) / 5
Is determined as a new luminance value B (0, 0), and A (8, 0) is the target pixel.
(A (6,0) + A (7,0) + A (8,0) + A (8,1) + A (8,2)) / 5
Is determined as a new luminance value B (8, 0). The same method is used for A (0,6) and A (8,6).

以上の動作により、最外周に位置する画素にのみローパスフィルタ処理を施した画像202を得る。
以上の説明において、ローパスフィルタは、注目画素を中心とした5画素の輝度平均を用いたが、より多くの画素の平均によるローパスフィルタでも良いし、また、位置に応じた加重平均によるローパスフィルタでも同様の効果を得ることができる。
With the above operation, an image 202 is obtained in which only the pixels located on the outermost periphery are subjected to low-pass filter processing.
In the above description, the luminance average of five pixels centered on the pixel of interest is used as the low-pass filter. Similar effects can be obtained.

次に、図3を用いてステップ102の処理の詳細について説明を行う。
図3はステップ102の処理を行う際の、画像の各画素を示したイメージ図である。301はステップ102の処理により作られる画像で、その中で白い部分がステップ101の処理により作られた部分(最外周に位置する画素にのみローパスフィルタ処理を施した画像202)であり、網掛けして示した部分がステップ102の処理により新たに作られる画素である。
Next, details of the processing in step 102 will be described with reference to FIG.
FIG. 3 is an image diagram showing each pixel of the image when the process of step 102 is performed. Reference numeral 301 denotes an image created by the process of step 102, in which a white part is a part created by the process of step 101 (image 202 in which only a pixel located at the outermost periphery is subjected to low-pass filter processing). The portion shown in the figure is a pixel newly created by the processing in step 102.

すなわち、白い部分が元画像と同じ大きさを持ち、網掛けして示した部分が拡張された部分である。白い部分において、A(x,y)であらわされる部分は元画像と同じ輝度値であり、B(x,y)であらわされる部分はステップ101の処理により新たな値となった輝度値である。拡張される領域の幅は、ステップ103に用いるローパスフィルタが必要とする領域に応じて決まる。   That is, the white portion has the same size as the original image, and the shaded portion is an expanded portion. In the white portion, the portion represented by A (x, y) has the same luminance value as that of the original image, and the portion represented by B (x, y) is the luminance value that has become a new value by the processing in step 101. . The width of the area to be expanded is determined according to the area required for the low-pass filter used in step 103.

ここではステップ103で用いるローパスフィルタは、注目画素を中心として5×5の画素領域の平均を求め、これを注目画素の新たな輝度値とする。このため、例えばB(0,0)の位置の処理結果を精度よく求めるためには、上2画素と左2画素の輝度値を必要とするため、本実施例においては元画像に対して周囲2画素分の領域を拡張する。拡張された領域の輝度値は外挿により求める。   Here, the low-pass filter used in step 103 obtains the average of 5 × 5 pixel areas centered on the target pixel, and sets this as a new luminance value of the target pixel. For this reason, for example, in order to obtain the processing result at the position of B (0, 0) with high accuracy, the luminance values of the upper two pixels and the left two pixels are required. The area for two pixels is expanded. The luminance value of the expanded area is obtained by extrapolation.

まず、画像の上辺および下辺の拡張領域の輝度値の求め方について詳細に説明する。
例えば、C(0,−1)の輝度値は、“2*B(0,0)−B(0,1)”により求め、C(8,−1)の輝度値は、“2*B(8,0)−B(8,1)”により求める。また、C(1,−1)の輝度値は、“2*B(1,0)−A(1,1)”により求め、同様の方法により、C(2,−1)〜C(7,−1)の各値を求めることができる。また、C(0,−2)の輝度値は、“2*B(0,0)−B(0,2)”により求め、C(8,−2)の輝度値は、“2*B(8,0)−B(8,2)”により求める。また、C(1,−2)の輝度値は、“2*B(1,0)−A(1,2)”により求める。同様にC(2,−2)〜C(7,−2)の各値を求めることができる。
First, a detailed description will be given of how to obtain the luminance values of the extended areas on the upper and lower sides of the image.
For example, the luminance value of C (0, −1) is obtained by “2 * B (0, 0) −B (0, 1)”, and the luminance value of C (8, −1) is “2 * B (8,0) -B (8,1) ". Further, the luminance value of C (1, −1) is obtained by “2 * B (1, 0) −A (1, 1)”, and C (2, −1) to C (7) are obtained by the same method. , -1) can be obtained. Further, the luminance value of C (0, -2) is obtained by “2 * B (0,0) −B (0,2)”, and the luminance value of C (8, −2) is “2 * B (8,0) -B (8,2) ". Further, the luminance value of C (1, −2) is obtained by “2 * B (1,0) −A (1,2)”. Similarly, each value of C (2, -2) to C (7, -2) can be obtained.

さらに、C(0,7)の輝度値は、“2*B(0,6)−B(0,5)”により求め、C(8,7)の輝度値は、“2*B(8,6)−B(8,5)”により求める。また、C(1,7)の輝度値は、“2*B(1,6)−A(1,5)”により求め、同様の方法により、C(1,7)〜C(7,7)の各値を求めることができる。また、C(0,8)の輝度値は、“2*B(0,6)−B(0,4)”により求め、C(8,8)の輝度値は、“2*B(8,6)−B(8,4)”により求める。また、C(1,8)の輝度値は、“2*B(1,6)−A(1,4)”により求める。同様にC(2,8)〜C(7,8)の各値を求めることができる。   Further, the luminance value of C (0,7) is obtained by “2 * B (0,6) −B (0,5)”, and the luminance value of C (8,7) is “2 * B (8 , 6) -B (8, 5) ". The luminance value of C (1,7) is obtained by “2 * B (1,6) −A (1,5)”, and C (1,7) to C (7,7) is obtained in the same manner. ) Can be obtained. The luminance value of C (0,8) is obtained by “2 * B (0,6) −B (0,4)”, and the luminance value of C (8,8) is “2 * B (8 , 6) -B (8, 4) ". Further, the luminance value of C (1,8) is obtained by “2 * B (1,6) −A (1,4)”. Similarly, each value of C (2,8) to C (7,8) can be obtained.

次に、画像の左辺および右辺の拡張領域の輝度値の求め方について詳細説明する。
例えば、C(−1,0)の輝度値は、“2*B(0,0)−B(1,0)”により求め、C(−1,6)の輝度値は、“2*B(0,6)−B(1,6)”により求める。また、C(−1,1)の輝度値は、“2*B(0,1)−A(1,1)”により求め、同様の方法により、C(−1,2)〜C(−1,5)の各値を求めることができる。
Next, how to determine the luminance values of the extended areas on the left side and the right side of the image will be described in detail.
For example, the luminance value of C (−1, 0) is obtained by “2 * B (0, 0) −B (1, 0)”, and the luminance value of C (−1, 6) is “2 * B (0,6) -B (1,6) ". Further, the luminance value of C (−1, 1) is obtained by “2 * B (0, 1) −A (1, 1)”, and C (−1, 2) to C (−) is obtained by the same method. Each value of 1,5) can be obtained.

また、元画像の上下の拡張領域はすでに求められているため、C(−1,−2)はC(0,−2)とC(1,−2)を用いて同様の方法により求めることができる。また、C(−1,−1)、C(−1,7)、C(−1,8)についても同様の方法により求めることができる。次に、C(−2,0)の輝度値は、“2*B(0,0)−B(2,0)”により求め、C(−2,6)の輝度値は、“2*B(0,6)−B(2,6)”により求める。また、C(−2,1)の輝度値は、“2*B(0,1)−A(1,2)”により求め、同様の方法により、C(−2,2)〜C(−2,5)の各値を求めることができる。   In addition, since the upper and lower extended regions of the original image have already been obtained, C (−1, −2) is obtained by the same method using C (0, −2) and C (1, −2). Can do. Further, C (-1, -1), C (-1, 7), and C (-1, 8) can be obtained by the same method. Next, the luminance value of C (−2,0) is obtained by “2 * B (0,0) −B (2,0)”, and the luminance value of C (−2,6) is “2 * B”. B (0,6) -B (2,6) ". Further, the luminance value of C (−2,1) is obtained by “2 * B (0,1) −A (1,2)”, and C (−2,2) to C (−) is obtained by the same method. 2 and 5) can be obtained.

また、元画像の上下の拡張領域はすでに求められているため、C(−2,−2)はC(0,−2)とC(2,−2)を用いて同様の方法により求めることができる。また、C(−2,−1)、C(−2,7)、C(−2,8)についても同様の方法により求めることができる。   In addition, since the upper and lower extended regions of the original image have already been obtained, C (−2, −2) is obtained by the same method using C (0, −2) and C (2, −2). Can do. Further, C (−2, −1), C (−2, 7), and C (−2, 8) can be obtained by the same method.

さらに、C(9,0)の輝度値は、“2*B(8,0)−B(7,0)”により求め、C(9,6)の輝度値は、“2*B(8,6)−B(7,6)”により求める。また、C(9,1)の輝度値は、“2*B(8,1)−A(7,1)”により求め、同様の方法により、C(9,2)〜C(9,5)の各値を求めることができる。また、元画像の上下の拡張領域はすでに求められているため、C(9,−2)はC(8,−2)とC(7,−2)を用いて同様の方法により求めることができる。また、C(9,−1)、C(9,7)、C(9,8)についても同様の方法により求めることができる。   Further, the luminance value of C (9,0) is obtained by “2 * B (8,0) −B (7,0)”, and the luminance value of C (9,6) is “2 * B (8 , 6) -B (7, 6) ". The luminance value of C (9,1) is obtained by “2 * B (8,1) −A (7,1)”, and C (9,2) to C (9,5) are obtained in the same manner. ) Can be obtained. In addition, since the upper and lower extended regions of the original image have already been obtained, C (9, -2) can be obtained by the same method using C (8, -2) and C (7, -2). it can. Further, C (9, -1), C (9, 7), and C (9, 8) can be obtained by the same method.

次に、C(10,0)の輝度値は、“2*B(8,0)−B(6,0)”により求め、C(10,6)の輝度値は、“2*B(8,6)−B(6,6)”により求める。また、C(10,1)の輝度値は“2*B(8,1)−A(6,1)”により求め、同様の方法により、C(10,2)〜C(10,5)の各値を求めることができる。また、元画像の上下の拡張領域はすでに求められているため、C(10,−2)はC(8,−2)とC(6,−2)を用いて同様の方法により求めることができる。また、C(10,−1)、C(10,7)、C(10,8)についても同様の方法により求めることができる。以上により、画像301のすべての画素の輝度値を求めることができた。   Next, the luminance value of C (10,0) is obtained by “2 * B (8,0) −B (6,0)”, and the luminance value of C (10,6) is “2 * B ( 8,6) -B (6,6) ". The luminance value of C (10,1) is obtained by “2 * B (8,1) −A (6,1)”, and C (10,2) to C (10,5) is obtained in the same manner. Each value of can be obtained. Since the upper and lower extended regions of the original image have already been obtained, C (10, -2) can be obtained by the same method using C (8, -2) and C (6, -2). it can. Further, C (10, -1), C (10, 7), and C (10, 8) can be obtained by the same method. As described above, the luminance values of all the pixels of the image 301 can be obtained.

最後に、ステップ103における処理について説明を行う。
最終的な処理後画像が必要な領域は元画像の領域のみであるため、ここでは図3の白い部分のみについて演算を行う。先述のように、ステップ103で行うローパスフィルタは、注目画素を中心として5×5の画素領域の平均を求め、これを注目画素の新たな輝度値とするものである。したがって、図3において、B(0,0)の画素位置における処理後の輝度値は、これを中心とする5×5の画素領域の平均であるため、
( C(-2,-2)+C(-1,-2)+C(0,-2)+C(1,-2)+C(2,-2)+C(-2,-1)+C(-1,-1)+C(0,-1)+
C(1,-1)+C(2,-1)+C(-2,0)+C(-1,0)+B(0,0)+B(1,0)+B(2,0)+C(-2,1)+C(-1,1)+B(0,1)+B(1,1)+B(2,1)+C(-2,2)+C(-1,2)+B(0,2)+B(1,2)+B(2,2) ) / 25
により求められる。以下、図3の白い部分の全てに対して同様に処理を行い、目的とする処理画像を得る。ここでは、ローパスフィルタの例として、5×5の画素領域の平均を用いる場合を示したが、ローパスフィルタの範囲を別の大きさとした場合でも、また、加重平均を用いるなどの別の手段を用いた場合であっても同様の効果を得ることができる。
Finally, the process in step 103 will be described.
Since only the area of the original image is necessary for the final processed image, only the white part in FIG. 3 is calculated here. As described above, the low-pass filter performed in step 103 obtains the average of 5 × 5 pixel areas centered on the target pixel, and sets this as a new luminance value of the target pixel. Therefore, in FIG. 3, the processed luminance value at the pixel position of B (0,0) is an average of a 5 × 5 pixel area centered on this,
(C (-2, -2) + C (-1, -2) + C (0, -2) + C (1, -2) + C (2, -2) + C (-2, -1) + C (-1 , -1) + C (0, -1) +
C (1, -1) + C (2, -1) + C (-2,0) + C (-1,0) + B (0,0) + B (1,0) + B (2,0) + C (-2 , 1) + C (-1,1) + B (0,1) + B (1,1) + B (2,1) + C (-2,2) + C (-1,2) + B (0,2) + B ( 1,2) + B (2,2)) / 25
Is required. Thereafter, the same processing is performed on all the white portions in FIG. 3 to obtain a target processed image. Here, as an example of the low-pass filter, the case where the average of the 5 × 5 pixel region is used is shown, but even when the range of the low-pass filter is different, another means such as using a weighted average is used. Even if it is used, the same effect can be obtained.

ここでステップ102の処理により、元画像の周囲に画素が作られていることから、ステップ103の処理においては、端の部分に特化した例外処理を行う必要は無く、中央部分と端の部分とで同様の処理をすることができる。このときの効果について、図4を用いて説明する。   Here, since the pixel is created around the original image by the process of step 102, it is not necessary to perform exception processing specialized for the end part in the process of step 103, and the center part and the end part The same processing can be performed. The effect at this time will be described with reference to FIG.

ここでは、元画像の輝度が左から右にかけて高くなっているような場合を想定して説明するが、説明を簡単にするため、画像の上下方向は一様な輝度を持つものとし、横方向の処理に限定して一次元的に説明する。   Here, the description assumes that the luminance of the original image increases from left to right, but for the sake of simplicity, the vertical direction of the image is assumed to have uniform luminance, and the horizontal direction This will be described in a one-dimensional manner limited to this process.

図4(a)は図2の元画像より上から3行目の画素を1行分抜き出し、その輝度値を高さで表現したもので、401〜409はA(0,2)〜A(8,2)の輝度値を高さで示している。図からわかるように、右に行くに従って輝度が高くなっている。従来のローパスフィルタでは、注目画素を中心とした5画素分の平均値を処理結果とするが、A(8,2)位置においては、右側の画素が存在しないため、輝度値407〜409の3画素の平均値を求める。図からわかるように、この結果は輝度値408の高さとほぼ等しくなり、本来の輝度値409の高さよりも低くなる。   FIG. 4A shows one row of pixels in the third row from the top of the original image in FIG. 2 and expresses the luminance value by height. 401 to 409 are A (0,2) to A ( The brightness value of 8, 2) is indicated by height. As can be seen from the figure, the brightness increases as going to the right. In the conventional low-pass filter, the average value of five pixels centered on the target pixel is used as the processing result. However, since there is no right pixel at the A (8,2) position, the luminance values 407 to 409 are 3. The average value of pixels is obtained. As can be seen from the figure, this result is almost equal to the height of the luminance value 408 and is lower than the original luminance value 409.

一方、本発明により画像処理した場合の例を図4(b)に示す。
図4(b)は図3の画像より上から5行目の画素を1行分抜き出し、その輝度値を高さで表現したもので、401〜408はA(0,2)〜A(7,2)を、410はB(8,2)を、411〜412はC(9,2)〜C(10,2)の輝度値を高さで示している。
On the other hand, FIG. 4B shows an example of image processing according to the present invention.
FIG. 4B is a diagram in which pixels in the fifth row from the top of the image in FIG. 3 are extracted for one row, and the luminance values are expressed in height. 401 to 408 are A (0,2) to A (7 2), 410 indicates B (8,2), and 411-412 indicate the luminance values of C (9,2) -C (10,2) in height.

輝度値410はステップ101において縦方向のローパスフィルタにより作成されたもので、ここでは元画像の縦方向には同じ輝度値が並んでいるものと仮定しているため、輝度値410は輝度値409と同じ値を持つ。また、輝度値411,412はステップ102の外挿により作られたものであり、輝度値407〜410にかけてと同じ割合で輝度が増加している。ステップ103において、B(8,2)位置での処理は、輝度値407〜412の5画素の平均値を求めることであり、図からわかるように、この結果は輝度値410の高さとほぼ等しくなる。このことから、本発明によれば、画像周辺部分においても、元の画像の平均値に近い値を得ることができることがわかる。   The luminance value 410 is created by the low-pass filter in the vertical direction in step 101. Here, since it is assumed that the same luminance value is arranged in the vertical direction of the original image, the luminance value 410 is the luminance value 409. Has the same value as In addition, the luminance values 411 and 412 are generated by extrapolation in step 102, and the luminance increases at the same rate as the luminance values 407 to 410. In step 103, the process at the B (8, 2) position is to obtain an average value of five pixels having luminance values 407 to 412. As can be seen from the figure, this result is almost equal to the height of the luminance value 410. Become. From this, it can be seen that according to the present invention, a value close to the average value of the original image can be obtained even in the peripheral portion of the image.

また、ステップ102の処理により拡張領域の画素の輝度値を求めるときには、外挿により求めている。外挿においては、例えば
C(2,−1)=2*B(2,0)−A(2,1)
という式からわかるように、B(2,0)がノイズ等によリある誤差を持っていた場合には、C(2,−1)の値はその誤差の2倍の誤差を含むこととなる。同様に、C(2,−2)も同じ誤差を持ち、103の処理時において、B(2,0)の位置の輝度を求める際には、C(2,−1)とC(2,−2)の両方を用いることから、結果にこの誤差が大きく影響することとなる。すなわち、元画像の最外周の輝度にノイズ等の誤差がある場合には、最終の処理結果に大きな影響を与えることがわかる。ステップ101の処理はこれを防止するものであり、元画像の最外周の画素に対して予めローパスフィルタを施し、ノイズの防止を図っている。
Further, when the luminance value of the pixel in the extended area is obtained by the processing in step 102, it is obtained by extrapolation. In extrapolation, for example, C (2, -1) = 2 * B (2,0) -A (2,1)
As can be seen from the equation, when B (2, 0) has an error due to noise or the like, the value of C (2, −1) includes an error twice that error. Become. Similarly, C (2, −2) has the same error. When the luminance at the position of B (2,0) is obtained in the processing of 103, C (2, −1) and C (2, -2) is used, this error greatly affects the result. That is, it can be seen that when there is an error such as noise in the luminance of the outermost periphery of the original image, the final processing result is greatly affected. The processing in step 101 prevents this, and a low-pass filter is applied in advance to the outermost peripheral pixels of the original image to prevent noise.

従って、元の画素の輝度平均を保持するローパスフィルタを実現することができる。
以上の様に実施例1においては、ローパスフィルタ処理する際に、画像の周囲を拡張した後にローパスフィルタ処理することにより、画像内において周辺部分も中央部分と同じ条件でローパスフィルタ処理が可能となり、周辺画素についても平均輝度を保証した好適なローパスフィルタ結果をもたらすことができる。
Therefore, it is possible to realize a low-pass filter that retains the luminance average of the original pixels.
As described above, in the first embodiment, when the low-pass filter process is performed, the low-pass filter process is performed after the periphery of the image is expanded. A suitable low-pass filter result in which the average luminance is guaranteed for the peripheral pixels can be obtained.

(実施例2)
図5は(実施例1)に記載の画像処理方法に基づいて画像処理を実行している画像処理装置を示す。図9は欠陥検出装置502の具体的な処理方法を示している。
(Example 2)
FIG. 5 shows an image processing apparatus that executes image processing based on the image processing method described in the first embodiment. FIG. 9 shows a specific processing method of the defect detection apparatus 502.

この画像処理装置は、例えばデジタルスチルカメラやデジタルビデオ等のようにレンズやCCD(電荷結合素子charge-coupled device )を用いる画像撮影機器の検査に用いることができる。ここでは、検査対象のデジタルスチルカメラにおける、レンズやCCDの欠陥を検査する検査装置に応用した例を、以下詳細に説明する。   This image processing apparatus can be used for inspection of an image photographing device using a lens or a CCD (charge-coupled device) such as a digital still camera or a digital video. Here, an example applied to an inspection apparatus for inspecting a lens or CCD defect in a digital still camera to be inspected will be described in detail below.

図5において、カメラ500は検査対象となるデジタルスチルカメラであり、これを用いて、検査に用いる平面板501を撮影する。この平面板501は淡色無地の板であり、例えば全面がグレーの一色で塗られている。元画像P0は、カメラ500にて平面板501を撮影した画像であり、デジタル画像データとなっている。本実施例においては、元画像P0は、カメラ500のCCDの1画素当たりの輝度が256階調で、1024×768画素の大きさを持つものとする。この元画像P0を用いてカメラ500のレンズあるいはCCDの欠陥を、欠陥検出装置502を用いて検出する方法を以下に説明する。   In FIG. 5, a camera 500 is a digital still camera to be inspected, and a plane plate 501 used for inspection is photographed using the camera. The flat plate 501 is a light-colored plain plate, and the entire surface is painted with a single color of gray, for example. The original image P0 is an image obtained by photographing the flat plate 501 with the camera 500, and is digital image data. In this embodiment, it is assumed that the original image P0 has a luminance of 256 gradations per pixel of the CCD of the camera 500 and a size of 1024 × 768 pixels. A method for detecting the lens or CCD defect of the camera 500 using the original image P0 using the defect detection device 502 will be described below.

503は前記実施例1の画像処理方法を実現する画像処理部で、この画像処理部503は100×100の範囲の画素を平均化する処理を行う。この画像処理部503の領域の大きさは、想定される欠陥の画素が最大50×50程度であるので、本発明の平均化処理を行うにために充分に大きな領域である。ここで、最大50×50の欠陥領域内の各画素に対して、その周囲の100×100の画素を用いて平均化した場合、欠陥部分が最大1/4であり、少なくとも3/4は、背景の輝度値を持つ。従って、平均化後の画素の輝度値は、欠陥部分の輝度値よりもはるかに背景の輝度値に近いものとなる。この結果、欠陥部分の影響はほとんど消去され、画像処理部503の出力は元画像P0の輝度分布に極めて近い第1の処理画像P1となる。   Reference numeral 503 denotes an image processing unit that realizes the image processing method according to the first embodiment, and the image processing unit 503 performs a process of averaging pixels in a range of 100 × 100. The size of the area of the image processing unit 503 is a sufficiently large area for performing the averaging process according to the present invention because the assumed defective pixels are about 50 × 50 at the maximum. Here, for each pixel in the defect area of maximum 50 × 50, when averaging using the surrounding 100 × 100 pixels, the defect portion is maximum 1/4, and at least 3/4 is Has a background luminance value. Therefore, the luminance value of the pixel after averaging is much closer to the luminance value of the background than the luminance value of the defective portion. As a result, the influence of the defective portion is almost eliminated, and the output of the image processing unit 503 becomes the first processed image P1 that is very close to the luminance distribution of the original image P0.

504は画像処理部503の出力の第1の処理画像P1と元画像P0との差分を取る減算器である。減算器504の出力の第2の処理画像P2は、両者の差であるところの欠陥部分のみが0以外の値を持つこととなる。   Reference numeral 504 denotes a subtracter that calculates the difference between the first processed image P1 and the original image P0 output from the image processing unit 503. In the second processed image P2 output from the subtractor 504, only the defective portion which is the difference between them has a value other than zero.

次に、減算器504の出力を2値化回路505に入力する。2値化回路505は、減算器504からの出力を各画素毎に評価し、注目画素の輝度値の絶対値が予め与えた閾値より大きい場合はその画素に対して“1”を、閾値以下の場合はその画素に対して“0”を出力する。ここではごく微妙な欠陥を検出するために閾値を“1”とするが、欠陥がはっきりしている場合は、閾値をより大きな値とすることもできる。2値化回路505からの出力は、元画像P0と、元画像P0が本来持つ輝度分布との、異なっている画素を“1”として出力することとなり、その結果、欠陥画素のみが“1”として表現された結果画像P3を得ることができる。   Next, the output of the subtracter 504 is input to the binarization circuit 505. The binarization circuit 505 evaluates the output from the subtractor 504 for each pixel. When the absolute value of the luminance value of the target pixel is larger than a predetermined threshold value, “1” is set for the pixel, and the threshold value is less than the threshold value. In this case, “0” is output for the pixel. Here, the threshold value is set to “1” in order to detect a very fine defect. However, if the defect is clear, the threshold value can be set to a larger value. The output from the binarization circuit 505 outputs different pixels of the original image P0 and the original luminance distribution of the original image P0 as “1”, and as a result, only defective pixels are “1”. As a result image P3 can be obtained.

結果画像P3は欠陥部分の画素が全て含まれている。ところが、検査する商品の品質許容基準によっては、その欠陥のレベルに応じて良品を判断するので、結果画像P3を、そのまま用いて判断するべきでは無い。このため、評価値演算回路506と判定回路507において、結果画像P3を評価し、出荷範囲入力手段508から入力された品質許容基準と照らし合わせ、検査対象であるカメラ500の品質の合否を判定する。   The result image P3 includes all pixels in the defective portion. However, depending on the quality acceptance standard of the product to be inspected, a non-defective product is determined according to the level of the defect, and therefore the result image P3 should not be used as it is. Therefore, the evaluation value calculation circuit 506 and the determination circuit 507 evaluate the result image P3 and compare with the quality acceptance standard input from the shipping range input unit 508 to determine whether the quality of the camera 500 to be inspected is acceptable. .

たとえば、欠陥と判定された画素の総数が50画素以上あれば不合格であるという基準があらかじめ出荷範囲入力手段508に入力された場合、判定回路507では、結果画像P3において、“1”という値を持つ画素の総数を求め、これが50画素よりも少ない場合には合格の判定を、50画素以上の場合には不合格の判定を行い、これを、結果表示装置509に出力する。また、出荷範囲入力手段508から入力された品質許容基準が、連続した欠陥画素の集合体のうち最大のものの画素数の合計が30画素以上であれば不合格であるという基準があらかじめ入力された場合、判定回路507では、結果画像P3において、“1”という値を持つ画素の中で、これが連続してかたまっているものを探索し、最大の大きさを持つものの画素数を求め、これが30画素よりも少ない場合には合格の判定を、30画素以上の場合には不合格の判定を行い、これを、結果表示装置509に出力する。結果表示装置509においては、判定回路507からの判定結果をモニタに表示し、製品としての合否を人間に伝える。   For example, when the criterion that the defect is accepted if the total number of pixels determined to be defective is 50 pixels or more is input in advance to the shipping range input means 508, the determination circuit 507 has a value of “1” in the result image P3. The total number of pixels having the pixel number is obtained. When the number is less than 50 pixels, a pass determination is performed, and when it is 50 pixels or more, a pass determination is performed, and this is output to the result display device 509. In addition, a criterion that the quality acceptable standard input from the shipping range input unit 508 is rejected if the total of the maximum number of pixels of the continuous defective pixel aggregate is 30 pixels or more is input in advance. In this case, the determination circuit 507 searches for pixels having the value “1” in the result image P3, and searches for the number of pixels having the maximum size. When the number of pixels is smaller than the number of pixels, the determination of acceptance is made, and when the number of pixels is 30 pixels or more, the determination of failure is made, and this is outputted to the result display device 509. In the result display device 509, the determination result from the determination circuit 507 is displayed on the monitor, and the pass / fail of the product is communicated to a person.

なお、上記において、第2の処理画像P2は、減算器504の出力をそのまま用いたが、実際には、元画像P0に含まれるノイズ成分についても、0以外の値を持つこととなるため、これを除去するために減算器504の出力にメディアンフィルタをかけたものを第2の処理画像P2として用いることもできる。メディアンフィルタは画像処理で一般的に用いられるもので、注目画素の周辺領域の画素の輝度値を大きさの順に並べ、その中央に位置するものを注目画素の輝度値とするものである。メディアンフィルタはある程度の大きさを持った輝度変化領域のみを残して、ノイズ部分を消去することができる。   In the above, the second processed image P2 uses the output of the subtractor 504 as it is. However, since the noise component included in the original image P0 actually has a value other than 0, In order to remove this, the output of the subtractor 504 obtained by applying a median filter can be used as the second processed image P2. The median filter is generally used in image processing. The median filter arranges the luminance values of the pixels in the peripheral region of the target pixel in order of size, and the one located in the center is used as the luminance value of the target pixel. The median filter can eliminate a noise portion while leaving only a luminance change region having a certain size.

従来の画像処理装置では周辺部分において平均輝度の保証がされていないため、画像処理部503に従来の画像処理方法を用いた場合は、周辺部分の欠陥検出が正常に行えない恐れがあるのに対して、本方法によれば、ローパスフィルタの周辺部の平均値は元画像と近い値となるため、正確に欠陥のみを抽出することができる。   In the conventional image processing apparatus, since the average luminance is not guaranteed in the peripheral portion, if the conventional image processing method is used for the image processing unit 503, there is a possibility that defect detection in the peripheral portion cannot be performed normally. On the other hand, according to this method, since the average value of the peripheral part of the low-pass filter is close to the original image, it is possible to accurately extract only the defect.

以上のように本実施例においては、元画像P0と前記実施例1による画像処理方法により求めた前記元画像P0が本来持つ輝度分布を表わす第1の処理画像P1とを減算し、2値化するようにしたので、正確に欠陥のみを抽出することができる。   As described above, in this embodiment, the original image P0 and the first processed image P1 representing the luminance distribution inherent in the original image P0 obtained by the image processing method according to the first embodiment are subtracted and binarized. As a result, only defects can be accurately extracted.

次に、上記に示した欠陥検出装置502を、ソフトウェアにより実現する場合の処理方法の一例を、図9を用いて詳しく説明する。
図9はデジタルスチルカメラ等の検査において、レンズやCCDの欠陥を検出する方法の一実施例のフローチャートである。
Next, an example of a processing method when the defect detection apparatus 502 described above is realized by software will be described in detail with reference to FIG.
FIG. 9 is a flowchart of an embodiment of a method for detecting a lens or CCD defect in an inspection of a digital still camera or the like.

ステップ901では、先ずカメラ等で撮影した元画像P0に対して、実施例1で示したローパスフィルタを施す。ここでは、100×100の範囲の画素を平均化するものとし、これは想定される最大欠陥領域(50×50)に対して充分に大きな領域である。そのため、先に説明した画像処理部503と同様の原理で、欠陥部分の影響はほとんど消去され、処理結果は元画像P0の輝度分布に極めて近い第1の処理画像P1となる。   In step 901, the low pass filter shown in the first embodiment is first applied to the original image P0 photographed by a camera or the like. Here, it is assumed that the pixels in the range of 100 × 100 are averaged, and this is a sufficiently large region with respect to the assumed maximum defect region (50 × 50). For this reason, the influence of the defective portion is almost eliminated by the same principle as that of the image processing unit 503 described above, and the processing result is the first processed image P1 very close to the luminance distribution of the original image P0.

ステップ902では、第1の処理画像P1と元画像P0との画素毎の差分を求める。この処理結果は、理想的には両者の差であるところの欠陥部分のみが0以外の値を持つこととなる。ただし、実際の結果では、元画像P0に含まれていたノイズ成分も0以外の値を持つこととなるため、ステップ902の処理結果に対してステップ903においてメディアンフィルタ処理する。   In step 902, a pixel-by-pixel difference between the first processed image P1 and the original image P0 is obtained. As a result of this processing, only the defective portion, which is ideally the difference between the two, has a value other than zero. However, in the actual result, the noise component included in the original image P0 also has a value other than 0. Therefore, the median filtering process is performed on the processing result in step 902 in step 903.

メディアンフィルタは画像処理で一般的に用いられるもので、注目画素の周辺領域の画素の輝度値を大きさの順に並べ、その中央に位置するものを注目画素の輝度値とするものである。メディアンフィルタはある程度の大きさを持った輝度変化領域のみを残して、ノイズ部分を消去することができる。このため、ステップ903の処理結果P2は、欠陥部分のみが0以外の値を持つこととなる。   The median filter is generally used in image processing. The median filter arranges the luminance values of the pixels in the peripheral region of the target pixel in order of size, and the one located in the center is used as the luminance value of the target pixel. The median filter can eliminate a noise portion while leaving only a luminance change region having a certain size. For this reason, in the processing result P2 of step 903, only the defective part has a value other than zero.

ステップ904では、処理結果P2を2値化する。この2値化は、処理結果P2を各画素毎に評価し、注目画素の輝度値の絶対値が予め与えた閾値より大きい場合はその画素に対して“1”を、閾値以下の場合はその画素に対して“0”を出力する。ここではごく微妙な欠陥を検出するために閾値を“1”とするが、欠陥がはっきりしている場合は、閾値をより大きな値とすることもできる。2値化の結果、元画像P0と、元画像P0が本来持つ輝度分布との、異なっている画素を“1”として出力することとなり、その結果、欠陥画素のみが“1”として表現された結果画像P3を得ることができる。   In step 904, the processing result P2 is binarized. In this binarization, the processing result P2 is evaluated for each pixel. When the absolute value of the luminance value of the target pixel is larger than a predetermined threshold value, “1” is set for the pixel. “0” is output to the pixel. Here, the threshold value is set to “1” in order to detect a very fine defect. However, if the defect is clear, the threshold value can be set to a larger value. As a result of the binarization, different pixels between the original image P0 and the original luminance distribution of the original image P0 are output as “1”, and as a result, only defective pixels are expressed as “1”. A result image P3 can be obtained.

ステップ905においては、結果画像P3に含まれる欠陥画素の総数をカウントする。これは、結果画像P3の全体において“1”の値を持つ画素をカウントすることで実現することができる。   In step 905, the total number of defective pixels included in the result image P3 is counted. This can be realized by counting pixels having a value of “1” in the entire result image P3.

ステップ906においては、予め与えられた品質規準、たとえば「欠陥画素数が50以上の製品は不良」という基準に基づき、ステップ905でカウントした値と、品質基準の欠陥画素数50とを比較し、ステップ905でカウントした値が50以上である場合には、ステップ907において不良であるという情報を出力する。また、ステップ905でカウントした値が50未満である場合には、ステップ908において良品であるという情報を出力する。   In step 906, the value counted in step 905 is compared with the quality standard number of defective pixels 50 based on a quality criterion given in advance, for example, a criterion “a product having a defective pixel number of 50 or more is defective”. If the value counted in step 905 is 50 or more, information indicating failure is output in step 907. If the value counted in step 905 is less than 50, information indicating that the product is non-defective is output in step 908.

(実施例3)
図6〜図8は(実施例1)に記載の画像処理方法に基づいて画像処理を実行している蛍光顕微鏡画像取得装置を示す。
(Example 3)
6 to 8 show a fluorescence microscope image acquisition apparatus that executes image processing based on the image processing method described in (Example 1).

図6において、601は補正対象画像としての観察対象で、例えば蛍光色素などで染色した細菌の細胞などである。レーザ光源602からのレーザ光をダイクロイックミラー603で反射させて、観察対象601に照射すると、観察対象601の蛍光色素はレーザに励起されて、特定の波長で光を発する。この光はCCDカメラ604で捕らえ、画像データとしてデジタル化し、ホストコンピュータ605で処理される。   In FIG. 6, reference numeral 601 denotes an observation target as a correction target image, for example, a bacterial cell stained with a fluorescent dye or the like. When the laser light from the laser light source 602 is reflected by the dichroic mirror 603 and applied to the observation object 601, the fluorescent dye of the observation object 601 is excited by the laser and emits light at a specific wavelength. This light is captured by the CCD camera 604, digitized as image data, and processed by the host computer 605.

ここで、観察対象601に照射したレーザ光を観察面内で全て均一になるようにするのは困難であり、通常は中央部は明るく、周辺部分は暗いという照度分布を持つ。このレーザ光により励起した蛍光画像をそのまま表示した場合、本来の蛍光色素の分布が正確に表示されないため、レーザ光の照度分布のキャリブレーションを行う必要がある。   Here, it is difficult to make all the laser beams irradiated to the observation object 601 uniform in the observation plane, and usually has an illuminance distribution in which the central part is bright and the peripheral part is dark. When the fluorescent image excited by the laser light is displayed as it is, the original distribution of the fluorescent dye is not accurately displayed, so that the illuminance distribution of the laser light needs to be calibrated.

キャリブレーションは、観察対象601を撮影した画像とは別に用意したキャリブレーション画像を用いて次のように実施される。
キャリブレーション画像は、図6の観察対象601の代わりに、蛍光色素を一様に塗布した標準サンプルを置いて撮影を行って取得する。取得した画像は、レーザ光の照度分布を表すことから、観察対象を撮影した画像からキャリブレーション画像を、対応する画素毎に除算して、レーザ光の照度分布の影響をキャンセルするキャリブレーションを行うことができる。
Calibration is performed as follows using a calibration image prepared separately from an image obtained by photographing the observation object 601.
The calibration image is acquired by photographing a standard sample on which a fluorescent dye is uniformly applied instead of the observation object 601 in FIG. Since the acquired image represents the illuminance distribution of the laser light, the calibration image is divided from the image obtained by photographing the observation target for each corresponding pixel, and calibration is performed to cancel the influence of the illuminance distribution of the laser light. be able to.

しかし、キャリブレーション画像取得に用いる標準サンプルを理想的に作成するのは困難であり、実際には多くの場合小さなごみが混入する。このごみが混入したキャリブレーション画像をそのまま用いてキャリブレーションした場合、表示した画像にはごみの影響が影となって現われることとなる。   However, it is difficult to ideally create a standard sample for use in acquiring a calibration image, and in fact, in many cases, small dust is mixed. When calibration is performed using the calibration image in which the dust is mixed as it is, the influence of the dust appears as a shadow in the displayed image.

そこで、この(実施例3)では、ホストコンピュータ605が次に示す画像処理を実行するように構成されている。
ホストコンピュータ605は、キャリブレーション画像作成ルーチン606と観察画像補正ルーチン607とで構成されている。撮影した標準サンプルの画像から理想的なキャリブレーション画像を作成するキャリブレーション画像作成ルーチン606は図7に示すように構成されている。
Therefore, in (Embodiment 3), the host computer 605 is configured to execute the following image processing.
The host computer 605 includes a calibration image creation routine 606 and an observation image correction routine 607. A calibration image creation routine 606 for creating an ideal calibration image from the photographed standard sample image is configured as shown in FIG.

ステップ701では、撮影した標準サンプルの画像の最外周画素のみにローパスフィルタ処理する。
ステップ702では、外挿により一回り大きな画像を作成する。
In step 701, only the outermost peripheral pixel of the photographed standard sample image is low-pass filtered.
In step 702, a slightly larger image is created by extrapolation.

ステップ703では、これを用いて元画像の範囲にローパスフィルタ処理する。ここまでは実施例1と同じ手法を取る。
最後にステップ704では、ステップ703で作られた画像と元画像を画素毎に比較し、予め与えた閾値以上に違いのある画素を用いないようにして、ステップ702により生成された画像に対して再度のローパスフィルタ処理を実施する。
In step 703, low-pass filter processing is performed on the range of the original image using this. Up to this point, the same method as in the first embodiment is taken.
Finally, in step 704, the image created in step 703 and the original image are compared for each pixel, and the pixel generated by step 702 is not used by using pixels that differ by a predetermined threshold or more. The low-pass filter process is performed again.

このステップ704の処理をより詳細に示したものを図8に示す。
ステップ801では、ステップ703の結果と、元の画素の輝度を画素毎に比較する。その結果、輝度値が“10”以上違う場合には、ステップ802においてステップ703の結果の対応画素を−1とし、誤差が大きいと言う意味のマーキングとする。ここで、誤差が大きい部分は、ゴミの部分である可能性が高く、ここでのマーキングは、ごみの部分をマーキングするという意味を持つ。
FIG. 8 shows the process in step 704 in more detail.
In step 801, the result of step 703 is compared with the luminance of the original pixel for each pixel. As a result, if the luminance value is different by “10” or more, the corresponding pixel as a result of step 703 is set to −1 in step 802, and the marking means that the error is large. Here, there is a high possibility that a portion having a large error is a dust portion, and the marking here has a meaning of marking a dust portion.

なお、ここでは輝度値のしきい値を“10”以上としたが、“10”に限らず、他の任意の値に設定しても良い。
この処理を元画像の全ての画素に対して行い、ステップ803において未処理の場合にはステップ801〜802を繰り返す。全ての画素において、大きな差を持つ画素のマーキングが終了した場合は、再度ローパスフィルタをやり直すために、ステップ804に処理を移す。
Here, the threshold value of the luminance value is set to “10” or more, but is not limited to “10”, and may be set to any other value.
This process is performed for all the pixels of the original image, and if not processed in step 803, steps 801 to 802 are repeated. When marking of a pixel having a large difference is completed for all pixels, the process proceeds to step 804 in order to perform the low-pass filter again.

ステップ804では、順番により指定した画素を注目画素とし、ステップ805においては、その注目画素の近傍に位置するローパスフィルタに用いる画素の値を調べる。
この値が−1のときはこの画素を無視し、−1でない場合には、ステップ806によりこの値を平均演算に利用する処理を行う。例えば、ローパスフィルタに用いる画素の数が25個あり、その中に−1であるものが2個あった場合には、残りの23個の平均値を求め、その値を注目画素の新たな輝度値にする。ステップ807では、現在の注目画素においてローパスフィルタに用いる近傍画素の全てを処理したかどうか判断し、未処理の場合はステップ805〜806を繰り返す。ステップ807において、全ての処理を終えたと判定した場合は、ステップ808において、ローパスフィルタによる結果を1画素分記録する。
In step 804, the pixel designated by the order is set as the target pixel. In step 805, the value of the pixel used for the low-pass filter located in the vicinity of the target pixel is checked.
When this value is −1, this pixel is ignored, and when it is not −1, processing for using this value for averaging is performed at step 806. For example, when the number of pixels used for the low-pass filter is 25, and there are two of them that are -1, the average value of the remaining 23 is obtained, and that value is used as the new luminance of the target pixel. Value. In step 807, it is determined whether or not all of the neighboring pixels used for the low-pass filter have been processed in the current pixel of interest. If unprocessed, steps 805 to 806 are repeated. If it is determined in step 807 that all processing has been completed, the result of the low-pass filter is recorded for one pixel in step 808.

ステップ809では、全ての画素において上記の処理が終了したかを判定し、終了がまだの場合は、ステップ804〜ステップ808を繰り返し、全ての画素を処理した場合には本処理を終了する。   In step 809, it is determined whether or not the above processing has been completed for all the pixels. If the processing has not been completed, steps 804 to 808 are repeated. If all the pixels have been processed, this processing is terminated.

この処理により、ゴミ等によリ平均輝度からはずれた画素を用いないでローパスフィルタ処理することにより、ゴミの影響を受けない好適なキャリブレーション画像を得ることができる。作成したキャリブレーション画像はホストコンピュータ605に記憶される。   By this processing, a suitable calibration image that is not affected by dust can be obtained by performing low-pass filter processing without using pixels that deviate from the average brightness due to dust or the like. The created calibration image is stored in the host computer 605.

このようにしてホストコンピュータ605のキャリブレーション画像作成ルーチン606を実行してキャリブレーション画像の取得が完了した後に、観察対象601を前記標準サンプルから、最終的な観察対象である例えば蛍光色素などで染色した細菌の細胞などに交換して観察画像補正ルーチン607の実行を指示すると、観察画像補正ルーチン607では、ゴミ等によリ平均輝度からはずれた画素を用いないでローパスフィルタ処理することによりゴミの影響を受けない好適な前記キャリブレーション画像を使用して、対応する画素毎に除算を行うことにより、レーザ光の照度分布の影響を正確にキャンセルするキャリブレーションを行い、本来の蛍光色素の分布が正確に表示できる。   After the calibration image creation routine 606 of the host computer 605 is executed in this way and the acquisition of the calibration image is completed, the observation object 601 is stained from the standard sample with a final observation object such as a fluorescent dye. When the observation image correction routine 607 is instructed to be exchanged for the bacterial cell or the like, the observation image correction routine 607 performs low-pass filter processing without using pixels that deviate from the average brightness due to dust or the like. By using a suitable calibration image that is not affected and performing division for each corresponding pixel, calibration is performed to accurately cancel the influence of the illuminance distribution of the laser beam, and the distribution of the original fluorescent dye is determined. It can be displayed accurately.

なお、上記の各実施例では処理の初期段階において、元画像P0の最外周画素のみにローパスフィルタをかけたが、これは、元画像P0の最外周画素の付近の画素にのみにローパスフィルタをかけ、それよりは外側の画素を破棄して後工程の画像処理を実行するように構成することもできる。   In each of the above embodiments, the low pass filter is applied only to the outermost peripheral pixel of the original image P0 in the initial stage of processing. However, this is because the low pass filter is applied only to the pixels near the outermost peripheral pixel of the original image P0. It is also possible to configure such that image processing in the subsequent process is executed by discarding the pixels outside that.

また、上記の各実施例では処理の初期段階において、元画像P0の最外周画素のみ、または元画像P0の最外周画素の付近の画素にのみにローパスフィルタをかけたが、このときには元画像P0も同時にローパスフィルタ処理するように構成することもでき、元画像の最外周画素または最外周付近の画素に少なくともローパスフィルタ処理することによって目的を達成できる。   In each of the above embodiments, at the initial stage of processing, only the outermost peripheral pixel of the original image P0 or only the pixels near the outermost peripheral pixel of the original image P0 is subjected to the low pass filter. Can also be configured to simultaneously perform low-pass filter processing, and the object can be achieved by performing at least low-pass filter processing on the outermost peripheral pixel of the original image or pixels near the outermost periphery.

なお、本明細書において「外挿する方向に対して垂直方向に位置する画素を用いてローパスフィルタ処理する」とは、具体的には、図3において画素B(2,0)と画素A(2,0)に対して画素C(2,−1)と画素C(2,−2)を縦に外挿する場合に、画素B(2,0)が折り返し点で、この場合の縦の外挿方向に対して横方向の画素B(1,0),画素B(3,0)が垂直方向に位置する画素になる。画素B(0,2)と画素A(1,2)に対して画素C(−1,2)と画素C(−2,2)を横に外挿する場合に、画素B(0,2)が折り返し点で、この場合の横の外挿方向に対して縦方向の画素B(0,3),画素B(0,1)が外挿方向に対する垂直方向に位置する画素になる。   In the present specification, “low-pass filter processing using pixels positioned in a direction perpendicular to the extrapolation direction” specifically refers to pixel B (2, 0) and pixel A ( 2 and 0), when extrapolating pixel C (2, -1) and pixel C (2, -2) vertically, pixel B (2, 0) is the turning point. The pixel B (1, 0) and the pixel B (3, 0) in the horizontal direction with respect to the extrapolation direction are pixels positioned in the vertical direction. When extrapolating the pixel C (−1,2) and the pixel C (−2,2) horizontally to the pixel B (0,2) and the pixel A (1,2), the pixel B (0,2) ) Is a turning point. In this case, the pixel B (0, 3) in the vertical direction with respect to the horizontal extrapolation direction and the pixel B (0, 1) are pixels positioned in the vertical direction with respect to the extrapolation direction.

本発明にかかる画像処理方法は、周辺部分の平均輝度を保証した精度のよい処理結果をもたらすため、精度の良いローパスフィルタを実現することができる。この画像処理方法を備えた画像処理装置をデジタルカメラの検査に用いることにより、誤検出のない優れた検査方法を実現できるなど有用である。   Since the image processing method according to the present invention provides an accurate processing result that guarantees the average luminance of the peripheral portion, a highly accurate low-pass filter can be realized. By using an image processing apparatus provided with this image processing method for inspection of a digital camera, it is useful that an excellent inspection method without erroneous detection can be realized.

また、本発明の画像処理方法を蛍光顕微鏡のキャリブレーションに用いることにより、正確なキャリブレーションが実現でき、精度のよい表示が可能になるなど有用である。   Further, by using the image processing method of the present invention for calibration of a fluorescence microscope, it is useful that accurate calibration can be realized and accurate display is possible.

本発明の(実施例1)における画像処理方法の処理フローチャートProcess Flowchart of Image Processing Method in (Embodiment 1) of the Present Invention 同実施例における元画像の画素配置図Pixel arrangement diagram of original image in the same embodiment 同実施例における中間画像の画素配置図Pixel arrangement diagram of intermediate image in the same embodiment 同実施例の効果を説明するイメージ図Image diagram explaining the effect of the embodiment 本発明の(実施例2)における画像処理装置のブロック図The block diagram of the image processing apparatus in (Example 2) of this invention 本発明の(実施例3)の蛍光顕微鏡画像システムのブロック図Block diagram of a fluorescence microscope image system according to (Example 3) of the present invention 同実施例のキャリブレーション画像作成のための処理フローチャートProcessing flowchart for creating a calibration image of the embodiment 同実施例のステップ704のフローチャートFlowchart of step 704 in the same embodiment 本発明の(実施例2)における欠陥検出装置502を、ソフトウェアにより実現する場合のフローチャートFlowchart when the defect detection apparatus 502 according to the second embodiment of the present invention is realized by software.

符号の説明Explanation of symbols

101〜103 画像処理フローの処理ステップ
201 元画像
202 最外周に位置する画素にのみローパスフィルタ処理を施した画像
301 領域拡張された中間画像
401〜412 各画素の輝度値
500 カメラ(検査対象)
501 平面板
502 欠陥検出装置
503 画像処理部
504 減算器
505 2値化回路
506 評価値演算回路
507 判定回路
601 観察対象
602 レーザ光源
603 ダイクロイックミラー
604 CCDカメラ
605 ホストコンピュータ
606 キャリブレーション画像作成ルーチン
607 観察画像補正ルーチン
101-103 Processing steps of image processing flow 201 Original image 202 Image obtained by performing low-pass filter processing only on pixels located on the outermost periphery 301 Region expanded intermediate image 401-412 Luminance value of each pixel 500 Camera (inspection object)
501 Flat plate 502 Defect detection device 503 Image processing unit 504 Subtractor 505 Binary circuit 506 Evaluation value calculation circuit 507 Determination circuit 601 Observation target 602 Laser light source 603 Dichroic mirror 604 CCD camera 605 Host computer 606 Calibration image creation routine 607 Observation Image correction routine

Claims (14)

画像を多階調の輝度を持つ画素の2次元データとして扱うに際し、
元画像の最外周画素または最外周付近の画素に少なくともローパスフィルタ処理するステップと、
前記元画像の領域を拡張するとともに、前記ローパスフィルタをかけた範囲内に含まれる画素を折り返し点として外挿することにより拡張した領域の輝度を求めるステップと、
前記拡張した領域を含めて元画像の領域にローパスフィルタ処理するステップと
を有する画像処理方法。
When handling images as two-dimensional data of pixels with multi-tone brightness,
At least low-pass filtering the outermost peripheral pixel of the original image or a pixel near the outermost periphery;
Expanding the area of the original image and obtaining the brightness of the expanded area by extrapolating pixels included in the range subjected to the low-pass filter as folding points;
And a step of low-pass filtering the original image area including the expanded area.
元画像の最外周画素または最外周付近の画素に少なくともローパスフィルタ処理する前記ステップでは、前記元画像の最外郭画素に対して一次元的なローパスフィルタ処理する
請求項1記載の画像処理方法。
The image processing method according to claim 1, wherein in the step of performing at least a low-pass filter process on the outermost peripheral pixel of the original image or a pixel near the outermost periphery, a one-dimensional low-pass filter process is performed on the outermost pixel of the original image.
元画像の最外周画素または最外周付近の画素に少なくともローパスフィルタ処理する前記ステップでは、外挿する方向に対して垂直方向に位置する画素を用いてローパスフィルタ処理する
請求項1記載の画像処理方法。
2. The image processing method according to claim 1, wherein, in the step of performing at least a low-pass filter process on the outermost peripheral pixel of the original image or a pixel in the vicinity of the outermost periphery, a low-pass filter process is performed using pixels positioned in a direction perpendicular to the extrapolation direction. .
前記画像の領域を拡張する拡張範囲は、前記拡張した領域を含めて元画像の領域にローパスフィルタ処理する程度に応じて決定する
請求項1記載の画像処理方法。
The image processing method according to claim 1, wherein an expansion range for expanding the image area is determined according to a degree of low-pass filter processing performed on the original image area including the expanded area.
前記拡張した領域を含めて元画像の領域にローパスフィルタ処理する演算に必要な周囲画素領域の大きさが縦A×横Bの大きさを持つとき、前記元画像に対して、縦をA画素、横をB画素だけ拡張する
請求項4記載の画像処理方法。
When the size of the surrounding pixel area required for the low-pass filter processing including the expanded area is low-pass filter processing in the area of the original image has a size of vertical A × horizontal B, the vertical length of the original image is A pixel. The image processing method according to claim 4, wherein the width is expanded by B pixels.
請求項1記載の画像処理方法によって得られた第1の処理画像と、元画像との差分を求めて第2の処理画像を得るステップをさらに備えた
請求項1記載の画像処理方法。
The image processing method according to claim 1, further comprising: obtaining a second processed image by obtaining a difference between the first processed image obtained by the image processing method according to claim 1 and the original image.
前記第2の処理画像を2値化処理して前記元画像に含まれる欠陥部分を検出する
請求項6記載の画像処理方法。
The image processing method according to claim 6, wherein the second processed image is binarized to detect a defective portion included in the original image.
検査対象カメラによって検査に用いる平面板を撮影した元画像を平均化処理して前記元画像の輝度分布に極めて近い第1の処理画像を検出する画像処理部と、
前記第1の処理画像と元画像との差分の第2の処理画像を検出する減算器と、
前記第2の処理画像を2値化した結果画像を検出する2値化回路と、
前記結果画像と品質許容基準と照らし合わせて検査対象カメラの品質の合否を判定する判定回路と
を設けた画像処理装置。
An image processing unit for detecting a first processed image that is extremely close to the luminance distribution of the original image by averaging the original image obtained by photographing the flat plate used for the inspection by the inspection target camera;
A subtractor for detecting a second processed image of the difference between the first processed image and the original image;
A binarization circuit for detecting a result image obtained by binarizing the second processed image;
An image processing apparatus provided with a determination circuit that determines the quality of the inspection target camera by comparing the result image with a quality acceptance standard.
検査対象カメラによって検査に用いる平面板を撮影した元画像の最外周画素または最外周付近の画素に少なくともローパスフィルタ処理して前記元画像の輝度分布に極めて近い第1の処理画像P1を検出するステップと、
第1の処理画像と元画像との画素毎の差分の第2の処理画像を検出するステップと、
前記第2の処理画像に対してメディアンフィルタ処理して更に2値化した結果画像を検出するステップと、
前記結果画像に含まれる欠陥画素の総数のカウント値と品質基準の欠陥画素数とを比較し不良/良品を判定するステップと
を備えた画像処理方法。
A step of detecting a first processed image P1 very close to the luminance distribution of the original image by performing at least a low-pass filter process on the outermost peripheral pixel of the original image obtained by photographing the flat plate used for the inspection by the inspection target camera or a pixel near the outermost periphery. When,
Detecting a second processed image of a pixel-by-pixel difference between the first processed image and the original image;
Detecting a result image obtained by performing median filtering on the second processed image and further binarizing;
An image processing method comprising: comparing a count value of the total number of defective pixels included in the result image with a quality-standard defective pixel number to determine a defective / non-defective product.
画像を多階調の輝度を持つ画素の2次元データとして扱う画像処理に際し、
前記元画像の最外周画素または最外周付近の画素に少なくともローパスフィルタ処理するステップと、
前記元画像の領域を拡張するとともに、前記ローパスフィルタ処理した範囲内に含まれる画素を折り返し点として外挿することにより拡張した領域の輝度を求めた第1の処理画像を求めるステップと、
前記第1の処理画像にローパスフィルタ処理した第2の処理画像を求めるステップと、
前記第2の処理画像と前記元画像を対応する画素毎に比較して前記画素毎に求めた差が予め与えた閾値よりも小さな値となる位置における第1の処理画像の画素のみを用いてローパスフィルタ処理した画像を生成するステップと
を備えた画像処理方法。
When processing an image as two-dimensional data of pixels having multi-tone luminance,
Performing at least a low-pass filter on the outermost peripheral pixel or the outermost peripheral pixel of the original image;
Expanding a region of the original image and obtaining a first processed image obtained by determining the luminance of the expanded region by extrapolating pixels included in the low-pass filtered range as a turning point;
Obtaining a second processed image obtained by low-pass filtering the first processed image;
The second processed image and the original image are compared for each corresponding pixel, and only the pixel of the first processed image at a position where the difference obtained for each pixel is smaller than a predetermined threshold value is used. An image processing method comprising: generating a low-pass filtered image.
前記元画像の前記画素毎に求めた差が予め与えた閾値よりも小さな値となる位置における第1の処理画像の画素のみを用いてローパスフィルタ処理した画像を生成するステップが出力する画像をキャリブレーション画像とし、該キャリブレーション画像を用いて前記元画像とは別の補正対象画像を補正するステップをさらに備えた
請求項1記載の画像処理方法。
Calibrate the image output by the step of generating the low-pass filtered image using only the pixel of the first processed image at a position where the difference obtained for each pixel of the original image is smaller than a predetermined threshold value The image processing method according to claim 1, further comprising a step of correcting a correction target image different from the original image using the calibration image.
前記元画像以外の画像とキャリブレーション画像を画素毎に除算して前記元画像とは別の画像を補正する
請求項11記載の画像処理方法。
The image processing method according to claim 11, wherein an image other than the original image is divided for each pixel to correct an image different from the original image.
元画像の最外周画素または最外周付近の画素に少なくともローパスフィルタ処理するステップと、
前記元画像)の領域を拡張するとともに、前記ローパスフィルタをかけた範囲内に含まれる画素を折り返し点として外挿することにより拡張した領域の輝度を求めた第1の処理画像を求めるステップと、
前記第1の処理画像にローパスフィルタ処理して第2の処理画像を求めるステップと、
前記第2の処理画像と元画像を画素毎に比較して予め与えた閾値以上に違いのある画素を用いないようにして前記第1の処理画像に対して再度ローパスフィルタ処理するステップと
を備えた画像処理方法。
At least low-pass filtering the outermost peripheral pixel of the original image or a pixel near the outermost periphery;
A step of obtaining a first processed image obtained by expanding the region of the original image) and obtaining the brightness of the expanded region by extrapolating pixels included in the low-pass filter as a turning point;
Obtaining a second processed image by low-pass filtering the first processed image;
Comparing the second processed image with the original image for each pixel and performing low-pass filter processing again on the first processed image without using a pixel that is different from a predetermined threshold or more. Image processing method.
前記第2の処理画像と元画像を画素毎に比較して予め与えた閾値以上に違いのある画素を用いないようにして前記第1の処理画像に対して再度ローパスフィルタ処理するステップを、
前記第2の処理画像と元の画素の輝度を画素毎に比較して輝度値が規定値以上違う場合にはその対応画素にマーキングするステップと、
前記マーキングした画素を注目画素とし、その注目画素の近傍に位置するローパスフィルタに用いる画素の値を調べて平均演算に利用する処理を行い注目画素の新たな輝度値にするステップと
で構成した請求項13記載の画像処理方法。
The second processed image and the original image are compared for each pixel, and the low-pass filter process is performed again on the first processed image without using a pixel that is different from a predetermined threshold value or more.
Comparing the brightness of the second processed image and the original pixel for each pixel and marking the corresponding pixel if the brightness value differs by more than a specified value;
Claiming that the marked pixel is a pixel of interest, a value of a pixel used for a low-pass filter located in the vicinity of the pixel of interest is examined, a process used for averaging is performed, and a new luminance value of the pixel of interest is obtained. Item 14. The image processing method according to Item 13.
JP2005271249A 2004-11-02 2005-09-20 Image processing method and image processing apparatus Expired - Fee Related JP4244046B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005271249A JP4244046B2 (en) 2004-11-02 2005-09-20 Image processing method and image processing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004318631 2004-11-02
JP2005271249A JP4244046B2 (en) 2004-11-02 2005-09-20 Image processing method and image processing apparatus

Publications (2)

Publication Number Publication Date
JP2006155579A true JP2006155579A (en) 2006-06-15
JP4244046B2 JP4244046B2 (en) 2009-03-25

Family

ID=36633745

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005271249A Expired - Fee Related JP4244046B2 (en) 2004-11-02 2005-09-20 Image processing method and image processing apparatus

Country Status (1)

Country Link
JP (1) JP4244046B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010011485A (en) * 2009-10-01 2010-01-14 Seiko Epson Corp Image processing unit
JP2010045814A (en) * 2009-10-01 2010-02-25 Seiko Epson Corp Image processor
JP2010271904A (en) * 2009-05-21 2010-12-02 Nec System Technologies Ltd Image determination system, method and program
JP2012043379A (en) * 2010-08-23 2012-03-01 Nikon Corp Signal processing device, defect detection device, signal processing method, defect detection method and program
KR20150105217A (en) * 2014-03-07 2015-09-16 가부시키가이샤 다이헨 Image inspection apparatus and image inspection method
JP2017227473A (en) * 2016-06-20 2017-12-28 タカノ株式会社 Image checkup device, and program

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0256179A (en) * 1988-08-22 1990-02-26 Nippon Telegr & Teleph Corp <Ntt> Picture noise removal processing system
JPH02217088A (en) * 1989-02-17 1990-08-29 Victor Co Of Japan Ltd Prediction coding circuit among movement compensation frames
JPH05304621A (en) * 1992-03-30 1993-11-16 Sanyo Electric Co Ltd Video signal filtering circuit
JPH08180177A (en) * 1994-12-26 1996-07-12 Sony Corp Parallel processor
JPH08336137A (en) * 1995-06-07 1996-12-17 Sharp Corp Coding noise reducing image transmitter
JPH10322603A (en) * 1997-03-19 1998-12-04 Konica Corp Electronic camera
JPH1152904A (en) * 1997-07-31 1999-02-26 Sanyo Electric Co Ltd Testing method for lcd panel
JPH11257937A (en) * 1998-03-10 1999-09-24 Seiko Epson Corp Defect inspecting method
JPH11289457A (en) * 1998-03-31 1999-10-19 Anritsu Corp Isolated area emphasis filter circuit
JP2001036812A (en) * 1999-07-21 2001-02-09 Sony Corp Image processor, its method and medium
JP2002150281A (en) * 2000-11-16 2002-05-24 Sony Corp Image compression processing device and method
JP2002259965A (en) * 2001-02-26 2002-09-13 Sony Corp Image noise reducing method and device
JP2003028809A (en) * 2001-07-16 2003-01-29 Dainippon Printing Co Ltd Method and apparatus for inspecting paper cup
JP2004023331A (en) * 2002-06-14 2004-01-22 Sanyo Electric Co Ltd Digital camera

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0256179A (en) * 1988-08-22 1990-02-26 Nippon Telegr & Teleph Corp <Ntt> Picture noise removal processing system
JPH02217088A (en) * 1989-02-17 1990-08-29 Victor Co Of Japan Ltd Prediction coding circuit among movement compensation frames
JPH05304621A (en) * 1992-03-30 1993-11-16 Sanyo Electric Co Ltd Video signal filtering circuit
JPH08180177A (en) * 1994-12-26 1996-07-12 Sony Corp Parallel processor
JPH08336137A (en) * 1995-06-07 1996-12-17 Sharp Corp Coding noise reducing image transmitter
JPH10322603A (en) * 1997-03-19 1998-12-04 Konica Corp Electronic camera
JPH1152904A (en) * 1997-07-31 1999-02-26 Sanyo Electric Co Ltd Testing method for lcd panel
JPH11257937A (en) * 1998-03-10 1999-09-24 Seiko Epson Corp Defect inspecting method
JPH11289457A (en) * 1998-03-31 1999-10-19 Anritsu Corp Isolated area emphasis filter circuit
JP2001036812A (en) * 1999-07-21 2001-02-09 Sony Corp Image processor, its method and medium
JP2002150281A (en) * 2000-11-16 2002-05-24 Sony Corp Image compression processing device and method
JP2002259965A (en) * 2001-02-26 2002-09-13 Sony Corp Image noise reducing method and device
JP2003028809A (en) * 2001-07-16 2003-01-29 Dainippon Printing Co Ltd Method and apparatus for inspecting paper cup
JP2004023331A (en) * 2002-06-14 2004-01-22 Sanyo Electric Co Ltd Digital camera

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010271904A (en) * 2009-05-21 2010-12-02 Nec System Technologies Ltd Image determination system, method and program
JP2010011485A (en) * 2009-10-01 2010-01-14 Seiko Epson Corp Image processing unit
JP2010045814A (en) * 2009-10-01 2010-02-25 Seiko Epson Corp Image processor
JP2012043379A (en) * 2010-08-23 2012-03-01 Nikon Corp Signal processing device, defect detection device, signal processing method, defect detection method and program
KR20150105217A (en) * 2014-03-07 2015-09-16 가부시키가이샤 다이헨 Image inspection apparatus and image inspection method
KR102313347B1 (en) * 2014-03-07 2021-10-14 가부시키가이샤 다이헨 Image inspection apparatus and image inspection method
JP2017227473A (en) * 2016-06-20 2017-12-28 タカノ株式会社 Image checkup device, and program

Also Published As

Publication number Publication date
JP4244046B2 (en) 2009-03-25

Similar Documents

Publication Publication Date Title
US7561751B2 (en) Image processing method
JP2008180696A (en) Defect detector, defect detecting method, image sensor device, image sensor module, defect detecting program, and computer readable recording medium
JP2005331929A (en) Image analysis method, image analysis program, and pixel evaluation system therewith
JP2007285754A (en) Flaw detection method and flaw detector
JP4244046B2 (en) Image processing method and image processing apparatus
JP2006303491A (en) Method of inspecting wafer
JP4230880B2 (en) Defect inspection method
JP2005172559A (en) Method and device for detecting line defect on panel
JP2009229197A (en) Linear defect detecting method and device
CN113935927A (en) Detection method, device and storage medium
JP2005165387A (en) Method and device for detecting stripe defective of picture and display device
JP2004212311A (en) Method and apparatus for detecting unevenness defect
JP2009139133A (en) Flaw detection method and flaw detector
KR100754969B1 (en) Image inspecting apparatus, image inspecting method, and computer-readable storage medium
US7668344B2 (en) Stain inspection method and apparatus
JP2005345290A (en) Streak-like flaw detecting method and streak-like flaw detector
JP2009250937A (en) Pattern inspection device and method
JP2005283197A (en) Detecting method and system for streak defect of screen
JP2005140655A (en) Method of detecting stain flaw, and stain flaw detector
JP2019120644A (en) Surface inspection device and surface inspection method
JP2005252451A (en) Image quality inspection method and image quality inspection apparatus
JP2007081513A (en) Blot defect detecting method for solid-state imaging element
JP2004219176A (en) Method and apparatus for detecting pixel irregulality failing
JPH08327497A (en) Method for inspecting color liquid crystal display panel
JP3433333B2 (en) Defect inspection method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080527

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20080530

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080728

A072 Dismissal of procedure [no reply to invitation to correct request for examination]

Free format text: JAPANESE INTERMEDIATE CODE: A073

Effective date: 20080826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080909

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081202

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081224

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120116

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees