JP2001043387A - Device and method for processing image - Google Patents

Device and method for processing image

Info

Publication number
JP2001043387A
JP2001043387A JP2000022876A JP2000022876A JP2001043387A JP 2001043387 A JP2001043387 A JP 2001043387A JP 2000022876 A JP2000022876 A JP 2000022876A JP 2000022876 A JP2000022876 A JP 2000022876A JP 2001043387 A JP2001043387 A JP 2001043387A
Authority
JP
Japan
Prior art keywords
image processing
position detection
detected
boundary
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000022876A
Other languages
Japanese (ja)
Inventor
Masayuki Hattori
真之 服部
Yuji Torimaru
裕二 鳥丸
Yoshihito Hashimoto
良仁 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Works Ltd filed Critical Matsushita Electric Works Ltd
Priority to JP2000022876A priority Critical patent/JP2001043387A/en
Publication of JP2001043387A publication Critical patent/JP2001043387A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To prevent the position detection of an object in an inspection image from being dispersed by an operator by judging a detection procedure by trying the detection of the object according to the preset detection procedure. SOLUTION: A designation area 20a composed of line segments is designated and divided into two with a boundary detecting position 20b to considerably change luminance by visual confirmation as a boundary. When the maximum and minimum values of the luminance found for each divided area are not overlapped between areas, the position detection of a band-shaped object 10 in deep color is tried by the first position detection procedure. A spot, where the adjacent pixels of a binarized image are changed to white or black, is detected and a boundary 10a is detected. Afterwards, the position detection is performed by this procedure. When the maximum and minimum values are overlapped between areas, the position detection based on the second position detection procedure is tried. A spot, where an extreme value exists in the luminance differentiated value of pixels inside the designated area 20a, is detected and the boundary 10a is detected. Afterwards, the position detection is performed by this procedure.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、検査対象物を撮像
して得られた画像に対して、検査処理・測定処理を施
し、対象物10の良/不良判定及び計測を行う画像処理
装置及びその画像処理方法に関する。詳しくは、作業者
がモニター等の表示部に映し出された検査対象に対し
て、エッジ又は検出マークを含む領域と検出したいエッ
ジ又はマークの位置とを指示する機構を有した画像処理
装置及びその画像処理方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for performing an inspection process / measurement process on an image obtained by capturing an image of an object to be inspected and determining whether or not the object 10 is good / bad and measuring. The present invention relates to the image processing method. More specifically, an image processing apparatus having a mechanism for instructing a region including an edge or a detection mark and a position of an edge or a mark to be detected with respect to an inspection target projected on a display unit such as a monitor, and an image thereof. Regarding the processing method.

【0002】[0002]

【従来の技術】従来、この種の画像処理装置は、表示部
及び演算処理部を備えている。表示部は、例えば、モニ
ターであって、対象物10が撮像された検査画像20を
表示する表示画面が設けられている。演算処理部は、検
査画像20における対象物10の表示位置を検出する位
置検出を実行する。
2. Description of the Related Art Conventionally, this type of image processing apparatus has a display unit and an arithmetic processing unit. The display unit is, for example, a monitor, and is provided with a display screen that displays an inspection image 20 in which the object 10 is imaged. The arithmetic processing unit performs position detection for detecting the display position of the target object 10 in the inspection image 20.

【0003】このものによる対象物10の位置検出手順
には、幾通りかあり、そのうちの代表的なものに、次に
示す2つのものがある。まず、第1の位置検出手順は、
表示画面における輝度値と輝度分布に基づいて予め設定
された2値化レベル100との比較に基づいて、所定方
向に沿って検査画像20における対象物10の境界10
aを検出する方法である。詳しくは、表示画面における
輝度値と予め設定された2値化レベル100 とを比較
して、2値化レベル100 よりも大きい輝度の画素を
白とし、2値化レベル100よりも小さい輝度を有した
画素を黒とすることにより、白又は黒の2値からなる2
値化画像を作成する。それから、この2値化画像におけ
る隣合う画素が白又は黒に変化する箇所を、検査画像2
0における対象物10の境界10aとするのである。
[0003] There are several procedures for detecting the position of the object 10 by the above-mentioned method, and the following two are representative of them. First, the first position detection procedure is as follows.
Based on a comparison between the luminance value on the display screen and a binarization level 100 set in advance based on the luminance distribution, the boundary 10 of the object 10 in the inspection image 20 along the predetermined direction is determined.
This is a method for detecting a. Specifically, the luminance value on the display screen is compared with a preset binarization level 100, and pixels having a luminance higher than the binarization level 100 are set to white, and a pixel having a luminance lower than the binarization level 100 is provided. By making the pixel that is black, two pixels consisting of white or black
Create a binarized image. Then, a portion where adjacent pixels change to white or black in the binarized image is referred to as an inspection image 2
The boundary 10a of the object 10 at 0 is set.

【0004】例えば、図29(a)に示すように、対象
物10が濃色の帯状である場合に、予め指定された指定
領域20aで対象物10の境界10aを検出するとき、
輝度の大きく変わる位置を視認により求め、その求めた
位置を境に指定領域20aを所定方向に沿って2分し
て、その2分されたそれぞれの領域での輝度分布を求め
ると、同図(b)に示すように、それぞれピークを有す
る2つの輝度分布が得られる。すなわち、画素の有する
輝度は、対象物10の有する濃色に基づいて相対的に小
さい輝度となった画素による低輝度側分布と、対象物1
0ではないために淡色となっていて相対的に大きい輝度
となった画素による高輝度側分布を有することになる。
これらの両分布の中央値の平均値を2値化レベル100
として設定すると隣り合う画素が白又は黒に変化する箇
所を、検査画像20における対象物10の境界10aと
することにより、各画素を白又は黒として、2値化画像
を作成し、この2値化画像における隣合う画素が白又は
黒に変化する箇所を、検査画像20における対象物10
の境界10aとするのである。
For example, as shown in FIG. 29 (a), when the object 10 is a dark band, when detecting a boundary 10a of the object 10 in a designated area 20a designated in advance,
When a position at which the luminance greatly changes is determined by visual recognition, the designated area 20a is divided into two along a predetermined direction at the determined position, and the luminance distribution in each of the two divided areas is determined. As shown in b), two luminance distributions each having a peak are obtained. In other words, the luminance of the pixel includes a low luminance side distribution of pixels having relatively low luminance based on the dark color of the object 10 and the object 1
Since it is not 0, it has a high-luminance side distribution of pixels that are light-colored and have relatively large luminance.
The average value of the medians of these two distributions is calculated as binarization level 100
By setting a position where adjacent pixels change to white or black when set as the boundary 10a of the target object 10 in the inspection image 20, each pixel is set to white or black, and a binary image is created. The point where adjacent pixels in the converted image change to white or black is identified as the object 10 in the inspection image 20.
Is the boundary 10a.

【0005】また、第2の位置検出手順は、画素の有す
る輝度の微分値に基づいて所定方向に沿って検査画像2
0における対象物10の境界10aを検出する手順であ
る。詳しくは、表示画面における輝度値に基づいて、白
から黒に到るまでの複数の段階の色により、濃淡画像を
作成する。それから、この濃淡画像における隣合う画素
が白又は黒に変化する箇所では、濃淡変化が局部的に大
きくなり、換言すれば、画素の有する輝度の微分値の絶
対値が局部的に大きくなるので、この微分値の絶対値が
局部的に大きくなる箇所を、検査画像20における対象
物10の境界10a とするのである。
In the second position detection procedure, the inspection image 2 is determined along a predetermined direction based on the differential value of the luminance of the pixel.
This is a procedure for detecting the boundary 10a of the object 10 at 0. Specifically, based on the luminance value on the display screen, a grayscale image is created with a plurality of levels of colors from white to black. Then, at a place where adjacent pixels in this grayscale image change to white or black, the grayscale change locally increases, in other words, the absolute value of the differential value of the luminance of the pixel locally increases, The location where the absolute value of the differential value locally increases is defined as the boundary 10a of the object 10 in the inspection image 20.

【0006】例えば、図30(a)に示すように、対象
物10が濃色の帯状である場合に、予め指定された指定
領域20aで対象物10の境界10aを検出するとき、
輝度の大きく変わる位置を視認により求め、その求めた
位置を含むようにして、所定方向に沿って、画素の有す
る輝度の微分値をグラフ化すると、同図(b)に示すよ
うに、極小値を有するようになる。この極小値を有する
箇所では、淡色から濃色に変化していると考察できるの
で、輝度の微分値が極小値となる箇所を、検査画像20
における対象物10の境界10aとするのである。
For example, as shown in FIG. 30A, when the object 10 is a dark band, when detecting the boundary 10a of the object 10 in the designated area 20a designated in advance,
When a position at which the luminance greatly changes is visually recognized, and the obtained value is included in the graph, and a differential value of the luminance of the pixel is graphed along a predetermined direction, as shown in FIG. Become like Since it is possible to consider that the portion having the minimum value has changed from light color to dark color, the portion where the luminance differential value has the minimum value is identified as the inspection image 20.
Is the boundary 10a of the target object 10 in FIG.

【0007】上記した第1及び第2の位置検出手順は、
それぞれ長所及び短所を有している。すなわち、表示画
面における輝度値と予め設定された2値化レベル100
とを比較するという演算は、表示画面における輝度値の
微分値が極値となっているか否かを判断する演算に比較
して容易になされるから、表示画面における輝度値と予
め設定された2値化レベル100とを比較する演算がな
される第1の位置検出手順では、画素の有する輝度の微
分値が極値になっているか否かを判断する演算がなされ
る第2の位置検出手順よりも、検査画像20における対
象物10の境界10aを短時間で検出することができ
る。
[0007] The first and second position detection procedures described above include:
Each has advantages and disadvantages. That is, the luminance value on the display screen and the preset binarization level 100
Is easily compared with the operation of determining whether or not the differential value of the luminance value on the display screen is an extreme value, so that the luminance value on the display screen and the preset value of 2 are compared. In the first position detection procedure in which the calculation for comparing with the binarization level 100 is performed, the second position detection procedure in which the calculation for determining whether or not the differential value of the luminance of the pixel is an extreme value is performed. Also, the boundary 10a of the object 10 in the inspection image 20 can be detected in a short time.

【0008】しかしながら、第1の位置検出手順では、
図29(c)に示すように、輝度の大きく変わる位置と
して視認により求めた境界10aで2分したそれぞれの
領域の輝度分布が重複するような場合では、両分布の間
には、いずれの領域にも属さない輝度のレベルが存在し
なくなるので、表示画面における輝度値と比較される2
値化レベル100を設定することができず、ひいては、
検査画像20における対象物10の境界10aを検出す
ることができなくなる。
However, in the first position detection procedure,
As shown in FIG. 29C, in the case where the luminance distributions of the two regions divided by the boundary 10a visually determined as the positions where the luminance greatly changes overlap, any region between the two distributions Since there is no luminance level which does not belong to the display screen, the luminance level is compared with the luminance value on the display screen.
The price level 100 cannot be set, and as a result,
The boundary 10a of the object 10 in the inspection image 20 cannot be detected.

【0009】これに対し、第2の位置検出手順では、図
29(c)に示すように、輝度の大きく変わる位置とし
て視認により求めた境界10aで2分したそれぞれの領
域の輝度分布が重複するような場合であっても、前述し
たように、画素の有する輝度の微分値をグラフ化する
と、極値を有するのであるから、この極値を有する箇所
を対象物10の境界10aとすることにより、検査画像
20における対象物10の境界10aを検出することが
できる。
On the other hand, in the second position detection procedure, as shown in FIG. 29 (c), the luminance distribution of each area divided by the boundary 10a visually determined as a position where the luminance changes greatly overlaps. Even in such a case, as described above, when the differential value of the luminance of the pixel is graphed, it has an extreme value. Therefore, by setting the location having the extreme value as the boundary 10a of the object 10, , The boundary 10a of the object 10 in the inspection image 20 can be detected.

【0010】[0010]

【発明が解決しようとする課題】上記した従来の画像処
理装置にあっては、第1及び第2の位置検出手順を、ケ
ースバイケースで使い分けることにより、両位置検出手
順の長所を活用することができる。すなわち、第1の位
置検出手順を使うことにより、検査画像20における対
象物10の境界10aを短時間で検出することが可能で
あるし、第2の位置検出手順を使うことにより、第1の
位置検出手順で検出することができなくても、検査画像
20における対象物10の境界10aを検出することが
可能となる。
In the conventional image processing apparatus described above, the advantages of both the position detection procedures are utilized by selectively using the first and second position detection procedures on a case-by-case basis. Can be. That is, by using the first position detection procedure, it is possible to detect the boundary 10a of the target object 10 in the inspection image 20 in a short time, and by using the second position detection procedure, Even if it cannot be detected by the position detection procedure, the boundary 10a of the target object 10 in the inspection image 20 can be detected.

【0011】しかしながら、このものは、第1又は第2
の位置検出手順のいずれにより、検査画像20における
対象物10の境界10aを検出するべきかの判断は、位
置検出の手順を設定する作業者の経験の差によってばら
つくこともあるために、同一条件であっても、第1の位
置検出手順が使用されることもあるし、逆に、第2の位
置検出手順が使用されることがあって、まちまちである
から、検査画像20における対象物10の位置検出まで
もがばらつく恐れがあった。
However, this is the first or second type.
The determination as to which of the position detection procedures should detect the boundary 10a of the object 10 in the inspection image 20 may vary depending on the experience of the operator who sets the position detection procedure. However, the first position detection procedure may be used, and conversely, the second position detection procedure may be used. There was a possibility that even the position detection could vary.

【0012】本発明は、上記の点に着目してなされたも
ので、その目的とするところは、検査画像における対象
物の位置検出がばらつくことのない画像処理装置及びそ
の画像処理方法を提供することにある。
The present invention has been made in view of the above points, and an object of the present invention is to provide an image processing apparatus and an image processing method thereof in which the position detection of an object in an inspection image does not vary. It is in.

【0013】[0013]

【課題を解決するための手段】上記した課題を解決する
ために、請求項1記載の画像処理装置は、対象物が撮像
された検査画像を表示する表示画面における指定領域
で、対象物を検出する画像処理装置であって、予め設定
された検出手順により前記対象物の検出を試行し、その
検出手順により前記対象物を検出可能である場合に、そ
の検出手順により前記対象物の検出をする判断をし、そ
の検出手順により前記対象物を検出不能である場合に、
異なる検出手順により前記対象物の検出をする判断をす
る構成にしている。
According to a first aspect of the present invention, there is provided an image processing apparatus for detecting an object in a designated area on a display screen displaying an inspection image of the object. An image processing apparatus that attempts to detect the target object by a preset detection procedure, and detects the target object by the detection procedure when the target object can be detected by the detection procedure. Judgment, when the object can not be detected by the detection procedure,
The detection of the object is determined by a different detection procedure.

【0014】請求項2記載の画像処理装置は、対象物が
撮像された検査画像を表示する表示画面における指定領
域で、対象物の位置を検出する画像処理装置であって、
2値化レベルを設定しその2値化レベルを境界とする輝
度値の2値化に基づいて前記対象物を検出可能である場
合は、前記輝度値の2値化に基づいて前記対象物を検出
する判断をし、前記輝度値の2値化に基づいて前記対象
物を検出不能である場合は、異なる検出手順として輝度
微分値に基づいて前記対象物を検出する判断をする構成
にしている。
According to a second aspect of the present invention, there is provided an image processing apparatus for detecting a position of an object in a designated area on a display screen displaying an inspection image of the object.
If the target object can be detected based on a binarization level and the binarization of the luminance value with the binarization level as a boundary, the object is detected based on the binarization of the luminance value. When the detection is determined and the target cannot be detected based on the binarization of the luminance value, the detection of the target is performed based on the luminance differential value as a different detection procedure. .

【0015】請求項3記載の画像処理装置は、請求項2
記載の画像処理装置において、前記輝度微分値に基づい
て前記対象物を検出不能である場合に、異なる検出手順
として所定の走査範囲のテンプレートマッチングに基づ
いて前記対象物を検出する判断をする構成にしている。
According to a third aspect of the present invention, there is provided the image processing apparatus according to the second aspect.
In the image processing apparatus described in the above, when it is not possible to detect the target based on the luminance differential value, it is configured to determine to detect the target based on template matching in a predetermined scanning range as a different detection procedure. ing.

【0016】請求項4記載の画像処理装置は、請求項2
又は請求項3のいずれかに記載の画像処理装置におい
て、前記指定領域の全域に亙る輝度分布に基づいて前記
2値化レベルを設定する構成にしている。
According to a fourth aspect of the present invention, there is provided an image processing apparatus according to the second aspect.
Alternatively, in the image processing apparatus according to claim 3, the binarization level is set based on a luminance distribution over the entire specified area.

【0017】請求項5記載の画像処理装置は、請求項2
乃至請求項4のいずれかに記載の画像処理装置におい
て、所定方向に沿って前記対象物の境界が所定の順序を
有して複数個存在する場合に、その所定の順序に基づい
て前記対象物の境界を検出して、前記対象物を検出する
構成にしている。
According to a fifth aspect of the present invention, there is provided the image processing apparatus according to the second aspect.
5. The image processing apparatus according to claim 4, wherein, when a plurality of boundaries of the object have a predetermined order along a predetermined direction, the object is determined based on the predetermined order. Is detected to detect the object.

【0018】請求項6記載の画像処理装置は、請求項2
乃至請求項4のいずれかに記載の画像処理装置におい
て、所定方向に沿って前記対象物の境界が互いの間に所
定の位置関係を有して複数個存在する場合に、その所定
の位置関係に基づいて前記対象物の境界を検出して、前
記対象物を検出する構成にしている。
An image processing apparatus according to a sixth aspect of the present invention provides the image processing apparatus according to the second aspect.
5. The image processing apparatus according to claim 4, wherein when a plurality of boundaries of the object are present along a predetermined direction with a predetermined positional relationship between each other, the predetermined positional relationship is provided. The boundary of the target object is detected based on the target, and the target object is detected.

【0019】請求項7記載の画像処理装置は、請求項2
乃至請求項6のいずれかに記載の画像処理装置におい
て、前記検査画像が複数個の場合に、複数個の前記検査
画像のいずれかで前記対象物を検出不能なときに、前記
対象物を検出不能とみなして、異なる検出手順で前記対
象物を検出する判断をする構成にしている。
An image processing apparatus according to a seventh aspect is the second aspect.
7. The image processing apparatus according to claim 1, wherein the plurality of inspection images include a plurality of the inspection images, and the object is detected when the object cannot be detected in any of the plurality of inspection images. It is configured such that it is determined that the object is not possible and that the detection of the object is performed by a different detection procedure.

【0020】請求項8記載の画像処理装置は、請求項2
乃至請求項7のいずれかに記載の画像処理装置におい
て、前記検査画像が複数個の場合に、前記2値化レベル
を複数個の前記検査画像における前記指定領域の輝度分
布に基づいて前記2値化レベルを設定する構成にしてい
る。
[0020] The image processing apparatus according to the eighth aspect is the second aspect.
8. The image processing apparatus according to claim 1, wherein when the number of the inspection images is plural, the binarization level is determined based on a luminance distribution of the designated area in the plurality of inspection images. It is configured to set the activation level.

【0021】請求項9記載の画像処理装置は、請求項3
乃至請求項8のいずれかに記載の画像処理装置におい
て、前記検査画像が複数個の場合に、前記テンプレート
マッチングをするときに、複数個の前記検査画像間のば
らつきに基づいて、前記走査範囲を可変と構成にしてい
る。
An image processing apparatus according to a ninth aspect is the third aspect of the invention.
The image processing apparatus according to claim 8, wherein, when the plurality of inspection images are provided, when performing the template matching, the scanning range is set based on a variation between the plurality of inspection images. It has a variable configuration.

【0022】請求項10記載の画像処理装置は、請求項
3乃至請求項9のいずれかに記載の画像処理装置におい
て、前記検査画像が位置ずれしていた場合に、位置ずれ
していた前記検査画像の位置補正をしたときに、前記指
定領域又は前記走査範囲の位置補正を実行する構成にし
ている。
According to a tenth aspect of the present invention, in the image processing apparatus according to any one of the third to ninth aspects, when the inspection image is misaligned, the inspection is performed with a misalignment. When the position of the image is corrected, the position of the designated area or the scanning range is corrected.

【0023】請求項11記載の画像処理方法は、対象物
が撮像された検査画像を表示する表示画面における指定
領域で、対象物を検出する画像処理装置の画像処理方法
であって、予め設定された検出手順により前記対象物の
検出を試行し、その検出手順により前記対象物を検出可
能である場合に、その検出手順により前記対象物の検出
をする判断をし、その検出手順により前記対象物を検出
不能である場合に、異なる検出手順により前記対象物の
検出をする判断をするようにしている。
An image processing method according to an eleventh aspect of the present invention is an image processing method for an image processing apparatus for detecting an object in a designated area on a display screen displaying an inspection image of the object. Attempt to detect the object by the detection procedure, and when the object can be detected by the detection procedure, determine that the object is to be detected by the detection procedure, and determine the object by the detection procedure. When it is impossible to detect the object, it is determined to detect the object by a different detection procedure.

【0024】請求項12記載の画像処理方法は、対象物
が撮像された検査画像を表示する表示画面における指定
領域で、対象物の位置を検出する画像処理装置の画像処
理方法であって、2値化レベルを設定しその2値化レベ
ルを境界とする輝度値の2値化に基づいて前記対象物を
検出可能である場合は、前記輝度値の2値化に基づいて
前記対象物を検出する判断をし、前記輝度値の2値化に
基づいて前記対象物を検出不能である場合は、異なる検
出手順として輝度微分値に基づいて前記対象物を検出す
る判断をするようにしている。
According to a twelfth aspect of the present invention, there is provided an image processing method for an image processing apparatus for detecting a position of an object in a designated area on a display screen displaying an inspection image of the object. When the binarization level is set and the object can be detected based on the binarization of the luminance value with the binarization level as a boundary, the object is detected based on the binarization of the luminance value. If it is determined that the target object cannot be detected based on the binarization of the luminance value, a different detection procedure is used to determine the target object based on the luminance differential value.

【0025】請求項13記載の画像処理方法は、請求項
12記載の画像処理方法において、前記輝度微分値に基
づいて前記対象物を検出不能である場合に、異なる検出
手順として所定の走査範囲のテンプレートマッチングに
基づいて前記対象物を検出する判断をするようにしてい
る。
According to a thirteenth aspect of the present invention, in the image processing method of the twelfth aspect, when the object cannot be detected based on the luminance differential value, a different scanning procedure is performed for a predetermined scanning range. The detection of the object is determined based on template matching.

【0026】請求項14記載の画像処理方法は、請求項
12又は請求項13のいずれかに記載の画像処理方法に
おいて、前記指定領域の全域に亙る輝度分布に基づいて
前記2値化レベルを設定するようにしている。
According to a fourteenth aspect of the present invention, in the image processing method according to the twelfth or thirteenth aspect, the binarization level is set based on a luminance distribution over the entire specified area. I am trying to do it.

【0027】[0027]

【発明の実施の形態】本発明の第1実施形態を図1乃至
図3に基づいて以下に説明する。この画像処理装置は、
この画像処理装置は、TVカメラ1、A/D変換器2、
画像メモリ3、演算処理部4、D/A変換器5、表示部
6、演算用メモリ7を備えている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A first embodiment of the present invention will be described below with reference to FIGS. This image processing device
This image processing device includes a TV camera 1, an A / D converter 2,
An image memory 3, an arithmetic processing unit 4, a D / A converter 5, a display unit 6, and an arithmetic memory 7 are provided.

【0028】TVカメラ1は、対象物を撮像し、アナロ
グデータとしてA/D変換器2 に出力する。A/D変換
器2は、基準画像をデジタルデータ化するとともに、検
査用の対象物から得られた検査画像もデジタルデータ化
し、画像メモリ3に出力する。画像メモリ3は、A/D
変換器2から入力されたデジタルデータの両画像を記憶
する。
The TV camera 1 captures an image of an object and outputs it to the A / D converter 2 as analog data. The A / D converter 2 converts the reference image into digital data, converts the inspection image obtained from the inspection target into digital data, and outputs the digital data to the image memory 3. The image memory 3 has an A / D
Both images of the digital data input from the converter 2 are stored.

【0029】演算処理部4は、画像メモリ3に記憶され
た画像を読み出して、検査画像20において指定された
指定領域20aで対象物10を検出する位置検出を含む
演算処理を実行する。D/A変換器5は、画像メモリ3
から入力されたデジタルデータの画像をアナログデータ
化し、表示部6に出力する。表示部6は、D/A変換器
5から入力されたアナログデータの画像を表示する。演
算用メモリ7は、演算用メモリ7は、位置検出を含む演
算処理の手順を記憶している。
The arithmetic processing section 4 reads out the image stored in the image memory 3 and executes an arithmetic processing including a position detection for detecting the object 10 in the specified area 20a specified in the inspection image 20. The D / A converter 5 includes an image memory 3
The image of the digital data input from is converted into analog data and output to the display unit 6. The display unit 6 displays an image of the analog data input from the D / A converter 5. The calculation memory 7 stores a procedure of a calculation process including position detection.

【0030】次に、図1及び図3に基づいて、前述した
位置検出の手順を詳しく説明する。例えば、図3(a)
に示すように、対象物10が濃色の帯状である場合に、
まず、淡色の領域から濃色の領域に亘って、所定方向の
線分からなる指定領域20aを指定し、続いて、視認に
より輝度の大きく変わる箇所を判断し、その箇所を境界
検出位置20bとして設定する。続いて、境界検出位置
20bを境に指定領域20aを所定方向に垂直な方向に
沿って2つに分割して、その分割された領域毎に、画素
が有する輝度の最大値及び最小値をそれぞれ求める。そ
れぞれ求めた最大値と最小値との間が、同図(b)に示
すように、両領域間で重複していないときは、位置検出
作業の前に予め設定された第1の位置検出手順により、
対象物10の位置検出が試行される。
Next, the procedure of the above-described position detection will be described in detail with reference to FIGS. For example, FIG.
As shown in the figure, when the object 10 is in the form of a dark band,
First, a designated area 20a composed of line segments in a predetermined direction is designated from a light-colored area to a dark-colored area. Subsequently, a location where the luminance greatly changes by visual recognition is determined, and the location is set as a boundary detection position 20b. I do. Subsequently, the designated region 20a is divided into two along the boundary detection position 20b along a direction perpendicular to the predetermined direction, and the maximum value and the minimum value of the luminance of the pixel are respectively determined for each of the divided regions. Ask. When the calculated maximum value and minimum value do not overlap between the two areas as shown in FIG. 3B, the first position detection procedure set before the position detection work is performed. By
An attempt is made to detect the position of the object 10.

【0031】この第1の位置検出手順では、まず、各領
域毎の分布の中央値の平均値を2値化レベル100とす
る。それから、その2値化レベル100と指定領域20
a内の画素の輝度の絶対値とを比較して、2値化レベル
100よりも大きい輝度を有した画素を白とし、2値化
レベル100よりも小さい輝度を有した画素を黒とする
ことにより、白又は黒の2値からなる2値化画像を作成
する。続いて、この2値化画像における隣合う画素が白
又は黒に変化する箇所が境界10aと推定できるので、
2値化画像における隣合う画素が白又は黒に変化する箇
所を検出することでもって、境界10aを検出し、この
検出された境界10a が境界検出位置20b と一致す
るときに、検出が十分であるとして、第1の位置検出手
順により位置検出が実行可能と判断され、以後、第1の
位置検出手順により位置検出が実行される。これとは逆
に、検出された境界10aが境界検出位置20bと一致
しないときは、検出が不十分であるとして、第1の位置
検出手順による位置検出が実行不能と判断される。
In the first position detection procedure, first, the average value of the median of the distribution for each region is set to the binarization level 100. Then, the binarization level 100 and the designated area 20
By comparing the absolute value of the luminance of the pixel in a with the pixel having a luminance higher than the binarization level 100 is set to white, and the pixel having a luminance lower than the binarization level 100 is set to black. Thus, a binarized image composed of binary values of white or black is created. Subsequently, a portion where adjacent pixels change to white or black in the binary image can be estimated as the boundary 10a.
The boundary 10a is detected by detecting a portion where the adjacent pixel changes to white or black in the binarized image. When the detected boundary 10a matches the boundary detection position 20b, the detection is sufficient. If so, it is determined that position detection can be performed by the first position detection procedure, and thereafter, position detection is performed by the first position detection procedure. Conversely, when the detected boundary 10a does not coincide with the boundary detection position 20b, it is determined that the detection is insufficient, and it is determined that the position detection by the first position detection procedure cannot be executed.

【0032】また、前述した最大値と最小値との間が、
同図(c)に示すように、両領域間で重複しているとき
は、前述した第1の位置検出手順による位置検出が実行
不能と判断され、位置検出作業の前に予め設定された第
2の位置検出手順による位置検出を行する。
Further, between the above-mentioned maximum value and minimum value,
As shown in FIG. 3C, when the two areas overlap each other, it is determined that the position detection by the above-described first position detection procedure cannot be performed, and the second position detection is performed before the position detection operation. The position detection is performed by the position detection procedure of No. 2.

【0033】この第2の位置検出手順では、まず、指定
領域20a内の画素の輝度の微分処理を実行して輝度微
分値を求める。それから、その輝度微分値に極値が存在
しているか否かを判断する。ここで、同図(d)に示す
ように、極値が存在しているときは、その極値が存在し
ている箇所を検査画像20における対象物10の境界1
0aと推定できるので、極値が存在している箇所を検出
することでもって、境界10aを検出し、この検出され
た境界10a が境界検出位置20b と一致するとき
に、検出が十分であるとして、第2の位置検出手順によ
り位置検出が実行可能と判断され、以後、第2の位置検
出手順により位置検出が実行される。逆に、検出された
境界10a が境界検出位置20b と一致しないとき
は、検出が不十分であるとして、第2の位置検出手順に
よる位置検出が実行不能と判断されて、自動的に位置検
出手順を設定せずに、作業者が位置検出手順を適宜設定
するようにする。
In this second position detection procedure, first, a luminance differential value is obtained by executing a differential processing of the luminance of the pixels in the designated area 20a. Then, it is determined whether or not an extreme value exists in the luminance differential value. Here, as shown in FIG. 4D, when an extreme value exists, the location where the extreme value exists is defined as the boundary 1 of the object 10 in the inspection image 20.
Since it can be estimated as 0a, the boundary 10a is detected by detecting the location where the extreme value exists, and when the detected boundary 10a matches the boundary detection position 20b, it is determined that the detection is sufficient. It is determined that position detection can be performed by the second position detection procedure, and thereafter, position detection is performed by the second position detection procedure. Conversely, when the detected boundary 10a does not coincide with the boundary detection position 20b, it is determined that the detection is insufficient, and it is determined that the position detection by the second position detection procedure cannot be performed, and the position detection procedure is automatically performed. Is set, the operator appropriately sets the position detection procedure.

【0034】かかる位置検出装置にあっては、2値化レ
ベル100を設定しその2値化レベル100を境界10
aとする輝度値の2値化に基づいて対象物10を検出可
能である場合は、異なる検出手順として輝度値の2値化
に基づいて対象物10を検出する判断をし、輝度値の2
値化に基づいて対象物10を検出不能である場合は、輝
度微分値に基づいて対象物10を検出する判断をするよ
うにしているのであるから、従来例とは異なって、作業
者によって検査画像20における対象物を検出する手順
が異なることがなく、ひいては、検査画像20における
対象物の位置検出がばらつかなくなる。
In such a position detecting device, a binarization level 100 is set, and the binarization level 100 is
If the object 10 can be detected based on the binarization of the luminance value as a, it is determined that the object 10 is detected based on the binarization of the luminance value as a different detection procedure, and the luminance value 2 is determined.
If the object 10 cannot be detected based on the binarization, the judgment to detect the object 10 is made based on the luminance differential value. The procedure for detecting the target in the image 20 does not differ, and thus, the position detection of the target in the inspection image 20 does not vary.

【0035】さらに、作業者が適切な位置検出手順を選
択しなかったということに起因して、位置検出が可能で
もあるにも関わらず位置検出が不能になってしまうこと
も、起きなくなる。
Further, the fact that the position detection is possible but the position detection becomes impossible due to the operator not selecting an appropriate position detection procedure does not occur.

【0036】次に、本発明の第2実施形態を図4乃至図
11に基づいて以下に説明する。なお、第1実施形態と
同一の部分には同一の符号を付し、第1実施形態と異な
るところのみ記す。本実施形態は、基本的には、第1実
施形態と同様であるが、第2の位置検出手順による位置
検出の実行が不能と判断された場合に、輝度微分値に基
づいて対象物10を検出不能である場合に、異なる検出
手順として後述する走査範囲20cのテンプレートマッ
チングに基づいて対象物を検出する判断をするようにし
ている。また、このものは、後述する基準画像を記憶す
る基準画像メモリ8を設けている。
Next, a second embodiment of the present invention will be described below with reference to FIGS. The same parts as those in the first embodiment are denoted by the same reference numerals, and only the parts different from the first embodiment will be described. This embodiment is basically the same as the first embodiment, but when it is determined that the position detection cannot be performed by the second position detection procedure, the object 10 is determined based on the luminance differential value. When the detection is not possible, a determination to detect an object is made based on template matching of a scanning range 20c described later as a different detection procedure. This apparatus is provided with a reference image memory 8 for storing a reference image described later.

【0037】次に、図5乃至図11に基づいて、前述し
た位置検出の手順を詳しく説明する。例えば、図9
(a)に示すように、対象物10が濃色の帯状である場
合に、淡色の領域から濃色の領域に亘って、矩形の指定
領域20aを指定し、続いて、視認により輝度の大きく
変わる箇所を判断し、その箇所を境界検出位置20bと
して設定する。続いて、境界検出位置20bを境に指定
領域20aを、所定方向の1つであるX軸方向、すなわ
ち図9(a)における横方向に垂直な方向に沿って2つ
に分割して、その分割された領域毎に、画素が有する輝
度の最大値及び最小値をそれぞれ求める。それぞれ求め
た最大値と最小値との間が、両領域間で重複しているか
否かを判断する。
Next, the procedure of the above-described position detection will be described in detail with reference to FIGS. For example, FIG.
As shown in (a), when the object 10 has a dark band shape, a rectangular designated area 20a is designated from a light colored area to a dark colored area, and subsequently, the luminance is increased by visual recognition. The change position is determined, and the change position is set as the boundary detection position 20b. Subsequently, the designated region 20a is divided into two along the X-axis direction which is one of the predetermined directions, that is, in the direction perpendicular to the horizontal direction in FIG. The maximum value and the minimum value of the luminance of the pixel are obtained for each of the divided areas. It is determined whether or not the calculated maximum value and minimum value overlap each other between the two areas.

【0038】続いて、境界検出位置20bを境に指定領
域20aを、もう1つの所定方向であるY軸方向、すな
わち図(a)における縦方向に垂直な方向に沿って2つ
に分割して、その分割された領域毎に、画素の輝度の最
大値及び最小値をそれぞれ求め、それぞれ求めた最大値
と最小値との間が、両領域間で重複しているか否かを判
断する。
Subsequently, the designated area 20a is divided into two along the Y-axis direction which is another predetermined direction, that is, the direction perpendicular to the vertical direction in FIG. The maximum value and the minimum value of the luminance of the pixel are obtained for each of the divided areas, and it is determined whether the calculated maximum value and the minimum value overlap each other between the two areas.

【0039】ここで、最大値と最小値との間が、同図
(b)に示すように、X軸方向に垂直な方向に沿って分
割された両領域間で重複しておらず、かつ、同図(c)
に示すように、Y軸方向に垂直な方向に沿って分割され
た両領域間で重複している場合は、第1の位置検出手順
により位置検出が試行される。また、最大値と最小値と
の間が、X軸方向に沿って2分された両領域間で重複し
ており、かつ、Y軸方向に垂直な方向に沿って分割され
た両領域間で重複していない場合も、第1の位置検出手
順により位置検出が試行される。
Here, the area between the maximum value and the minimum value does not overlap between the two areas divided along the direction perpendicular to the X-axis direction, as shown in FIG. , FIG.
As shown in (1), when the two areas divided along the direction perpendicular to the Y-axis direction overlap each other, position detection is attempted by the first position detection procedure. Further, the maximum value and the minimum value overlap between the two regions divided along the X-axis direction, and between the two regions divided along the direction perpendicular to the Y-axis direction. Even if they do not overlap, position detection is attempted by the first position detection procedure.

【0040】逆に、最大値と最小値との間が、X軸方向
に垂直な方向に沿って分割された両領域間でも、Y軸方
向に垂直な方向に沿って分割された両領域間でも重複す
る場合は、第1の位置検出手順による位置検出が不能と
判断されて、第2の位置検出手順により位置検出が試行
される。また、最大値と最小値との間が、X軸方向に垂
直な方向に沿って分割された両領域間でも、Y軸方向に
垂直な方向に沿って分割された両領域間でも重複しない
場合も、第1の位置検出手順による位置検出が不能と判
断されて、第2の位置検出手順により位置検出が試行さ
れる。
On the other hand, the range between the maximum value and the minimum value is between the two regions divided along the direction perpendicular to the X-axis direction and between the two regions divided along the direction perpendicular to the Y-axis direction. However, if they overlap, it is determined that position detection by the first position detection procedure is impossible, and position detection is attempted by the second position detection procedure. In addition, when the maximum value and the minimum value do not overlap between both regions divided along the direction perpendicular to the X-axis direction or between both regions divided along the direction perpendicular to the Y-axis direction. Also, it is determined that the position detection by the first position detection procedure is impossible, and the position detection is attempted by the second position detection procedure.

【0041】なお、第1の位置検出手順が試行されて後
に、検出された境界10aが境界検出位置20bと一致
しない場合も、第1の位置検出手順による位置検出が不
能と判断されて、第2の位置検出手順により位置検出が
試行される。
If the detected boundary 10a does not coincide with the boundary detection position 20b after the first position detection procedure is tried, it is determined that the position detection by the first position detection procedure is impossible, and Position detection is attempted in accordance with the position detection procedure (2).

【0042】第2の位置検出手順では、まず、X軸方向
及びY軸方向に沿って、それぞれ画素の有する輝度の微
分処理を実行して輝度微分値を求める。それから、その
輝度微分値に極値が存在しているか否かを判断する。
In the second position detection procedure, first, a luminance differential value is obtained by executing a differential processing of the luminance of each pixel along the X-axis direction and the Y-axis direction. Then, it is determined whether or not an extreme value exists in the luminance differential value.

【0043】ここで、図10(a) に示すように、X
軸方向に沿って極値が存在していて、その極値の箇所が
境界検出位置20bと一致しており、かつ、図10
(b)に示すように、Y軸方向に沿って極値が存在しな
い場合は、第2の位置検出手順による位置検出が可能と
判断されて、以後、第2の位置検出手順により位置検出
が試行される。また、X軸方向に沿って極値が存在して
おらず、かつ、Y軸方向に沿って極値が存在していて、
その極値の箇所が境界検出位置20bと一致している場
合も、第2の位置検出手順による位置検出が可能と判断
されて、以後、第2の位置検出手順により位置検出が試
行される。
Here, as shown in FIG.
An extreme value exists along the axial direction, and the location of the extreme value coincides with the boundary detection position 20b.
As shown in (b), when no extreme value exists along the Y-axis direction, it is determined that the position can be detected by the second position detecting procedure, and thereafter, the position is detected by the second position detecting procedure. Will be tried. Also, there is no extreme value along the X-axis direction, and there is an extreme value along the Y-axis direction,
Also when the extreme value coincides with the boundary detection position 20b, it is determined that the position can be detected by the second position detection procedure, and thereafter, the position detection is tried by the second position detection procedure.

【0044】これらに対して、第2の位置検出手順によ
る位置検出が不能と判断された場合、例えば、図11に
示すように、対象物10が十字形であるために、X軸方
向に沿って極値が存在していて、その極値の箇所が境界
検出位置20bと一致しており、かつ、Y軸方向に沿っ
て極値が存在していて、その極値の箇所が境界検出位置
20bと一致している場合は、位置検出作業の前に予め
設定された第3の位置検出手順により位置検出が試行さ
れる。
On the other hand, when it is determined that the position can not be detected by the second position detection procedure, for example, as shown in FIG. The extreme value is present, the extreme value location coincides with the boundary detection position 20b, and the extreme value exists along the Y-axis direction, and the extreme value location is the boundary detection position. If the position coincides with 20b, position detection is attempted by a third position detection procedure set before the position detection operation.

【0045】第3の位置検出手順では、まず、指定領域
20aを基準画像として登録し、基準画像メモリ8に記
憶する。続いて、検査画像20全域を走査範囲20cと
して設定し、その走査範囲20cで、指定領域20aか
らなる基準画像を走査させるテンプレートマッチングを
実行し、走査範囲20cにおける、走査された基準画像
との一致度が高い箇所を、対象物10の位置と推定でき
るので、この一致度が高い箇所を検出することでもっ
て、位置を検出し、この検出された位置が境界検出位置
20bと一致するときに、検出が十分であるとして、第
3の位置検出手順により位置検出が実行可能と判断さ
れ、以後、第3の位置検出手順により位置検出が実行さ
れる。逆に、検出された位置が境界検出位置20bと一
致しないときは、検出が不十分であるとして、第3の位
置検出手順による位置検出が実行不能と判断されて、自
動的に位置検出手順を設定せずに、作業者が位置検出手
順を適宜設定するようにする。
In the third position detection procedure, first, the designated area 20a is registered as a reference image and stored in the reference image memory 8. Subsequently, the entire area of the inspection image 20 is set as a scanning range 20c, template matching for scanning the reference image including the designated area 20a is executed in the scanning range 20c, and matching with the scanned reference image in the scanning range 20c is performed. Since a point having a high degree can be estimated as the position of the object 10, the position is detected by detecting the point having a high degree of coincidence, and when the detected position matches the boundary detection position 20b, Assuming that the detection is sufficient, it is determined that position detection can be executed by the third position detection procedure, and thereafter, position detection is executed by the third position detection procedure. Conversely, when the detected position does not coincide with the boundary detection position 20b, it is determined that the detection is insufficient, and it is determined that the position detection by the third position detection procedure cannot be performed, and the position detection procedure is automatically executed. Instead of the setting, the operator appropriately sets the position detection procedure.

【0046】かかる画像処理装置にあっては、第1実施
形態の効果に加えて、輝度微分値に基づいて対象物を検
出不能である場合に、異なる検出手順として所定の走査
範囲20cのテンプレートマッチングに基づいて対象物
を検出する判断をするようにしているから、作業者によ
って検査画像における対象物の境界を検出する手順が異
なることがなく、ひいては、検査画像における対象物の
位置検出がばらつかなくなるという効果を、一段と奏す
ることができる。
In this image processing apparatus, in addition to the effects of the first embodiment, when the object cannot be detected based on the luminance differential value, the template matching of the predetermined scanning range 20c is performed as a different detection procedure. The procedure for detecting the boundary of the object in the inspection image does not differ from worker to operator, and thus the position detection of the object in the inspection image varies. The effect of disappearing can be further achieved.

【0047】また、テンプレートマッチングは、略確実
に、位置を検出することができるものの、第1及び第2
の位置検出手順における演算に比較して、複雑な演算で
あるために、長い時間を要するので、このテンプレート
マッチングを含む位置検出手順を、第1及び第2の位置
検出手順の後の第3の位置検出手順とすることにより、
時間短縮をすることができる。
In the template matching, although the position can be detected almost surely, the first and second positions can be detected.
Since the calculation is complicated and takes a long time compared to the calculation in the position detection procedure, the position detection procedure including the template matching is performed in the third step after the first and second position detection procedures. By using the position detection procedure,
Time can be reduced.

【0048】次に、本発明の第3実施形態を図12及び
図13に基づいて以下に説明する。なお、第1実施形態
と同一の部分には同一の符号を付し、第1実施形態と異
なるところのみ記す。第1実施形態では、境界検出位置
20bを境に指定領域20aを2つに分割して、その分
割された領域毎に、画素が有する輝度の最大値及び最小
値をそれぞれ求め、それぞれ求めた最大値と最小値との
間が両領域間で重複していないときに、各領域毎の分布
の中央値の平均値を2値化レベル100とするのに対
し、本実施形態は、指定領域20aの全域に亙る輝度分
布に基づいて2値化レベル100を設定する構成にして
いる。
Next, a third embodiment of the present invention will be described below with reference to FIGS. The same parts as those in the first embodiment are denoted by the same reference numerals, and only the parts different from the first embodiment will be described. In the first embodiment, the designated area 20a is divided into two parts by the boundary detection position 20b, and the maximum value and the minimum value of the luminance of the pixel are obtained for each of the divided areas. When the value and the minimum value do not overlap between the two regions, the average value of the median of the distribution for each region is set to the binarization level 100, whereas in the present embodiment, the designated region 20a Is set such that the binarization level 100 is set based on the luminance distribution over the entire area.

【0049】詳しくは、図12に示すように、指定領域
20aの全域に亙る輝度分布を求め、その輝度分布が重
複していないときに、低輝度側分布と高輝度側分布との
間を仕切ることができる輝度を2値化レベル100とす
るのである。
More specifically, as shown in FIG. 12, a luminance distribution over the entire designated area 20a is obtained, and when the luminance distributions do not overlap, a partition is made between the low luminance side distribution and the high luminance side distribution. The achievable luminance is set to the binarization level 100.

【0050】かかる画像処理装置にあっては、第1実施
形態の効果に加えて、対象物10の境界10aを複数個
有している場合に、第1実施形態のようにして、輝度の
大きく変わる位置を視認により求めるとともにその求め
た位置を境に指定領域20aを所定方向に沿って2つに
分割してその分割されたそれぞれの領域の分布の中央値
の平均値を2値化レベル100と設定するようにしてし
まうと、分割されたいずれかの領域では境界10aを含
むことによって輝度の分布が大きくなり、結果として、
2値化レベル100 と設定することが困難になって、
第1の位置検出手順で位置検出が実行不能と判断されて
しまうのに対し、2値化レベル100は、指定領域20
aの全域に亙る輝度分布に基づいて設定されるのである
から、対象物10の境界10aを複数個有しているとい
うことで2値化レベル100を設定することができなく
なるということはなく、第1の位置検出手順で位置検出
が実行可能であるにも関わらず、実行不能と判断されて
しまうということはなくなる。
In this image processing apparatus, in addition to the effect of the first embodiment, when there are a plurality of boundaries 10a of the object 10, the brightness is increased as in the first embodiment. The position to be changed is visually determined, and the designated area 20a is divided into two along a predetermined direction at the determined position, and the average value of the median of the distribution of each of the divided areas is converted to a binarization level 100. In such a case, the luminance distribution is increased by including the boundary 10a in any of the divided regions, and as a result,
It becomes difficult to set the binarization level to 100,
In the first position detection procedure, it is determined that position detection cannot be performed, whereas the binarization level 100 is
Since the setting is made based on the luminance distribution over the entire area of a, it is not impossible to set the binarization level 100 by having a plurality of boundaries 10a of the object 10, In spite of the fact that position detection can be executed in the first position detection procedure, it is no longer determined that execution is impossible.

【0051】次に、本発明の第4実施形態を図14乃至
図17に基づいて以下に説明する。なお、第2実施形態
と実質的に同一の部分には同一の符号を付し、第2実施
形態と異なるところのみ記す。第2実施形態では、境界
検出位置20bを境に指定領域20aを所定方向に沿っ
て2つに分割して、その分割された領域毎に、画素が有
する輝度の最大値及び最小値をそれぞれ求め、それぞれ
求めた最大値と最小値との間が両領域間で重複していな
いときに、各領域毎の分布の中央値の平均値を2値化レ
ベル100とするのに対し、本実施形態は、第3実施形
態と同様に、指定領域20aの全域に亙る輝度分布に基
づいて設定する構成にしている。
Next, a fourth embodiment of the present invention will be described below with reference to FIGS. It is to be noted that the same reference numerals are given to substantially the same portions as in the second embodiment, and only portions different from the second embodiment are described. In the second embodiment, the designated region 20a is divided into two along a predetermined direction at the boundary detection position 20b, and the maximum value and the minimum value of the luminance of the pixel are obtained for each of the divided regions. When the calculated maximum value and minimum value do not overlap between the two regions, the average value of the median of the distribution for each region is set to the binarization level 100. Is configured to be set based on the luminance distribution over the entire specified area 20a, as in the third embodiment.

【0052】かかる画像処理装置にあっては、第2実施
形態の効果に加えて、第3実施形態と同様に、2値化レ
ベル100は、指定領域20aの全域に亙る輝度分布に
基づいて設定されるのであるから、対象物10の境界1
0aを複数個有しているということで2値化レベル10
0を設定することができなくなるということはなく、第
1の位置検出手順で位置検出が実行可能であるにも関わ
らず、実行不能と判断されてしまうということはなくな
る。
In this image processing apparatus, in addition to the effects of the second embodiment, the binarization level 100 is set based on the luminance distribution over the entire designated area 20a, as in the third embodiment. The boundary 1 of the object 10
0a means that the binarization level is 10
It is not impossible to set 0, and it is not determined that execution is impossible even though position detection is possible in the first position detection procedure.

【0053】次に、本発明の第5実施形態を図18に基
づいて以下に説明する。なお、第3実施形態と同一の部
分には同一の符号を付し、第3実施形態と異なるところ
のみ記す。本実施形態は、基本的には、第3実施形態と
同様であるが、所定方向に沿って、対象物10の境界1
0aが所定の順序を有して複数個存在する場合に、その
所定の順序に基づいて、対象物10の境界10aを検出
可能とした構成となっている。
Next, a fifth embodiment of the present invention will be described below with reference to FIG. The same parts as those in the third embodiment are denoted by the same reference numerals, and only different points from the third embodiment will be described. The present embodiment is basically the same as the third embodiment, except that a boundary 1
When a plurality of 0a exist in a predetermined order, the boundary 10a of the object 10 can be detected based on the predetermined order.

【0054】例えば、図18に示すように、所定方向に
沿って、指定領域20aに対象物10の境界10aが2
つ存在している場合、所定方向に沿って2番目の境界1
0aであることが解っているときに、検出された2つの
境界10aのうちから、所定方向に沿って2番目の境界
10aを特定してから、第1又は第2の位置検出手順に
より検出された境界10a と境界検出位置20b とが
一致するか否かの判断がなされる。
For example, as shown in FIG. 18, the boundary 10a of the object 10 is
If one exists, the second boundary 1 along the predetermined direction
0a, the second boundary 10a is identified along the predetermined direction from the two detected boundaries 10a, and then the second boundary 10a is detected by the first or second position detection procedure. It is determined whether or not the boundary 10a matches the boundary detection position 20b.

【0055】かかる画像処理装置にあっては、第3実施
形態の効果に加えて、所定方向に沿って境界10aが所
定の順序を有して複数個存在する場合でも、所定の順序
に基づいて、複数個の境界10aのうちから、位置検出
が可能か又は不能であるかの判断がなされる1つの境界
10aを特定することができ、位置検出が可能か又は不
能であるかの判断を確実にすることができる。
In this image processing apparatus, in addition to the effects of the third embodiment, even when a plurality of boundaries 10a exist in a predetermined order along a predetermined direction, the boundaries are determined based on the predetermined order. It is possible to specify one boundary 10a for determining whether position detection is possible or impossible from a plurality of boundaries 10a, and to reliably determine whether position detection is possible or impossible. Can be

【0056】次に、本発明の第6実施形態を図19に基
づいて以下に説明する。なお、第4実施形態と同一の部
分には同一の符号を付し、第4実施形態と異なるところ
のみ記す。本実施形態は、基本的には、第4実施形態と
同様であるが、所定方向の1つであるX方向に沿って、
対象物10の境界10aが所定の順序を有して複数個存
在する場合に、その所定の順序に基づいて、対象物10
の境界10aを検出可能とした構成となっている。
Next, a sixth embodiment of the present invention will be described below with reference to FIG. The same parts as those in the fourth embodiment are denoted by the same reference numerals, and only different points from the fourth embodiment will be described. This embodiment is basically the same as the fourth embodiment, but along the X direction which is one of the predetermined directions,
When a plurality of boundaries 10a of the object 10 exist in a predetermined order, the object 10 is determined based on the predetermined order.
Is configured to be able to detect the boundary 10a.

【0057】例えば、図19に示すように、所定方向に
沿って、指定領域20a に対象物10の境界10aが
3つ存在している場合、所定方向に沿って2番目の境界
10a であることが解っているときに、検出された3
つの境界10a のうちから、所定方向に沿って2番目
の境界10aを特定してから、第1又は第2の位置検出
手順により検出された境界10aと境界検出位置20b
とが一致するか否かの判断がなされる。
For example, as shown in FIG. 19, when three boundaries 10a of the object 10 exist in the designated area 20a along the predetermined direction, the boundary 10a must be the second boundary 10a along the predetermined direction. 3 is detected when
After specifying the second boundary 10a along the predetermined direction from the two boundaries 10a, the boundary 10a and the boundary detection position 20b detected by the first or second position detection procedure are used.
Is determined as to whether or not.

【0058】かかる画像処理装置にあっては、第3実施
形態の効果に加えて、所定方向に沿って境界10aが所
定の順序を有して複数個存在する場合でも、所定の順序
に基づいて、複数個の境界10aのうちから、位置検出
が可能か又は不能であるかの判断がなされる1つの境界
10aを特定することができ、位置検出が可能か又は不
能であるかの判断を確実にすることができる。
In this image processing apparatus, in addition to the effect of the third embodiment, even when a plurality of boundaries 10a exist in a predetermined order along a predetermined direction, the boundary 10a is determined based on the predetermined order. It is possible to specify one boundary 10a for determining whether position detection is possible or impossible from a plurality of boundaries 10a, and to reliably determine whether position detection is possible or impossible. Can be

【0059】次に、本発明の第7実施形態を図20
(a)及び(b)に基づいて以下に説明する。なお、第
5実施形態と同一の部分には同一の符号を付し、第5実
施形態と異なるところのみ記す。本実施形態は、基本的
には第5実施形態と同様であるが、さらに、所定方向に
沿って境界10aが互いの間に所定の位置関係を有して
複数個存在する場合に、その所定の位置関係に基づいて
境界10aを検出可能とした構成にしている。
Next, a seventh embodiment of the present invention will be described with reference to FIG.
This will be described below based on (a) and (b). The same parts as those in the fifth embodiment are denoted by the same reference numerals, and only different points from the fifth embodiment will be described. This embodiment is basically the same as the fifth embodiment. However, when a plurality of boundaries 10a are present along a predetermined direction with a predetermined positional relationship between each other, the predetermined Is configured so that the boundary 10a can be detected based on the positional relationship.

【0060】例えば、同図(a)に示すように、所定方
向に沿って、指定領域20aに対象物10の境界10a
が4つ存在している場合、境界検出位置20b を含む
所定領域20c 内での境界10a間の所定の位置関係、
詳しくは、同図(a)に示したマーク20d と一致した
境界10a間に対象としている境界10aが存在してい
るという所定の位置関係が解っているときに、同図
(a)の状態とは異なる同図(b)に示す状態であって
も、検出された4つの境界10aのうちから、他の境界
10aとの間に所定の位置関係を有した境界10aを特
定してから、第1又は第2の位置検出手順により検出さ
れた境界10aと境界検出位置20bとが一致するか否
かの判断がなされる。
For example, as shown in FIG. 3A, the boundary 10a of the object 10 is
When there are four, a predetermined positional relationship between the boundaries 10a in a predetermined area 20c including the boundary detection positions 20b,
More specifically, when the predetermined positional relationship that the target boundary 10a exists between the boundaries 10a that match the mark 20d shown in FIG. Is different from the state shown in FIG. 4B, after specifying a boundary 10a having a predetermined positional relationship with another boundary 10a from among the detected four boundaries 10a, It is determined whether the boundary 10a detected by the first or second position detection procedure matches the boundary detection position 20b.

【0061】かかる画像処理装置にあっては、第3実施
形態の効果に加えて、所定方向に沿って境界10aが互
いの間に所定の位置関係を有して複数個存在する場合で
も、その所定の位置関係に基づいて、複数個の境界10
aから、位置検出が可能か又は不能であるかの判断がな
される1つの境界10aを特定することができ、位置検
出が可能か又は不能であるかの判断を確実にすることが
できる。
In this image processing apparatus, in addition to the effects of the third embodiment, even when a plurality of boundaries 10a exist in a predetermined direction and have a predetermined positional relationship between each other, the same effect can be obtained. Based on a predetermined positional relationship, a plurality of boundaries 10
From a, it is possible to identify one boundary 10a at which the determination as to whether the position detection is possible or not is possible, and it is possible to reliably determine whether the position detection is possible or not.

【0062】また、表示画面に4つの境界10aが全て
表示されていない場合であっても、所定の位置関係に基
づいて、複数個の境界10aから、位置検出が可能か又
は不能であるかの判断がなされる1つの境界10aを特
定することができ、位置検出が可能か又は不能であるか
の判断を確実にすることができる。
Even if all four boundaries 10a are not displayed on the display screen, it is determined whether position detection is possible or impossible from a plurality of boundaries 10a based on a predetermined positional relationship. One boundary 10a where the determination is made can be specified, and the determination as to whether the position can be detected or not can be made surely.

【0063】次に、本発明の第8実施形態を図21
(a)及び(b)に基づいて以下に説明する。なお、第
6実施形態と同一の部分には同一の符号を付し、第6実
施形態と異なるところのみ記す。本実施形態は、基本的
には、第6実施形態と同様であるが、本実施形態では、
さらに、所定方向の1つであるX方向に沿って、境界1
0aが互いの間に所定の位置関係を有して複数個存在す
る場合に、その所定の位置関係に基づいて境界10aを
検出可能とした構成にしている。
Next, an eighth embodiment of the present invention will be described with reference to FIG.
This will be described below based on (a) and (b). The same portions as those in the sixth embodiment are denoted by the same reference numerals, and only the portions different from the sixth embodiment will be described. This embodiment is basically the same as the sixth embodiment, but in this embodiment,
Further, along the X direction which is one of the predetermined directions, the boundary 1
When a plurality of 0a have a predetermined positional relationship between each other, the configuration is such that the boundary 10a can be detected based on the predetermined positional relationship.

【0064】例えば、同図(a)に示すように、所定方
向の1つであるX方向に沿って、指定領域20a に対
象物10の境界10a が4つ存在している場合、境界
検出位置20b を含む所定領域20c 内での境界10
a 間の所定の位置関係が解っているときに、同図
(a)の状態とは異なる同図(b)に示す状態であって
も、検出された4つの境界10a のうちから、他の境
界10a との間に所定の位置関係を有した境界10a
を特定してから、第1又は第2の位置検出手順により検
出された境界10aと境界検出位置20bとが一致する
か否かの判断をする。
For example, as shown in FIG. 9A, when there are four boundaries 10a of the object 10 in the designated area 20a along the X direction which is one of the predetermined directions, the boundary detection position Boundary 10 within predetermined area 20c including 20b
When a predetermined positional relationship between the four boundaries 10a is known, even if the state shown in FIG. 2B is different from the state shown in FIG. A boundary 10a having a predetermined positional relationship with the boundary 10a
Is determined, it is determined whether or not the boundary 10a detected by the first or second position detection procedure matches the boundary detection position 20b.

【0065】かかる画像処理装置にあっては、第6実施
形態の効果に加えて、所定方向に沿って境界10aが互
いの間に所定の位置関係を有して複数個存在する場合で
も、その所定の位置関係に基づいて、複数個の境界10
aから、位置検出が可能か又は不能であるかの判断がな
される1つの境界10aを特定することができ、位置検
出が可能か又は不能であるかの判断を確実にすることが
できる。
In this image processing apparatus, in addition to the effect of the sixth embodiment, even when a plurality of boundaries 10a exist in a predetermined direction with a predetermined positional relationship along a predetermined direction, this Based on a predetermined positional relationship, a plurality of boundaries 10
From a, it is possible to identify one boundary 10a at which the determination as to whether the position detection is possible or not is possible, and it is possible to reliably determine whether the position detection is possible or not.

【0066】また、第7実施形態と同様に、表示画面に
4つの境界10aが全て表示されていない場合であって
も、位置検出が可能か又は不能であるかの判断を確実に
することができる。
Also, as in the seventh embodiment, even when all four boundaries 10a are not displayed on the display screen, it is possible to reliably determine whether position detection is possible or impossible. it can.

【0067】次に、本発明の第9実施形態を図22乃至
25に基づいて以下に説明する。なお、第8実施形態と
同一の部分には同一の符号を付し、第8実施形態と異な
るところのみ記す。本実施形態は、基本的には第8実施
形態と同様であるが、検査画像20が複数個である場合
に、複数個の検査画像20のいずれかで、対象物10の
境界10aを検出不能なときに、位置検出の実行が不能
と判断される構成になっている。
Next, a ninth embodiment of the present invention will be described below with reference to FIGS. The same parts as those in the eighth embodiment are denoted by the same reference numerals, and only the parts different from the eighth embodiment will be described. This embodiment is basically the same as the eighth embodiment, but when there are a plurality of inspection images 20, the boundary 10a of the object 10 cannot be detected in any of the plurality of inspection images 20. In such a case, it is determined that the position detection cannot be executed.

【0068】詳しくは、図22乃至25に示すように、
第1乃至第3の位置検出手順のいずれで位置検出が試行
された場合でも、複数個の検査画像20のいずれかで、
対象物10の境界10aを検出不能なときに、位置検出
の実行が不能と判断する。
More specifically, as shown in FIGS.
Regardless of whether the position detection is attempted in any of the first to third position detection procedures, one of the plurality of inspection images 20
When the boundary 10a of the target object 10 cannot be detected, it is determined that the position detection cannot be executed.

【0069】かかる画像処理装置にあっては、第8実施
形態の効果に加えて、複数個の検査画像20のいずれか
で境界10aを検出不能なときに、位置検出の実行が不
能と判断されるのであって、複数個の検査画像20の全
てで境界10aを検出可能な場合にのみ位置検出の実行
が可能と判断されるのであるから、複数個の検査画像2
0間のばらつきをも考慮して、位置検出の実行が可能又
は不能であるかを判断することができ、ひいては、安定
した状態で位置検出を実行できる。
In this image processing apparatus, in addition to the effect of the eighth embodiment, when it is impossible to detect the boundary 10a in any of the plurality of inspection images 20, it is determined that the position detection cannot be executed. Therefore, it is determined that the position detection can be executed only when the boundary 10a can be detected in all of the plurality of inspection images 20.
It is possible to determine whether the position detection can be executed or not in consideration of the variation between zeros, and it is possible to execute the position detection in a stable state.

【0070】なお、本実施形態は、第8実施形態の構成
を基本的に有し、さらに、複数個の検査画像20のいず
れかで境界10aを検出不能なときに、位置検出の実行
が不能と判断される構成にしているが、第7実施形態の
構成を基本的に有し、さらに、複数個の検査画像20の
いずれかで境界10aを検出不能なときに、位置検出の
実行が不能と判断される構成にしても、複数個の検査画
像20間のばらつきをも考慮して、位置検出の実行が可
能又は不能であるかを判断することができ、ひいては、
安定した状態で位置検出を実行することができるという
効果を奏することができる。
This embodiment basically has the configuration of the eighth embodiment. Further, when the boundary 10a cannot be detected in any of the plurality of inspection images 20, the position detection cannot be executed. However, it basically has the configuration of the seventh embodiment, and furthermore, when the boundary 10a cannot be detected in any of the plurality of inspection images 20, the position detection cannot be executed. It is possible to determine whether position detection can be performed or not in consideration of the variation between the plurality of inspection images 20 even when the configuration is determined as follows.
There is an effect that position detection can be performed in a stable state.

【0071】次に、本発明の第10実施形態を図26に
基づいて以下に説明する。なお、第9実施形態と同一の
部分には同一の符号を付し、第9実施形態と異なるとこ
ろのみ記す。第8実施形態では、2値化レベル100
は、1つの検査画像20における予め指定された指定領
域20aでの全域に亙る輝度分布に基づいて設定されて
いるのに対し、本実施形態では、複数個の検査画像20
における予め指定された指定領域20aでの全域に亙る
輝度分布を図26に示すように求め、この輝度分布に基
づいて設定された構成にしている。
Next, a tenth embodiment of the present invention will be described below with reference to FIG. The same parts as those in the ninth embodiment are denoted by the same reference numerals, and only the differences from the ninth embodiment will be described. In the eighth embodiment, the binarization level 100
Is set based on the luminance distribution over the entire specified area 20a specified in advance in one inspection image 20, whereas in the present embodiment, a plurality of inspection images 20
26, the luminance distribution over the entire designated area 20a designated in advance is obtained as shown in FIG. 26, and the configuration is set based on this luminance distribution.

【0072】かかる画像処理装置にあっては、第9実施
形態の効果に加えて、2値化レベル100が、複数個の
検査画像20の有する輝度に基づいて設定されることに
より、複数個の検査画像20間のばらつきをも考慮して
2値化レベル100を設定することができ、ひいては、
安定した状態で位置検出を実行することができる。
In this image processing apparatus, in addition to the effects of the ninth embodiment, the binarization level 100 is set based on the luminance of the plurality of inspection images 20 to provide a plurality of images. The binarization level 100 can be set in consideration of the variation between the inspection images 20, and as a result,
Position detection can be performed in a stable state.

【0073】なお、本実施形態は、第9実施形態の構成
を基本的に有し、さらに、複数個の検査画像20におけ
る予め指定された指定領域20aでの全域に亙る輝度分
布に基づいて2値化レベル100が設定される構成にし
ているが、第7実施形態の構成を基本的に有し、さら
に、複数個の検査画像20における予め指定された指定
領域20a での全域に亙る輝度分布に基づいて2値化
レベル100 が設定される構成にしても、複数個の検
査画像20間のばらつきをも考慮して、位置検出の実行
が可能又は不能であるかを判断することができ、ひいて
は、安定した状態で位置検出を実行することができると
いう効果を奏することができる。
The present embodiment basically has the configuration of the ninth embodiment, and furthermore, based on the luminance distribution over the entire designated area 20 a designated in advance in the plurality of inspection images 20. Although the configuration is such that the binarization level 100 is set, the configuration basically has the configuration of the seventh embodiment, and furthermore, the luminance distribution over the entire designated area 20 a designated in advance in the plurality of inspection images 20. Even if the binarization level 100 is set based on the above, it is possible to determine whether the position detection can be executed or not in consideration of the variation between the plurality of inspection images 20, As a result, there is an effect that position detection can be performed in a stable state.

【0074】次に、本発明の第11実施形態を図27及
び図28に基づいて以下に説明する。なお、第10実施
形態と同一の部分には同一の符号を付し、第10実施形
態と異なるところのみ記す。本実施形態は、基本的に
は、第10実施形態と同様であるが、指定領域20aか
らなる基準画像が走査される走査範囲20cは、複数個
の検査画像20間の表示位置のばらつきに基づいて可変
とされた構成にしている。
Next, an eleventh embodiment of the present invention will be described below with reference to FIGS. 27 and 28. The same parts as those in the tenth embodiment are denoted by the same reference numerals, and only the parts different from the tenth embodiment will be described. The present embodiment is basically the same as the tenth embodiment, except that the scanning range 20c in which the reference image including the designated area 20a is scanned is based on the variation in the display position among the plurality of inspection images 20. The configuration is variable.

【0075】詳しくは、X方向に沿った表示位置のばら
つきをσx、Y方向に沿った表示位置のばらつきをσ
y、平均の表示位置を(X,Y)とし、さらに、作業者
の設定した境界検出位置20b から、指定領域20a
の端までの距離を、図28に示すように、(d1x,d
2x)及び(d1y,d2y)とした場合、走査範囲2
0cでの走査開始点(sx,sy)及び走査終了点(e
x,ey)を(1) 式乃至(4) 式により求める。
More specifically, the variation of the display position along the X direction is σx, and the variation of the display position along the Y direction is σx.
y, the display position of the average is (X, Y), and the designated area 20a is determined from the boundary detection position 20b set by the operator.
As shown in FIG. 28, the distance to the end of (d1x, d
2x) and (d1y, d2y), the scanning range 2
0c, the scanning start point (sx, sy) and the scanning end point (e
x, ey) is obtained by the equations (1) to (4).

【0076】sx=X−M×σx−d1x (1) sy=Y−M×σy−d1y (2) ex=X−M×σx+d2x (3) ey=Y−M×σy+d2y (4) かかる画像処理装置にあっては、第10実施形態の効果
に加えて、複数個の検査画像20間の表示位置のばらつ
きが小さい場合には、指定領域20aを小さくすること
ができ、走査範囲を小さくすることができ、テンプレー
トマッチングによる位置検出に必要な演算処理の回数が
減り、位置検出を高速で実行することができる。
Sx = X−M × σx−d1x (1) sy = Y−M × σy−d1y (2) ex = X−M × σx + d2x (3) ey = Y−M × σy + d2y (4) Such image processing In the apparatus, in addition to the effects of the tenth embodiment, when the variation in the display position among the plurality of inspection images 20 is small, the designated area 20a can be reduced, and the scanning range can be reduced. Thus, the number of arithmetic processes required for position detection by template matching is reduced, and position detection can be performed at high speed.

【0077】次に、本発明の第12実施形態を以下に説
明する。なお、第11実施形態と同一の部分には同一の
符号を付し、第11実施形態と異なるところのみ記す。
本実施形態は、基本的には、第11実施形態と同様であ
るが、検査画像20が位置ずれしていた場合に、位置ず
れしていた検査画像20に所定の位置補正をしたとき
に、指定領域20a及び走査範囲20c を、所定の位置
補正をした構成にしている。詳しくは、複数個の検査画
像20間の表示位置のばらつきに基づいて修正された状
態で、走査範囲20c に所定の位置補正をしている。
Next, a twelfth embodiment of the present invention will be described below. The same parts as those in the eleventh embodiment are denoted by the same reference numerals, and only the parts different from the eleventh embodiment will be described.
This embodiment is basically the same as the eleventh embodiment, except that when the inspection image 20 is misaligned, a predetermined position correction is performed on the misaligned inspection image 20. The designated area 20a and the scanning range 20c are configured to have a predetermined position correction. More specifically, a predetermined position correction is performed on the scanning range 20c in a state where the position is corrected based on the variation of the display position between the plurality of inspection images 20.

【0078】かかる画像処理装置にあっては、第10実
施形態の効果に加えて、位置ずれしていた検査画像20
に所定の位置補正をしたときに、指定範囲20a及び走
査範囲20c も、所定の位置補正をしているのであるか
ら、正確に位置検出を実行することができる。
In this image processing apparatus, in addition to the effects of the tenth embodiment, the inspection image 20
When the predetermined position is corrected, the specified position is also corrected in the designated range 20a and the scanning range 20c, so that the position can be accurately detected.

【0079】なお、第1実施形態乃至第12実施形態で
は、第1の位置検出手順による位置検出が不能と判断さ
れた場合に、第2の位置検出手順による位置検出を試行
する構成になっているが、第2の位置検出手順を試行す
ることなく、第3の位置検出手順を試行する構成にして
も、作業者によって検査画像20における対象物10の
境界10aを検出する手順が異なることがなく、ひいて
は、検査画像20における対象物10の位置検出がばら
つかなくなるという効果を奏することができる。
In the first to twelfth embodiments, when it is determined that the position detection by the first position detection procedure is impossible, the position detection by the second position detection procedure is tried. However, even in a configuration in which the third position detection procedure is tried without performing the second position detection procedure, the procedure for detecting the boundary 10a of the target object 10 in the inspection image 20 differs depending on the operator. In addition, the effect that the position detection of the object 10 in the inspection image 20 does not vary can be achieved.

【0080】また、第2実施形態、第4実施形態、第6
実施形態及び第8実施形態乃至第12実施形態では、第
1の位置検出手順による位置検出が不能と判断された場
合に、第2の位置検出手順による位置検出を試行し、そ
の第2の位置検出手順による位置検出が不能と判断され
たときに、第3の位置検出手順による位置検出を試行す
る構成になっているが、第1の位置検出手順を試行する
ことなく、初めに、第2の位置検出手順による位置検出
を試行し、その第2の位置検出手順による位置検出が不
能と判断されたときに、第3の位置検出手順による位置
検出を試行する構成にしても、作業者によって検査画像
20における対象物10の境界10aを検出する手順が
異なることがなく、ひいては、検査画像20における対
象物10の位置検出がばらつかなくなるという効果を奏
することができる。
The second embodiment, the fourth embodiment, and the sixth embodiment
In the embodiment and the eighth to twelfth embodiments, when it is determined that the position detection by the first position detection procedure is impossible, the position detection by the second position detection procedure is tried, and the second position detection is performed. When it is determined that the position detection by the detection procedure is impossible, the position detection by the third position detection procedure is tried. However, without performing the first position detection procedure, the second position detection is performed first. Even if a configuration is attempted in which the position detection is attempted by the third position detection procedure when the position detection by the second position detection procedure is determined to be impossible, the position detection is attempted by the third position detection procedure. The procedure for detecting the boundary 10a of the target object 10 in the inspection image 20 does not differ, and the effect that the position detection of the target object 10 in the inspection image 20 does not vary can be obtained.

【0081】[0081]

【発明の効果】請求項1記載の画像処理装置は、予め設
定された検出手順により対象物の検出を試行し、その検
出手順により対象物を検出可能である場合に、その検出
手順により対象物の検出をする判断をし、その検出手順
により対象物を検出不能である場合に、異なる検出手順
により対象物の検出をする判断をするようにしているの
であるから、従来例とは異なって、作業者によって検査
画像における対象物を検出する手順が異なることはな
く、ひいては、検査画像における対象物の位置検出がば
らつかなくなる。
According to the first aspect of the present invention, the image processing apparatus tries to detect an object by a preset detection procedure, and if the object can be detected by the detection procedure, the object is detected by the detection procedure. In the case where the detection of the object is not detected by the detection procedure and the detection of the object is detected by a different detection procedure, unlike the conventional example, The procedure for detecting the target in the inspection image does not differ depending on the operator, and the position detection of the target in the inspection image does not vary.

【0082】請求項2記載の画像処理装置は、2値化レ
ベルを設定しその2値化レベルを境界とする輝度値の2
値化に基づいて対象物を検出可能である場合は、輝度値
の2値化に基づいて対象物を検出する判断をし、輝度値
の2値化に基づいて対象物を検出不能である場合は、異
なる検出手順として輝度微分値に基づいて対象物を検出
する判断をするようにしているのであるから、従来例と
は異なって、作業者によって検査画像における対象物を
検出する手順が異なることがなく、ひいては、検査画像
における対象物の位置検出がばらつかなくなる。
According to the image processing apparatus of the present invention, a binarization level is set and a luminance value of 2 is set with the binarization level as a boundary.
If the object can be detected based on the binarization, it is determined to detect the object based on the binarization of the luminance value, and if the object cannot be detected based on the binarization of the luminance value Differs from the conventional example in that the procedure for detecting an object in an inspection image is different from that of the conventional example because the detection of the object is performed based on the luminance differential value as a different detection procedure. As a result, the detection of the position of the object in the inspection image does not vary.

【0083】請求項3記載の画像処理装置は、輝度微分
値に基づいて対象物を検出不能である場合に、異なる検
出手順として所定の走査範囲のテンプレートマッチング
に基づいて対象物を検出する判断をするようにしている
から、作業者によって検査画像における対象物の境界を
検出する手順が異なることがなく、ひいては、検査画像
における対象物の位置検出がばらつかなくなるという請
求項2記載の画像処理装置の効果を、一段と奏すること
ができる。
According to a third aspect of the present invention, when an object cannot be detected based on the luminance differential value, a determination to detect the object based on template matching in a predetermined scanning range is performed as a different detection procedure. 3. The image processing apparatus according to claim 2, wherein the procedure for detecting the boundary of the object in the inspection image does not differ depending on the operator, and the position detection of the object in the inspection image does not vary. Can be further achieved.

【0084】請求項4記載の画像処理装置は、請求項2
又は請求項3のいずれかに記載の画像処理装置の効果に
加えて、例えば、対象物の境界を複数個有している場合
に、輝度の大きく変わる位置を視認により求めるととも
にその求めた位置を境に指定領域を所定方向に沿って2
分してその2分されたそれぞれの領域の分布の中央値の
平均値を2値化レベルと設定するようにしてしまうと、
2分されたいずれかの領域では境界を含むことによって
輝度の分布が大きくなり、結果として、2値化レベルと
設定することが困難になって、位置検出が実行不能と判
断されてしまうのに対し、2値化レベルは、指定領域の
全域に亙る輝度分布に基づいて設定されるのであるか
ら、対象物の境界を複数個有しているということで2値
化レベルを設定することができなくなるということはな
く、位置検出が実行可能であるにも関わらず、実行不能
と判断されてしまうということはなくなる。
The image processing apparatus according to the fourth aspect is the second aspect of the invention.
Or, in addition to the effect of the image processing apparatus according to claim 3, for example, when there are a plurality of boundaries of the object, a position where the luminance largely changes is visually determined and the determined position is determined. A specified area at the boundary
If the average value of the median of the distributions of the two divided areas is set as the binarization level,
In any one of the two regions, the distribution of luminance is increased by including the boundary. As a result, it is difficult to set the binarization level, and it is determined that position detection cannot be performed. On the other hand, since the binarization level is set based on the luminance distribution over the entire designated area, the binarization level can be set by having a plurality of object boundaries. It does not disappear, and it is no longer determined that the position detection is executable but the execution is not possible.

【0085】請求項5記載の画像処理装置は、請求項2
乃至請求項4のいずれかに記載の画像処理装置の効果に
加えて、所定方向に沿って境界が所定の順序を有して複
数個存在する場合に、所定の順序に基づいて、複数個の
境界のうちから、位置検出が可能か又は不能であるかの
判断がなされる1つの境界を特定することができ、位置
検出が可能か又は不能であるかの判断を確実にすること
ができる。
The image processing apparatus according to the fifth aspect is the second aspect of the invention.
In addition to the effects of the image processing apparatus according to any one of claims 4 to 5, when a plurality of boundaries exist in a predetermined order along a predetermined direction, a plurality of boundaries are determined based on the predetermined order. One of the boundaries from which the determination as to whether the position can be detected or not can be specified, and the determination as to whether or not the position can be detected can be ensured.

【0086】請求項6記載の画像処理装置は、請求項2
乃至請求項4のいずれかに記載の画像処理装置の効果に
加えて、所定方向に沿って境界が互いの間に所定の位置
関係を有して複数個存在する場合に、その所定の位置関
係に基づいて、複数個の境界から、位置検出が可能か又
は不能であるかの判断がなされる1つの境界を特定する
ことができ、位置検出が可能か又は不能であるかの判断
を確実にすることができる。
The image processing apparatus according to the sixth aspect is the second aspect of the invention.
In addition to the effects of the image processing apparatus according to any one of claims 4 to 4, when a plurality of boundaries exist along a predetermined direction with a predetermined positional relationship between each other, the predetermined positional relationship Based on the plurality of boundaries, it is possible to identify one boundary from which a determination as to whether position detection is possible or impossible is made, and to reliably determine whether position detection is possible or impossible. can do.

【0087】請求項7記載の画像処理装置は、請求項2
乃至請求項6のいずれかに記載の画像処理装置の効果に
加えて、複数個の検査画像のいずれかで境界を検出不能
なときに、対象物を検出不能とみなして、異なる検出手
順で対象物を検出する判断をするようにしているのであ
るから、複数個の検査画像間のばらつきをも考慮して、
位置検出の実行が可能又は不能であるかを判断すること
ができ、ひいては、安定した状態で位置検出を実行する
ことができる。
The image processing apparatus according to the seventh aspect is the second aspect of the invention.
In addition to the effects of the image processing device according to any one of claims 6 to 6, when a boundary cannot be detected in any of the plurality of inspection images, the object is regarded as undetectable, and the object is detected by a different detection procedure. Because it is determined to detect the object, considering the variation between the plurality of inspection images,
It is possible to determine whether the execution of the position detection is possible or impossible, and it is possible to execute the position detection in a stable state.

【0088】請求項8記載の画像処理装置は、請求項2
乃至請求項6のいずれかに記載の画像処理装置の効果に
加えて、2値化レベルが、複数個の検査画像の有する輝
度に基づいて設定されることにより、複数個の検査画像
間のばらつきをも考慮して2値化レベルを設定すること
ができ、ひいては、安定した状態で位置検出を実行する
ことができる。
The image processing apparatus according to the eighth aspect is the second aspect.
In addition to the effects of the image processing apparatus according to any one of claims 6 to 6, the binarization level is set based on the luminance of the plurality of inspection images, so that the variation between the plurality of inspection images is obtained. , The binarization level can be set, and the position can be detected in a stable state.

【0089】請求項9記載の画像処理装置は、請求項3
乃至請求項8のいずれかに記載の画像処理装置の効果に
加えて、複数個の検査画像間のばらつきが小さい場合に
は、走査範囲を小さくすることができ、テンプレートマ
ッチングによる位置検出に必要な演算処理の回数が減
り、位置検出を高速で実行することができる。
The image processing apparatus according to the ninth aspect provides the image processing apparatus according to the third aspect.
In addition to the effects of the image processing apparatus according to any one of claims 8 to 12, when the variation between a plurality of inspection images is small, the scanning range can be reduced, and the position required for position detection by template matching can be reduced. The number of arithmetic processes is reduced, and position detection can be performed at high speed.

【0090】請求項10記載の画像処理装置は、請求項
2乃至請求項9のいずれかに記載の画像処理装置の効果
に加えて、位置ずれしていた検査画像に位置補正をした
ときに、指定範囲又は走査範囲も位置補正をするのであ
るから、正確に位置検出を実行することができる。
According to a tenth aspect of the present invention, in addition to the effects of the second to ninth aspects of the present invention, when the position correction is performed on the inspection image that has been displaced, Since the position is also corrected in the designated range or the scanning range, the position can be accurately detected.

【0091】請求項11記載の画像処理方法によれば、
予め設定された検出手順により対象物の検出を試行し、
その検出手順により対象物を検出可能である場合に、そ
の検出手順により対象物の検出をする判断をし、その検
出手順により対象物を検出不能である場合に、異なる検
出手順により対象物の検出をする判断をするようにして
いるのであるから、従来例とは異なって、作業者によっ
て検査画像における対象物を検出する手順が異なること
はなく、ひいては、検査画像における対象物の位置検出
がばらつかなくなる。
According to the image processing method of the eleventh aspect,
Attempt to detect an object by a preset detection procedure,
If the object can be detected by the detection procedure, it is determined to detect the object by the detection procedure.If the object cannot be detected by the detection procedure, the object is detected by a different detection procedure. Therefore, unlike the conventional example, the procedure for detecting the object in the inspection image does not differ from the conventional example, and the position detection of the object in the inspection image differs. It doesn't stick.

【0092】請求項12記載の画像処理方法によれば、
2値化レベルを設定しその2値化レベルを境界とする輝
度値の2値化に基づいて対象物を検出可能である場合
は、輝度値の2値化に基づいて対象物を検出する判断を
し、輝度値の2値化に基づいて対象物を検出不能である
場合は、異なる検出手順として輝度微分値に基づいて対
象物を検出する判断をするようにしているのであるか
ら、従来例とは異なって、作業者によって検査画像にお
ける対象物を検出する手順が異なることがなく、ひいて
は、検査画像における対象物の位置検出がばらつかなく
なる。
According to the image processing method of the twelfth aspect,
When the binarization level is set and the target can be detected based on the binarization of the luminance value with the binarization level as a boundary, a determination to detect the target based on the binarization of the luminance value If the target object cannot be detected based on the binarization of the luminance value, a different detection procedure is used to determine the detection of the target object based on the luminance differential value. Unlike the above, the procedure for detecting the object in the inspection image does not differ depending on the operator, and the position detection of the object in the inspection image does not vary.

【0093】請求項13記載の画像処理方法によれば、
輝度微分値に基づいて対象物を検出不能である場合に、
異なる検出手順として所定の走査範囲のテンプレートマ
ッチングに基づいて対象物を検出する判断をするように
しているから、作業者によって検査画像における対象物
の境界を検出する手順が異なることがなく、ひいては、
検査画像における対象物の位置検出がばらつかなくなる
という請求項12記載の画像処理方法による効果を、一
段と奏することができる。
According to the image processing method of the thirteenth aspect,
If the object cannot be detected based on the luminance derivative,
Since the detection of the target is determined based on the template matching of the predetermined scanning range as a different detection procedure, the procedure for detecting the boundary of the target in the inspection image does not differ depending on the operator, and thus,
The effect of the image processing method according to the twelfth aspect that the position detection of the object in the inspection image does not vary can be further exhibited.

【0094】請求項14記載の画像処理方法によれば、
請求項2又は請求項3のいずれかに記載の画像処理方法
による効果に加えて、例えば、対象物の境界を複数個有
している場合に、輝度の大きく変わる位置を視認により
求めるとともにその求めた位置を境に指定領域を所定方
向に沿って2分してその2分されたそれぞれの領域の分
布の中央値の平均値を2値化レベルと設定するようにし
てしまうと、2分されたいずれかの領域では境界を含む
ことによって輝度の分布が大きくなり、結果として、2
値化レベルと設定することが困難になって、位置検出が
実行不能と判断されてしまうのに対し、2値化レベル
は、指定領域の全域に亙る輝度分布に基づいて設定され
るのであるから、対象物の境界を複数個有しているとい
うことで2値化レベルを設定することができなくなると
いうことはなく、位置検出が実行可能であるにも関わら
ず、実行不能と判断されてしまうということはなくな
る。
According to the image processing method of the fourteenth aspect,
In addition to the effects of the image processing method according to any one of claims 2 and 3, for example, when there are a plurality of boundaries of an object, a position where the luminance greatly changes is visually determined and the position is determined. If the designated region is divided into two along the predetermined direction at the boundary of the position and the average value of the median of the distribution of each of the divided regions is set as the binarization level, it is divided into two. In any of the regions, the distribution of luminance is increased by including the boundary, and as a result, 2
It is difficult to set the binarization level, and it is determined that position detection cannot be performed. On the other hand, the binarization level is set based on the luminance distribution over the entire specified area. However, the presence of a plurality of object boundaries does not prevent the binarization level from being set, and it is determined that the position detection can be performed but the position detection cannot be performed. It will not be.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1実施形態の手順を示すフローチャ
ートである。
FIG. 1 is a flowchart illustrating a procedure according to a first embodiment of the present invention.

【図2】同上の構成図である。FIG. 2 is a configuration diagram of the above.

【図3】同上による位置検出手順を示す説明図である。FIG. 3 is an explanatory diagram showing a position detection procedure according to the above.

【図4】本発明の第2実施形態の構成図である。FIG. 4 is a configuration diagram of a second embodiment of the present invention.

【図5】同上の手順を示すフローチャートである。FIG. 5 is a flowchart showing a procedure of the above.

【図6】同上の手順を示すフローチャートである。FIG. 6 is a flowchart showing a procedure of the above.

【図7】同上の手順を示すフローチャートである。FIG. 7 is a flowchart showing a procedure of the above.

【図8】同上の手順を示すフローチャートである。FIG. 8 is a flowchart showing a procedure of the above.

【図9】同上によるX軸方向に沿った位置検出手順を示
す説明図である。
FIG. 9 is an explanatory diagram showing a position detection procedure along the X-axis direction according to the above.

【図10】同上によるY軸方向に沿った位置検出手順を
示す説明図である。
FIG. 10 is an explanatory diagram showing a position detection procedure along the Y-axis direction according to the above.

【図11】同上によるテンプレートマッチングに使用さ
れる基準画像の説明図である。
FIG. 11 is an explanatory diagram of a reference image used for template matching according to the above.

【図12】本発明の第3実施形態の2値化レベルを示す
説明図である。
FIG. 12 is an explanatory diagram showing a binarization level according to the third embodiment of the present invention.

【図13】同上の手順を示すフローチャートである。FIG. 13 is a flowchart showing a procedure of the above.

【図14】本発明の第4実施形態の手順を示すフローチ
ャートである。
FIG. 14 is a flowchart illustrating a procedure according to a fourth embodiment of the present invention.

【図15】同上の手順を示すフローチャートである。FIG. 15 is a flowchart showing a procedure of the above.

【図16】同上の手順を示すフローチャートである。FIG. 16 is a flowchart showing a procedure of the above.

【図17】同上の手順を示すフローチャートである。FIG. 17 is a flowchart showing a procedure of the above.

【図18】本発明の第5実施形態の位置検出手順を示す
説明図である。
FIG. 18 is an explanatory diagram showing a position detection procedure according to a fifth embodiment of the present invention.

【図19】本発明の第6実施形態の位置検出手順を示す
説明図である。
FIG. 19 is an explanatory diagram showing a position detection procedure according to a sixth embodiment of the present invention.

【図20】本発明の第7実施形態の位置検出手順を示す
説明図である。
FIG. 20 is an explanatory diagram showing a position detection procedure according to the seventh embodiment of the present invention.

【図21】本発明の第8実施形態の位置検出手順を示す
説明図である。
FIG. 21 is an explanatory diagram showing a position detection procedure according to the eighth embodiment of the present invention.

【図22】本発明の第9実施形態の手順を示すフローチ
ャートである。
FIG. 22 is a flowchart illustrating a procedure according to a ninth embodiment of the present invention.

【図23】同上の手順を示すフローチャートである。FIG. 23 is a flowchart showing a procedure of the above.

【図24】同上の手順を示すフローチャートである。FIG. 24 is a flowchart showing a procedure of the above.

【図25】同上の手順を示すフローチャートである。FIG. 25 is a flowchart showing a procedure of the above.

【図26】本発明の第10実施形態の2値化レベルを示
す説明図である。
FIG. 26 is an explanatory diagram showing a binarization level according to the tenth embodiment of the present invention.

【図27】本発明の第11実施形態によるテンプレート
マッチングに使用される基準画像の説明図である。
FIG. 27 is an explanatory diagram of a reference image used for template matching according to the eleventh embodiment of the present invention.

【図28】同上の基準画像である指定領域の説明図であ
る。
FIG. 28 is an explanatory diagram of a designated area that is a reference image of the above.

【図29】従来例の第1の位置検出手順を示す説明図で
ある。
FIG. 29 is an explanatory diagram showing a first position detection procedure of a conventional example.

【図30】同上の第2の位置検出手順を示す説明図であ
る。
FIG. 30 is an explanatory diagram showing a second position detection procedure of the above.

【符号の説明】[Explanation of symbols]

4 演算処理部 6a 表示画面 10 対象物 10a 境界 20 検査画像 20a 指定領域 20c 走査範囲 100 2値化レベル 4 Arithmetic processing unit 6a Display screen 10 Object 10a Boundary 20 Inspection image 20a Designated area 20c Scanning range 100 Binarization level

───────────────────────────────────────────────────── フロントページの続き (72)発明者 橋本 良仁 大阪府門真市大字門真1048番地松下電工株 式会社内 Fターム(参考) 2F065 AA03 AA12 AA61 DD00 FF01 JJ03 JJ26 QQ03 QQ08 QQ13 QQ23 QQ24 QQ25 QQ32 QQ36 QQ38 QQ39 RR07 SS13 UU05 5B057 AA02 BA02 BA24 CE12 DA03 DA07 DB02 DB09 DC16 DC23 DC33 DC38 5L096 AA06 BA03 CA02 CA24 DA02 EA43 FA06 FA32 FA37 FA69 FA76 GA02 GA19 JA03 JA11 JA16 9A001 DD15 HH23 HH25 LL05  ────────────────────────────────────────────────── ─── Continuing on the front page (72) Yoshihito Hashimoto, Inventor F-term (reference) 2F065 AA03 AA12 AA61 DD00 FF01 JJ03 JJ26 QQ03 QQ08 QQ13 QQ23 QQ24 QQ25 QQ32 QQ38 QQ39 RR07 SS13 UU05 5B057 AA02 BA02 BA24 CE12 DA03 DA07 DB02 DB09 DC16 DC23 DC33 DC38 5L096 AA06 BA03 CA02 CA24 DA02 EA43 FA06 FA32 FA37 FA69 FA76 GA02 GA19 JA03 JA11 JA16 9A001 DD15 HH23 HH25 LL05

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】 対象物が撮像された検査画像を表示する
表示画面における指定領域で、対象物を検出する画像処
理装置であって、予め設定された検出手順により前記対
象物の検出を試行し、その検出手順により前記対象物を
検出可能である場合に、その検出手順により前記対象物
の検出をする判断をし、その検出手順により前記対象物
を検出不能である場合に、異なる検出手順により前記対
象物の検出をする判断をするようにしたことを特徴とす
る画像処理装置。
An image processing apparatus for detecting an object in a designated area on a display screen displaying an inspection image of the object, wherein the image processing apparatus attempts to detect the object by a preset detection procedure. When the target can be detected by the detection procedure, a determination is made to detect the target by the detection procedure, and when the target cannot be detected by the detection procedure, a different detection procedure is used. An image processing apparatus, wherein a determination is made to detect the object.
【請求項2】 対象物が撮像された検査画像を表示する
表示画面における指定領域で、対象物の位置を検出する
画像処理装置であって、2値化レベルを設定しその2値
化レベルを境界とする輝度値の2値化に基づいて前記対
象物を検出可能である場合は、前記輝度値の2値化に基
づいて前記対象物を検出する判断をし、前記輝度値の2
値化に基づいて前記対象物を検出不能である場合は、異
なる検出手順として輝度微分値に基づいて前記対象物を
検出する判断をするようにしたことを特徴とする画像処
理装置。
2. An image processing apparatus for detecting a position of an object in a designated area on a display screen for displaying an inspection image obtained by imaging the object, comprising: setting a binarization level; If the object can be detected based on the binarization of the luminance value as a boundary, it is determined that the object is detected based on the binarization of the luminance value.
The image processing apparatus according to claim 1, wherein when the object cannot be detected based on the binarization, the detection of the object is determined based on a luminance differential value as a different detection procedure.
【請求項3】 前記輝度微分値に基づいて前記対象物を
検出不能である場合に、異なる検出手順として所定の走
査範囲のテンプレートマッチングに基づいて前記対象物
を検出する判断をするようにした請求項2記載の画像処
理装置。
3. The method according to claim 1, wherein when the object cannot be detected based on the luminance differential value, the detection of the object is determined based on template matching in a predetermined scanning range as a different detection procedure. Item 3. The image processing device according to Item 2.
【請求項4】 前記指定領域の全域に亙る輝度分布に基
づいて前記2値化レベルを設定するようにした請求項2
又は請求項3のいずれかに記載の画像処理装置。
4. The binarization level is set based on a luminance distribution over the entire specified area.
An image processing apparatus according to claim 3.
【請求項5】 所定方向に沿って前記対象物の境界が所
定の順序を有して複数個存在する場合に、その所定の順
序に基づいて前記対象物の境界を検出して、前記対象物
を検出するようにした請求項2乃至請求項4のいずれか
に記載の画像処理装置。
5. When a plurality of boundaries of the object are present along a predetermined direction in a predetermined order, the boundaries of the objects are detected based on the predetermined order, and the boundary of the object is detected. The image processing apparatus according to claim 2, wherein the image processing device detects the image.
【請求項6】 所定方向に沿って前記対象物の境界が互
いの間に所定の位置関係を有して複数個存在する場合
に、その所定の位置関係に基づいて前記対象物の境界を
検出して、前記対象物を検出するようにした請求項2乃
至請求項4のいずれかに記載の画像処理装置。
6. When a plurality of boundaries of the object are present along a predetermined direction with a predetermined positional relationship therebetween, the boundary of the object is detected based on the predetermined positional relationship. The image processing apparatus according to claim 2, wherein the object is detected.
【請求項7】 前記検査画像が複数個の場合に、複数個
の前記検査画像のいずれかで前記対象物を検出不能なと
きに、前記対象物を検出不能とみなして、異なる検出手
順で前記対象物を検出する判断をするようにした請求項
2又は請求項6のいずれかに記載の画像処理装置。
7. When there are a plurality of inspection images, and when the object cannot be detected in any of the plurality of inspection images, the object is regarded as undetectable, and the inspection object is determined by a different detection procedure. The image processing apparatus according to claim 2, wherein a determination is made to detect an object.
【請求項8】 前記検査画像が複数個の場合に、前記2
値化レベルを複数個の前記検査画像における前記指定領
域の輝度分布に基づいて前記2値化レベルを設定するよ
うにした請求項2乃至請求項7のいずれかに記載の位置
検出装置。
8. When there are a plurality of inspection images,
8. The position detecting device according to claim 2, wherein the binarization level is set based on a luminance distribution of the designated area in the plurality of inspection images.
【請求項9】 前記検査画像が複数個の場合に、前記テ
ンプレートマッチングをするときに、複数個の前記検査
画像間のばらつきに基づいて、前記走査範囲を可変とし
た請求項3乃至請求項8のいずれかに記載の画像処理装
置。
9. The method according to claim 3, wherein, when the template matching is performed in a case where there are a plurality of inspection images, the scan range is variable based on a variation between the plurality of inspection images. The image processing device according to any one of the above.
【請求項10】 前記検査画像が位置ずれしていた場合
に、位置ずれしていた前記検査画像の位置補正をしたと
きに、前記指定領域又は前記走査範囲の位置補正を実行
するようにした請求項2乃至請求項9のいずれかに記載
の画像処理装置。
10. The method according to claim 10, wherein when the inspection image is misaligned, the position of the designated area or the scanning range is corrected when the position of the misaligned inspection image is corrected. The image processing apparatus according to claim 2.
【請求項11】 対象物が撮像された検査画像を表示す
る表示画面における指定領域で、対象物を検出する画像
処理装置の画像処理方法であって、予め設定された検出
手順により前記対象物の検出を試行し、その検出手順に
より前記対象物を検出可能である場合に、その検出手順
により前記対象物の検出をする判断をし、その検出手順
により前記対象物を検出不能である場合に、異なる検出
手順により前記対象物の検出をする判断をするようにし
たことを特徴とする画像処理装置の画像処理方法。
11. An image processing method of an image processing apparatus for detecting an object in a designated area on a display screen displaying an inspection image of the object, wherein the object is detected by a predetermined detection procedure. Attempt to detect, if the object can be detected by the detection procedure, determine the detection of the object by the detection procedure, if the object is not detectable by the detection procedure, An image processing method for an image processing apparatus, wherein a determination for detecting the target object is made according to different detection procedures.
【請求項12】 対象物が撮像された検査画像を表示す
る表示画面における指定領域で、対象物の位置を検出す
る画像処理装置の画像処理方法であって、2値化レベル
を設定しその2値化レベルを境界とする輝度値の2値化
に基づいて前記対象物を検出可能である場合は、前記輝
度値の2値化に基づいて前記対象物を検出する判断を
し、前記輝度値の2値化に基づいて前記対象物を検出不
能である場合は、異なる検出手順として輝度微分値に基
づいて前記対象物を検出する判断をするようにしたこと
を特徴とする画像処理装置の画像処理方法。
12. An image processing method for an image processing apparatus for detecting a position of an object in a designated area on a display screen displaying an inspection image of the object, wherein a binarization level is set, and When the object can be detected based on the binarization of the luminance value having the boundary of the binarization level, it is determined that the object is detected based on the binarization of the luminance value. When the target object cannot be detected based on the binarization of the image processing apparatus, the detection of the target object is determined based on a luminance differential value as a different detection procedure. Processing method.
【請求項13】 前記輝度微分値に基づいて前記対象物
を検出不能である場合に、異なる検出手順として所定の
走査範囲のテンプレートマッチングに基づいて前記対象
物を検出する判断をするようにした請求項12記載の画
像処理装置の画像処理方法。
13. The method according to claim 1, wherein when the object cannot be detected based on the luminance differential value, the detection of the object is determined based on template matching in a predetermined scanning range as a different detection procedure. Item 13. The image processing method of the image processing device according to Item 12.
【請求項14】 前記指定領域の全域に亙る輝度分布に
基づいて前記2値化レベルを設定するようにした請求項
12又は請求項13のいずれかに記載の画像処理装置の
画像処理方法。
14. The image processing method according to claim 12, wherein the binarization level is set based on a luminance distribution over the entire specified area.
JP2000022876A 1999-05-26 2000-01-31 Device and method for processing image Pending JP2001043387A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000022876A JP2001043387A (en) 1999-05-26 2000-01-31 Device and method for processing image

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP11-147334 1999-05-26
JP14733499 1999-05-26
JP2000022876A JP2001043387A (en) 1999-05-26 2000-01-31 Device and method for processing image

Publications (1)

Publication Number Publication Date
JP2001043387A true JP2001043387A (en) 2001-02-16

Family

ID=26477914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000022876A Pending JP2001043387A (en) 1999-05-26 2000-01-31 Device and method for processing image

Country Status (1)

Country Link
JP (1) JP2001043387A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003083907A (en) * 2001-09-12 2003-03-19 Hitachi Ltd Defect inspecting method and its apparatus
JP2003196017A (en) * 2001-12-25 2003-07-11 Gen Tec:Kk Data input method and device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003083907A (en) * 2001-09-12 2003-03-19 Hitachi Ltd Defect inspecting method and its apparatus
JP2003196017A (en) * 2001-12-25 2003-07-11 Gen Tec:Kk Data input method and device

Similar Documents

Publication Publication Date Title
US7751610B2 (en) Image recognition method and image recognition apparatus
JP5073996B2 (en) Image processing device
KR20040089122A (en) Image processing to remove red-eye features without user interaction
JP2007263852A (en) Apparatus, method and processing program for detecting defect
US8995773B2 (en) Image measurement apparatus and method of measuring works using edge detection tools
JP4320990B2 (en) Screen defect detection method and apparatus, and screen defect detection program
JP2011237279A (en) Image measuring apparatus, program, and teaching method for image measuring apparatus
JP2009036582A (en) Inspection method, inspection device and inspection program of plane display panel
JP2007155405A (en) Visual inspection method and visual inspection device
JP5960433B2 (en) Image processing apparatus and image processing method
JP7311963B2 (en) Information processing device, control method and program for information processing device
JP2001043387A (en) Device and method for processing image
JP4743231B2 (en) Appearance inspection method and appearance inspection apparatus
JP4452793B2 (en) Illegal dumping point detection device, method, and program
JP4975472B2 (en) Color filter defect correcting apparatus and color filter defect correcting method
JP4743230B2 (en) Appearance inspection method and appearance inspection apparatus
JP4403036B2 (en) Soot detection method and apparatus
JP3584507B2 (en) Pattern unevenness inspection equipment
JP3555407B2 (en) Edge detection method and apparatus therefor
JP2003216930A (en) Method and apparatus for inspecting discoloration
JP2000193437A (en) Method and system for inspecting pattern defect of keyboard of various electronic devices, and computer- readable recording medium where pattern defect inspection program is recorded
JP7300155B2 (en) Teaching device in solid preparation appearance inspection, and teaching method in solid preparation appearance inspection
CN109827759B (en) Defect detection method and device applied to optical module
JP2004235768A (en) Image processor
JP3177945B2 (en) Surface defect inspection equipment