JPH0410666B2 - - Google Patents

Info

Publication number
JPH0410666B2
JPH0410666B2 JP59278912A JP27891284A JPH0410666B2 JP H0410666 B2 JPH0410666 B2 JP H0410666B2 JP 59278912 A JP59278912 A JP 59278912A JP 27891284 A JP27891284 A JP 27891284A JP H0410666 B2 JPH0410666 B2 JP H0410666B2
Authority
JP
Japan
Prior art keywords
image
edge
detected
differential
defect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP59278912A
Other languages
Japanese (ja)
Other versions
JPS61150080A (en
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed filed Critical
Priority to JP59278912A priority Critical patent/JPS61150080A/en
Publication of JPS61150080A publication Critical patent/JPS61150080A/en
Publication of JPH0410666B2 publication Critical patent/JPH0410666B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】 技術分野 本発明は、被検出物体を撮像して得られた画像
データに基づいて、被検出物体の表面に生じた割
れや欠けなどの欠陥を検出する方法に関する。
DETAILED DESCRIPTION OF THE INVENTION Technical Field The present invention relates to a method for detecting defects such as cracks and chips on the surface of an object to be detected, based on image data obtained by imaging the object.

背景技術 被検出物体の表面における割れや欠けなどの形
状欠陥を画像処理によつて検出する方法がある。
従来技術では被検出物体をテレビカメラで撮像
し、テレビカメラからの画像信号をデジタル化
し、デジタル化画像データを画像メモリにストア
し、そのストアされた画像データを演算処理して
被検出物体の欠陥を検出している。
BACKGROUND ART There is a method of detecting shape defects such as cracks and chips on the surface of a detection object by image processing.
In the conventional technology, the detected object is imaged with a television camera, the image signal from the television camera is digitized, the digitized image data is stored in an image memory, and the stored image data is processed to detect defects in the detected object. is being detected.

その欠陥検出するための画像処理として、濃淡
画像のパターン認識が必要となる。被検出物体が
撮像して得られた原画像から被検出物体の輪郭で
あるエツジで線画を作成し、その線画の特徴を抽
出してパターンの認識を行なつている。濃淡画像
からエツジを抽出するには、画像中の濃度の変化
を取り出せば良いので一般に微分法が用いられ
る。
Image processing for detecting defects requires pattern recognition of grayscale images. A line drawing is created using edges, which are the contours of the detected object, from an original image obtained by capturing an image of the detected object, and the features of the line drawing are extracted to perform pattern recognition. To extract edges from a grayscale image, a differential method is generally used because it is sufficient to extract changes in density within the image.

第7図は、その微分処理を説明するためのであ
る。第7図(1)は原画像上の任意の3×3画素を示
している。その参照符A〜Iが各画素における濃
度を示しているとすると、濃度Eの画素の垂直方
向の微分値ΔVは次の第1式で示され、その水平
方向の微分値ΔHは次の第2式で示される。
FIG. 7 is for explaining the differential processing. FIG. 7(1) shows arbitrary 3×3 pixels on the original image. Assuming that the reference marks A to I indicate the density at each pixel, the vertical differential value ΔV of the pixel with density E is expressed by the following first equation, and the horizontal differential value ΔH is expressed by the following equation 1. It is shown by equation 2.

ΔV=(G+H+I)−(A+B+C) …(1) ΔH=(C+F+I)−(A+D+G) …(2) そうすると、濃度Eの画素の微分値|e|は次
の第3式で現される。
ΔV=(G+H+I)−(A+B+C)…(1) ΔH=(C+F+I)−(A+D+G)…(2) Then, the differential value |e| of the pixel of density E is expressed by the following third equation.

|e|=√()2+()2 …(3) また、その画素Eでの微分方向∠eは次の第4
式のように表わされる。
|e|=√() 2 +() 2 …(3) Also, the differential direction ∠e at that pixel E is the following fourth
It is expressed as the formula.

∠e=tan−1ΔV/ΔH+π/2 …(4) このような操作を原画像の総ての画素について
行なうと、微分画像およびその画像における微分
方向が得られる。
∠e=tan−1ΔV/ΔH+π/2 (4) When such an operation is performed for all pixels of the original image, a differential image and a differential direction in the image are obtained.

次にエツジ抽出処理について説明する。第7図
(2)は、微分画像での任意の3×3画素を抽出し
て、各画素をその微分値|e|〜|i|で示した
ものである。微分値|e|を有する画素に着目
し、微分方向∠eの方向に対して90度の方向にあ
る2つの微分値と前記画素の微分値と比較する。
その微分値|e|が、両隣の2つの微分値よりも
大きい場合のみ、エツジ抽出画像上の前記画素に
対応するアドレスにエツジフラグを立てる。たと
えば|e|を微分値|e|のしきい値とし、|e
2をその画素の微分方向に対して直角方向にあ
る微分値とすると、次の第5式を満足すればエツ
ジフラグが立てられる。
Next, edge extraction processing will be explained. Figure 7
(2) extracts arbitrary 3×3 pixels in the differential image and indicates each pixel by its differential value |e| to |i|. Focusing on a pixel having a differential value |e|, the differential value of the pixel is compared with two differential values located at 90 degrees with respect to the differential direction ∠e.
Only when the differential value |e| is larger than the two neighboring differential values, an edge flag is set at the address corresponding to the pixel on the edge extracted image. For example, |e| is the threshold value of the differential value |e|, and |e
If | 2 is a differential value in a direction perpendicular to the differential direction of the pixel, an edge flag is set if the following equation 5 is satisfied.

|e|1<|e|>|e|2 …(5) この操作をすべての画素について行なうことに
よつて、エツジ線抽出画像が得られる。
|e| 1 <|e|> |e| 2 (5) By performing this operation for all pixels, an edge line extracted image is obtained.

このようにして得られたエツジ線抽出画像から
欠陥の状態を知るためにエツジ線の変形量が求め
られる。従来技術では前記エツジフラグの行列ア
ドレスにより、隣接する次のエツジフラグの行列
アドレスとの角度差を求め、その角度の大きさに
よつてその変形度合を求めている。このような方
法では、エツジ線の変形度合を検出することがで
きても、欠陥の面積を示すその変化の大きさを検
出することが難しい。
From the edge line extraction image thus obtained, the amount of deformation of the edge line is determined in order to determine the state of the defect. In the prior art, the angular difference between the edge flag and the next adjacent edge flag's column address is determined based on the row and column address of the edge flag, and the degree of deformation is determined based on the magnitude of the angle. With such a method, even if it is possible to detect the degree of deformation of the edge line, it is difficult to detect the magnitude of the change, which indicates the area of the defect.

目 的 本発明の目的は、被検出物体の表面に発生する
割れや欠けなどの欠陥を高速度でしかも高精度で
検出することができる欠陥検出方法を提供するこ
とである。
Purpose An object of the present invention is to provide a defect detection method that can detect defects such as cracks and chips occurring on the surface of a detection object at high speed and with high accuracy.

実施例 第1図は、本発明を実施することができる画像
処理装置の構成を示すブロツク図である。被検出
物体は、工業用テレビカメラ1で撮像される。工
業用テレビカメラ1から被検出物体の画像データ
であるアナログ信号が、アナログ/デジタル
(A/D)変換器2に出力される。A/D変換器
2は、工業用テレビカメラ1からのアナログ信号
をデジタル変換して微分回路3に与える。この微
分回路3では、背景技術で述べた第1式〜第4式
に示される演算処理が行なわれ、画像のエツジの
濃淡差に対応した画素の微分値|e|とその画素
の微分方向∠eが求められる。この処理は、1画
素づつ全エツジ線について行なわれる。微分回路
3で求められた微分値|e|とその微分方向∠e
は、メモリ4にストアされるとともに、エツジ線
抽出回路5に出力される。エツジ線抽出回路5で
は、微分回路3で演算された微分値|e|および
その微分方向∠eより基づいて、第5式に示され
たような演算処理が行なわれる。エツジ線抽出回
路5での演算処理で求められたエツジフラグef
は、メモリ4に出力され、ストアされる。エツジ
線追跡回路6では、第5式におけるしきい値|e
1によつて消されたエツジ線について、そのし
きい値|e|以上の残つたエツジ線の端から再び
特定の評価関数演算で必要なエツジ線が再生させ
られ、メモリ4にその値が出力される。前述した
ようなデータに基づいて、画像判定ユニツト7に
おいてエツジの特徴抽出処理が行なわれる。画像
判定ユニツト7は、原画像データZ、微分値|e
|、微分方向∠eおよび再生エツジ線の各データ
をストアするスワツプメモリ8と、そのストアさ
れたデータによつてエツジフラグに基づく特徴抽
出処理を行ない、その良否判定するCPU(中央処
理装置)9とから成る。制御回路10は、前記し
きい値の設定やこの画像処理装置全体の制御を行
なう為に設けられている。
Embodiment FIG. 1 is a block diagram showing the configuration of an image processing apparatus capable of implementing the present invention. The object to be detected is imaged by an industrial television camera 1. An analog signal that is image data of an object to be detected is output from an industrial television camera 1 to an analog/digital (A/D) converter 2. The A/D converter 2 digitally converts the analog signal from the industrial television camera 1 and supplies the converted signal to the differentiating circuit 3. In this differentiation circuit 3, the calculation processing shown in the first to fourth equations described in the background art is performed, and the differential value |e| of the pixel corresponding to the gray level difference of the edge of the image and the differential direction of the pixel ∠ e is required. This process is performed for all edge lines pixel by pixel. The differential value |e| obtained by the differentiator circuit 3 and its differential direction ∠e
is stored in the memory 4 and output to the edge line extraction circuit 5. The edge line extraction circuit 5 performs arithmetic processing as shown in equation 5 based on the differential value |e| computed by the differentiator circuit 3 and its differential direction ∠e. Edge flag ef obtained by calculation processing in edge line extraction circuit 5
is output to the memory 4 and stored. In the edge line tracing circuit 6, the threshold value |e in the fifth equation
For the edge line erased by | 1 , the necessary edge line is regenerated again by a specific evaluation function calculation from the edge of the edge line that remains above the threshold value |e|, and its value is stored in the memory 4. Output. Based on the data as described above, edge feature extraction processing is performed in the image determination unit 7. The image judgment unit 7 uses the original image data Z and the differential value |e
|, a swap memory 8 that stores each data of the differential direction ∠e and the reproduced edge line, and a CPU (central processing unit) 9 that performs feature extraction processing based on the edge flag using the stored data and determines its quality. Become. A control circuit 10 is provided for setting the threshold value and controlling the entire image processing apparatus.

第2図〜第4図を参照して本発明の欠陥検出方
法について説明する。第4図は、本発明の一実施
例の欠陥検出方法を示すブロツク図である。第1
図に示されたような画像処理装置において被検出
物体の画像がエツジ化されると、第2図(1)に示さ
れるようになる。第2図(1)では、参照符Lがエツ
ジフラグが立てられた被検出物体のエツジ線を示
し、矢印がその微分方向∠eを示している。また
参照符Kで示されるエツジ線の変化部は、被検出
物体の欠陥部である。まず走査開始用のエツジフ
ラツグesおよびその微分方向データが抽出され
る。次にエツジフラツグの方向に対して、被検出
物体内方に直角方向にm画素ずらしてアドレスが
加算される。そして第2図(2)で示されるようにエ
ツジフラツグの方向に対してn画素ずらしてアド
レスが加算された走査ラインL1を得る。また第
2図(3)に示されるように、そのエツジフラツグの
方向と反対方向にn画素ずらしてアドレスが加算
された走査ラインL2を得る。そして前述のアド
レスが合成されると、第2図(4)で示される走査ラ
インL3が得られる。第3図は、第2図(4)に示さ
れた部分のセクシヨンを拡大した図である。エ
ツジ線Lと走査ラインL3の交点をP0,P1と
すると、これらの交点P0,P1を基準にして、
次のような演算が行なわれる。交点P0に対し
て、まず走査ラインL3方向に1画素づつ点対称
なアドレスが求められ、そのアドレスの濃淡値Z
が抽出される。そして次の第6式および第7式の
演算が行なわれる。
The defect detection method of the present invention will be explained with reference to FIGS. 2 to 4. FIG. 4 is a block diagram showing a defect detection method according to an embodiment of the present invention. 1st
When the image of the object to be detected is converted into an edge by the image processing apparatus shown in the figure, it becomes as shown in FIG. 2(1). In FIG. 2(1), the reference mark L indicates the edge line of the detected object for which an edge flag has been set, and the arrow indicates its differential direction ∠e. Further, a changing portion of the edge line indicated by reference numeral K is a defective portion of the object to be detected. First, the edge flag es for starting scanning and its differential direction data are extracted. Next, an address is added by shifting m pixels in a direction perpendicular to the inside of the detected object with respect to the direction of the edge flag. Then, as shown in FIG. 2(2), a scanning line L1 is obtained in which addresses are added by shifting n pixels in the direction of the edge flag. Further, as shown in FIG. 2(3), a scanning line L2 is obtained by shifting n pixels in the direction opposite to the direction of the edge flag and adding addresses. When the aforementioned addresses are combined, a scanning line L3 shown in FIG. 2(4) is obtained. FIG. 3 is an enlarged view of the section shown in FIG. 2(4). If the intersections of the edge line L and the scanning line L3 are P0 and P1, then based on these intersections P0 and P1,
The following calculations are performed. For the intersection point P0, first, a point-symmetric address is found for each pixel in the direction of the scanning line L3, and the gray value Z of that address is calculated.
is extracted. Then, the following calculations of the sixth and seventh equations are performed.

ΔZ1=Za1−Zb1 ΔZ2=Za2−Zb2 〓 ΔZn=Nan−Zbn …(6) ΣΔZn=ΔZ1+ΔZ2+…+ΔZn …(7) 上式において、Za1〜Zanは各画素a1〜anにお
ける濃淡値を示し、Zb1〜Zbnは各画素b1〜bnに
おける濃淡値を示し、ΔZ1〜ΔZnは濃淡差を示
す。
ΔZ 1 =Za 1 −Zb 1 ΔZ 2 =Za 2 −Zb 2 〓 ΔZn=Nan−Zbn …(6) ΣΔZn=ΔZ 1 +ΔZ 2 +…+ΔZn …(7) In the above formula, Za 1 to Zan are each pixel The gradation values at a 1 to an are shown, Zb 1 to Zbn are the gradation values at each pixel b 1 to bn, and ΔZ 1 to ΔZn are the gradation differences.

第6式および第7式によつて各濃淡差ΔZ1
ΔZnとその総和ΣΔZnが算出される。次に比較回
路によつて、前記総和ΣΔZnと予め定められたし
きい値とを比較し、しきい値以上のときは被検出
物体が欠陥を有する不良品、それ以下のときは良
品というような判定が下される。
Each shade difference ΔZ 1 ~
ΔZn and its total sum ΣΔZn are calculated. Next, the comparison circuit compares the sum ΣΔZn with a predetermined threshold, and when it is above the threshold, the object to be detected is a defective product with a defect, and when it is below it, it is a good product. Judgment is made.

第5図は本発明の他の実施例を説明するための
図であり、第6図は、本発明の他の実施例の欠陥
検出方法を示すブロツク図である。この実施例に
おいては、第5図(1)に示すように被検出物体の角
部に生じた欠陥部Kを検出する動作について説明
する。まず前述の実施例と同様に被検出物体の輪
郭を示すエツジ線Eが求められる。第5図(2)は、
第5図(1)のセクシヨンを拡大した図である。第
2図(2)に示されるように、エツジ線Eの欠陥部K
に至るまでの直線部を延長し、欠陥の生じない場
合の頂点Cを求める。そしてその頂点Cのアドレ
スを求め、この頂点Cを走査開始点にして被検出
物体の内方方向に走査ラインSを設定する。この
ときその走査ラインSは、エツジ線Eの仮想延長
直線E1,E2と頂点Cの成す角度を2分する直
線と一致する。そして頂点Cを走査開始点とし、
仮想延長直線E1,E2のそれぞれの方向にm画
素ずれた走査ラインS上の画素が走査される。次
に走査開始点Cからの走査ラインS上にエツジフ
ラツグが存在するか否かが判断される。第5図(2)
の参照符Qで示される被検出物体のエツジ線Eと
走査ラインSの交点にエツジフラツグが存在する
場合は、次のような処理が行なわれる。第5図(3)
は第2図を更に拡大した図である。第5図(3)に示
されるように参照符Qで示される点を基準とし
て、走査ラインS方向に点対称な位置の画素a1
an,b1〜bnの濃淡値Za1〜Zan,Zb1〜Zbnが求め
られる。そしてその濃淡値Za1〜Zan,Zb1〜Zbn
に基づいて、前述の第6式で示されたような原画
像の濃淡差ΔZ1〜ΔZnが算出される。このような
演算を行ない、その演算結果によつて前述の第7
式である示されるような総和ΣΔZnが算出され
る。そして前述の実施例と同様に、前記総和
ΣΔZnと予め定められたしきい値とを比較し、し
きい値以上のときは被検出物体が欠陥を有する不
良品、それ以下のときは良品というような判定が
下される。
FIG. 5 is a diagram for explaining another embodiment of the present invention, and FIG. 6 is a block diagram showing a defect detection method according to another embodiment of the present invention. In this embodiment, an operation for detecting a defective portion K generated at a corner of an object to be detected as shown in FIG. 5(1) will be described. First, an edge line E indicating the outline of the object to be detected is determined as in the previous embodiment. Figure 5 (2) is
FIG. 5 is an enlarged view of the section in FIG. 5(1). As shown in Figure 2 (2), defective part K of edge line E
Extend the straight line up to , and find the apex C where no defect occurs. Then, the address of the vertex C is determined, and a scanning line S is set inward of the object to be detected using the vertex C as the scanning starting point. At this time, the scanning line S coincides with a straight line that bisects the angle formed by the virtual extension straight lines E1 and E2 of the edge line E and the vertex C. Then, the vertex C is set as the scanning starting point,
Pixels on the scanning line S shifted by m pixels in each direction of the virtual extension straight lines E1 and E2 are scanned. Next, it is determined whether an edge flag exists on the scanning line S from the scanning starting point C. Figure 5(2)
When an edge flag exists at the intersection of the scanning line S and the edge line E of the object to be detected, which is indicated by reference numeral Q, the following processing is performed. Figure 5(3)
2 is a further enlarged view of FIG. As shown in FIG. 5(3), pixels a 1 to symmetrical in the scanning line S direction with respect to the point indicated by reference mark Q are
The shading values Za 1 -Zan, Zb 1 -Zbn of an, b 1 -bn are obtained. And its gradation value Za 1 ~ Zan, Zb 1 ~ Zbn
Based on this, the tone differences ΔZ 1 to ΔZn of the original image as shown in the above-mentioned formula 6 are calculated. Perform such calculations and use the results of the calculations to calculate the seventh
The sum ΣΔZn is calculated as shown in the equation. Then, in the same manner as in the above-mentioned embodiment, the sum ΣΔZn is compared with a predetermined threshold, and when it is above the threshold, the object to be detected is considered to be a defective product with a defect, and when it is less than that, it is considered to be a good product. A judgment will be made.

上述の実施例では基準点Qに対して1画素分づ
つの濃淡値を比較したけれども複数画素分の領域
の平均の濃淡値を比較してもよい。このような場
合は、ごみなどによる検出誤差を防ぐことができ
る。
In the above-described embodiment, the grayscale values of each pixel are compared with respect to the reference point Q, but the average grayscale values of areas of a plurality of pixels may be compared. In such a case, detection errors due to dust or the like can be prevented.

上述の実施例では本発明を濃淡画素に基づいて
行なつたがカラー画像による画像データに基づい
て行なうこともできる。
In the embodiments described above, the present invention is carried out based on gray pixels, but it can also be carried out based on image data of a color image.

効 果 以上のように本発明によれば、被検出物体を撮
像し、検出内容をストアしておき、検査用基準位
置を定め、その検査用基準位置に沿つて予め定め
た位置に関して対称な一対をなす位置における前
記検出内容を相互に比較し、その比較結果に基づ
いて欠陥の大きさなどを検出するので、欠陥を高
速度でしかも高精度で検出することができる。
Effects As described above, according to the present invention, an image of an object to be detected is captured, the detected contents are stored, a reference position for inspection is determined, and a pair of objects that are symmetrical with respect to a predetermined position along the reference position for inspection is set. Since the detected contents at the positions forming the position are compared with each other and the size of the defect is detected based on the comparison result, the defect can be detected at high speed and with high accuracy.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明を実施することができる一実施
例の画像処理装置の構成を示すブロツク図、第2
図は本発明の一実施例の欠陥検出方法を説明する
ための図、第3図は第2図に関連して本発明の一
実施例の検出方法を説明するための図、第4図は
本発明の一実施例の欠陥検出方法を示すブロツク
図、第5図は本発明の他の実施例を説明するため
の図、第6図は本発明の他の実施例の欠陥検出方
法を示すブロツク図、第7図は画像処理方法を説
明するための図である。 1…工業用テレビカメラ、2…アナログ/デジ
タル変換器、3…微分回路、4…メモリ、5…エ
ツジ線抽出回路、6…エツジ線追跡回路、7…画
像判定ユニツト、8…スワツプメモリ、9…
CPU、10…制御回路、E,L…エツジ線、L
1,L2,L3,S…走査ライン。
FIG. 1 is a block diagram showing the configuration of an image processing apparatus according to an embodiment of the present invention, and FIG.
The figure is a diagram for explaining a defect detection method according to an embodiment of the present invention, FIG. 3 is a diagram for explaining a detection method according to an embodiment of the present invention in relation to FIG. 2, and FIG. A block diagram showing a defect detection method according to one embodiment of the present invention, FIG. 5 is a diagram for explaining another embodiment of the present invention, and FIG. 6 shows a defect detection method according to another embodiment of the present invention. The block diagram in FIG. 7 is a diagram for explaining the image processing method. DESCRIPTION OF SYMBOLS 1...Industrial television camera, 2...Analog/digital converter, 3...Differential circuit, 4...Memory, 5...Edge line extraction circuit, 6...Edge line tracing circuit, 7...Image judgment unit, 8...Swap memory, 9...
CPU, 10...Control circuit, E, L...Edge line, L
1, L2, L3, S...scanning line.

Claims (1)

【特許請求の範囲】[Claims] 1 被検出領域を撮像し、濃淡などの予め定めた
検出態様で検出内容をストアしておき、被検出領
域の境界を検出し、前記境界よりも内方に予め定
めた変位量だけ隔てて、かつ欠陥などを想定した
ときにおける前記境界に平行な検査用基準位置を
定め、この検査用基準位置に沿つて予め定めた位
置に関して対称な一対をなす位置における前記検
出内容を相互に比較し、この比較結果に基づいて
欠陥の大きさなどを検出することを特徴とする欠
陥検出方法。
1. Image the detection area, store the detection contents in a predetermined detection mode such as shading, detect the boundary of the detection area, and space the area inward from the boundary by a predetermined displacement amount, Also, when a defect etc. is assumed, a reference position for inspection parallel to the boundary is determined, and the detected contents at a pair of positions symmetrical with respect to the predetermined position along this reference position for inspection are compared with each other. A defect detection method characterized by detecting the size of a defect based on a comparison result.
JP59278912A 1984-12-25 1984-12-25 Method for detecting defect Granted JPS61150080A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP59278912A JPS61150080A (en) 1984-12-25 1984-12-25 Method for detecting defect

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP59278912A JPS61150080A (en) 1984-12-25 1984-12-25 Method for detecting defect

Publications (2)

Publication Number Publication Date
JPS61150080A JPS61150080A (en) 1986-07-08
JPH0410666B2 true JPH0410666B2 (en) 1992-02-26

Family

ID=17603821

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59278912A Granted JPS61150080A (en) 1984-12-25 1984-12-25 Method for detecting defect

Country Status (1)

Country Link
JP (1) JPS61150080A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4498108B2 (en) * 2004-11-25 2010-07-07 株式会社東芝 Paper sheet inspection device

Also Published As

Publication number Publication date
JPS61150080A (en) 1986-07-08

Similar Documents

Publication Publication Date Title
JP6620477B2 (en) Method and program for detecting cracks in concrete
JP3313474B2 (en) Print inspection equipment
JPH06162190A (en) Document side edge detecting device
JP2597370B2 (en) Method for detecting significant differences in sheet-like test materials
JP2004129271A (en) Method for determining skew angle and position for document in overscanned image
JPH0410666B2 (en)
JP3456096B2 (en) Shape inspection method
JPH06103275B2 (en) Defect extraction method by visual inspection
JP3508518B2 (en) Appearance inspection method
JP2961140B2 (en) Image processing method
JP2710685B2 (en) Defect detection method by visual inspection
JPH0319990B2 (en)
JPH09161056A (en) Inspecting method for inner surface of circular container
JPH048833B2 (en)
JP3031069B2 (en) Appearance inspection method
JPH0236026B2 (en)
JPS6338657B2 (en)
JP2514727B2 (en) Defect inspection method by visual inspection
JPH0534117A (en) Image processing method
JP3267372B2 (en) Method and apparatus for generating matching pattern signal in pattern matching inspection
JP3146882B2 (en) Picture inspection method
JPH07104137B2 (en) Method of detecting the rotation angle of the target pattern
JPH0812695B2 (en) Area extraction device
JP2681087B2 (en) Horizontal line detector
JPH0727569B2 (en) Defect inspection method by visual inspection

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term