JP2941107B2 - Work surface inspection method - Google Patents

Work surface inspection method

Info

Publication number
JP2941107B2
JP2941107B2 JP3329383A JP32938391A JP2941107B2 JP 2941107 B2 JP2941107 B2 JP 2941107B2 JP 3329383 A JP3329383 A JP 3329383A JP 32938391 A JP32938391 A JP 32938391A JP 2941107 B2 JP2941107 B2 JP 2941107B2
Authority
JP
Japan
Prior art keywords
image
image data
inspection
light
work surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP3329383A
Other languages
Japanese (ja)
Other versions
JPH05164699A (en
Inventor
憲嗣 加藤
智秀 清水
健一郎 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP3329383A priority Critical patent/JP2941107B2/en
Priority to GB9225600A priority patent/GB2262339B/en
Priority to US07/988,420 priority patent/US5379347A/en
Publication of JPH05164699A publication Critical patent/JPH05164699A/en
Application granted granted Critical
Publication of JP2941107B2 publication Critical patent/JP2941107B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、ワークの塗装面等の表
面欠陥やその平滑さを検出するためのワーク表面検査方
法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a work surface inspection method for detecting a surface defect such as a painted surface of a work and its smoothness.

【0002】[0002]

【従来の技術】従来の技術としては、図6aに示す方法
がある。すなわち、図示しないロボットのアーム等に取
着された投光手段2からの光を凸レンズ4を介してワー
ク表面6に照射し、CCDカメラ等の検出手段8に該光
を収束する。さらに、前記検出手段8により得られた取
り込み画像10a(図6b参照)に対して画像処理を行
い、ワーク表面6の塗装状態を調べ、ゴミの付着、傷の
有無等を確認する。この場合、収束光を使用してワーク
表面6を検査することにより、一回に検査可能な範囲を
拡大することができる。
2. Description of the Related Art As a conventional technique, there is a method shown in FIG. That is, the light from the light projecting means 2 attached to the arm or the like of the robot (not shown) is irradiated onto the work surface 6 via the convex lens 4, and the light is converged on the detecting means 8 such as a CCD camera. Further, image processing is performed on the captured image 10a (see FIG. 6B) obtained by the detection means 8, and the coating state of the work surface 6 is checked to check for adhesion of dust, the presence or absence of scratches, and the like. In this case, by inspecting the work surface 6 using the convergent light, the range that can be inspected at one time can be expanded.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記の
ような従来の技術の場合、ワーク表面6が平面であれ
ば、検出光が検出手段8の受光面に良好に導かれるが、
図7aに示すようにワーク表面6が曲面であれば、検出
光がワーク表面で拡散してしまうため、取り込み画像1
0bに暗部12を生じてしまう(図7b参照)。すなわ
ち、図6に示しているように、ワーク表面6が平面の場
合には、取り込み画像10aは全て有効検査面14とし
て使用できるが、ワーク表面6が曲面の場合には、図7
に示すように検出光がワーク表面6で拡散してしまうた
めに、取り込み画像10bに検査光が入射しない暗部1
2が生じ、有効検査面14が狭くなってしまう。
However, in the case of the prior art as described above, if the work surface 6 is flat, the detection light is guided to the light receiving surface of the detection means 8 well.
If the work surface 6 is a curved surface as shown in FIG. 7A, the detection light is diffused on the work surface.
The dark portion 12 is generated at 0b (see FIG. 7B). That is, as shown in FIG. 6, when the work surface 6 is flat, all the captured images 10a can be used as the effective inspection surface 14. However, when the work surface 6 is curved, FIG.
Since the detection light is diffused on the work surface 6 as shown in FIG.
2 occurs, and the effective inspection surface 14 becomes narrow.

【0004】この場合、取り込み画像10bの全面に対
して画像処理を行うと、有効検査面14以外の暗部12
にまで画像処理を行うことになる。したがって、検査時
間に無駄を生じ、全体の検査時間が長期化する不都合を
露呈していた。
In this case, when image processing is performed on the entire surface of the captured image 10b, the dark portion 12 other than the effective inspection surface 14 is processed.
Image processing is performed up to. Therefore, the inspection time is wasted and the inconvenience of prolonging the entire inspection time is revealed.

【0005】本発明は、この種の問題を解決するために
なされたものであって、取り込み画像の有効検査面に対
してのみ画像処理を施すことにより、画像処理時間を減
少させ、全体の検査時間の短縮が可能となるワーク表面
検査方法を提供することを目的とする。
The present invention has been made in order to solve this kind of problem. By performing image processing only on an effective inspection surface of a captured image, the image processing time can be reduced and the entire inspection can be performed. It is an object of the present invention to provide a work surface inspection method capable of reducing time.

【0006】[0006]

【課題を解決するための手段】前記の目的を達成するた
めに、本発明は、被測定面に向かって検出光を照射する
投光手段と、該被測定面からの前記検出光の反射光を受
光する検出手段と、前記反射光を前記検出手段の受光面
に収束させる集光光学系とを備えた表面検査装置を用い
て、曲面を有するワークの表面を検査する方法であっ
て、前記表面検査装置をワーク表面に沿って順次変位さ
せ、前記検出光を前記検出手段により受光し、得られた
画像をそれぞれ二値化する工程と、該二値化された複数
の画像データから、検出光の照射されたワークの有効検
査面に係る画像データを抽出し、これらを重複しない状
態で保持する工程と、該保持された画像データに対して
所定の画像処理を施す工程と、からなることを特徴とす
る。
In order to achieve the above object, the present invention provides a light projecting means for irradiating detection light toward a surface to be measured, and a reflected light of the detection light from the surface to be measured. A method for inspecting the surface of a workpiece having a curved surface, using a surface inspection apparatus having a detection unit that receives light, and a condensing optical system that converges the reflected light on a light receiving surface of the detection unit, A step of sequentially displacing the surface inspection device along the surface of the work, receiving the detection light by the detection means, binarizing the obtained images, and detecting the plurality of binarized image data. A step of extracting image data relating to an effective inspection surface of a workpiece irradiated with light and holding them in a non-overlapping state, and performing a predetermined image processing on the held image data. It is characterized by.

【0007】[0007]

【作用】検出手段により取り込まれた画像を二値化し
て、前記画像の有効検査面に係る画像データのみを抽出
し、これを各画像データ毎に重複しないように保持する
ことにより、複数の有効検査面の画像を一画像として一
括して画像処理できる。したがって、取り込まれた画像
に対して、有効検査面以外の画像を処理する時間が不要
となり、全体の検査時間が短縮する。
The image taken by the detecting means is binarized, and only image data relating to the effective inspection surface of the image is extracted and held so as not to be duplicated for each image data. The image of the inspection surface can be collectively processed as one image. Therefore, there is no need to process the captured image for an image other than the effective inspection surface, and the overall inspection time is reduced.

【0008】[0008]

【実施例】本発明に係るワーク表面検査方法について、
好適な実施例を挙げ、添付の図面を参照しながら以下詳
細に説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS A work surface inspection method according to the present invention will be described.
Preferred embodiments will be described in detail below with reference to the accompanying drawings.

【0009】本実施例においては、自動車の製造ライン
におけるワーク表面検査装置を用いた検査方法に基づい
て説明する。
In this embodiment, a description will be given based on an inspection method using a work surface inspection apparatus in an automobile production line.

【0010】ワーク表面検査装置20は、図1に示すよ
うに、ロボット22に装着されており、光源24がこの
ロボット22のアーム26に固定されるとともに、前記
光源24から光ファイバ束28によって接続されるフレ
ネルレンズ等から構成される集光光学系30および検出
手段であるCCDカメラ32が手首部34に固定されて
いる。このCCDカメラ32は、ワーク表面35の画像
処理等を行う画像処理装置36に接続され、この画像処
理装置36とロボットコントローラ38とが接続されて
いる。
As shown in FIG. 1, the work surface inspection apparatus 20 is mounted on a robot 22, and a light source 24 is fixed to an arm 26 of the robot 22 and connected to the light source 24 by an optical fiber bundle 28. A focusing optical system 30 composed of a Fresnel lens and the like and a CCD camera 32 serving as a detecting means are fixed to the wrist part 34. The CCD camera 32 is connected to an image processing device 36 that performs image processing and the like on the work surface 35, and the image processing device 36 and the robot controller 38 are connected.

【0011】前記画像処理装置36は、図2に示すよう
に、CCDカメラ32から入力された画像データをA/
D変換器40でデジタル信号に変換し、階調画像データ
として画像濃淡メモリ42に入力する。画像濃淡メモリ
42の階調画像データは画像処理プロセッサ44で二値
化画像データに変換され、二値化画像メモリ46に入力
される。前記画像濃淡メモリ42に収容された階調画像
データおよび前記二値化画像メモリ46に収容された二
値化画像データは、適時、D/A変換器48を介してモ
ニタTV50に表示される。前記画像処理プロセッサ4
4には、バス58を介してマイクロプロセッサ52、メ
モリ54、外部入出力I/F56が接続されている。前
記外部入出力I/F56には、ロボットコントローラ3
8が接続されるとともに、処理結果を管理する外部のコ
ンピュータ59が接続される。
As shown in FIG. 2, the image processing device 36 converts the image data input from the CCD camera 32 into an A /
The signal is converted into a digital signal by the D converter 40 and input to the image density memory 42 as gradation image data. The gradation image data in the image density memory 42 is converted into binary image data by the image processor 44 and input to the binary image memory 46. The gradation image data stored in the image density memory 42 and the binarized image data stored in the binarized image memory 46 are displayed on a monitor TV 50 via a D / A converter 48 as appropriate. The image processor 4
4, a microprocessor 52, a memory 54, and an external input / output I / F 56 are connected via a bus 58. The external input / output I / F 56 includes a robot controller 3
8 is connected, and an external computer 59 for managing processing results is connected.

【0012】次に、このように構成されるワーク表面検
査装置20および画像処理装置36の動作を図3に示す
フローチャートを参照しながら概略説明する。
Next, the operation of the work surface inspection device 20 and the image processing device 36 configured as described above will be schematically described with reference to a flowchart shown in FIG.

【0013】先ず、画像処理装置36およびロボットコ
ントローラ38の初期化を行う(ステップS2)。続い
て、ロボットコントローラ38から画像処理装置36に
後述する画像の処理パターンが入力される(ステップS
4)。以上の設定が完了した後、ロボット22が駆動さ
れ、アーム26の動作に伴い、光源24から光ファイバ
束28、集光光学系30を介して、ワーク表面の所定の
範囲に一区画ずつ検査光が照射され、前記検査光の反射
光がCCDカメラ32に入射され、画像データが画像処
理装置36に入力される(ステップS6)。
First, the image processing device 36 and the robot controller 38 are initialized (step S2). Subsequently, a processing pattern of an image described later is input from the robot controller 38 to the image processing device 36 (Step S).
4). After the above setting is completed, the robot 22 is driven, and the operation of the arm 26 causes the inspection light from the light source 24 to pass through the optical fiber bundle 28 and the condensing optical system 30 to a predetermined area of the work surface in a predetermined range. Is irradiated, the reflected light of the inspection light is incident on the CCD camera 32, and the image data is input to the image processing device 36 (step S6).

【0014】画像処理装置36に入力された画像データ
は、A/D変換器40によりデジタル信号としての階調
画像データに変換され、画像濃淡メモリ42に入力され
る。画像処理プロセッサ44は、前記階調画像データの
ヒストグラムに基づき、画像を明部と暗部に二値化して
識別する基準となる二値化レベルを設定する(ステップ
S8)。
The image data input to the image processing device 36 is converted into gradation image data as a digital signal by an A / D converter 40 and input to an image density memory 42. The image processor 44 sets a binarization level as a reference for binarizing the image into a bright part and a dark part based on the histogram of the gradation image data (step S8).

【0015】以下、ロボットコントローラ38から入力
された処理パターンにより所定の画像処理が行われる
(ステップS10)。
Hereinafter, predetermined image processing is performed according to the processing pattern input from the robot controller 38 (step S10).

【0016】第1の処理パターンとして、検査されるワ
ーク表面35が平面であり、前記階調画像データを二値
化する場合は、前記二値化レベルに基づき二値化画像デ
ータに変換し、二値化画像メモリ46に格納する(ステ
ップS12)。そして、前記二値化画像データにおい
て、明部の中に孤立している暗部を孤立点として抽出す
る(ステップS14)。前記孤立点の大きさにより、ゴ
ミであるか否かを判定および選別し(ステップS1
6)、前記処理パターンにおける一区画分のゴミの数お
よび大きさを外部入出力I/F56を介してコンピュー
タ59に転送し、記憶する(ステップS18)。以上の
処理をワーク表面に設定された全ての区画に対して行う
(ステップS20)。全区画の画像処理が終了した後、
コンピュータ59において検査結果を出力する(ステッ
プS22)。
As a first processing pattern, when the work surface 35 to be inspected is a plane and the gradation image data is binarized, it is converted into binarized image data based on the binarization level, It is stored in the binarized image memory 46 (step S12). Then, in the binarized image data, a dark part isolated in a bright part is extracted as an isolated point (step S14). Based on the size of the isolated point, it is determined whether or not it is dust, and is sorted out (step S1).
6) The number and size of dust in one section in the processing pattern are transferred to the computer 59 via the external input / output I / F 56 and stored (step S18). The above processing is performed on all the sections set on the work surface (step S20). After the image processing for all blocks is completed,
The computer 59 outputs the inspection result (step S22).

【0017】第2、第3の処理パターンとして、ワーク
表面35が曲面であり、且つ、CCDカメラ32の取り
込み画像に対してウインドウを設定する場合は、予め設
定された処理範囲からなるウインドウを選択し、得られ
る画像の暗部に相当する部分を画像処理対象から削除す
る(ステップS24)。あるいは、画像を二値化した
後、明部の分布に基づきウインドウを演算して求め、ス
テップS24と同様に、暗部を画像処理対象から削除す
る(ステップS26)。
As the second and third processing patterns, when the work surface 35 is a curved surface and a window is set for an image captured by the CCD camera 32, a window having a predetermined processing range is selected. Then, the part corresponding to the dark part of the obtained image is deleted from the image processing target (step S24). Alternatively, after binarizing the image, a window is calculated and obtained based on the distribution of the bright parts, and the dark part is deleted from the image processing target as in step S24 (step S26).

【0018】第4、第5の処理パターンとして、ワーク
表面35が曲面であり、且つ画像の合成を選択した場
合、二値化され明部と暗部を有する画像から明部のみを
取り出し、一フレーム分の画像データが蓄積されるまで
n回画像合成を行う(ステップS28、ステップS3
0)。あるいは、ステップS26と同様にウインドウを
演算して求め、このウインドウを用いて得られる明部の
みの画像を重複しないように二値化画像メモリ46に一
フレーム分記憶させて画像合成する(ステップS32、
ステップS30)。このようにして得られた画像には、
明部と暗部の境界部分におけるゴミ等の誤検出を防止す
るため、微小な粒子を取り除く等の膨張、縮小処理が施
される(ステップS34)。続いて、第1の処理パター
ンと同様に、ステップS16以降のゴミの検出が行われ
る。以上のようにして合成された画像に対して処理を行
うことにより、一つの画像に複数の画像の明部が取り込
まれた後、画像処理を一括して行えるため、画像処理速
度が向上する。
As the fourth and fifth processing patterns, when the work surface 35 is a curved surface and an image synthesis is selected, only the bright portion is extracted from the binarized image having a bright portion and a dark portion, and one frame is extracted. Image synthesis is performed n times until image data of the corresponding number is accumulated (step S28, step S3).
0). Alternatively, a window is calculated and obtained in the same manner as in step S26, and an image of only a bright portion obtained using this window is stored in the binarized image memory 46 for one frame so as not to overlap, and image synthesis is performed (step S32). ,
Step S30). Images obtained in this way include:
In order to prevent erroneous detection of dust or the like at the boundary between the bright part and the dark part, expansion or reduction processing such as removal of fine particles is performed (step S34). Subsequently, as in the first processing pattern, dust detection in step S16 and subsequent steps is performed. By performing processing on the image synthesized as described above, after the bright portions of a plurality of images are captured in one image, image processing can be performed collectively, so that the image processing speed is improved.

【0019】次に、ワーク表面が曲面であり、得られた
画像に対して合成を行う場合(図3のステップS10に
おいて、ステップS28あるいはステップS32を選択
した場合)について詳細に説明する。
Next, a detailed description will be given of a case where the work surface is a curved surface and the obtained image is synthesized (when step S28 or step S32 is selected in step S10 in FIG. 3).

【0020】先ず、ステップS28の画像合成につい
て、図1乃至図4を参照して説明する。
First, the image synthesis in step S28 will be described with reference to FIGS.

【0021】先ず、二値化画像メモリ46を構成する二
値メモリ No.0乃至 No.2の記憶領域を全て0(黒)に
初期化する。
First, all storage areas of the binary memories No. 0 to No. 2 constituting the binary image memory 46 are initialized to 0 (black).

【0022】続いて、一番目の区画の画像をCCDカメ
ラ32から入力する。この場合、ロボットコントローラ
38のティーチングに際し、ロボット22のアーム26
の動作およびCCDカメラ32の位置を制御し、CCD
カメラ32のフレームの上部に明部がくるように調節す
る。入力された画像は、一旦、画像濃淡メモリ42に階
調画像データとして記憶された後、図3のフローチャー
トのステップS7において設定された二値化レベルに基
づき、二値化される。二値化された画像は、明部を1
(白)、暗部を0(黒)として二値化画像メモリ46を
構成する二値メモリ No.0に記憶される。
Subsequently, an image of the first section is input from the CCD camera 32. In this case, when teaching the robot controller 38, the arm 26 of the robot 22 is used.
Operation and the position of the CCD camera 32 are controlled.
The camera 32 is adjusted so that the bright portion comes to the upper part of the frame. The input image is temporarily stored in the image density memory 42 as gradation image data, and then binarized based on the binarization level set in step S7 of the flowchart in FIG. In the binarized image, the bright part is 1
(White) and the dark portion as 0 (black) are stored in the binary memory No. 0 constituting the binary image memory 46.

【0023】さらに、二値化画像メモリ46における二
値メモリ No.2と No.0の画像を画像処理プロセッサ4
4において画素毎に論理和をとり、新たな画像を合成
し、これを二値化画像メモリ46の二値メモリ No.1に
入力する。
Further, the images of the binary memories No. 2 and No. 0 in the binary image memory 46 are stored in the image processor 4.
At 4, a logical sum is obtained for each pixel, a new image is synthesized, and this is input to the binary memory No. 1 of the binary image memory 46.

【0024】次に、ロボットコントローラ38によって
CCDカメラ32を移動させた後、CCDカメラ32か
ら二番目の隣接する区画の画像を画像処理装置36に取
り込む。この場合、予め、ロボットコントローラ38の
ティーチングにより、前記画像の明部がCCDカメラ3
2のフレームの中央部にくるように、すなわち、一番目
の区画の画像における明部と重複しないように設定され
ている。そこで、前記画像を二値化して明部を1
(白)、暗部を0(黒)として二値メモリ No.0に新た
に入力する。
Next, after the CCD camera 32 is moved by the robot controller 38, the image of the second adjacent section is taken into the image processing device 36 from the CCD camera 32. In this case, the bright portion of the image is previously set in the CCD camera 3 by teaching of the robot controller 38.
It is set so as to be located at the center of the second frame, that is, not to overlap with the bright part in the image of the first section. Therefore, the image is binarized to make the bright part 1
(White) and the dark part as 0 (black) and newly input to the binary memory No. 0.

【0025】ここで、画像合成された二値メモリ No.1
の画像と新たに画像が入力された二値メモリ No.0の画
像とを画像処理プロセッサ44において一画素毎に論理
和をとり、画像を合成する。この場合、前記のようにロ
ボットコントローラ38のティーチングにより、一番目
の区画と二番目の区画の画像の明部が重複することはな
い。したがって、図4の画像合成要部説明図に示すよう
に、各画像の明部は、重複することなく二値メモリ No.
2に新たに記憶される。
Here, the image-synthesized binary memory No. 1
And the image of the binary memory No. 0, to which the new image has been input, is ORed for each pixel in the image processor 44, and the images are combined. In this case, the bright portions of the images of the first section and the second section do not overlap by the teaching of the robot controller 38 as described above. Therefore, as shown in the illustration of the main part of the image composition in FIG.
2 is newly stored.

【0026】同様に、ロボット22を駆動し、アーム2
6を変位させてCCDカメラ32から隣接する三番目の
区画の画像を二値メモリ No.0に入力する。そして、二
値メモリ No.2に入力された合成画面と新たに二値メモ
リ No.0に入力された画面とを合成し、二値メモリ No.
1に記憶する。この場合も、図4に示すように、一番
目、二番目、三番目の画像の明部が重複することなく記
憶される。
Similarly, the robot 22 is driven and the arm 2
6 is displaced, and the image of the adjacent third section is input to the binary memory No. 0 from the CCD camera 32. Then, the composite screen input to the binary memory No. 2 and the screen newly input to the binary memory No. 0 are combined, and the binary memory No.
1 is stored. Also in this case, as shown in FIG. 4, the bright portions of the first, second, and third images are stored without overlapping.

【0027】このようにして、一番目乃至三番目の区画
が連続して曲面であるワーク表面の検査画像を合成し、
一画像として画像処理を行うことにより、三画像を個別
に画像処理を行った場合に対して、画像処理の不要な暗
部の面積が減少し、画像処理速度が大幅に向上する。
In this manner, the inspection image of the work surface in which the first to third sections are continuously curved surfaces is synthesized,
By performing image processing as one image, the area of a dark portion that does not require image processing is reduced, and the image processing speed is greatly improved, as compared to the case where image processing is performed on three images individually.

【0028】なお、ここでは、三画像を合成したが、明
部の幅により合成する画像数を変更することも勿論可能
である。
Although the three images have been combined here, it is of course possible to change the number of images to be combined according to the width of the bright part.

【0029】次に、ステップS32の画像合成につい
て、図1乃至図3および図5のフローチャートおよび画
像合成説明図を参照して説明する。
Next, the image combining in step S32 will be described with reference to the flowcharts of FIGS. 1 to 3 and FIG.

【0030】先ず、二値化画像メモリ46を構成する二
値メモリ No.0乃至 No.2の記憶領域を全て0(黒)に
初期化する(図3におけるステップS2)。続いて、一
番目の区画の画像をCCDカメラ32から入力する。入
力された画像は、一旦、画像濃淡メモリ42に階調画像
データとして記憶された後、図3のフローチャートのス
テップS8において、二値化レベルが設定され、この二
値化レベルに基づき画像を二値化する。二値化された画
像は、明部を1(白)、暗部を0(黒)として二値メモ
リ No.1に入力される(ステップS40)。
First, the storage areas of the binary memories No. 0 to No. 2 constituting the binary image memory 46 are all initialized to 0 (black) (step S2 in FIG. 3). Subsequently, the image of the first section is input from the CCD camera 32. The input image is temporarily stored in the image density memory 42 as gradation image data, and then a binarization level is set in step S8 of the flowchart in FIG. 3, and the image is binarized based on the binarization level. Value. The binarized image is input to the binary memory No. 1 with the bright part being 1 (white) and the dark part being 0 (black) (step S40).

【0031】続いて、二値メモリ No.1に対して、x方
向およびy方向を図5のように設定した場合、それぞれ
x方向およびy方向に対して明部に対応した画素を加算
することでヒストグラムを作成し、このヒストグラムに
基づき、該明部に相当する部分にウインドウを設定し、
このウインドウを用いて前記画像を再度明部および暗部
に分けた後、新たに二値メモリ No.2に入力する(ステ
ップS42)。次に、合成画像が入力される二値メモリ
No.0の残存領域が、前記ウインドウのy方向の幅Δy
で決定される領域より大きいか否かを判定する(ステッ
プS44)。前記残存領域が該幅Δyよりも大きい場
合、二値メモリ No.0の画像と、二値メモリ No.2の論
理和を求める。この場合、二値メモリ No.2の画像は、
図面上、上部にシフトされて合成される。合成された画
像は、新たに二値メモリ No.1に入力される(ステップ
S46)。同様にして、前記二値メモリ No.1の合成画
像において、残部の領域を確認し、再度合成可能か否か
を予め設定された量と比較する(ステップS48)。合
成可能であれば、ステップS40以降の画像合成を繰り
返す。二回目以降の画像合成の場合には、ステップS4
2で新たに形成されたウインドウによる画像は、ステッ
プS46の画面合成において、それまでに形成されたウ
インドウによる画像に重複することなく、また離間する
ことのないようにシフトされて合成される。したがっ
て、例えば四回合成した画像は、図5の下部に示すよう
に、間断なく一回目から四回目までが合成されている。
Subsequently, when the x direction and the y direction are set as shown in FIG. 5 for the binary memory No. 1, the pixels corresponding to the bright portions are added in the x direction and the y direction, respectively. A histogram is created, and based on this histogram, a window is set in a portion corresponding to the bright portion,
Using this window, the image is again divided into a bright portion and a dark portion, and is newly input to the binary memory No. 2 (step S42). Next, a binary memory to which the composite image is input
The remaining area of No. 0 is the width Δy of the window in the y direction.
It is determined whether or not it is larger than the area determined by (Step S44). When the remaining area is larger than the width Δy, the logical sum of the image of the binary memory No. 0 and the binary memory No. 2 is obtained. In this case, the image of binary memory No. 2 is
In the drawing, it is shifted upward and synthesized. The combined image is newly input to the binary memory No. 1 (step S46). Similarly, in the composite image of the binary memory No. 1, the remaining area is confirmed, and whether or not the composition can be performed again is compared with a preset amount (step S48). If synthesis is possible, the image synthesis from step S40 is repeated. In the case of the second or subsequent image synthesis, step S4
The image formed by the window newly formed in step 2 is synthesized in the screen synthesis in step S46 so that the image is not overlapped with the image formed by the previously formed window and is not separated. Therefore, for example, as shown in the lower part of FIG. 5, an image synthesized four times is synthesized without interruption from the first time to the fourth time.

【0032】一方、ステップS44においてウインドウ
の幅Δyが二値メモリNo.1の残存領域の幅よりも上回
った場合、または、ステップS48において、新たに合
成された画像の残存領域の幅が、さらに新たな画像合成
を不可能とした場合に、移動画像合成を終了する。この
ように処理することにより、ステップS28における画
像合成と同様の効果が得られるとともに、画像合成時に
ウインドウの位置を変位させて一画像に一層多数の画像
の明部を合成できるため、メモリ容量を有効に活用し、
且つ、さらに、画像処理の速度向上が図れる。
On the other hand, when the width Δy of the window exceeds the width of the remaining area of the binary memory No. 1 in step S44, or in step S48, the width of the remaining area of the newly synthesized image further increases. When the new image composition is disabled, the moving image composition ends. By performing such processing, the same effect as that of the image synthesis in step S28 can be obtained, and the bright portion of a larger number of images can be synthesized into one image by displacing the position of the window at the time of image synthesis. Use it effectively,
Further, the speed of image processing can be further improved.

【0033】[0033]

【発明の効果】本発明に係るワーク表面検査方法によれ
ば、以下の効果が得られる。
According to the work surface inspection method of the present invention, the following effects can be obtained.

【0034】すなわち、検出手段により取り込まれた画
像を二値化して、前記画像の中の有効検査面に係る画像
のみを抽出し、これを重複しないように保持した後、こ
れらを一画像として一括して画像処理することにより、
画像処理に要する時間を短縮することができ、全体の検
査時間も短縮される。
That is, the image fetched by the detecting means is binarized, and only the image relating to the effective inspection surface in the image is extracted and held so as not to be duplicated. By performing image processing
The time required for image processing can be reduced, and the overall inspection time is also reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例に係るワーク表面検査方法に
おけるワーク表面検査装置の概略説明図である。
FIG. 1 is a schematic explanatory view of a work surface inspection apparatus in a work surface inspection method according to one embodiment of the present invention.

【図2】本発明の一実施例に係るワーク表面検査方法に
おける画像処理装置の概略説明図である。
FIG. 2 is a schematic explanatory view of an image processing apparatus in a work surface inspection method according to one embodiment of the present invention.

【図3】本発明の一実施例に係るワーク表面検査方法の
全体フローチャートである。
FIG. 3 is an overall flowchart of a work surface inspection method according to an embodiment of the present invention.

【図4】本発明の一実施例に係るワーク表面検査方法の
画像合成要部説明図である。
FIG. 4 is an explanatory view of a main part of image synthesis of a work surface inspection method according to one embodiment of the present invention.

【図5】本発明の一実施例に係るワーク表面検査方法の
画像合成要部説明図である。
FIG. 5 is an explanatory view of a main part of image composition of the work surface inspection method according to one embodiment of the present invention.

【図6】従来例におけるワーク表面検査方法の説明図で
ある。
FIG. 6 is an explanatory diagram of a work surface inspection method in a conventional example.

【図7】従来例におけるワーク表面検査方法の説明図で
ある。
FIG. 7 is an explanatory diagram of a work surface inspection method in a conventional example.

【符号の説明】[Explanation of symbols]

20…ワーク表面検査装置 22…ロボット 32…CCDカメラ 35…ワーク表面 36…画像処理装置 38…ロボットコントローラ 42…画像濃淡メモリ 44…画像処理プロセッサ 46…二値化画像メモリ Reference Signs List 20 work surface inspection device 22 robot 32 CCD camera 35 work surface 36 image processing device 38 robot controller 42 image density memory 44 image processor 46 binary image memory

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平1−227910(JP,A) 特開 昭64−82180(JP,A) 特開 昭64−66547(JP,A) 実開 平3−27342(JP,U) (58)調査した分野(Int.Cl.6,DB名) G01N 21/88 G01B 11/30 G06T 7/00 ──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP-A-1-227910 (JP, A) JP-A-64-82180 (JP, A) JP-A-64-66547 (JP, A) 27342 (JP, U) (58) Fields investigated (Int. Cl. 6 , DB name) G01N 21/88 G01B 11/30 G06T 7/00

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】被測定面に向かって検出光を照射する投光
手段と、該被測定面からの前記検出光の反射光を受光す
る検出手段と、前記反射光を前記検出手段の受光面に収
束させる集光光学系とを備えた表面検査装置を用いて、
曲面を有するワークの表面を検査する方法であって、 前記表面検査装置をワーク表面に沿って順次変位させ、
前記検出光を前記検出手段により受光し、得られた画像
をそれぞれ二値化する工程と、 該二値化された複数の画像データから、検出光の照射さ
れたワークの有効検査面に係る画像データを抽出し、こ
れらを重複しない状態で保持する工程と、 該保持された画像データに対して所定の画像処理を施す
工程と、 からなることを特徴とするワーク表面検査方法。
1. A light projecting means for irradiating detection light toward a surface to be measured, a detection means for receiving reflected light of the detection light from the surface to be measured, and a light receiving surface of the detection means for receiving the reflected light. Using a surface inspection device equipped with a focusing optical system that converges
A method for inspecting a surface of a work having a curved surface, wherein the surface inspection device is sequentially displaced along the surface of the work,
A step of receiving the detection light by the detection means and binarizing each of the obtained images; and an image relating to an effective inspection surface of the workpiece irradiated with the detection light from the plurality of binarized image data. A method for inspecting a workpiece surface, comprising: extracting data and holding the data in a non-overlapping state; and performing predetermined image processing on the held image data.
【請求項2】請求項1記載のワーク表面検査方法におい
て、複数の画像データが重複しないように、予め、表面
検査装置のティーチングを行う工程を有することを特徴
とするワーク表面検査方法。
2. The work surface inspection method according to claim 1, further comprising the step of performing teaching of a surface inspection device in advance so that a plurality of image data do not overlap.
【請求項3】請求項1記載のワーク表面検査方法におい
て、画像データを保持する工程は、 二値化された画像データに基づき有効検査面の領域を示
すウインドウを設定する工程と、 該ウインドウによって抽出された有効検査面の画像デー
タを重複しない状態で保持する工程と、 からなることを特徴とするワーク表面検査方法。
3. The work surface inspection method according to claim 1, wherein the step of holding the image data includes the steps of: setting a window indicating an area of an effective inspection surface based on the binarized image data; And c. Maintaining the extracted image data of the effective inspection surface in a non-overlapping state.
JP3329383A 1991-12-13 1991-12-13 Work surface inspection method Expired - Fee Related JP2941107B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP3329383A JP2941107B2 (en) 1991-12-13 1991-12-13 Work surface inspection method
GB9225600A GB2262339B (en) 1991-12-13 1992-12-08 Method of inspecting the surface of a workpiece
US07/988,420 US5379347A (en) 1991-12-13 1992-12-09 Method of inspecting the surface of a workpiece

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3329383A JP2941107B2 (en) 1991-12-13 1991-12-13 Work surface inspection method

Publications (2)

Publication Number Publication Date
JPH05164699A JPH05164699A (en) 1993-06-29
JP2941107B2 true JP2941107B2 (en) 1999-08-25

Family

ID=18220830

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3329383A Expired - Fee Related JP2941107B2 (en) 1991-12-13 1991-12-13 Work surface inspection method

Country Status (1)

Country Link
JP (1) JP2941107B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5224288B2 (en) * 2009-02-13 2013-07-03 学校法人福岡工業大学 Surface inspection apparatus and surface inspection method

Also Published As

Publication number Publication date
JPH05164699A (en) 1993-06-29

Similar Documents

Publication Publication Date Title
CN101464418B (en) Flaw detection method and apparatus
US5379347A (en) Method of inspecting the surface of a workpiece
JPH07318498A (en) Non-contact surface-flaw detecting method and non-contact surface-flaw detecting device
JPH0736001B2 (en) Bottle defect inspection method
JP2001209798A (en) Method and device for inspecting outward appearance
JP3332208B2 (en) Defect detection method and apparatus for netted glass
JPH0792104A (en) Method for inspecting defective point of object
JP2941107B2 (en) Work surface inspection method
JP3160743B2 (en) LCD panel defect inspection equipment
JP2904983B2 (en) Work surface inspection method
JP3159063B2 (en) Surface defect inspection equipment
JPH05164703A (en) Inspecting method for surface of workpiece
JP3025562B2 (en) Surface condition inspection method using bright and dark illumination
JPH05164700A (en) Method for inspecting work surface
JPH05172548A (en) Data output method and work surface inspection device
CN114034706B (en) Device and method for detecting surface defects of carbon fiber part
JPH0718816B2 (en) Method and device for inspecting defects such as bottles
JP3055322B2 (en) Circular container inner surface inspection device
JPH03113352A (en) Flaw inspecting method for work such as rubber article
JP3357966B2 (en) Lenticular lens sheet defect inspection device
JPH11194098A (en) Defect inspection apparatus
JPH0224322B2 (en)
JPH0772718B2 (en) Appearance inspection device
JPH0429021B2 (en)
JPH07159139A (en) Inspection for surface of workpiece

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees