JP4470659B2 - Model registration method for parts inspection and inspection data creation apparatus using this method - Google Patents
Model registration method for parts inspection and inspection data creation apparatus using this method Download PDFInfo
- Publication number
- JP4470659B2 JP4470659B2 JP2004258487A JP2004258487A JP4470659B2 JP 4470659 B2 JP4470659 B2 JP 4470659B2 JP 2004258487 A JP2004258487 A JP 2004258487A JP 2004258487 A JP2004258487 A JP 2004258487A JP 4470659 B2 JP4470659 B2 JP 4470659B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- model
- color
- pattern
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
この発明は、部品実装基板を撮像して得られた画像を用いて、部品の欠落がないかどうかや、実装位置や方向が適切であるかなど、部品実装状態の良否を判別する検査に関する。特にこの発明は、この検査の対象となる部品を抽出するためのモデル画像を登録する方法、およびその登録方法が適用された検査データ作成装置に関する。 The present invention relates to an inspection for determining whether a component mounting state is good or not using an image obtained by imaging a component mounting board, such as whether or not a component is missing and whether a mounting position and direction are appropriate. In particular, the present invention relates to a method for registering a model image for extracting a part to be inspected, and an inspection data creation apparatus to which the registration method is applied.
出願人は、近年、下記の特許文献1に記載された発明を応用して基板上の部品を抽出し、その抽出結果を用いて部品実装状態の良否判別を行うようにした検査装置を開発した。
In recent years, the applicant has developed an inspection apparatus that extracts components on a board by applying the invention described in
上記特許文献1に記載の発明は、処理対象の濃淡画像から濃度変化の方向を示す角度データ(以下、「エッジコード」という。)を求め、このエッジコードの分布パターンをモデルのパターンと比較することにより、前記モデルに対応する画像領域を抽出するものである。従来の検査装置では、検査に先立ち、基板に実装されたモデルの部品の濃淡画像を入力し、この画像上の各エッジ画素とそのエッジコードとを対応づけたパターン画像(以下、「エッジコード画像」という。)を作成し、これをモデルパターンとして登録する。また検査の際には、処理対象の濃淡画像について、同様にエッジコード画像を作成し、このエッジコード画像上に前記モデルパターンを走査して照合することにより、部品に対応する画像領域を抽出する。
In the invention described in
上記のようなモデルパターンを登録する際には、作成されたモデルパターンが部品を正しく抽出することができるかどうかを検証した上で、モデルパターンを本登録するのが望ましい。このため、従来の検査装置では、前記基準基板のエッジ画像を表示し、このエッジ画像上に部品の抽出結果を重ね合わせて表示するなどして、ユーザーに部品抽出の精度を判断させるようにしている。 When registering a model pattern as described above, it is desirable to register the model pattern after verifying whether the created model pattern can correctly extract parts. For this reason, in the conventional inspection apparatus, the edge image of the reference board is displayed, and the extraction result of the component is displayed on the edge image so that the user can judge the accuracy of the component extraction. Yes.
しかしながら、単なるエッジ画像を表示したのでは、エッジ部分の濃度変化の方向を判別することは不可能であり、部品の抽出結果が適切であるか否かを正しく判別できない場合がある。たとえば、部品の近傍にノイズが生じているために、ノイズと部品の輪郭線との見分けがつかなくなると、部品が正しく抽出されているのか、抽出位置がずれているのかを判別できない状態となる。また抽出対象の部品に形状が似通っているが、基板に対する明るさの関係が異なる部品が前記抽出対象の部品の近傍にある場合、エッジ画像上の輪郭線から2つの部品を見分けるのは、およそ不可能である。 However, if a simple edge image is displayed, it is impossible to determine the direction of density change in the edge portion, and it may not be possible to correctly determine whether or not the result of component extraction is appropriate. For example, if noise is generated in the vicinity of a part and the noise and the outline of the part cannot be distinguished from each other, it is impossible to determine whether the part is correctly extracted or whether the extraction position is shifted. . In addition, when a part similar in shape to the extraction target part but having a different brightness relationship with respect to the substrate is in the vicinity of the extraction target part, it is about to distinguish the two parts from the outline on the edge image. Impossible.
一方、エッジコード画像は階調変換して表示することが可能であるが、このような画像では、部品の輪郭形状を把握するのは困難である。エッジコードは0〜360度の範囲の角度データであるため、これを濃淡の度合に置き換えた場合、エッジコードが小さいエッジ画素がエッジを構成しない画素と殆ど変わらない濃度になり、エッジを認識しにくい状態になるからである。 On the other hand, the edge code image can be displayed after gradation conversion, but it is difficult to grasp the contour shape of the component in such an image. Since the edge code is angle data in the range of 0 to 360 degrees, when this is replaced with the degree of shading, the edge pixel with a small edge code has almost the same density as the pixel that does not constitute the edge, and recognizes the edge. This is because it becomes difficult.
この発明は上記の問題点に着目してなされたもので、抽出対象の部品の各種輪郭線における濃度変化の方向を簡単に把握できるような画像を表示することにより、部品の抽出結果が適切であるか否かを簡単かつ正確に把握できるようにすることを目的とする。 The present invention has been made paying attention to the above-mentioned problems. By displaying an image that can easily grasp the direction of density change in various contour lines of a component to be extracted, the result of component extraction is appropriate. The purpose is to enable easy and accurate grasp of whether or not there is.
この発明にかかる部品検査用のモデル登録方法は、基板に実装されたモデルの部品の濃淡画像から濃度変化の方向を示す角度データを抽出し、抽出された角度データをその抽出位置の画素に対応づけたパターン画像を部品抽出用のモデルパターンとして登録するものである。この発明では、あらかじめ前記角度データの取り得る角度範囲を所定数の領域に分割して、各領域にそれぞれ個別の色彩を割り当てておき、モデルパターンに対応する部品が実装された基板を撮像して得た濃淡画像から前記角度データを抽出し、抽出された角度データをその抽出位置の画素に対応づけたパターン画像を生成する第1ステップと、前記第1ステップで生成されたパターン画像を前記モデルパターンにより照合して、前記パターン画像上でモデルパターンに対応する画像領域の位置および範囲を抽出する第2ステップと、前記第1ステップで生成されたパターン画像中の角度データをそれぞれその角度データに対応する領域の色彩に置き換えたカラー画像を作成する第3ステップと、前記第2ステップで抽出された画像領域の位置および範囲を前記カラー画像上に合成した画像を作成して表示する第4ステップとを実行するようにしている。 The model registration method for component inspection according to the present invention extracts angle data indicating the direction of density change from a grayscale image of a model component mounted on a board, and corresponds the extracted angle data to a pixel at the extraction position. The attached pattern image is registered as a model pattern for component extraction. In this invention, the angle range that can be taken by the angle data is divided into a predetermined number of areas in advance, and individual colors are assigned to the respective areas, and the board on which the component corresponding to the model pattern is mounted is imaged. The angle data is extracted from the obtained grayscale image, a first step of generating a pattern image in which the extracted angle data is associated with the pixel at the extraction position, and the pattern image generated in the first step is the model. The second step of extracting the position and range of the image area corresponding to the model pattern on the pattern image by collating with the pattern, and the angle data in the pattern image generated in the first step as the angle data, respectively A third step of creating a color image replaced with the color of the corresponding region, and the position of the image region extracted in the second step And ranges are to be executed and a fourth step of generating and displaying the synthesized image on the color image.
上記において、濃度変化の方向とは、エッジ画素を境に明るさが変化する方向であって、暗い部分から明るい部分に変化する方向、またはその反対の方向を示すと考えることができる。具体的には、特許文献1に開示したように、水平方向における濃度勾配ベクトルと、垂直方向における濃度勾配ベクトルとの合成ベクトルによって表すことができる。
濃度変化の方向を示す角度データ(前記したエッジコードに相当する。)は、特定の基準方向に対する角度により表すことができる。またその角度は、通常、0度から360度の範囲内の任意の値になると考えることができる。なお、この角度データは、所定大きさ以上の濃度変化量を有する画素(すなわちエッジ画素)に対してのみ抽出するのが望ましい。
In the above, the direction of density change is a direction in which the brightness changes with the edge pixel as a boundary, and can be considered to indicate a direction in which the dark portion changes to a bright portion, or the opposite direction. Specifically, as disclosed in
The angle data (corresponding to the edge code described above) indicating the direction of density change can be expressed by an angle with respect to a specific reference direction. In addition, the angle can be considered to be an arbitrary value within the range of 0 to 360 degrees. Note that it is desirable to extract this angle data only for pixels having an amount of change in density equal to or greater than a predetermined size (that is, edge pixels).
角度データの取り得る角度範囲に対する領域の分割数は任意に設定することができる。ただし、基板上の部品を処理対象とする点を考慮すれば、0度、90度、180度、270度の各角度がそれぞれ異なる領域に含まれるように、少なくとも4個の領域に分割するのが望ましい。各領域には、それぞれ任意の色彩を割り当てることができるが、領域間での色彩の違いが明確になるようにするのが望ましい。 The number of divisions of the region with respect to the angle range that the angle data can take can be set arbitrarily. However, considering that the components on the board are to be processed, it is divided into at least four areas so that the angles of 0 degrees, 90 degrees, 180 degrees, and 270 degrees are included in different areas. Is desirable. Arbitrary colors can be assigned to each area, but it is desirable to make the difference in color between the areas clear.
上記の方法によれば、モデルパターンとなるパターン画像を作成した後、基板の画像から生成したパターン画像を前記モデルパターンにより照合して部品に該当する画像領域を抽出し、その抽出結果の適否判別のための画像を表示する。ここで表示される画像は、処理対象のパターン画像中の角度データをそれぞれその角度データに対応する色彩に置き換えたカラー画像となるので、ユーザーは、背景の色彩以外の色彩で表されている画素をエッジ画素として認識することができる。 According to the above method, after creating a pattern image to be a model pattern, the pattern image generated from the substrate image is collated with the model pattern to extract an image area corresponding to the component, and the suitability determination of the extraction result is made Display an image for. Since the image displayed here is a color image obtained by replacing the angle data in the pattern image to be processed with colors corresponding to the angle data, the user can display pixels represented by colors other than the background color. Can be recognized as edge pixels.
また、カラー画像を作成する第3ステップでは、各画素における濃度変化量の大きさ(エッジの強さ)に応じて色彩の濃淡度合を変化させるようにしてもよい。好ましくは、エッジ強度が高いほど色彩が濃くなるように設定するとよい。
このような方法によれば、ユーザーは、色彩の濃淡表示を見ながら、所定大きさ以上の濃度変化量を有する画素を抽出するためのしきい値を設定することができる。その結果、ノイズ等により所定大きさ未満の濃度変化量が生じた画素の色彩を除去し、部品の各種輪郭線のみを抽出することができる。
In the third step of creating a color image, the degree of color shading may be changed according to the amount of density change (edge strength) in each pixel. Preferably, the higher the edge strength, the darker the color.
According to such a method, the user can set a threshold value for extracting a pixel having a density change amount equal to or larger than a predetermined size while viewing a color shading display. As a result, it is possible to remove the color of the pixel in which the density change amount less than the predetermined size is caused by noise or the like and extract only the various contour lines of the component.
また、上記の方法では、部品と基板本体との間の明暗の関係や、部品における明暗の分布状態(部品本体、電極、はんだなどの間における明るさの違いを反映したもの)に基づき、モデルに対応する部品にかかる各種の輪郭線がどのような色彩で表示されるかを、ユーザーに教示するのが望ましい。この教示の好ましい方法として、前記モデルパターンについて同様のカラー画像を作成し、これを基板にかかるカラー画像と同じ画面上に並列表示することができる。このようにすれば、ユーザーは、処理対象の基板のカラー画像とモデルのカラー画像とを見比べて、部品に対応する画像領域を容易に認識することができる。 In the above method, the model is based on the light / dark relationship between the component and the board body, and the light / dark distribution in the component (which reflects the difference in brightness among the component body, electrodes, solder, etc.). It is desirable to teach the user in what colors the various contour lines related to the parts corresponding to the are displayed. As a preferred method of this teaching, a similar color image can be created for the model pattern and displayed in parallel on the same screen as the color image on the substrate. In this way, the user can easily recognize the image area corresponding to the component by comparing the color image of the substrate to be processed with the color image of the model.
基板のカラー画像に合成される画像領域の位置および範囲は、前記角度データの色彩表示を妨げないものであるのが望ましい。たとえば、抽出された画像領域の内部を、角度データの表示色を透過可能な明度の高い色彩で着色することができる。または、画像領域の境界線を表示するが、この境界線が角度データの表示色にかかる場合には、境界線を若干ずらして表示するように設定することもできる。このような方法で表示された画像領域が前記カラー画像の色彩分布から判別した部品の部分に対応しているかどうかをチェックすることにより、モデル画像により部品が正しく抽出されているかどうかを簡単に判別することができる。 It is desirable that the position and range of the image area combined with the color image of the substrate should not interfere with the color display of the angle data. For example, the inside of the extracted image region can be colored with a high brightness color that can transmit the display color of the angle data. Alternatively, the boundary line of the image area is displayed. When this boundary line is applied to the display color of the angle data, the boundary line can be set to be slightly shifted. By checking whether the image area displayed in this way corresponds to the part of the part determined from the color distribution of the color image, it is easily determined whether the part is correctly extracted from the model image. can do.
この発明にかかる検査データ作成装置は、検査データの作成に必要な濃淡画像を入力する画像入力手段と、前記画像入力手段が入力した画像から濃度変化の方向を示す角度データを抽出し、抽出された角度データをその抽出位置の画素に対応づけたパターン画像を作成するパターン画像作成手段と、前記角度データの取り得る角度範囲から分割された所定数の領域毎に個別の色彩を対応づけて記憶する色彩記憶手段と、前記画像入力手段からモデルの部品の濃淡画像が入力されたとき、この濃淡画像から作成されたパターン画像を部品抽出用のモデルパターンとして登録する登録手段と、前記画像入力手段から前記モデルパターンに対応する部品が実装された基板の濃淡画像が入力されたとき、この濃淡画像から作成されたパターン画像を前記登録手段に登録されたモデルパターンにより照合して、前記パターン画像上でモデルパターンに対応する画像領域の位置および範囲を抽出する対応領域抽出手段と、前記色彩記憶手段に記憶された領域と色彩との対応関係に基づき、前記基板の濃淡画像から作成されたパターン画像中の角度データをそれぞれその角度に対応する領域の色彩に置き換えたカラー画像を作成するカラー画像作成手段と、前記対応領域抽出手段により抽出された画像領域の位置および範囲を前記カラー画像上に合成した画像を作成し、この合成画像を表示する表示制御手段とを具備する。 An inspection data creation apparatus according to the present invention extracts an image input means for inputting a grayscale image necessary for creating inspection data, and angle data indicating the direction of density change from the image input by the image input means. A pattern image creating means for creating a pattern image in which the angle data is associated with the pixel at the extraction position, and storing a color associated with each predetermined number of areas divided from the angle range that the angle data can take. Color storage means, registration means for registering a pattern image created from the grayscale image as a model pattern for component extraction when a grayscale image of a model part is input from the image input means, and the image input means When a grayscale image of a board on which a component corresponding to the model pattern is mounted is input from the pattern image created from this grayscale image, Corresponding with the model pattern registered in the registration means, the corresponding area extracting means for extracting the position and range of the image area corresponding to the model pattern on the pattern image, and the area and color stored in the color storage means A color image creating means for creating a color image by replacing the angle data in the pattern image created from the grayscale image of the substrate with the color of the area corresponding to the angle, and the corresponding area extracting means Display control means for creating an image obtained by synthesizing the position and range of the image region extracted by the above on the color image and displaying the synthesized image.
上記の検査装置において、画像入力手段は、カメラからの画像信号を入力するためのインターフェース回路などにより構成することができる。または、外部機器から処理対象の画像データの送信を受ける通信用のインターフェース回路、または処理対象の画像データが格納された記憶媒体にアクセスするためのドライブ装置などを、画像入力手段とすることもできる。この装置には、表示制御手段が出力した合成画像を表示するためのモニタを、ケーブル接続または装置に一体に設けることができる。 In the above inspection apparatus, the image input means can be configured by an interface circuit for inputting an image signal from the camera. Alternatively, an interface circuit for communication that receives transmission of image data to be processed from an external device, or a drive device for accessing a storage medium in which image data to be processed is stored can be used as the image input means. . In this apparatus, a monitor for displaying the composite image output by the display control means can be provided integrally with the cable connection or the apparatus.
パターン画像作成手段、対応領域抽出手段、カラー画像作成手段、表示制御手段は、それぞれその手段の機能を設定するためのプログラムが組み込まれたコンピュータにより構成することができる。各手段は同一のコンピュータに組み込むことができる。また、色彩記憶手段および登録手段は、このコンピュータ内のメモリまたは前記コンピュータに外付けされたメモリ内に設定することができる。 Each of the pattern image creating means, the corresponding area extracting means, the color image creating means, and the display control means can be configured by a computer in which a program for setting functions of the means is incorporated. Each means can be incorporated in the same computer. The color storage means and the registration means can be set in a memory in the computer or a memory externally attached to the computer.
上記構成の検査データ作成装置では、まずモデルの部品の濃淡画像を入力し、この入力画像からモデルパターンを作成して登録する。つぎに、モデルに対応する部品が実装された基板の濃淡画像を入力し、前記した第1〜4の各ステップを実行して、部品の抽出結果の適否を判断するための画像を表示する。 In the inspection data creation apparatus having the above configuration, first, a grayscale image of a model part is input, and a model pattern is created and registered from this input image. Next, the grayscale image of the board on which the component corresponding to the model is mounted is input, and the first to fourth steps described above are executed to display an image for determining the suitability of the component extraction result.
上記の検査データ作成装置は、パーソナルコンピュータなどの汎用の装置により構成することができる。また、部品実装状態の検査に用いられる検査装置内に導入することもできる。 The inspection data creation device can be configured by a general-purpose device such as a personal computer. Moreover, it can also introduce | transduce into the inspection apparatus used for the test | inspection of a component mounting state.
好ましい態様にかかる検査データ作成装置では、前記登録手段に、前記モデルパターンとともに、このモデルパターン中の角度データをそれぞれその角度に対応する領域の色彩に置き換えたモデルカラー画像が登録されている。また、前記表示制御手段は、前記基板上の前記モデルデータに対応する部品の実装方向を示す情報として、前記モデルの部品に対する当該部品の回転角度を入力する手段と、前記登録手段からモデルカラー画像を読み出す手段と、読み出されたモデルカラー画像の色彩を前記回転角度に基づき補正する手段とを有し、色彩補正後のモデルカラー画像を前記合成画像とともに出力する。 In the inspection data creation apparatus according to a preferred aspect, the registration unit registers a model color image in which the angle data in the model pattern is replaced with the color of the area corresponding to the angle, together with the model pattern. In addition, the display control means includes a means for inputting a rotation angle of the part relative to the part of the model as information indicating a mounting direction of the part corresponding to the model data on the board, and a model color image from the registration means. And a means for correcting the color of the read model color image based on the rotation angle , and outputting the model color image after the color correction together with the synthesized image.
上記の態様によれば、あらかじめモデルパターンから作成されたモデルカラー画像を用いて、抽出対象の部品の輪郭線に現れるべき色彩を示す画像が前記合成画像とともに表示される。この場合に、モデルの部品に対して抽出対象の部品が回転していると、その回転角度に応じてモデルカラー画像の色彩が補正されるから、モデル側の各輪郭線を抽出対象の部品と同様の色彩で表すことができる。よって、ユーザーは処理対象の基板にかかるカラー画像とモデルカラー画像との色彩分布を見比べることにより、抽出対象の部品の輪郭線を簡単に判別することができる。 According to the above aspect, using the model color image created in advance from the model pattern, an image indicating the color that should appear on the outline of the component to be extracted is displayed together with the synthesized image. In this case, if the extraction target component is rotated with respect to the model component, the color of the model color image is corrected according to the rotation angle. Similar colors can be used. Therefore, the user can easily discriminate the outline of the component to be extracted by comparing the color distributions of the color image and the model color image on the substrate to be processed.
この発明によれば、濃度変化の方向を示す角度データによるパターン画像を用いて部品の抽出処理を行う場合に、処理対象のパターン画像をこの画像中の角度データの大きさに応じた色彩が分布されたカラー画像に変換し、このカラー画像に部品抽出結果を示す情報を合成して表示するようにしたから、使用されたモデル画像による部品抽出結果が適切であるかどうかを簡単かつ正確に判別することができる。 According to the present invention, when a component extraction process is performed using a pattern image based on angle data indicating the direction of density change, a color corresponding to the size of the angle data in the image is distributed in the pattern image to be processed. Since it is converted into a color image and information indicating the component extraction result is combined with the color image and displayed, it can be easily and accurately determined whether the component extraction result based on the model image used is appropriate. can do.
図1は、この発明の一実施例にかかる基板検査装置の構成を示す。
この基板検査装置は、検査対象の基板を撮像して得た画像を処理して、前記基板上の部品の実装状態の適否などを判別するためのもので、撮像部3,投光部4,制御処理部5,X軸テーブル部6,Y軸テーブル部7などにより構成される。
なお、図中の1Tは、検査対象の基板(以下「被検査基板1T」という。)である。また1Sは、部品の実装状態が良好な基準基板であって、検査に先立つティーチング時に用いられる。
FIG. 1 shows the configuration of a substrate inspection apparatus according to an embodiment of the present invention.
This board inspection apparatus is for processing an image obtained by imaging a board to be inspected to determine whether or not the mounting state of components on the board is appropriate. It comprises a
In addition, 1T in the figure is a substrate to be inspected (hereinafter referred to as “inspected
前記Y軸テーブル部7は、基板1S,1Tを支持するコンベヤ7Aを具備し、図示しないモータによりこのコンベヤ7Aを動かして、前記基板1S,1TをY軸方向に(図の紙面に直交する方向)に沿って移動させる。前記X軸テーブル部6は、Y軸テーブル部7の上方で、撮像部3および投光部4を支持しつつ、これらをX軸方向(図の左右方向)に移動させる。
The Y-
前記投光部4は、異なる径を有する3個の円環状光源8,9,10により構成される。これらの光源8,9,10は、それぞれ赤色(R)、緑色(G)、青色(B)の各色彩光を発光するもので、観測位置の真上位置に中心を合わせることにより、前記基板1S,1Tから見て、異なる仰角に対応する方向に位置するように配備される。
The light projecting unit 4 is composed of three
前記撮像部3は、カラー画像生成用のCCDカメラを含むもので、その光軸が各光源8,9,10の中心に対応し、かつ鉛直方向に沿うように位置決めされる。これにより観測対象である基板1S,1Tからの反射光が撮像部3に入射し、三原色のカラー信号R,G,Bに変換されて制御処理部5へ入力される。
The
制御処理部5は、CPUを含むコンピュータを制御部11として、画像入力部12、メモリ13、撮像コントローラ14、画像処理部15、照明制御部16、XYテーブルコントローラ17、検査部18、ティーチングテーブル19、データ管理部20、入力部21、CRT表示部22、プリンタ23、送受信部24、外部メモリ装置25などを構成として含む。
The
画像入力部12は、撮像部3からのR,G,Bの各画像信号を増幅する増幅回路や、これら画像信号をディジタル信号に変換するためのA/D変換回路などを備える。メモリ13には、各色彩毎のディジタル濃淡画像データのほか、これら濃淡画像を処理して得られる2値画像データや色相データなどが格納される。また、部品実装状態の検査やその検査用のデータを作成する際には、メモリ13には、後記するエッジ画像やエッジコード画像などが格納される。
The
撮像コントローラ14は、撮像部3を制御部11に接続するインターフェースなどを備えるもので、制御部11からの命令に基づいて前記撮像部3を駆動したり、各色彩光の出力レベルを調整するなどの制御を行う。照明制御部16は、投光部4の各光源の光量を調整するためのものである。なお、この実施例では、赤、緑、青の各色彩光が混合されることによって白色照明が施されるように、各光源8,9,10の光量を調整するようにしている。
The
XYテーブルコントローラ17は、前記X軸テーブル部6およびY軸テーブル部7を制御部11に接続するインターフェースなどを含み、制御部11からの指令に基づき、X軸テーブル部6およびY軸テーブル部7の移動動作を制御する。
The
ティーチングテーブル19は、基板の検査データを記憶するための記憶部である。この検査データには、検査領域の設定位置や大きさのほか、部品実装状態を判別するための検査データとして、各種部品のモデル画像や、後記するエッジコード画像やコード表示画像のモデルなどを登録する。 The teaching table 19 is a storage unit for storing board inspection data. In this inspection data, in addition to the setting position and size of the inspection area, model images of various parts, edge code images and code display image models to be described later are registered as inspection data for determining the component mounting state. To do.
上記の検査データは、検査に先立ち、前記基準基板1Sを撮像して得られた画像や、あらかじめ入力された部品のモデルの画像を用いて係員により教示される。これらの検査データは、基板の種類毎に判定ファイルとしてまとめられる。前記データ管理部20は、基板の種類と判定ファイルとを対応づけるリンク情報が格納されたメモリである。制御部11は、被検査基板1Tの基板名の入力を受け付けた後、データ管理部20のリンク情報に基づき、その被検査基板1Tに対応する判定ファイルを読み出してメモリ13にセットする。画像処理部15や検査部18は、この読み出された判定ファイル内の検査情報に基づき処理を実行する。
Prior to the inspection, the inspection data is taught by an attendant using an image obtained by imaging the reference board 1S or a model image of a part input in advance. These inspection data are collected as a determination file for each type of substrate. The
画像処理部15は、検査時に、メモリ13に格納されたR,G,Bの各階調によるカラー画像を後記する手順で処理して、部品に該当する画像領域を抽出する。検査部18は、この部品の抽出位置を部品の基準の実装位置と比較することにより、各部品の欠落や位置ずれを判別する。
At the time of inspection, the
制御部11は、検査部18における各種判別処理の結果を総合して被検査基板1Tが良品か否かを判定する。この最終的な判定結果は、CRT表示部22やプリンタ23,あるいは送受信部24に出力される。
The
前記入力部21は、検査のための各種条件や検査情報の入力などを入力するためのもので、キーボードやマウスなどにより構成される。CRT表示部22(以下、単に「表示部22」という。)は、制御部11から画像データ、検査結果などの供給を受けて、これらを表示画面上に表示する。またプリンタ23は、制御部11から検査結果などの供給を受け、これを予め定められた形式でプリントアウトする。
The
送受信部24は、他の装置との間でデータのやりとりを行うためのもので、たとえば不良と判定された被検査基板1Tについて、その識別情報や不良の内容を後段の修正装置に送信することにより、不良箇所を速やかに修正することができる。外部メモリ装置25は、フレキシブルディスク、CD−R、光磁気ディスクなどの記憶媒体にデータを読み書きするための装置であって、前記検査結果を保存したり、検査に必要なプログラムや設定データを外部から取り込むために用いられる。
The transmission /
なお、上記構成において、画像処理部15および検査部18は、上記した各処理を実行するためのプログラムを組み込んだ専用のプロセッサにより構成される。ただし、必ずしも、専用のプロセッサを設ける必要はなく、制御部11に画像処理部15および検査部18の機能を付与するようにしてもよい。
In the above configuration, the
また、上記の基板検査装置においてはんだ付け後の基板を検査する場合には、前記した部品実装状態の検査に加え、はんだ付け状態の検査を行うことができる。この検査では、前記投光部4の光源の配置を利用して、基板のはんだ付け部位からの鏡面反射光を撮像し、得られた画像上の色彩の分布状態に基づき、はんだの傾斜状態の良否を判別する。 Moreover, when inspecting a substrate after soldering in the above-described substrate inspection apparatus, in addition to the above-described component mounting state inspection, a soldering state inspection can be performed. In this inspection, the arrangement of the light source of the light projecting unit 4 is used to image the specular reflected light from the soldered portion of the board, and based on the color distribution state on the obtained image, the solder inclination state Judge the quality.
以下では、前記部品の実装状態の検査や、この検査のための検査データを登録する方法について説明する。
この実施例では、検査対象のカラー画像をモノクロ変換し、この変換後の画像上のエッジ画素につき、それぞれエッジコードを算出する。つぎに、このエッジコードと画素とを対応づけたパターン画像(エッジコード画像)を作成し、このエッジコード画像にあらかじめ登録したモデルのエッジコード画像(以下、「マッチングモデル」という。)を操作して照合する処理(以下、「エッジコードマッチング」という。)を実行することにより、検査対象の部品を抽出する。ここで部品が基準の実装位置で抽出されると、部品が適正に実装されていると判断される。一方、部品が抽出されなかったり、抽出位置が基準の実装位置からずれたりすると、部品が欠落または位置ずれしていると判断される。
Hereinafter, a method for inspecting the mounting state of the component and registering inspection data for the inspection will be described.
In this embodiment, the color image to be inspected is subjected to monochrome conversion, and an edge code is calculated for each edge pixel on the converted image. Next, a pattern image (edge code image) in which the edge code and the pixel are associated is created, and an edge code image (hereinafter referred to as “matching model”) of a model registered in advance in the edge code image is operated. The parts to be inspected are extracted by executing the matching process (hereinafter referred to as “edge code matching”). Here, when the component is extracted at the reference mounting position, it is determined that the component is properly mounted. On the other hand, if no part is extracted or if the extraction position deviates from the reference mounting position, it is determined that the part is missing or misaligned.
検査データとして登録される部品の濃淡画像のモデル(以下、「モデル画像」という。)は、部品のモデルが実装された基板のカラー画像から前記部品モデルを含む小領域を切り出すことにより設定される。また、前記エッジコードマッチングに使用されるマッチングモデルは、前記モデル画像をモノクロ変換した画像から生成される。 A model of a grayscale image of a component registered as inspection data (hereinafter referred to as “model image”) is set by cutting out a small area including the component model from a color image of a board on which the component model is mounted. . The matching model used for the edge code matching is generated from an image obtained by monochrome conversion of the model image.
さらにこの実施例では、ユーザーが前記基本のモデル画像やマッチングモデルが部品を抽出するのに適しているかどうかを確認する際に、基準基板1Sの画像から作成したエッジコード画像を対象として、登録されたマッチングモデルによるエッジコードマッチングを実行し、その処理結果を前記表示部22に表示する。この場合の表示画面では、マッチング対象のエッジコード画像やマッチングモデルが、各エッジコードを所定の色彩に置き換えたカラー画像として表示される。さらに、マッチング対象の画像表示のうち部品として抽出された画像領域に、所定の色彩(たとえば黄色)による着色表示が行われる。
Further, in this embodiment, when the user confirms whether the basic model image or the matching model is suitable for extracting a part, the edge code image created from the image of the reference board 1S is registered as a target. Edge code matching based on the matching model is executed, and the processing result is displayed on the
ここで、エッジコード画像をカラー表示する方法について説明する。
前記エッジコードは、画像上のエッジ画素を境に濃度が変化する方向を示す角度データである。具体的には、図2に示すように、x軸方向の濃度変化量Δxによるベクトルfxと、y軸方向の濃度変化量Δyによるベクトルfyとの合成ベクトルFを求め、このベクトルFの基準方向(この実施例ではx軸の正方向とする。)に対する角度ECをエッジコードとする。なお、この実施例のベクトルfx,fyは、暗い方から明るい方に向かう方向を示すベクトルである。よって合成ベクトルFの向きも、暗い方から明るい方に向かう方向を示すものとなる。
Here, a method of displaying the edge code image in color will be described.
The edge code is angle data indicating a direction in which the density changes with an edge pixel on the image as a boundary. Specifically, as shown in FIG. 2, a combined vector F of a vector fx based on the density change amount Δx in the x-axis direction and a vector fy based on the density change amount Δy in the y-axis direction is obtained, and the reference direction of the vector F An angle EC with respect to (in this embodiment, the positive direction of the x axis) is defined as an edge code. The vectors fx and fy in this embodiment are vectors indicating the direction from the darker side toward the brighter side. Therefore, the direction of the composite vector F also indicates the direction from the dark side to the bright side.
上記のエッジコードは、0度から360度までの角度範囲内の任意の値をとると考えることができる。そこでこの実施例では、図3に示すように、45度、135度、225度、315度の各方位を境界として、エッジコードが取り得る角度範囲を4つの領域R1,R2,R3,R4に分割し、これらの領域R1,R2,R3,R4にそれぞれ赤色、緑色、青色、白色の各色彩を対応づける。そして、画像上の各エッジ画素につきエッジコードを算出すると、これらのエッジ画素にそれぞれ算出されたエッジコードに対応する領域の色彩を設定し、その設定によるカラー画像を作成する。以下では、このカラー画像を「コード表示画像」という。 The above edge code can be considered to take an arbitrary value within an angle range from 0 degrees to 360 degrees. Therefore, in this embodiment, as shown in FIG. 3, the angle ranges that can be taken by the edge code are divided into four regions R1, R2, R3, and R4 with each direction of 45 degrees, 135 degrees, 225 degrees, and 315 degrees as boundaries. The regions R1, R2, R3, and R4 are respectively associated with red, green, blue, and white colors. Then, when the edge code is calculated for each edge pixel on the image, the color of the region corresponding to the calculated edge code is set for each of the edge pixels, and a color image based on the setting is created. Hereinafter, this color image is referred to as a “code display image”.
たとえば、エッジコードが0度の画素は赤色になり、エッジコードが90度の画素は緑色になる。また、エッジコードが180度の画素は青色になり、エッジコードが270度の画素は白色になる。なお、この実施例では、画像上の全構成画素につき、前記Δx,Δyを用いて濃度勾配強度(前記ベクトルFの長さに相当する。以下、これを「エッジ強度」という。)を求め、このエッジ強度が所定値以上の画素についてエッジコードを算出する。また、エッジコードが算出されなかった画素には、背景色として黒色を設定している。 For example, a pixel whose edge code is 0 degree is red, and a pixel whose edge code is 90 degrees is green. Further, a pixel whose edge code is 180 degrees is blue, and a pixel whose edge code is 270 degrees is white. In this embodiment, the density gradient intensity (corresponding to the length of the vector F. This is hereinafter referred to as “edge intensity”) is obtained by using Δx and Δy for all the constituent pixels on the image. An edge code is calculated for a pixel whose edge strength is a predetermined value or more. Also, black is set as the background color for the pixels for which the edge code has not been calculated.
図4(1)は、部品を撮像して得た原カラー画像の例である。なお、この図では、各種色彩をそれぞれ異なる塗りつぶしパターンにより示している。
この例の画像において、30は部品を、31は電極を、32は基板上のクリームはんだを、それぞれ示す。また、周囲の斜線部分33は、基板本体の色彩が現れた部分である。なお、図中、各部の境界位置にまたがって設定された矢印は、前記ベクトルFの方向を模式的に示すものである。この例では、電極31が最も明るく、以下、部品30、クリームはんだ32、基板本体33の順に暗い色彩になっている。
FIG. 4A is an example of an original color image obtained by imaging a part. In this figure, various colors are indicated by different fill patterns.
In the image of this example, 30 indicates a component, 31 indicates an electrode, and 32 indicates cream solder on the substrate. Further, the surrounding hatched
図4(2)は、図4(1)の画像から作成したエッジコード画像上の各エッジコードをそれぞれ前記図3の色彩に置き換えることにより生成されたコード表示用画像である。なお、この図4(2)では、赤、緑、青、白の4種類の色彩による輪郭線を、それぞれ異なる種類の線により示す。なお、図中の白地部分は、実際の画像では、背景色の黒色となる。 FIG. 4B is a code display image generated by replacing each edge code on the edge code image created from the image of FIG. 4A with the color of FIG. In FIG. 4 (2), contour lines of four types of colors of red, green, blue, and white are indicated by different types of lines. Note that the white background portion in the figure is a black background color in an actual image.
この実施例では、前記部品モデルについて、モデル画像やマッチングモデルのほか、前記コード表示画像のモデル(以下、「表示用モデル」という。)を作成し、ティーチングテーブル19内に登録するようにしている。図5および図6は、この登録処理にかかる一連の流れを示すものである。以下、この流れに沿って、上記した3種類のモデルを登録する手順の詳細を説明する。 In this embodiment, in addition to a model image and a matching model, a model of the code display image (hereinafter referred to as “display model”) is created and registered in the teaching table 19 for the component model. . 5 and 6 show a series of flows related to this registration process. The details of the procedure for registering the above three types of models will be described below along this flow.
この手順は、部品のモデルが搭載された基準基板1Sのカラー画像を入力することにより開始される。まず最初のST1(STはステップの略である。以下も同じ。)では、入力画像から前記部品のモデルを含む領域を指定する操作を受け付けて、その領域を登録対象の領域として設定する。つぎに、ユーザーにより登録操作が行われると、ST2が「YES」となってST3に進み、前記登録対象領域内のカラー画像をモノクロ画像に変換する処理を実行する。 This procedure is started by inputting a color image of the reference board 1S on which a component model is mounted. In the first ST1 (ST is an abbreviation of a step. The same applies to the following), an operation for designating an area including the model of the part is received from the input image, and the area is set as a registration target area. Next, when a registration operation is performed by the user, ST2 becomes “YES” and the process proceeds to ST3, where a process of converting a color image in the registration target area into a monochrome image is executed.
ついでST4では、前記ティーチングテーブル19に共通データとして登録されている基準しきい値thを読み出す。この基準しきい値thは、前記登録対象領域からエッジ画素を抽出するためのもので、所定量のエッジ強度に対応する値、または%単位の数値が設定されている。 In ST4, the reference threshold value th registered as common data in the teaching table 19 is read out. The reference threshold value th is used to extract edge pixels from the registration target area, and is set to a value corresponding to a predetermined amount of edge strength or a numerical value in units of%.
つぎのST5では、前記登録対象領域内の各画素につき、前記濃度変化量Δx、Δyを抽出した後、エッジ強度Pを算出する。なお、エッジ強度Pの算出には、下記の(1)式が用いられる。 In the next ST5, after the density change amounts Δx and Δy are extracted for each pixel in the registration target region, the edge strength P is calculated. For calculating the edge strength P, the following equation (1) is used.
つぎに、ST6では、前記エッジ強度Pについて、前記登録対象領域における最大値Pmaxおよび最小値Pminを算出する。さらに続くST7では、前記基準しきい値thに%の単位が設定されているかどうかをチェックする。この判定が「YES」であれば、ST8に進み、前記エッジ強度の最大値Pmaxおよび最小値Pminや基準しきい値thを用いて下記(2)式による演算を実行し、エッジ画素抽出用のしきい値Tを算出する。一方、基準しきい値thに%の単位が設定されていない場合には、ST7が「NO」となってST9に進み、前記しきい値Tにthの値をそのまま代入する。
T=Pmin+(Pmax−Pmin)×th ・・・(2)
Next, in ST6, for the edge strength P, the maximum value Pmax and the minimum value Pmin in the registration target area are calculated. In further ST7, it is checked whether a unit of% is set for the reference threshold value th. If this determination is “YES”, the process proceeds to ST8, and the calculation according to the following equation (2) is executed using the maximum value P max and minimum value P min of the edge strength and the reference threshold value th, and edge pixel extraction is performed. A threshold value T is calculated. On the other hand, if the unit of% is not set for the reference threshold value th, ST7 becomes “NO” and the process proceeds to ST9, and the value of th is substituted for the threshold value T as it is.
T = P min + (P max −P min ) × th (2)
以下では、登録対象領域内の画素に順に着目して、着目画素毎にST10〜22のループを繰り返すことにより、各画素の色彩データ(R,G,B)を決定する。なお、Rは赤の階調に、Gは緑の階調に、Bは青の階調にそれぞれ相当する。 Below, paying attention to the pixels in the registration target region in order, the color data (R, G, B) of each pixel is determined by repeating the loop of ST10 to 22 for each pixel of interest. Note that R corresponds to a red gradation, G corresponds to a green gradation, and B corresponds to a blue gradation.
前記ST10〜22のループの始まりのステップであるST10では、着目画素のエッジ強度Pを前記しきい値Tと比較する。ここでエッジ強度Pがしきい値Tより小さい場合には、ST21に進み、色彩データ(R,G,B)の各階調を0にする。これにより着目画素には背景色である黒色が設定される。 In ST10, which is the starting step of the loop of ST10-22, the edge intensity P of the pixel of interest is compared with the threshold value T. If the edge strength P is smaller than the threshold value T, the process proceeds to ST21, and each gradation of the color data (R, G, B) is set to zero. As a result, black, which is the background color, is set for the pixel of interest.
一方、着目画素のエッジ強度Pがしきい値T以上であれば、ST10が「YES」となってST11に進み、着目画素のエッジコードECを算出する。さらに、つぎのST12では、つぎの(3)式により前記エッジ強度Pを階調変換し、変換後の階調をSとしてメモリ13に一時保存する。なお(3)式中のAは、各色彩を視認可能な強度で表示するためのオフセット値であり、たとえばA=127に設定される。
On the other hand, if the edge intensity P of the pixel of interest is greater than or equal to the threshold value T, ST10 is “YES” and the process proceeds to ST11 to calculate the edge code EC of the pixel of interest. Further, in the next ST12, the edge strength P is subjected to gradation conversion by the following equation (3), and the converted gradation is temporarily stored in the
ST13以下では、前記エッジコードECが前記図3の4つの領域R1,R2,R3,R4のいずれに属するかを判別し、その判別結果に基づいて色彩データ(R,G,B)を決定する。すなわち、エッジコードECが45度より小さいか、315度以上である場合(ST13が「NO」またはST16「YES」の場合)には、ST17に進み、前記色彩データ(R、G,B)を(S,0,0)と設定する。これにより、着目画素は赤色に設定される。 After ST13, it is determined which of the four regions R1, R2, R3, R4 of FIG. 3 the edge code EC belongs to, and color data (R, G, B) is determined based on the determination result. . That is, when the edge code EC is smaller than 45 degrees or greater than 315 degrees (when ST13 is “NO” or ST16 “YES”), the process proceeds to ST17, and the color data (R, G, B) is stored. Set (S, 0, 0). As a result, the target pixel is set to red.
着目画素のエッジコードECが45度以上、135度未満である場合(ST13が「YES」、ST14が「NO」の場合)には、ST18に進み、前記色彩データ(R,G,B)を(0,S,0)と設定する。これにより、着目画素は緑色に設定される。 When the edge code EC of the pixel of interest is 45 degrees or more and less than 135 degrees (when ST13 is “YES” and ST14 is “NO”), the process proceeds to ST18, and the color data (R, G, B) is obtained. Set to (0, S, 0). As a result, the target pixel is set to green.
着目画素のエッジコードECが135度以上、225度未満である場合(ST14が「YES」、ST15が「NO」の場合)には、ST19に進み、前記色彩データ(R,G,B)を(0,0,S)と設定する。これにより、着目画素は青色に設定される。 When the edge code EC of the pixel of interest is 135 degrees or more and less than 225 degrees (when ST14 is “YES” and ST15 is “NO”), the process proceeds to ST19, and the color data (R, G, B) is stored. Set to (0, 0, S). As a result, the target pixel is set to blue.
着目画素のエッジコードECが225度以上、315度未満である場合(ST15が「YES」、ST16が「NO」の場合)には、ST20に進み、前記色彩データ(R,G,B)を(S,S,S)と設定する。これにより、着目画素は白色に設定される。 When the edge code EC of the pixel of interest is 225 degrees or more and less than 315 degrees (when ST15 is “YES” and ST16 is “NO”), the process proceeds to ST20, and the color data (R, G, B) is obtained. Set (S, S, S). Thereby, the target pixel is set to white.
このように、登録対象領域内の画素の中からエッジ画素を抽出し、各エッジ画素に、そのエッジコードが所属する領域の色彩とエッジ強度Pの大きさに応じた階調Sとを設定する。登録対象領域内のすべての画素について処理が終了すると、ST22が「YES」となり、以下、前記部品のモデルにかかる各種検査データをティーチングテーブル19に登録する処理を実行する。 In this way, edge pixels are extracted from the pixels in the registration target region, and the color of the region to which the edge code belongs and the gradation S corresponding to the magnitude of the edge strength P are set for each edge pixel. . When the process is completed for all the pixels in the registration target region, ST22 becomes “YES”, and thereafter, a process for registering various inspection data relating to the model of the part in the teaching table 19 is executed.
ST23では、ST8またはST9で設定されたしきい値Tを登録する。つぎにST24では、この登録処理のために入力したカラー画像から前記登録対象領域内の画像を切り出し、これをモデル画像として登録する。さらに、ST25では、前記しきい値Tによりエッジ画素と判別された画素のエッジコードの算出結果を用いてエッジコード画像を作成し、これをマッチングモデルとして登録する。なお、このマッチングモデルの画像では、エッジ画素以外の画素は、データ値のないブランクとして設定される。 In ST23, the threshold value T set in ST8 or ST9 is registered. Next, in ST24, an image in the registration target area is cut out from the color image input for the registration process, and this is registered as a model image. Furthermore, in ST25, an edge code image is created using the calculation result of the edge code of the pixel determined as the edge pixel by the threshold value T, and this is registered as a matching model. In this matching model image, pixels other than the edge pixels are set as blanks having no data value.
最後にST26では、前記登録対象領域内の各画素について設定された色彩データ(R,G,B)によるカラー画像が前記表示用モデルとして登録される。 Finally, in ST26, a color image based on color data (R, G, B) set for each pixel in the registration target area is registered as the display model.
このようにして、1つの部品について、エッジ抽出のためのしきい値T、モデル画像、マッチングモデル、表示用モデルが登録されることになる。以下では、このしきい値Tおよび3種類の画像データを組み合わせたものを、「モデルデータ」という。 In this way, the threshold value T for edge extraction, the model image, the matching model, and the display model are registered for one part. Hereinafter, the combination of the threshold value T and the three types of image data is referred to as “model data”.
なお、この実施例の基板検査装置では、1つの部品について、上記のモデルデータを5つまで登録できるようにしている。これは、性能は同じであるが、メーカー等の違いによって外観が異なる部品が存在することによる。性能が同じであれば、どの部品を使用してもかまわないので、これらの部品のうちの代表的な部品に、各部品のモデルデータを対応づけできるようにしたのである。 In the board inspection apparatus of this embodiment, up to five pieces of the model data can be registered for one part. This is due to the presence of parts that have the same performance but differ in appearance due to differences in manufacturers. Since any part can be used as long as the performance is the same, model data of each part can be associated with a representative part among these parts.
さらに、この実施例の基板検査装置では、登録されたモデルデータが適切であるかどうかを確認する処理を実行するようにしている。図7は、この確認処理の流れを示す。なお、この処理は、ST101から開始されるものとする。 Furthermore, in the board inspection apparatus of this embodiment, processing for confirming whether or not the registered model data is appropriate is executed. FIG. 7 shows the flow of this confirmation process. This process is started from ST101.
この確認処理が実行される時点の基板検査装置には、CADデータなどに基づき、処理対象の基板に実装される部品の情報(部品の種類、実装位置、実装方向など)が登録されている。処理に先立ち、確認対象の部品が搭載された基準基板1Sの基板名が入力されると、その基板上の部品の部品名などが読み出され、表示部22に一覧表示される。
なお、この確認処理に使用される基準基板1Sは、モデル登録処理で使用されたのと同じ基板でも良いが、異なる種類の基板とするのが望ましい。また、複数種の基準基板1Sを用いて確認処理を繰り返すのが望ましい。
In the board inspection apparatus at the time when this confirmation process is executed, information (part type, mounting position, mounting direction, etc.) of components mounted on the processing target board is registered based on CAD data or the like. Prior to the processing, when the board name of the reference board 1S on which the part to be checked is mounted is input, the part names of the parts on the board are read out and displayed in a list on the
The reference substrate 1S used for the confirmation process may be the same substrate as that used in the model registration process, but is preferably a different type of substrate. It is desirable to repeat the confirmation process using a plurality of types of reference substrates 1S.
図7のST101では、前記基準基板1Tを搬入し、カメラにより撮像する。つぎにST102で、前記一覧表示中の部品名を選択するなど、確認対象の部品を指定する操作が行われると、ST103に進み、指定された部品の登録情報から実装方向を読み出す。さらに、つぎのST104では、前記ティーチングテーブル19から指定された部品に対応するモデルデータを読み出し、メモリ13にセットする。なお、指定された部品に対し、複数のモデルデータが登録されている場合には、ST104では、すべてのモデルデータを読み出すことになる。
In ST101 of FIG. 7, the
つぎのST105では、前記ST104で読み出されたモデルデータのうちの表示用モデルについて、前記エッジコードを表す色彩を、指定された部品の実装方向に応じて補正する処理を実行する。 In the next ST105, processing for correcting the color representing the edge code according to the mounting direction of the specified component is executed for the display model in the model data read in ST104.
この実施例のモデルデータは、いずれも基準の方向に位置決めされた部品モデルの画像を用いて作成される。前記ST103で読み出される部品の実装方向は、前記基準の方向を向いている場合の部品に対する回転角度として示される。部品が回転して輪郭線の向きが変わると、エッジコードも変化するから、そのエッジコードに対応する色彩も変化する可能性がある。ST105では、この点を考慮して、表示用モデルのエッジコードが実際の部品と同様になるように補正するのである。具体的には、マッチングモデル中の各エッジコードECにつき、現在値に回転角度θを加えた値を360度で割った余り[Mod((EC+θ),360)]を補正値EC´として求め、この補正値EC´に対応する色彩を割り当てたものを補正後の表示用モデルとする。 The model data of this embodiment is created by using an image of a part model positioned in the reference direction. The mounting direction of the component read in ST103 is shown as a rotation angle with respect to the component when facing the reference direction. If the orientation of the contour changes as the part rotates, the edge code also changes, so the color corresponding to the edge code may also change. In ST105, considering this point, correction is performed so that the edge code of the display model is the same as that of the actual part. Specifically, for each edge code EC in the matching model, a remainder [Mod ((EC + θ), 360)] obtained by dividing the value obtained by adding the rotation angle θ to the current value by 360 degrees is obtained as the correction value EC ′. The display model after correction is assigned the color corresponding to the correction value EC ′.
つぎに、ST106では、前記ST101で得た処理対象画像をモノクロ変換した上で、その変換後の画像に前記図6のST10〜22と同様の処理を実行することにより、エッジコード画像およびコード表示画像を作成する。さらに、つぎのST107では、前記処理対象画像(カラー画像)と前記ST105の補正を行う前の表示用モデルとを表示部22に並列表示する。
Next, in ST106, the processing target image obtained in ST101 is subjected to monochrome conversion, and the converted image is subjected to the same processing as ST10 to 22 in FIG. 6 to thereby obtain an edge code image and code display. Create an image. Further, in the next ST107, the processing target image (color image) and the display model before the correction of ST105 are displayed in parallel on the
この表示に対し、いずれかのモデルを選択する操作が行われると、ST108からST109に進み、作成したエッジコード画像に対し、前記選択に対応するマッチングモデルを用いたエッジコードマッチングを実行する。この結果、エッジコード画像上でマッチングモデルへの類似度が最も高かった画像領域が部品に相当する領域として抽出される。 When an operation for selecting one of the models is performed on this display, the process proceeds from ST108 to ST109, and edge code matching using a matching model corresponding to the selection is executed on the created edge code image. As a result, the image area having the highest similarity to the matching model on the edge code image is extracted as the area corresponding to the part.
ST110では、前記表示部22の表示画面を更新し、前記ST106で作成されたコード表示画像上にST109で抽出された画像領域を着色表示した画像と、前記ST105で補正した表示用モデルとを並列表示する。ユーザーは、2つの表示を見比べることにより、抽出された画像領域内の各種輪郭線が表示用モデルと同様のパターンに着色されているかどうかを確認し、モデルの適否を判断する。ここで、モデルが適切でないと判断すると、ユーザーは削除操作を行うことができる。この削除操作がなされると、ST111が「YES」となってST112に進み、前記選択されたモデルデータを削除する処理が行われる。
In ST110, the display screen of the
この後、別のモデルを選択する操作が行われると、ST113が「YES」となってST109に戻り、新たに選択されたモデルを用いて上記と同様の処理が行われる。一方、モデルを選択せずに終了操作が行われると、ST114が「YES」となり、確認処理を終了する。 Thereafter, when an operation for selecting another model is performed, ST113 becomes “YES”, the process returns to ST109, and the same process as described above is performed using the newly selected model. On the other hand, if the end operation is performed without selecting a model, ST114 becomes “YES” and the confirmation process is ended.
図8は、上記の登録モデルの確認処理において、表示部22に提示される表示画面の一例を示す。図8(1)は、前記ST108の選択操作が行われる前の表示画面であり、処理対象のカラー画像を表示するウィンドウ40の隣に、各モデルのモデル画像と表示用モデルとが対応づけられて表示されている。なお、図中の41は、モデル選択用のカーソルを示す。
FIG. 8 shows an example of a display screen presented on the
図8(2)は、モデル選択後の表示画面を示す。この画面では、選択されたモデル1の表示領域が枠画像42により識別表示される。また前記ウィンドウ40内の表示がコード表示画像に変化するとともに、エッジコードマッチングにより抽出された画像領域43に着色表示が施される。なお、この着色表示は、実際に抽出された領域よりも若干大きめに設定され、各輪郭線の色彩を透過可能な色彩で着色される。
FIG. 8 (2) shows a display screen after model selection. On this screen, the display area of the selected
なお、上記の実施例では、部品の実装方向に合わせて表示用モデル側の色彩を変更するようにしたが、これに限らず、前記ウィンドウ40内のコード表示画像の色彩を表示用モデルに合わせて補正するようにしてもよい。
In the above embodiment, the color on the display model side is changed in accordance with the mounting direction of the components. However, the present invention is not limited to this, and the color of the code display image in the
図8の例では、説明を簡単にするために、ウィンドウ40内に確認対象の部品のみを表示しているが、実際の処理におけるいカメラの撮像領域には、通常、複数の部品が含まれる。このため、従来のエッジ画像上に部品の抽出結果を表示する方法では、確認対象の部品の近傍に形状の似通った部品があったり、部品の一部に類似するようなノイズがある場合に、部品が正しく抽出されたかどうかを判断するのが困難になる。
In the example of FIG. 8, for the sake of simplicity, only the parts to be confirmed are displayed in the
これに対し、この実施例では、部品として抽出された領域43内の色彩パターンと選択したモデルにおける色彩パターンとを見比べて、エッジコードマッチングにより部品が正しく抽出されたかどうかを確認することができ、確認作業にかかる精度や効率を大幅に向上することができる。
On the other hand, in this embodiment, the color pattern in the
なお、上記の確認処理では、モノクロ画像から作成したエッジコード画像やコード表示画像を使用しているが、エッジコードマッチングの精度が悪い場合などには、R,G,Bのいずれかの階調による濃淡画像や、明度補正を施した濃淡画像などによりエッジコード画像やコード表示画像を作成し直し、再度、エッジコードマッチングを行うことも可能である。 In the above confirmation processing, an edge code image or a code display image created from a monochrome image is used. However, when the accuracy of edge code matching is poor, any gradation of R, G, or B is used. It is also possible to re-create the edge code image or code display image using the gray image obtained by the above or the gray image subjected to brightness correction, and perform edge code matching again.
1T 基準基板
3 撮像部
12 画像入力部
11 制御部
15 画像処理部
19 ティーチングテーブル
22 CRT表示部
Claims (3)
あらかじめ前記角度データの取り得る角度範囲を所定数の領域に分割して、各領域にそれぞれ個別の色彩を割り当てておき、
前記モデルパターンに対応する部品が実装された基板を撮像して得た濃淡画像から前記角度データを抽出し、抽出された角度データをその抽出位置の画素に対応づけたパターン画像を生成する第1ステップと、
前記第1ステップで生成されたパターン画像を前記モデルパターンにより照合して、前記パターン画像上でモデルパターンに対応する画像領域の位置および範囲を抽出する第2ステップと、
前記第1ステップで生成されたパターン画像中の角度データをそれぞれその角度データに対応する領域の色彩に置き換えたカラー画像を作成する第3ステップと、
前記第2ステップで抽出された画像領域の位置および範囲を前記カラー画像上に合成した画像を作成して表示する第4ステップとを、実行することを特徴とする部品検査用のモデル登録方法。 Extract angle data indicating the direction of density change from the grayscale image of the model component mounted on the board, and register the pattern image associating the extracted angle data with the pixel at the extraction position as a model pattern for component extraction In the way to
The angle range that the angle data can take in advance is divided into a predetermined number of areas, and individual colors are assigned to each area,
First, the angle data is extracted from a grayscale image obtained by imaging a board on which a component corresponding to the model pattern is mounted, and a pattern image in which the extracted angle data is associated with a pixel at the extraction position is generated. Steps,
A second step of collating the pattern image generated in the first step with the model pattern and extracting a position and a range of an image region corresponding to the model pattern on the pattern image;
A third step of creating a color image by replacing the angle data in the pattern image generated in the first step with the color of the region corresponding to the angle data;
A model registration method for component inspection, comprising: a fourth step of creating and displaying an image obtained by combining the position and range of the image region extracted in the second step on the color image.
検査データの作成に必要な濃淡画像を入力する画像入力手段と、
前記画像入力手段が入力した画像から濃度変化の方向を示す角度データを抽出し、抽出された角度データをその抽出位置の画素に対応づけたパターン画像を作成するパターン画像作成手段と、
前記角度データの取り得る角度範囲から分割された所定数の領域毎に個別の色彩を対応づけて記憶する色彩記憶手段と、
前記画像入力手段からモデルの部品の濃淡画像が入力されたとき、この濃淡画像から作成されたパターン画像を部品抽出用のモデルパターンとして登録する登録手段と、
前記画像入力手段から前記モデルパターンに対応する部品が実装された基板の濃淡画像が入力されたとき、この濃淡画像から作成されたパターン画像を前記登録手段に登録されたモデルパターンにより照合して、前記パターン画像上でモデルパターンに対応する画像領域の位置および範囲を抽出する対応領域抽出手段と、
前記色彩記憶手段に記憶された領域と色彩との対応関係に基づき、前記基板の濃淡画像から作成されたパターン画像中の角度データをそれぞれその角度に対応する領域の色彩に置き換えたカラー画像を作成するカラー画像作成手段と、
前記対応領域抽出手段により抽出された画像領域の位置および範囲を前記カラー画像上に合成した画像を作成し、この合成画像を表示のために出力する表示制御手段とを具備する検査データ作成装置。 An apparatus for creating inspection data for inspecting a component mounting board,
An image input means for inputting a grayscale image necessary for creating inspection data;
Pattern image creation means for extracting angle data indicating the direction of density change from the image input by the image input means, and creating a pattern image in which the extracted angle data is associated with the pixel at the extraction position;
Color storage means for storing individual colors in association with each of a predetermined number of areas divided from an angle range that can be taken by the angle data;
A registration unit that registers a pattern image created from the grayscale image as a model pattern for component extraction when a grayscale image of the model component is input from the image input unit;
When a grayscale image of a substrate on which a component corresponding to the model pattern is mounted from the image input means, a pattern image created from the grayscale image is collated with a model pattern registered in the registration means, A corresponding region extracting means for extracting a position and a range of an image region corresponding to the model pattern on the pattern image;
Based on the correspondence between the area and color stored in the color storage means, a color image is created by replacing the angle data in the pattern image created from the grayscale image of the substrate with the color of the area corresponding to that angle. Color image creation means to
An inspection data creating apparatus comprising: display control means for creating an image obtained by synthesizing the position and range of the image area extracted by the corresponding area extracting means on the color image and outputting the synthesized image for display.
前記表示制御手段は、前記基板上の前記モデルデータに対応する部品の実装方向を示す情報として、前記モデルの部品に対する当該部品の回転角度を入力する手段と、前記登録手段からモデルカラー画像を読み出す手段と、読み出されたモデルカラー画像の色彩を前記回転角度に基づき補正する手段とを有し、色彩補正後のモデルカラー画像を前記合成画像とともに出力する請求項2に記載された検査データ作成装置。 A model color image in which the angle data in the model pattern is replaced with the color of the area corresponding to the angle is registered in the registration unit together with the model pattern,
The display control means reads out a model color image from the registration means and means for inputting the rotation angle of the part relative to the model part as information indicating the mounting direction of the part corresponding to the model data on the substrate. 3. The inspection data creation according to claim 2, further comprising: means for correcting the color of the read model color image based on the rotation angle , and outputting the model color image after the color correction together with the synthesized image. apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004258487A JP4470659B2 (en) | 2004-09-06 | 2004-09-06 | Model registration method for parts inspection and inspection data creation apparatus using this method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004258487A JP4470659B2 (en) | 2004-09-06 | 2004-09-06 | Model registration method for parts inspection and inspection data creation apparatus using this method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006072913A JP2006072913A (en) | 2006-03-16 |
JP4470659B2 true JP4470659B2 (en) | 2010-06-02 |
Family
ID=36153442
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004258487A Expired - Fee Related JP4470659B2 (en) | 2004-09-06 | 2004-09-06 | Model registration method for parts inspection and inspection data creation apparatus using this method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4470659B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4788517B2 (en) * | 2006-07-28 | 2011-10-05 | オムロン株式会社 | Method for setting inspection reference data for substrate appearance inspection and substrate appearance inspection apparatus using this method |
JP4935307B2 (en) | 2006-11-08 | 2012-05-23 | オムロン株式会社 | Image processing apparatus, image registration method, program for causing computer to execute image registration method, and recording medium recording the program |
JP2010061539A (en) * | 2008-09-05 | 2010-03-18 | Omron Corp | Method of registering model data for substrate visual inspection and substrate visual inspection apparatus |
JP5500996B2 (en) * | 2010-01-06 | 2014-05-21 | キヤノン株式会社 | Image processing apparatus and image processing method |
JP2011164991A (en) * | 2010-02-10 | 2011-08-25 | Toyota Motor Corp | Image processing apparatus |
CN115229355B (en) * | 2022-09-22 | 2022-12-13 | 江苏双赢锻压机床有限公司 | Laser welding method for high-precision stamping forging |
CN118090744B (en) * | 2024-04-22 | 2024-07-05 | 苏州萱辰自动化科技有限公司 | Workpiece defect identification method and detection system based on laser 3D layered detection |
-
2004
- 2004-09-06 JP JP2004258487A patent/JP4470659B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2006072913A (en) | 2006-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7512260B2 (en) | Substrate inspection method and apparatus | |
US7505149B2 (en) | Apparatus for surface inspection and method and apparatus for inspecting substrate | |
EP1675067A2 (en) | Image processing method, substrate inspection method, substrate inspection apparatus and method of generating substrate inspection data | |
US4894790A (en) | Input method for reference printed circuit board assembly data to an image processing printed circuit board assembly automatic inspection apparatus | |
EP1388738B1 (en) | Inspection data producing method and board inspection apparatus using the method | |
CN110838149B (en) | Camera light source automatic configuration method and system | |
JP2007184589A (en) | Substrate inspection method and substrate inspecting apparatus | |
JP4492356B2 (en) | Substrate inspection device, parameter setting method and parameter setting device | |
JP4470659B2 (en) | Model registration method for parts inspection and inspection data creation apparatus using this method | |
JP2010014530A (en) | Substrate visual inspection method and substrate visual inspecting device | |
JP3594026B2 (en) | Surface condition inspection method and substrate inspection device for curved body | |
JP2005128016A (en) | Inspection system and method | |
JP2023077054A (en) | Appearance inspection device and appearance inspection method | |
JP3599023B2 (en) | Solder inspection method and board inspection apparatus using this method | |
EP1314974B1 (en) | Method of inspecting curved surface and device for inspecting printed circuit board | |
JP4506395B2 (en) | Substrate inspection device, parameter setting method and parameter setting device | |
JP3622749B2 (en) | Curved surface property inspection method and substrate inspection apparatus using this method | |
JPH07306023A (en) | Shape measuring instrument, inspection device, and product manufacturing method | |
JPH11258178A (en) | Apparatus and method for inspection | |
JP2006284543A (en) | Method and device for inspecting mounted circuit board | |
JP4419778B2 (en) | Substrate inspection device, parameter setting method and parameter setting device | |
JPH09145334A (en) | Method and equipment for inspecting mounted device | |
JP3250335B2 (en) | Mounted parts inspection device | |
JP4858227B2 (en) | Inspection parameter setting support device, control program and control method thereof | |
JPH07107510B2 (en) | Substrate inspection device and substrate inspection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060824 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091022 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091027 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091204 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100209 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100222 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130312 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4470659 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140312 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |